La Commissione europea ha pubblicato il draft delle linee guida sugli obblighi di trasparenza dell’articolo 50 dell’AI Act. Per aziende del settore pharma, medtech, digital health e strutture sanitarie, la scadenza del 2 agosto 2026 richiede una verifica su sistemi interattivi, contenuti sintetici, deep fake e processi di labelling.

L’8 maggio 2026, la Commissione europea ha pubblicato il draft delle Guidelines on the implementation of the transparency obligations for certain AI systems under Article 50 of Regulation (EU) 2024/1689, aprendo una consultazione pubblica che si chiuderà il 3 giugno 2026. Il documento è stato rilasciato parallelamente al secondo draft del Code of Practice on marking and labelling of AI-generated content nonché a tre studi tecnici su soluzioni di marcatura e rilevamento di contenuti generati dall’IA.

Tre atti diversi con funzioni diversificate, ma una scadenza comune: il 2 agosto 2026, data in cui gli obblighi derivati dall’Articolo 50 dell’AI Act diventeranno direttamente applicabili in tutti gli Stati membri. Per aziende pharma, produttori di dispositivi medici, strutture sanitarie e software house nel settore digital health, restano poco meno di tre mesi per adeguarsi a questi nuovi requisiti.

Un sistema normativo a strati

Prima di entrare nel dettaglio, è importante chiarire un punto che genera spesso confusione: la Commissione Europea sta costruendo intorno all’Articolo 50 dell’AI Act un sistema regolatorio a strati — con atti di natura giuridica diversa e funzioni complementari. È fondamentale distinguerli fin da subito, perché generano effetti differenti e richiedono adempimenti distinti.

Sono da considerare inoltre due variabili ulteriori di attualità:

Obblighi chiaramente definiti

Le linee guida contengono quattro obblighi chiaramente delineati, ciascuno dedicato a una categoria diversa di sistemi o output.

In aggiunta ai quattro obblighi specifici, l’Articolo 50, paragrafo 5, dell’AI Act prevede una disciplina orizzontale: l’informazione deve essere fornita chiaramente, distinta rispetto al resto, il più tardi subito all'inizio dell'interazione. Tale informazione deve essere accessibile.

Applicazioni cumulative su diversi attori della catena

Gli obblighi descritti potranno applicarsi contemporaneamente sullo stesso sistema e coinvolgere soggetti diversi lungo la catena del valore. A titolo esemplificativo, un provider di un chatbot per il triage sanitario potrebbe essere tenuto a rispettare sia gli obblighi del paragrafo 1 (informare che si sta comunicando con un’IA) che quelli del paragrafo 2 (marcare l'output in modo leggibile per le macchine).

Questo medesimo sistema, integrato in una piattaforma di telematica utilizzata da un IRCCS, potrebbe rendere quest’ultimo obbligato, ai sensi del paragrafo 4, ad etichettare le comunicazioni rivolte ai pazienti.

Eccezioni di obviousness: casi particolari

Un punto cruciale affrontato dal draft è rappresentato dall’eccezione di obviousness, ovvero quando è palese per chiunque che si sta interagendo con una macchina. L’eccezione si applica solo quando l’interazione con un sistema di IA è palese per una persona razionale, informata, attenta e avveduta. Le linee guida si ispirano in parte al concetto di consumatore medio, utilizzato nell’ambito della protezione dei consumatori dell’UE, adattandolo al contesto specifico del pubblico destinatario.

Per il settore sanitario, il draft delinea due casi particolari:

Su questo punto, le linee guida sottolineano che, in contesti emotivamente sensibili (es. pazienti oncologici), dove possa emergere la formazione di legami artificiali (es. avatar terapeutici), si dovrà prevedere l’inserimento di reminder periodici e disclosure context-aware, non limitandosi a una mera notifica iniziale.

In generale, si rileva una particolare attenzione alle situazioni in cui può verificarsi una percezione alterata dei rapporti interpersonali, come quelle con anziani, bambini o altre persone a maggior rischio di confondersi tra contenuti reali e sintetici.

Leggi l'articolo originale →