La Commissione europea ha pubblicato il draft delle linee guida sugli obblighi di trasparenza dell’articolo 50 dell’AI Act. Per aziende del settore pharma, medtech, digital health e strutture sanitarie, la scadenza del 2 agosto 2026 richiede una verifica su sistemi interattivi, contenuti sintetici, deep fake e processi di labelling.
L’8 maggio 2026, la Commissione europea ha pubblicato il draft delle Guidelines on the implementation of the transparency obligations for certain AI systems under Article 50 of Regulation (EU) 2024/1689, aprendo una consultazione pubblica che si chiuderà il 3 giugno 2026. Il documento è stato rilasciato parallelamente al secondo draft del Code of Practice on marking and labelling of AI-generated content nonché a tre studi tecnici su soluzioni di marcatura e rilevamento di contenuti generati dall’IA.
Tre atti diversi con funzioni diversificate, ma una scadenza comune: il 2 agosto 2026, data in cui gli obblighi derivati dall’Articolo 50 dell’AI Act diventeranno direttamente applicabili in tutti gli Stati membri. Per aziende pharma, produttori di dispositivi medici, strutture sanitarie e software house nel settore digital health, restano poco meno di tre mesi per adeguarsi a questi nuovi requisiti.
Un sistema normativo a strati
Prima di entrare nel dettaglio, è importante chiarire un punto che genera spesso confusione: la Commissione Europea sta costruendo intorno all’Articolo 50 dell’AI Act un sistema regolatorio a strati — con atti di natura giuridica diversa e funzioni complementari. È fondamentale distinguerli fin da subito, perché generano effetti differenti e richiedono adempimenti distinti.
Sono da considerare inoltre due variabili ulteriori di attualità:
- Il pacchetto delle altre linee guida settoriali che la Commissione sta elaborando in parallelo, come quelle sulle pratiche vietate ex art. 5 (C(2025) 5052), quelle relative alla definizione di sistema di IA (C(2025) 5053) e quelle in preparazione sulla classificazione dei sistemi a rischio elevato e sull’interazione tra AI Act e protezione dati.
- Il Digital Omnibus on AI (COM(2025) 836), per cui è stato raggiunto un accordo politico ai trilateral negotiations il 7 maggio 2026. Il documento contempla un’eccezione volta a escludere determinati sistemi di IA generativa immessi sul mercato prima del 2 agosto 2026.
Obblighi chiaramente definiti
Le linee guida contengono quattro obblighi chiaramente delineati, ciascuno dedicato a una categoria diversa di sistemi o output.
- Paragrafo 1: richiede ai fornitori di sistemi di IA destinati a interagire con persone fisiche di progettare il sistema in modo da informare il soggetto che sta dialogando con una "macchina".
- Paragrafo 2: obbliga i fornitori di sistemi che generano o manipolano contenuti sintetici (come audio, immagini, video e testi) ad applicare marcature leggibili da macchine e a garantire la rilevabilità di tali contenuti.
- Paragrafo 3: richiede ai deployers di sistemi di riconoscimento delle emozioni e della categorizzazione biometrica di informare chi interagisce con essi.
- Paragrafo 4: richiede ai deployers di sistemi che generano deep fake o testi su argomenti di interesse pubblico di etichettare tali contenuti come artificialmente generati o manipolati.
In aggiunta ai quattro obblighi specifici, l’Articolo 50, paragrafo 5, dell’AI Act prevede una disciplina orizzontale: l’informazione deve essere fornita chiaramente, distinta rispetto al resto, il più tardi subito all'inizio dell'interazione. Tale informazione deve essere accessibile.
Applicazioni cumulative su diversi attori della catena
Gli obblighi descritti potranno applicarsi contemporaneamente sullo stesso sistema e coinvolgere soggetti diversi lungo la catena del valore. A titolo esemplificativo, un provider di un chatbot per il triage sanitario potrebbe essere tenuto a rispettare sia gli obblighi del paragrafo 1 (informare che si sta comunicando con un’IA) che quelli del paragrafo 2 (marcare l'output in modo leggibile per le macchine).
Questo medesimo sistema, integrato in una piattaforma di telematica utilizzata da un IRCCS, potrebbe rendere quest’ultimo obbligato, ai sensi del paragrafo 4, ad etichettare le comunicazioni rivolte ai pazienti.
Eccezioni di obviousness: casi particolari
Un punto cruciale affrontato dal draft è rappresentato dall’eccezione di obviousness, ovvero quando è palese per chiunque che si sta interagendo con una macchina. L’eccezione si applica solo quando l’interazione con un sistema di IA è palese per una persona razionale, informata, attenta e avveduta. Le linee guida si ispirano in parte al concetto di consumatore medio, utilizzato nell’ambito della protezione dei consumatori dell’UE, adattandolo al contesto specifico del pubblico destinatario.
Per il settore sanitario, il draft delinea due casi particolari:
- I sistemi dialogico-interattivi dedicati esclusivamente ad operatori sanitari opportunamente formati, utilizzati a supporto della diagnosi medica, rientrano nell’eccezione di obviousness. In questi casi, non è necessaria una notifica esplicita (esempio: chatbot per il triage tra professionisti).
- Al contrario, quando il sistema si rivolge anche solo potenzialmente al paziente, al caregiver o ad utenti vulnerabili, l’obbligo di trasparenza si applica pienamente. Il draft menziona espressamente sistemi come robot da compagnia AI progettati per riprodurre interazioni uomo-cane, avatar immersivi o chatbot integrati in piattaforme di telesanità dove l’output possa essere frainteso come umano.
Su questo punto, le linee guida sottolineano che, in contesti emotivamente sensibili (es. pazienti oncologici), dove possa emergere la formazione di legami artificiali (es. avatar terapeutici), si dovrà prevedere l’inserimento di reminder periodici e disclosure context-aware, non limitandosi a una mera notifica iniziale.
In generale, si rileva una particolare attenzione alle situazioni in cui può verificarsi una percezione alterata dei rapporti interpersonali, come quelle con anziani, bambini o altre persone a maggior rischio di confondersi tra contenuti reali e sintetici.