La produzione normativa avente riguardo allo sviluppo e all’applicazione dei sistemi di intelligenza artificiale (AI) è in costante aumento, principalmente per regolamentare temi delicati e potenzialmente invasivi. L’ambito sanitario è uno dei contesti maggiormente interessati, per il cui sviluppo il Comitato Nazionale per la Bioetica (CNB) ha giocato un ruolo cruciale con i propri pareri.
Il contesto storico e le implicazioni giuridiche
Il parere congiunto CNB–CNBBSV del 29 maggio 2020 “Intelligenza artificiale e medicina: aspetti etici” rimane un riferimento fondamentale, sebbene oggi debba essere reinterpretato alla luce di nuove normative come l’AI Act e l’European Health Data Space (EHDS). Questo documento, pur non avendo efficacia normativa diretta, ha anticipato molti dei problemi oggi formalizzati dal diritto positivo.
Il CNB, nel suo parere del 2026, riconosce esplicitamente che lo scenario sanitario è mutato profondamente. L’ingresso dell’AI nella relazione di cura non è una semplice innovazione, ma una “discontinuità epistemica ed organizzativa”, che modifica radicalmente la decisione clinica e la governance.
Cinque intuizioni chiave: il valore persistente del 2020
Il parere del 2020 ha individuato alcuni nuclei problematici che oggi restano centrali:
- La necessità di ridefinire il concetto di consenso informato in contesti algoritmici.
- La responsabilità professionale e i limiti dell’uso dell’IA in decisioni cliniche.
- La trasparenza e la tracciabilità delle tecnologie di AI.
- La gestione della vulnerabilità dei pazienti di fronte a sistemi non interpretabili.
- La regolamentazione dei dati sanitari e la protezione della privacy.
La svolta del parere del 2026: da filosofia a prassi operativa
Nel testo pubblicato il 27 febbraio 2026, il CNB ha spostato il baricentro dell’analisi dalla bioetica alle concrete esigenze di governance clinica. L’obiettivo è chiaro: passare da un’etica generale all’applicazione pratica dell’intelligenza artificiale.
Il primo punto rilevante del 2026 è il riconoscimento che l’AI non è solo un strumento, ma un fattore che modifica la struttura decisionale. Gli algoritmi influenzano direttamente la scelta terapeutica, richiedendo una ridefinizione della responsabilità medica e una nuova gestione del rischio.
Il secondo asse riguarda la distinzione tra due tipi di utilizzo dell’AI:
- Il supporto diretto alla diagnosi: qui l’algoritmo incide sulla decisione clinica e richiede un consenso esplicito e tracciabile.
- L’uso come strumento integrativo o di monitoraggio: qui l’informazione deve calibrarsi sul percorso complessivo del paziente.
Per entrambi questi approcci, il CNB propone tre elementi minimi per il consenso informato:
- Informazione chiara sull’utilizzo di sistemi di AI.
- Dettaglio sul ruolo preciso dell’algoritmo nel processo decisionale.
- Spiegazione della natura probabilistica dei risultati.
Rifiuto del consenso formalistico
Il terzo asse del parere 2026 rigetta un modello di consenso meccanico. Il CNB sottolinea che non è sufficiente spiegare tecnologicamente sistemi complessi: si richiede una comunicazione adattata alla vulnerabilità del paziente, evitando di violare il segreto industriale ma garantendo informazioni utili ai fini della decisione.
Doppio rischio responsabile
Il quarto punto evidenzia due rischi principali nella responsabilità professionale:
- Il bias automatizzato: l’adesione acritica agli output algoritmici senza valutazione contestuale.
- Il rifiuto ingiustificato di suggerimenti di sistemi validati, che possono diventare fonti di responsabilità se trascurati.
Secondo il CNB, il medico non è responsabile solo della decisione, ma anche della modalità di interazione con l’AI: l’uso dello strumento deve essere critico, consapevole e governabile.
Il quadro normativo europeo: AI Act e EHDS
Come evidenziato dal Regol