Con l’avvento della telemedicina, dell’intelligenza artificiale e della possibilità di condividere in modo sempre più fluido i dati sanitari in formato digitale, il panorama della responsabilità sanitaria sta cambiando in modo significativo, ponendo una quantità di interrogativi in attesa di risposta. Su questi temi si è incentrato un convegno organizzato dalla Fondazione Sanità Responsabile.

 

L’iniziativa, che ha ricevuto il patrocinio della FNOMCeO, della Fondazione ENPAM, della Società italiana di Medicina Legale e delle Assicurazioni SIMLA e del Consiglio dell’Ordine degli Avvocati di Roma, ha affrontato diverse questioni spinose legate alla responsabilità sanitaria nell’era digitale. Tra le domande sollevate: cosa succede se un medico commette un errore a distanza durante un consulto di telemedicina? E se un dispositivo che utilizza Intelligenza Artificiale produce una diagnosi sbagliata, come si valuta la responsabilità sanitaria secondo il quadro normativo attuale? Di chi è la responsabilità, del medico o della macchina e del suo produttore? Quali linee guida possono seguire i medici nel caso in cui il paziente subisca danni derivanti dall’utilizzo delle tecnologie da remoto?

 

Uno dei punti centrali dell’incontro è stata la pubblicazione delle linee guida per i servizi di telemedicina del Ministero della Salute, che segna un punto di svolta per l’accessibilità e la qualità dell’assistenza sanitaria digitale. Tuttavia, l’adozione della telemedicina pone questioni fondamentali di responsabilità professionale che richiedono un’attenta valutazione. La competenza clinica, l’infrastruttura tecnologica e la capacità del paziente di utilizzare efficacemente i dispositivi sono solo alcune delle aree che richiedono attenzione. L’avanzamento tecnologico sta trasformando le aspettative dei pazienti, facendo emergere la necessità di un framework normativo e deontologico chiaro e aggiornato.

 

Inoltre, è stato sottolineato l’importante ruolo dei sanitari come garanti della sicurezza e della qualità dell’assistenza, anche nell’era della digitalizzazione. Nonostante l’intelligenza artificiale possa essere di grande aiuto nel linguaggio e nell’analisi, la supervisione umana qualificata resta indispensabile e la responsabilità non può essere delegata alle macchine.

 

L’incontro ha visto la partecipazione di diverse figure professionali, tra cui avvocati, medici legali, esperti e docenti di risk management e sanità digitale.

 

La digitalizzazione sta rivoluzionando il modo in cui la sanità viene erogata, ma allo stesso tempo solleva interrogativi complessi sulla responsabilità professionale. È fondamentale che si continui a sviluppare un quadro normativo chiaro e aggiornato, in grado di affrontare le sfide derivanti dalla digitalizzazione della sanità. Solo così si potrà garantire una Sanità Digitale Responsabile che promuova la sicurezza e la qualità dell’assistenza medica.

 

Due casi emblematici sono stati presentati per evidenziare le problematiche che possono sorgere e le domande che si pongono in questi contesti.

 

Il primo caso riguarda un paziente ciclista di 62 anni con problemi cardiaci che accusa un malore durante una gita in bicicletta. Il personale della struttura ALFA richiede un parere del cardiologo della struttura BETA tramite teleconsulto, inviando un tracciato ECG. Il cardiologo esclude un evento ischemico acuto e suggerisce solo un monitoraggio seriale, senza trasferire il paziente in sala emodinamica. Successivamente, il paziente muore a causa di un tamponamento cardiaco secondario a dissezione aortica. Si innescano accuse reciproche tra le due strutture, mentre il caso evidenzia la problematica del teleconsulto e della distribuzione delle responsabilità. Chi deve fornire le informazioni necessarie e chi deve richiederle? Di chi sono le responsabilità gestionali e di applicazione? Quali saranno le posizioni legali dei medici coinvolti in caso di complicazioni per il paziente?

 

Il secondo caso riguarda un pensionato con una storia di tabagismo che si presenta dal medico con sintomi di un forte raffreddore. Inizialmente trattato come influenza, i sintomi peggiorano e una radiografia del torace rivela una fibrosi polmonare che non era mai stata comunicata al paziente. Una radiografia precedente aveva già evidenziato i primi segni della fibrosi, ma il referto non era stato consegnato al paziente né incluso nella sua cartella clinica. Le condizioni respiratorie del paziente si deteriorano rapidamente e porta alla sua morte. Questo caso evidenzia l’importanza della condivisione dei dati e di un Fascicolo Sanitario Elettronico (FSE) funzionante. Un FSE adeguato avrebbe potuto evitare questo decesso? Si pongono quindi interrogativi sulle responsabilità legate all’utilizzo dell’intelligenza artificiale e delle tecnologie innovative nel settore sanitario. È necessario analizzare e valutare i rischi, i limiti e le opportunità offerte da queste tecnologie per migliorare i servizi sanitari e garantire la sicurezza dei pazienti.

 

La normativa attuale prevede già alcune disposizioni relative all’utilizzo dell’intelligenza artificiale in ambito sanitario. Ad esempio, il Parlamento europeo ha approvato nel 2023 il regolamento AI Act sull’Intelligenza Artificiale che vincola tutti gli Stati membri e individua quattro livelli di rischio che devono essere affrontati con gli strumenti della prevenzione e del risk management. Inoltre, la Legge Gelli-Bianco del 2017 prevede già i rischi nell’esercizio della professione sanitaria e menziona la telemedicina. Tuttavia, la giurisprudenza avrà un ruolo fondamentale nel definire le responsabilità legate all’Intelligenza Artificiale, in modo da garantire la corretta scelta e l’affidabilità dei protocolli generati.

 

Tuttavia, progettare una normativa dettagliata e precisa nel campo dell’Intelligenza Artificiale potrebbe essere difficile per il legislatore. Pertanto, spetta alla giurisprudenza stabilire se l’uso dell’IA è stato corretto e affidabile nell’ambito sanitario. Sarà cruciale considerare chi ha sviluppato il sistema, quali dati sono stati utilizzati e quale base di popolazione è stata considerata. Solo rispondendo a queste domande si potrà valutare correttamente l’affidabilità dei giudizi espressi. Sarà quindi fondamentale affrontare il tema delle responsabilità legate all’Intelligenza Artificiale e garantire che i protocolli siano controllabili.