Un articolo che ho scritto per il numero di gennaio 2024 della rivista diretta da Alex Zanotelli.
“La sfida più grande di fronte all’IA è tornare ad interrogarci sulle molteplici dimensioni dell’intelligenza umana.“
L’intelligenza artificiale (IA) intesa come tecnologia in grado di svolgere compiti che si pensava richiedessero necessariamente l’intelligenza umana, è da tempo già presente direttamente o indirettamente nella vita di tutti i giorni della stragrande maggioranza della popolazione mondiale, attraverso algoritmi che ne monitorano le attività e ne regolano i consumi e altre scelte.
Si pensi semplicemente alla costante rilevazione e rielaborazione, il più delle volte a fini commerciali, ma anche di controllo sociale, di dati e informazioni – spesso molto sensibili – che scaturiscono dalle nostre comunicazioni, dai nostri spostamenti, dalle nostre preferenze e dalle molte altre attività, che trasmettiamo anche inconsciamente attraverso il telefono cellulare e altri dispositivi che di fatto indossiamo quotidianamente.
Ad oggi l’IA in uso è per lo più progettata per applicazioni e compiti specifici (IA debole). Il raggiungimento di una vera IA generale con la capacità di ragionare, comprendere il linguaggio naturale, imparare dall’esperienza ed eseguire qualsiasi compito intellettuale che un essere umano può svolgere (IA forte) rimane invece oggetto della ricerca in corso, ma costituisce probabilmente la più grande sfida in questo campo sul piano etico e sociale. In altre parole, anche i sistemi più avanzati, seppure capaci di apprendimento automatico (machine learning) e “profondo” basato su strati multipli di reti neuronali artificiali (deep-learning), operano ancora esclusivamente sulla base di dati e modelli statistici appresi durante l’addestramento.
L’impatto dell’IA sulla salute umana è senza dubbio uno dei più significativi. Con l’avanzare della tecnologia, si aprono nuove frontiere che promettono diagnosi più accurate, maggiore precisione e efficacia dei trattamenti medici e una gestione più efficace delle risorse sanitarie. Tuttavia, sorgono interrogativi tecnici, etici, legali e sociali su come garantire i diritti dei malati, l’uso appropriato delle informazioni acquisite e l’equo accesso alle cure in un contesto in cui l’IA gioca un ruolo sempre più centrale in sanità. Deve preoccupare anche l’impatto sulla salute che avrà l’IA attraverso il suo uso in una molteplicità di altri settori e determinanti della salute, quali informazione e comunicazione, educazione, alimentazione o ambiente.
Una delle principali promesse dell’IA in medicina riguarda la capacità di effettuare diagnosi precoci e personalizzate. I sistemi di apprendimento automatico possono analizzare i dati clinici del singolo individuo, ivi inclusi quelli di laboratorio e della diagnostica per immagini, e confrontandoli con enormi basi di dati e con le informazioni derivate dalla letteratura scientifica, identificare parametri e correlazioni difficilmente rilevabili anche dai professionisti più esperti, e comunque in tempi enormemente più brevi. In questo senso, analizzando algoritmi avanzati l’IA può facilitare la diagnosi differenziale tra diverse patologie, può permettere diagnosi più precoci di malattie, può consentire un approccio personalizzato alla terapia migliorandone l’efficacia, riducendo gli effetti collaterali e migliorando eventualmente anche la prognosi.
In chirurgia l’IA permette l’accurata pianificazione degli interventi tramite l’analisi delle immagini diagnostiche, come tomografie computerizzate e risonanze magnetiche, e la resa in 3D delle strutture anatomiche, mentre sistemi di chirurgia robotica supportati dall’IA consentono ai chirurghi di eseguire procedure complesse in modo più preciso anche a distanza.
L’IA ha permesso la migliore integrazione sociale di persone con gravi disabilità grazie a tecnologie di riconoscimento e sintesi vocale e visiva, comunicazione aumentata e alternativa, visione computerizzata e interazione con protesi robotiche, solo per fare alcuni esempi.
Nell’assistenza sanitaria di base l’IA permette sistemi di monitoraggio continuo e assistenza remota. Dispositivi intelligenti possono raccogliere dati in tempo reale sui pazienti e generare risposte adattate in tempo reale alle situazioni emergenti, dalla dosificazione e somministrazione automatizzata di farmaci al controllo e l’intervento a distanza. Un approccio che si ritiene possa ridurre il ricorso alle cure ospedaliere e migliorare la qualità della vita dei pazienti cronici.
Nella gestione dei servizi sanitari IA può aiutare nell’esecuzione di compiti amministrativi e nel prendere decisioni basata sull’analisi dei dati prodotti ai diversi livelli del sistema sei servizi (territorio, ospedali, etc.). L’IA permette anche di analizzare grandi moli di dati epidemiologici da fonti molto diverse tra loro e trarne indicazioni di politica e indirizzo sanitario, spostando
l’attenzione dalla terapia alla prevenzione.
Anche la scoperta di nuovi farmaci può trarre vantaggio dall’IA, per esempio suggerendo composti potenziali attraverso l’analisi di database molecolari e la previsione dell’attività biologica. Allo stesso modo, mediante l’IA la ricerca e la generazione di informazione scientifica può avvalersi di vaste e complesse analisi clinico-statistiche quantitative che combinano i dati di studi condotti su di uno stesso argomento (meta-analisi) usando pressoché la totalità delle informazioni presenti in rete.
Tuttavia, a fronte delle capacità attuali dei sistemi di IA e quelle potenziali derivanti dal loro sempre più rapido sviluppo – legata alla capacità “generativa” dell’IA – emergono nuove sfide tecniche, etiche, legali e sociali.
Nell’immediato vanno ancora affrontate sfide tecniche relative alla quantità, qualità e interpretabilità dei dati. Per la sua proprietà generativa l’IA può arrivare a produrre dati verosimili, ma non reali; come se fossero sintetizzati in laboratorio, inducendo poi decisioni errate o, ad analoghe deviazioni, che potrebbe essere molto difficile verificare o controllare. Comprendere come e perché un modello prende determinate decisioni è cruciale, specialmente in applicazioni critiche come la sanità. Assicurare che l’IA sia affidabile anche in presenza di dati “rumorosi” o malfunzionamenti è fondamentale, particolarmente quando gli errori possono avere conseguenze drammatiche come in medicina. Anche nella sola raccolta dei dati l’IA può introdurre deviazioni portando a decisioni non equilibrate o discriminatorie, compromettendo l’equità della risposta. Infatti, l’IA viene addestrata su grandi insiemi di dati e molti di questi possono essere stati creati sulla base di sottoinsiemi della popolazione, escludendo le popolazioni emarginate o quelle di gruppi etnici o linguistici minoritari. Inoltre, se per l’addestramento si fa riferimento a particolari norme sociali, ignorando i pregiudizi sottostanti gli algoritmi risultanti possono essere distorti e discriminatori.
La diffusa interazione dinamica tra la popolazione e i sistemi di IA attraverso chatbots e assistenti virtuali sempre più sofisticati e interfacce umanizzate, nel linguaggio, nella vocalizzazione e nell’immagine, porta a nuove problematiche sociali. Da un lato alla tendenza all’automedicazione senza il filtro critico della conoscenza e la sensibilità del professionista, dall’altro anche al potenziale isolamento sociale della persona sofferente, privando le persone della connessione umana e della comprensione empatica che i professionisti della salute e i rapporti interpersonali dovrebbero offrire e che, di per sé terapeutiche, sono da secoli un elemento fondamentale del processo di cura.
La sostenibilità economica delle nuove tecnologie introduce la sfida dell’accessibilità. È facile immaginare infatti che le persone e le comunità svantaggiate ne saranno escluse, incrementando le disparità di accesso all’assistenza e alle cure, in particolare nel contesto della crescente privatizzazione e commercializzazione dei sistemi sanitari, con un mercato dell’IA in sanità che Research and Market prevede che passi da 6,9 miliardi di dollari del 2021 a 67,4 miliardi di dollari ne 2027.
Parlando di sostenibilità non possiamo non considerare le conseguenze sulla salute dell’impatto ambientale legato allo sviluppo, la manutenzione e lo smaltimento delle tecnologie di IA. Il solo addestramento di un modello di IA, utilizzando le attuali fonti energetiche, produce emissioni di CO2 circa sei volte superiore a quelle legate alla produzione e al consumo di un’automobile durante la vita media del veicolo. I rifiuti elettronici prodotti dalla tecnologia AI rappresentano un’ulteriore sfida ambientale e per la salute umana. I rifiuti elettronici contengono sostanze chimiche pericolose, tra cui piombo, mercurio e cadmio, che possono contaminare il suolo e le riserve idriche e mettere in pericolo la salute umana e l’ambiente.
La gestione di informazioni e dati sensibili come quelli bio-medici e comportamentali solleva questioni riguardo alla riservatezza e alla sicurezza dei dati personali, ivi inclusi dati genetici, biometrici e sensibili informazioni sanitarie. In particolare in considerazione del fatto che gli investimenti sull’IA provengono dalle grandi industrie tecnologiche e dal settore privato e rispondono ai loro obiettivi commerciali e di controllo del Mercato, diviene essenziale controllare le finalità e la trasparenza dei processi decisionali attuati sulla base di algoritmi. Più in generale, l’industria digitale controlla l’informazione che circola nelle reti sociali, esercitando la censura delle informazioni che non considera convenienti, come avvenuto su larga scala durante la recente pandemia. Per altri versi, regimi autoritari possono usare l’IA per un pervasivo controllo sociale.
Il consenso informato è un elemento critico per garantire che i pazienti siano consapevoli e d’accordo con l’impiego di tecnologie avanzate nel proprio percorso di cura. I principi del consenso informato si basano generalmente su un approccio lineare alla raccolta, all’accesso e all’uso dei dati, in cui esiste una mappatura trasparente tra l’uso dei dati e dove e come sono stati raccolti. Data l’espansione esponenziale dell’IA e la sua incursione in usi imprevisti, un consenso realmente informato è quasi impossibile da raggiungere.
Il crescente utilizzo di IA in medicina rischia di disumanizzare l’assistenza, aumentando la già elevata meccanicizzazione e spersonalizzazione delle cure determinate dall’iperspecializzazione e l’approccio tecnocratico alla salute. In questo senso si apre anche un’enorme questione etica circa la responsabilità delle decisioni prese dai sistemi di IA. Chi risponde degli errori “algoritmici” di diagnosi o trattamento?
Dal punto di vista legale si apre anche un nuovo fronte in relazione alla proprietà intellettuale e al controllo degli algoritmi, delle tecnologie e dei prodotti dell’IA, temi che necessariamente si riversano sui costi e quindi sull’accesso alle cure mediate da quei prodotti.
Ad oggi manca un regolamentazione dei temi descritti. Un primo passo in questa direzione è rappresentato dall’accordo raggiunto in seno alle Istituzioni dell’UE il 9 dicembre 2023, su di un progetto di regolamento in tema di intelligenza artificiale (IA), che mira a garantire che i sistemi di IA utilizzati nell’UE siano sicuri e rispettino i diritti fondamentali e i valori dell’UE. Ma la strada da percorrere è ancora molto lunga e soprattutto l’evoluzione dei sistemi di IA è talmente rapida che qualsiasi regolamento rischia di nascere obsoleto.
Possiamo solo immaginare la trasformazione epocale e le sfide che potrebbero derivare dallo sviluppo di sistemi di IA generale o “forte”, capace di interpretare il contesto, di sviluppare ragionamento e pensiero astratto, di affrontare questioni e prendere decisioni su base etica o di avere consapevolezza di sé. Giungerà il momento in cui la macchina sarà capace di intelligenza artificiale emotiva e di interagire con le emozioni e le sensibilità umane fino ad essere integrata nel divenire umano? E saremo in grado come società globalizzata di stabilire, anche per la sperimentazione, un limite invalicabile della natura “umana”? O dovremo invocare da “apprendisti stregoni” l’intervento salvifico del Maestro? Ben al di là della fin troppo celebrata manipolazione dei meccanismi biologici e fisiopatologici che producono la malattia, più o meno mediata da applicativi dell’IA, lavorare per la salute è riscoprirne la componente sociale, la collocazione dell’Umano nel più ampio contesto della Natura, dell’ecosistema di cui siamo divenuti componente predatoria e autodistruttiva. Lavorare per la salute è impegnarsi nell’incontro, nella solidarietà, nella comprensione e nel dono di sé, sia nella comunità che nella relazione tra terapeuta e persona sofferente, sviluppando persino la capacità di sintonia nella dimensione trascendentale, spirituale. Forse la sfida più grande di fronte all’IA è proprio questa, tornare ad interrogarci sulle molteplici dimensioni dell’intelligenza umana.