{"id":3024,"date":"2024-01-02T18:25:55","date_gmt":"2024-01-02T18:25:55","guid":{"rendered":"https:\/\/eduardomissoni.info\/?p=3024"},"modified":"2024-02-03T23:27:07","modified_gmt":"2024-02-03T23:27:07","slug":"le-nuove-frontiere-dellintelligenza-artificiale-e-la-salute","status":"publish","type":"post","link":"https:\/\/eduardomissoni.info\/?p=3024","title":{"rendered":"Le nuove frontiere dell\u2019intelligenza artificiale e la salute"},"content":{"rendered":"\n<div class=\"wp-block-media-text alignwide is-stacked-on-mobile\" style=\"grid-template-columns:59% auto\"><figure class=\"wp-block-media-text__media\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"370\" src=\"https:\/\/eduardomissoni.info\/wp-content\/uploads\/20240100-Mosaico-di-Pace-1024x370.jpg\" alt=\"\" class=\"wp-image-3020 size-full\" srcset=\"https:\/\/eduardomissoni.info\/wp-content\/uploads\/20240100-Mosaico-di-Pace-1024x370.jpg 1024w, https:\/\/eduardomissoni.info\/wp-content\/uploads\/20240100-Mosaico-di-Pace-300x108.jpg 300w, https:\/\/eduardomissoni.info\/wp-content\/uploads\/20240100-Mosaico-di-Pace-768x277.jpg 768w, https:\/\/eduardomissoni.info\/wp-content\/uploads\/20240100-Mosaico-di-Pace-1536x555.jpg 1536w, https:\/\/eduardomissoni.info\/wp-content\/uploads\/20240100-Mosaico-di-Pace.jpg 1866w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><div class=\"wp-block-media-text__content\">\n<p><em>Un articolo che ho scritto per il numero di gennaio 2024 della rivista diretta da Alex Zanotelli. <\/em><\/p>\n\n\n\n<p>&#8220;<strong>La sfida pi\u00f9 grande di fronte all\u2019IA \u00e8 tornare ad interrogarci sulle molteplici dimensioni dell\u2019intelligenza umana.<\/strong>&#8220;<\/p>\n<\/div><\/div>\n\n\n\n<div class=\"wp-block-media-text alignwide is-stacked-on-mobile\" style=\"grid-template-columns:52% auto\"><figure class=\"wp-block-media-text__media\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"572\" src=\"https:\/\/eduardomissoni.info\/wp-content\/uploads\/image-9-1024x572.png\" alt=\"\" class=\"wp-image-3021 size-full\" srcset=\"https:\/\/eduardomissoni.info\/wp-content\/uploads\/image-9-1024x572.png 1024w, https:\/\/eduardomissoni.info\/wp-content\/uploads\/image-9-300x168.png 300w, https:\/\/eduardomissoni.info\/wp-content\/uploads\/image-9-768x429.png 768w, https:\/\/eduardomissoni.info\/wp-content\/uploads\/image-9.png 1124w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><div class=\"wp-block-media-text__content\">\n<p>L&#8217;intelligenza artificiale (IA) intesa come tecnologia in grado di svolgere compiti che si pensava richiedessero necessariamente l&#8217;intelligenza umana, \u00e8 da tempo gi\u00e0 presente direttamente o indirettamente nella vita di tutti i giorni della stragrande maggioranza della popolazione mondiale, attraverso algoritmi che ne monitorano le attivit\u00e0 e ne regolano i consumi e altre scelte.<\/p>\n<\/div><\/div>\n\n\n\n<p>Si pensi semplicemente alla costante rilevazione e rielaborazione, il pi\u00f9 delle volte a fini commerciali, ma anche di controllo sociale, di dati e informazioni &#8211; spesso molto sensibili &#8211; che scaturiscono dalle nostre comunicazioni, dai nostri spostamenti, dalle nostre preferenze e dalle molte altre attivit\u00e0, che trasmettiamo anche inconsciamente attraverso il telefono cellulare e altri dispositivi che di fatto indossiamo quotidianamente.<\/p>\n\n\n\n<p>Ad oggi l\u2019IA in uso \u00e8 per lo pi\u00f9 progettata per applicazioni e compiti specifici (<em>IA debole<\/em>). Il raggiungimento di una vera IA generale con la capacit\u00e0 di ragionare, comprendere il linguaggio naturale, imparare dall&#8217;esperienza ed eseguire qualsiasi compito intellettuale che un essere umano pu\u00f2 svolgere (<em>IA forte<\/em>) rimane invece oggetto della ricerca in corso, ma costituisce probabilmente la pi\u00f9 grande sfida in questo campo sul piano etico e sociale. In altre parole, anche i sistemi pi\u00f9 avanzati, seppure capaci di apprendimento automatico (<em>machine learning<\/em>) e \u201cprofondo\u201d basato su strati multipli di reti neuronali artificiali (<em>deep-learning<\/em>), operano ancora esclusivamente sulla base di dati e modelli statistici appresi durante l&#8217;addestramento.<\/p>\n\n\n\n<p>L&#8217;impatto dell\u2019IA sulla salute umana \u00e8 senza dubbio uno dei pi\u00f9 significativi. Con l&#8217;avanzare della tecnologia, si aprono nuove frontiere che promettono diagnosi pi\u00f9 accurate, maggiore precisione e efficacia dei trattamenti medici e una gestione pi\u00f9 efficace delle risorse sanitarie. Tuttavia, sorgono interrogativi tecnici, etici, legali e sociali su come garantire i diritti dei malati, l\u2019uso appropriato delle informazioni acquisite e l&#8217;equo accesso alle cure in un contesto in cui l&#8217;IA gioca un ruolo sempre pi\u00f9 centrale in sanit\u00e0. Deve preoccupare anche l\u2019impatto sulla salute che avr\u00e0 l\u2019IA attraverso il suo uso in una molteplicit\u00e0 di altri settori e determinanti della salute, quali informazione e comunicazione, educazione, alimentazione o ambiente.<\/p>\n\n\n\n<p>Una delle principali promesse dell&#8217;IA in medicina riguarda la capacit\u00e0 di effettuare diagnosi precoci e personalizzate. I sistemi di apprendimento automatico possono analizzare i dati clinici del singolo individuo, ivi inclusi quelli di laboratorio e della diagnostica per immagini, e confrontandoli con enormi basi di dati e con le informazioni derivate dalla letteratura scientifica,&nbsp; identificare parametri e correlazioni difficilmente rilevabili anche dai professionisti pi\u00f9 esperti, e comunque in tempi enormemente pi\u00f9 brevi. In questo senso, analizzando algoritmi avanzati l\u2019IA pu\u00f2 facilitare la diagnosi differenziale tra diverse patologie, pu\u00f2 permettere diagnosi pi\u00f9 precoci di malattie, pu\u00f2 consentire un approccio personalizzato alla terapia migliorandone l&#8217;efficacia, riducendo gli effetti collaterali e migliorando eventualmente anche la prognosi.<\/p>\n\n\n\n<p>In chirurgia l\u2019IA permette l\u2019accurata pianificazione degli interventi tramite l\u2019analisi delle immagini diagnostiche, come tomografie computerizzate e risonanze magnetiche, e la resa in 3D delle strutture anatomiche, mentre sistemi di chirurgia robotica supportati dall&#8217;IA consentono ai chirurghi di eseguire procedure complesse in modo pi\u00f9 preciso anche a distanza.<\/p>\n\n\n\n<p>L\u2019IA ha permesso la migliore integrazione sociale di persone con gravi disabilit\u00e0 grazie a tecnologie di riconoscimento e sintesi vocale e visiva, comunicazione aumentata e alternativa, visione computerizzata e interazione con protesi robotiche, solo per fare alcuni esempi.<\/p>\n\n\n\n<p>Nell\u2019assistenza sanitaria di base l\u2019IA permette sistemi di monitoraggio continuo e assistenza remota. Dispositivi intelligenti possono raccogliere dati in tempo reale sui pazienti e generare risposte adattate in tempo reale alle situazioni emergenti, dalla dosificazione e somministrazione automatizzata di farmaci al controllo e l\u2019intervento a distanza. Un approccio che si ritiene possa ridurre il ricorso alle cure ospedaliere e migliorare la qualit\u00e0 della vita dei pazienti cronici.<\/p>\n\n\n\n<p>Nella gestione dei servizi sanitari IA pu\u00f2 aiutare nell\u2019esecuzione di compiti amministrativi e nel prendere decisioni basata sull\u2019analisi dei dati prodotti ai diversi livelli del sistema sei servizi (territorio, ospedali, etc.). L\u2019IA permette anche di analizzare grandi moli di dati epidemiologici da fonti molto diverse tra loro e trarne indicazioni di politica e indirizzo sanitario, spostando<\/p>\n\n\n\n<p>l&#8217;attenzione dalla terapia alla prevenzione.<\/p>\n\n\n\n<p>Anche la scoperta di nuovi farmaci pu\u00f2 trarre vantaggio dall\u2019IA, per esempio suggerendo composti potenziali attraverso l&#8217;analisi di database molecolari e la previsione dell&#8217;attivit\u00e0 biologica. Allo stesso modo, mediante l\u2019IA la ricerca e la generazione di informazione scientifica pu\u00f2 avvalersi di vaste e complesse analisi clinico-statistiche quantitative che combinano i dati di studi condotti su di uno stesso argomento (meta-analisi) usando pressoch\u00e9 la totalit\u00e0 delle informazioni presenti in rete.<\/p>\n\n\n\n<p>Tuttavia, a fronte delle capacit\u00e0 attuali dei sistemi di IA e quelle potenziali derivanti dal loro sempre pi\u00f9 rapido sviluppo \u2013 legata alla capacit\u00e0 \u201cgenerativa\u201d dell\u2019IA &#8211; emergono nuove sfide tecniche, etiche, legali e sociali.<\/p>\n\n\n\n<p>Nell\u2019immediato vanno ancora affrontate sfide tecniche relative alla quantit\u00e0, qualit\u00e0 e interpretabilit\u00e0 dei dati. Per la sua propriet\u00e0 generativa l\u2019IA pu\u00f2 arrivare a produrre dati verosimili, ma non reali; come se fossero sintetizzati in laboratorio, inducendo poi decisioni errate o, ad analoghe deviazioni, che potrebbe essere molto difficile verificare o controllare. Comprendere come e perch\u00e9 un modello prende determinate decisioni \u00e8 cruciale, specialmente in applicazioni critiche come la sanit\u00e0. Assicurare che l&#8217;IA sia affidabile anche in presenza di dati \u201crumorosi\u201d o malfunzionamenti \u00e8 fondamentale, particolarmente quando gli errori possono avere conseguenze drammatiche come in medicina. Anche nella sola raccolta dei dati l\u2019IA pu\u00f2 introdurre deviazioni portando a decisioni non equilibrate o discriminatorie, compromettendo l\u2019equit\u00e0 della risposta. Infatti, l\u2019IA viene addestrata su grandi insiemi di dati e molti di questi possono essere stati creati sulla base di sottoinsiemi della popolazione, escludendo le popolazioni emarginate o quelle di gruppi etnici o linguistici minoritari. Inoltre, se per l&#8217;addestramento si fa riferimento a particolari norme sociali, ignorando i pregiudizi sottostanti gli algoritmi risultanti possono essere distorti e discriminatori.<\/p>\n\n\n\n<p>La diffusa interazione dinamica tra la popolazione e i sistemi di IA attraverso chatbots e assistenti virtuali sempre pi\u00f9 sofisticati e interfacce umanizzate, nel linguaggio, nella vocalizzazione e nell\u2019immagine, porta a nuove problematiche sociali. Da un lato alla tendenza all\u2019automedicazione senza il filtro critico della conoscenza e la sensibilit\u00e0 del professionista, dall\u2019altro anche al potenziale isolamento sociale della persona sofferente, privando le persone della connessione umana e della comprensione empatica che i professionisti della salute e i rapporti interpersonali dovrebbero offrire e che, di per s\u00e9 terapeutiche, sono da secoli un elemento fondamentale del processo di cura.<\/p>\n\n\n\n<p>La sostenibilit\u00e0 economica delle nuove tecnologie introduce la sfida dell&#8217;accessibilit\u00e0. \u00c8 facile immaginare infatti che le persone e le comunit\u00e0 svantaggiate ne saranno escluse, incrementando le disparit\u00e0 di accesso all\u2019assistenza e alle cure, in particolare nel contesto della crescente privatizzazione e commercializzazione dei sistemi sanitari, con un mercato dell\u2019IA in sanit\u00e0 che <em>Research and Market<\/em> prevede che passi da 6,9 miliardi di dollari del 2021 a 67,4 miliardi di dollari ne 2027.<\/p>\n\n\n\n<p>Parlando di sostenibilit\u00e0 non possiamo non considerare le conseguenze sulla salute dell\u2019impatto ambientale legato allo sviluppo, la manutenzione e lo smaltimento delle tecnologie di IA. Il solo addestramento di un modello di IA, utilizzando le attuali fonti energetiche, produce emissioni di CO<sub>2<\/sub> circa sei volte superiore a quelle legate alla produzione e al consumo di un\u2019automobile durante la vita media del veicolo. I rifiuti elettronici prodotti dalla tecnologia AI rappresentano un\u2019ulteriore sfida ambientale e per la salute umana. I rifiuti elettronici contengono sostanze chimiche pericolose, tra cui piombo, mercurio e cadmio, che possono contaminare il suolo e le riserve idriche e mettere in pericolo la salute umana e l&#8217;ambiente.<\/p>\n\n\n\n<p>La gestione di informazioni e dati sensibili come quelli bio-medici e comportamentali solleva questioni riguardo alla riservatezza e alla sicurezza dei dati personali, ivi inclusi dati genetici, biometrici e sensibili informazioni sanitarie. In particolare in considerazione del fatto che gli investimenti sull\u2019IA provengono dalle grandi industrie tecnologiche e dal settore privato e rispondono ai loro obiettivi commerciali e di controllo del Mercato, diviene essenziale controllare le finalit\u00e0 e la trasparenza dei processi decisionali attuati sulla base di algoritmi. Pi\u00f9 in generale, l\u2019industria digitale controlla l\u2019informazione che circola nelle reti sociali, esercitando la censura delle informazioni che non considera convenienti, come avvenuto su larga scala durante la recente pandemia. Per altri versi, regimi autoritari possono usare l\u2019IA per un pervasivo controllo sociale.<\/p>\n\n\n\n<p>Il consenso informato \u00e8 un elemento critico per garantire che i pazienti siano consapevoli e d&#8217;accordo con l&#8217;impiego di tecnologie avanzate nel proprio percorso di cura. I principi del consenso informato si basano generalmente su un approccio lineare alla raccolta, all&#8217;accesso e all&#8217;uso dei dati, in cui esiste una mappatura trasparente tra l&#8217;uso dei dati e dove e come sono stati raccolti. Data l&#8217;espansione esponenziale dell&#8217;IA e la sua incursione in usi imprevisti, un consenso realmente informato \u00e8 quasi impossibile da raggiungere.<\/p>\n\n\n\n<p>Il crescente utilizzo di IA in medicina rischia di disumanizzare l\u2019assistenza, aumentando la gi\u00e0 elevata meccanicizzazione e spersonalizzazione delle cure determinate dall\u2019iperspecializzazione e l\u2019approccio tecnocratico alla salute. In questo senso si apre anche un\u2019enorme questione etica circa la responsabilit\u00e0 delle decisioni prese dai sistemi di IA. Chi risponde degli errori \u201calgoritmici\u201d di diagnosi o trattamento?<\/p>\n\n\n\n<p>Dal punto di vista legale si apre anche un nuovo fronte in relazione alla propriet\u00e0 intellettuale e al controllo degli algoritmi, delle tecnologie e dei prodotti dell\u2019IA, temi che necessariamente si riversano sui costi e quindi sull\u2019accesso alle cure mediate da quei prodotti.&nbsp;<\/p>\n\n\n\n<p>Ad oggi manca un regolamentazione dei temi descritti. Un primo passo in questa direzione \u00e8 rappresentato dall\u2019accordo raggiunto in seno alle Istituzioni dell\u2019UE il 9 dicembre 2023, su di un &nbsp;progetto di regolamento in tema di intelligenza artificiale (IA), che mira a garantire che i sistemi di IA utilizzati nell&#8217;UE siano sicuri e rispettino i diritti fondamentali e i valori dell&#8217;UE. Ma la strada da percorrere \u00e8 ancora molto lunga e soprattutto l\u2019evoluzione dei sistemi di IA \u00e8 talmente rapida che qualsiasi regolamento rischia di nascere obsoleto.<\/p>\n\n\n\n<p>Possiamo solo immaginare la trasformazione epocale e le sfide che potrebbero derivare dallo sviluppo di sistemi di IA generale o \u201cforte\u201d, capace di interpretare il contesto, di sviluppare ragionamento e pensiero astratto, di affrontare questioni e prendere decisioni su base etica o di avere consapevolezza di s\u00e9. Giunger\u00e0 il momento in cui la macchina sar\u00e0 capace di intelligenza artificiale emotiva e di interagire con le emozioni e le sensibilit\u00e0 umane fino ad essere integrata nel divenire umano? E saremo in grado come societ\u00e0 globalizzata di stabilire, anche per la sperimentazione, un limite invalicabile della natura \u201cumana\u201d? O dovremo invocare da \u201capprendisti stregoni\u201d l\u2019intervento salvifico del Maestro? Ben al di l\u00e0 della fin troppo celebrata manipolazione dei meccanismi biologici e fisiopatologici che producono la malattia, pi\u00f9 o meno mediata da applicativi dell\u2019IA,<strong> lavorare per la salute \u00e8 riscoprirne la componente sociale, la collocazione dell\u2019Umano nel pi\u00f9 ampio contesto della Natura, dell\u2019ecosistema di cui siamo divenuti componente predatoria e autodistruttiva. Lavorare per la salute \u00e8 impegnarsi nell\u2019incontro, nella solidariet\u00e0, nella comprensione e nel dono di s\u00e9, sia nella comunit\u00e0 che nella relazione tra terapeuta e persona sofferente, sviluppando persino la capacit\u00e0 di sintonia nella dimensione trascendentale, spirituale<\/strong>. Forse <strong>la sfida pi\u00f9 grande di fronte all\u2019IA \u00e8 proprio questa, tornare ad interrogarci sulle molteplici dimensioni dell\u2019intelligenza umana.<\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Un articolo che ho scritto per il numero di gennaio 2024 della rivista diretta da Alex Zanotelli. &#8220;La sfida pi\u00f9 grande di fronte all\u2019IA \u00e8 tornare ad interrogarci sulle molteplici dimensioni dell\u2019intelligenza umana.&#8220; L&#8217;intelligenza artificiale (IA) intesa come tecnologia in &hellip; <a href=\"https:\/\/eduardomissoni.info\/?p=3024\">Continua a leggere<span class=\"meta-nav\">&rarr;<\/span><\/a><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[98,18,48],"tags":[26,277,276,278],"class_list":["post-3024","post","type-post","status-publish","format-standard","hentry","category-etica","category-salute-globale-2","category-sviluppo-2","tag-determinanti-sociali","tag-ia","tag-intelligenza-artificiale","tag-salute-digitale"],"_links":{"self":[{"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=\/wp\/v2\/posts\/3024","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=3024"}],"version-history":[{"count":1,"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=\/wp\/v2\/posts\/3024\/revisions"}],"predecessor-version":[{"id":3025,"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=\/wp\/v2\/posts\/3024\/revisions\/3025"}],"wp:attachment":[{"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=3024"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=3024"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/eduardomissoni.info\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=3024"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}