Ultimo aggiornamento alle 21:41
Corriere della Calabria - Home

I nostri canali


Si legge in: 17 minuti
Cambia colore:
 

la lente di emiliano

Così l’intelligenza artificiale rivoluziona il settore medico-sanitario calabrese

Il capo della delegazione governativa sulla Ai, Greco: «Un gruppo di ricerca dell’Unical lavora ai progetti “Stroke 5.0″ e “Radioamica”

Pubblicato il: 05/01/2024 – 7:00
di Emiliano Morrone
Così l’intelligenza artificiale rivoluziona il settore medico-sanitario calabrese

COSENZA Accademico conosciuto nel mondo, Gianluigi Greco presiede il comitato di esperti voluto dal governo italiano per definire la strategia nazionale sullo sviluppo dell’Intelligenza Artificiale, di cui si parlerà nel G7 del prossimo giugno, previsto a Fasano (Brindisi). Ordinario di Informatica nell’Università della Calabria, lo studioso ha 46 anni, dirige il dipartimento di Matematica e Informatica dello stesso ateneo, guida l’Associazione italiana per l’Intelligenza Artificiale ed è membro del consiglio direttivo della Società italiana per l’etica dell’Intelligenza Artificiale. Con Greco, oggi discutiamo della storia dell’Intelligenza Artificiale; delle sue caratteristiche, applicazioni e potenzialità; dello stato della relativa ricerca – in Calabria dedicata, tra l’altro, alla cura dello stroke e dei tumori – e del rapporto fra le macchine e l’uomo in questo specifico ambito della conoscenza. Nell’intervista, che vale la pena leggere per intero, emergono anche: la differenza fra pensiero veloce e pensiero lento; la necessità di un programma pubblico che educhi alla cittadinanza digitale; il ruolo centrale della creatività umana e l’importanza, per il futuro comune, di formare una solida capacità di interazione tra il singolo e i nuovi strumenti tecnologici.

Ne parlano in tanti ed è rientrata anche nel discorso di fine anno del Capo dello Stato. Che cosa è l’Intelligenza Artificiale?

«L’Intelligenza Artificiale è una disciplina scientifica che studia come, attraverso l’uso di computer, sia possibile simulare il comportamento umano nella realizzazione di alcuni compiti specifici. Per comprenderne la vera essenza, è utile ricordare la visione di Alan Turing, uno dei padri dell’informatica, che nel lontano 1950 ha proposto l’idea del gioco dell’imitazione: a una persona viene chiesto di tenere una conversazione con un’altra persona, interagendo però indirettamente, ad esempio, scambiandosi dei messaggi scritti e senza potersi vedere. Turing ha sostenuto la tesi che se, in questo gioco, una macchina è in grado di sostituire uno degli interlocutori senza che questo cambiamento venga notato dall’altro, allora la macchina potrà essere, a tutti gli effetti, considerata intelligente. In sostanza, Turing rifugge dalle difficoltà di definire che cosa sia l’intelligenza, concentrandosi invece su un compito ben preciso – cioè sul sostenere una conversazione – e su come una macchina possa imitare una persona nel realizzare tale compito. In questo senso, è evidente che l’espressione di “Intelligenza Artificiale” sia un po’ ingannevole. Non si tratta di realizzare una macchina che sia “intelligente”, che abbia cioè i medesimi meccanismi di funzionamento della nostra mente, bensì di sviluppare algoritmi che simulino e imitino, in contesti ben specifici, alcuni dei possibili modi con cui la nostra intelligenza umana è in grado di manifestarsi. Sostenere una conversazione, guidare un’automobile, giocare a scacchi o riconoscere una immagine sono esempi di manifestazione della nostra intelligenza. Per ciascuna di queste applicazioni, non sorprenderà, dunque, che sistemi di Intelligenza Artificiale siano stati sviluppati negli anni e siano oggi ampiamente disponibili».

Professore, come sta evolvendo la disciplina?

«Dai contributi fondazionali di Turing, sono ormai trascorsi oltre 70 anni, durante i quali l’Intelligenza Artificiale ha attraversato periodi di grande entusiasmo, alternati a periodi di disillusione. Il primo periodo d’oro della disciplina risale agli anni ’60, quando furono ideati i primi sistemi di reti neurali; fu una primavera che durò solo una decina di anni: allora mancavano, infatti, le capacità di calcolo, gli strumenti e l’hardware che oggi sappiamo essere essenziali per sviluppare queste tipologie di applicazioni. Gli anni ’80 segnarono poi la seconda primavera della disciplina, questa volta centrata sui cosiddetti sistemi esperti, cioè sistemi in cui l’uomo trasferisce direttamente la propria conoscenza alla macchina, codificando attraverso regole logiche quali siano le scelte da prendere in determinate situazioni. Anche questa seconda ondata terminò nel volgere di una decina di anni, perché si capì ben presto che i sistemi esperti erano molto difficili da progettare e costosi da mantenere; in particolare, il fallimento, nel 1992, del progetto giapponese della “quinta generazione” dei computer, cioè di computer in grado di ragionare in termini logici sulla conoscenza degli esperti, segnò l’inizio di un lungo inverno negli studi sull’Intelligenza Artificiale. Un nuovo impulso arrivò solo una ventina di anni dopo, nel 2012; un impulso che ci ha proiettato nella primavera che stiamo oggi vivendo. In quel periodo, infatti, numerosi ricercatori ripresero nuovamente a sviluppare sistemi basati su reti neurali, raggiungendo – grazie a nuovi algoritmi e ad hardware sempre più potente – risultati strabilianti, specie nell’ambito del riconoscimento delle immagini».

E dal 2012 ad oggi?

«Nella storia recentissima, inserirei sicuramente tutti i successi che si sono susseguiti nella realizzazione di sistemi in grado di competere con umani in alcuni giochi, come il gioco del go nel 2016 o il gioco del poker nel 2017. L’Intelligenza Artificiale ha poi mostrato nel 2020 il suo potenziale dirompente nella ricerca scientifica in ambito biologico e medico, con lo sviluppo del sistema AlphaFold, in grado di prevedere la struttura tridimensionale delle proteine. A seguire, il 2022 è stato l’anno dell’Intelligenza Artificiale generativa: da ChatGPT a DALL-E, fino a tutti i sistemi generativi per produrre testi o immagini che hanno rapidamente travalicato il mondo accademico e dei centri di ricerca, assumendo la connotazione di un vero e proprio fenomeno sociale e di costume».

Quali sono le frontiere dell’Intelligenza Artificiale e quali le sue potenzialità per il futuro?

«Il fronte più caldo della ricerca è oggi quello della comprensione delle potenzialità e dei limiti dei Foundation Model, cioè delle architetture di reti neurali che sono alla base dello sviluppo dei sistemi generativi, come ChatGPT. In particolare, si sta cercando di capire se, andando oltre le attività di manipolazione sintattica di testi e di immagini, queste architetture potranno essere impiegate per supportare altre tipologie di attività».

Per esempio?

«Le auto a guida autonoma sono oggi una concreta realtà, ma il primo prototipo risale addirittura al 1994. In questi decenni, la ricerca ha dunque prodotto numerose soluzioni tecnologiche ad hoc per queste specifiche applicazioni, dai sensori in grado di riconoscere i segnali stradali ai sistemi di pianificazione in grado di calcolare un percorso e poi raggiungere in autonomia la destinazione desiderata. Oggi, si sta invece cercando di capire se questi sistemi alla base delle auto a guida autonoma possano essere realizzati attraverso l’utilizzo di Foundation Model, tipo ChatGPT per intenderci. In sostanza, stiamo cercando di capire se questi Foundation Model possano andare oltre le semplici manipolazioni sintattiche – utili, ad esempio per sistemi conversazionali e per produrre ed elaborare testi –, adattandosi pure a compiti e attività più complesse».

E poi?

«Lo studio dei Foundation Model sta appassionando molto i ricercatori. Ma è piuttosto improbabile che tutti gli algoritmi di Intelligenza Artificiale vengano ricondotti ad essi. Più verosimilmente, la sfida dei prossimi anni sarà quella di sviluppare sistemi che sappiano far coesistere i due paradigmi della disciplina: le reti neurali e i sistemi esperti. È, infatti, sempre più evidente che i sistemi generativi, per evitare banali errori, hanno bisogno di regole logiche di contesto; hanno cioè bisogno di essere istruiti non solo sui dati, ma anche attraverso regole logiche che definiscano la cornice in cui l’apprendimento automatico deve essere calato. Il futuro sarà dunque sempre più popolato da sistemi “neuro-simbolici”, in sostanza da reti neurali che sono guidate da meccanismi simbolici, cioè dalla codifica della nostra conoscenza e di quegli elementi che una macchina non è in grado di apprendere o di elaborare. Sono frontiere molto aperte, ma siamo lontanissimi dalle visioni catastrofistiche relative a macchine che siano in grado di replicare qualunque capacità umana. L’artigianalità nello sviluppare queste soluzioni è ancora oggi un elemento predominante; i progetti di Intelligenza Artificiale richiedono, infatti, fortissime competenze e conoscenze».

Nel campo dell’IA, a quali progetti sta lavorando e come si muove al riguardo l’Università della Calabria?

«In questo momento, l’Università della Calabria è capofila di uno Spoke nel progetto FAIR, acronimo di Future Artificial Intelligence Research. Si tratta di un’importante iniziativa ministeriale che ha definito a livello italiano un ecosistema dell’Intelligenza Artificiale con dieci Spoke, cioè delle strutture nelle quali vengono sviluppate attività di ricerca all’avanguardia. Una di queste strutture è proprio in capo all’Università della Calabria, con il coinvolgimento del Consiglio nazionale delle ricerche, e focalizza le proprie attività sullo sviluppo di tecniche di Intelligenza Artificiale che siano green-aware. Da una parte, stiamo quindi cercando di sviluppare nuove tecniche e nuovi algoritmi che utilizzino meno risorse di calcolo e siano meno dispendiosi in termini dell’energia necessaria per alimentare i server su cui sono eseguiti. Dall’altra, stiamo sviluppando algoritmi di Intelligenza Artificiale specificatamente indirizzati a promuovere applicazioni orientate alla sostenibilità, in particolare ambientale, in sinergia con l’ecosistema calabro-lucano per l’innovazione Tech4You, di cui l’Università della Calabria è anche capofila».

E ancora?

«L’Università della Calabria ha abbracciato convintamente, da alcuni anni, l’idea di mettere a disposizione tecnologie di Intelligenza Artificiale anche nell’ambito medico-sanitario. Si è creato un gruppo di ricerca interdisciplinare che interessa in maniera trasversale numerosi Dipartimenti del nostro Ateneo e che già lavora proficuamente a differenti progetti. Tra essi vorrei ricordare “Stroke 5.0”, un progetto mirato a sviluppare e sperimentare una piattaforma tecnologica di servizi a supporto della gestione clinica integrata di eventi acuti di ictus, e “Radioamica”, un progetto per la gestione distribuita e sicura di dati e modelli diagnostici, prognostici e predittivi a supporto di terapie di precisione in ambito oncologico».

Ha dato notizie di rilievo. Può dettagliarle, ad esempio sul progetto Stroke?

«Per quanto attiene al progetto “Stroke 5.0”, si tratta di sviluppare soluzioni tecnologiche ad ampio spettro, dalle app di supporto al riconoscimento dei segni e sintomi, con l’utilizzo di dispositivi come smart-phone e smart-watch, a tecniche che prendano in carico le problematiche di natura logistica e organizzativa (supporto decisionale al triage clinico in ambulanza e al preliminare trattamento da fornire in ospedale; supporto decisionale all’ammissione ospedaliera), sino ad arrivare a una piattaforma di servizi informativi-decisionali integrati per il supporto avanzato alla diagnostica per immagini, alla valutazione clinica e alla pianificazione della terapia e dei primi interventi riabilitativi. In effetti, proprio sulla parte del supporto diagnostico, le tecniche di Intelligenza Artificiale sono oggi in grado di fare la differenza. È importante, quindi, che le soluzioni tecnologiche più efficaci siano in grado di superare i confini accademici per avere un impatto concreto a livello ospedaliero, nella nostra vita quotidiana e nella nostra società».

C’è dunque un grosso vantaggio a livello diagnostico. In generale, uno dei problemi che si riscontra, soprattutto in Calabria, riguarda la lettura delle immagini o la loro interpretazione non sempre pertinente. Questi progetti potrebbero aiutare. Ho capito male?

«Non si tratta di una questione strettamente legata alla nostra regione. Già oggi molte strumentazioni mediche integrano tecniche di Intelligenza Artificiale, e questa sinergia si consoliderà sempre più negli anni a venire. I benefici che possono venire dall’utilizzo di sistemi di Intelligenza Artificiale, specie nella diagnostica per immagini, sono evidenti. Dobbiamo pensare a queste tecnologie come se fossero un nuovo e più potente microscopio che mettiamo a disposizione dei medici, i quali potranno dunque “vedere” regioni sempre più piccole e che meritano attenzione, le quali potrebbero invece rischiare di passare inosservate, se analizzate con l’occhio umano. Non si tratta, dunque, di tecnologie che si sostituiscono ai medici, ma si tratta di strumenti che diventano un prezioso supporto al loro lavoro, che devono essere utilizzate in modo appropriato per salvare vite umane e per migliorare la qualità del servizio sanitario a beneficio delle persone e della società».

Che cosa può significare, per il futuro della sanità regionale, la sinergia tra la facoltà di Informatica, molto forte nell’Università della Calabria, e la nuova facoltà di Medicina? Ne avevamo parlato nei mesi scorsi con il rettore dell’Unical, Nicola Leone.

«È una sinergia che sta già dando importanti frutti. Ad esempio, sta agevolando il coinvolgimento e, in molti casi, il rientro di professionisti altamente qualificati, che oggi portano avanti le proprie attività di ricerca scientifica d’avanguardia prestando al contempo servizio clinico e assistenziale a beneficio di tutto il territorio. L’Università della Calabria sta, inoltre, investendo nell’acquisizione di attrezzature e strumentazioni digitali utili a migliorare la qualità dei percorsi di cura e assistenziali; un esempio tra tutti è il famoso robot Da Vinci, acquisito proprio dall’Università della Calabria, messo a disposizione dell’Azienda ospedaliera di Cosenza e già proficuamente utilizzato per molteplici e delicati interventi chirurgici».

In quanto alla formazione universitaria?

«La formazione universitaria medica presso l’Università della Calabria si è, da subito, caratterizzata in chiave moderna, orientandosi verso la professione medica del futuro. Il corso di laurea in Medicina e Chirurgia forma, infatti, medici capaci di utilizzare le più moderne tecnologie digitali, incluse ovviamente quelle basate sull’Intelligenza Artificiale, in un innovativo percorso che consente di conseguire anche la laurea in Ingegneria informatica. A questo nucleo iniziale si è poi affiancato, in questo anno accademico, il corso di laurea in Infermieristica: un ulteriore importante tassello a sostegno della sanità regionale. Si tratta, dunque, di una sinergia importante e necessaria. Un grande sforzo per l’Università della Calabria, che da solo probabilmente non può bastare, ma che tuttavia rappresenta una importante precondizione, oggi dispiegata al pieno del suo potenziale, per sviluppare un sistema sanitario efficiente e all’avanguardia».

Riguardo all’Intelligenza Artificiale, lei condivide i timori più diffusi, per esempio che nell’informazione ci saranno, per così dire, giornalisti non umani e nella sanità sempre meno medici e sempre più macchine?

«Il punto essenziale, in questa discussione, è cercare di conoscere e di comprendere bene l’oggetto di cui si sta parlando. Abbiamo di fronte a noi delle tecniche estremamente potenti, ma che sono in grado di ben replicare solo quelle attività umane riconducibili a meri “pensieri veloci”, per un usare un termine a me caro e che mutuo da Daniel Kahneman, già vincitore del Nobel per l’economia. Che cosa significa “pensiero veloce”? È certamente una forma di pensiero, ma tale da non richiedere astrazione, interpretazione o complesse operazioni mentali di tipo logico. Saper distinguere l’immagine di un cane da quella di un gatto è un pensiero veloce. Ma ci sono, invece, attività umane che hanno bisogno di pensieri che abbiano una natura diversa, che siano “lenti”».

Può fare un esempio?

«Pensi a una scena concreta: in un ristorante lei vede un tavolo, fa una foto, ma stavolta non chiede alla macchina che cosa può vedere in quella foto. Non si tratta più di riconoscere ciò che è impresso in una scena, bensì il compito, questa volta, è quello di capire che cosa sta succedendo a quel tavolo. Capire le dinamiche di interazione tra commensali richiede, in effetti, una riflessione ben maggiore di quanta sia necessaria, ad esempio, per conteggiare il numero di posti a sedere: bisogna prestare attenzione ad elementi non verbali e non evidenti dalla foto stessa, bisogna formulare ipotesi sulla base di ragionamenti di “senso comune”. Ad ognuno di noi sarà capitato di avere difficoltà a ben comprendere le dinamiche di un incontro ad una cena di lavoro; avrà dovuto pensarci con calma, riflettere meglio su sfumature che possono essere sfuggite in prima battuta. Questa analisi è, quindi, un tipico esempio di pensiero “lento”, per il quale non esiste alcun dataset su cui poter allenare una qualunque macchina».

Qual è la “morale”?

«Il limite tra ciò che le macchine possono fare e ciò che non possono fare è legato alla tipologia di pensiero che richiediamo loro di emulare. Lei ha fatto l’esempio dei giornalisti. Capisco che c’è apprensione, ma i giornalisti ovviamente sanno bene che i sistemi di Intelligenza Artificiale oggi possono essere utilizzati a loro vantaggio proprio nella attività, spesso di routine, che richiedono pensieri veloci; ad esempio, possono aiutare a fare delle piccole sintesi; possono aiutare a costruire rapidamente alcune porzioni di testo. Ma il lavoro giornalistico è ben altro; è qualcosa che la macchina non può fare, perché è necessario un lavoro di creatività, è necessario un lavoro di inventiva, è necessario saper non solo collezionare dei dati ma anche ragionarci sopra in modo non convenzionale. È necessario un pensiero più strutturato e riflessivo, appunto un pensiero “lento” ».

Dunque?

«Le macchine oggigiorno ci possono aiutare a velocizzare e automatizzare pensieri e attività che per loro natura sono già veloci. Ci consentono di ottimizzare processi e anche di abilitarne di nuovi. Ma non possono esserci di aiuto, e dunque non possono sostituirci, in tutti i processi mentali che richiedono inventiva e creatività, astrazione e riflessione».

È chiaro, ma può esplicitare ancora, a beneficio dei nostri lettori?

«In un suo editoriale di qualche mese addietro sul New York Times, il linguista Noam Chomsky ha dato una spiegazione formidabile di ciò che una macchina tipo ChatGPT può fare e di cosa non potrà mai essere in grado di fare. Se oggi chiedo a ChatGPT di descrivermi che cosa fa una mela nel momento in cui si stacca da un albero, allora il sistema risponderà che il frutto cadrà a terra in virtù della forza di gravità. Se poi chiedo di spiegarmi che cosa sia la forza di gravità, ChatGPT è perfino in grado di esporre tutta la relativa teoria e di spiegarmi come Newton sia riuscito a elaborarla. E tuttavia, ammonisce Chomsky, se ripetiamo mentalmente questo esperimento immaginando che Newton non sia ancora esistito e non abbia scoperto la gravità, allora non saremo sorpresi del fatto che ChatGPT non sia più in grado di rispondere. Ecco, ChatGPT e, in generale, i sistemi di Intelligenza Artificiale sono in grado di manipolare conoscenza che è già stata acquisita, informazioni già scritte, ma non sono in grado di produrre qualcosa che sia genuinamente “nuovo” e originale».

Il discorso ha da fare, insomma, con ciò che il filosofo del diritto Luigi Lombardi Vallauri chiamava «fenomenologia della realizzazione»

«La scoperta della gravità è stata la concretizzazione di un processo creativo, che non può essere automatizzato. Senza tanti libri che descrivono la teoria di Newton ed esempi di mele cadute dagli alberi, ChatGPT non potrebbe formulare alcun testo. Nessuna applicazione tipo ChatGPT potrà sostituire Newton, o i giornalisti che continueranno a fare bene e con creatività il loro lavoro».

Lei ha una base marcatamente umanistica, oltre che scientifica. Nel dibattito pubblico sull’IA e sulle nuove tecnologie in generale, nel merito abbiamo già sentito Derrick de Kerckhove, si parla spesso di svuotamento della soggettività umana, di deresponsabilizzazione individuale, di delega in bianco alle macchine, ai computer, agli algoritmi eccetera. È proprio così? Ci sono rischi del genere o alla fine il controllo dell’uomo può avere la meglio?

«Più che dei rischi di una Intelligenza Artificiale capace di sostituire in tutto e per tutto le persone, il rischio della deresponsabilizzazione è a mio avviso molto più concreto. Affrontare questo rischio richiede saper dispiegare un forte programma di sensibilizzazione all’utilizzo delle nuove tecnologie, una sorta di programma di educazione alla cittadinanza digitale che miri a far cogliere le dinamiche di funzionamento dei sistemi basati sull’Intelligenza Artificiale. È necessario lavorare sin dalle scuole primarie e da quelle secondarie di primo grado».

Conoscere per discernere e orientarsi?

«Sì. C’è molta confusione oggigiorno. In particolare, circa la deresponsabilizzazione, oggi si tende spesso a confondere il concetto di previsione con quello di decisione. Un sistema di Intelligenza Artificiale semplicemente guarda alla storia passata e, con un’analisi probabilistica, cerca di capire quale scenario del passato sia più vicino a quello nuovo che gli è stato presentato. Il risultato dell’elaborazione di un sistema di Intelligenza Artificiale è dunque una previsione sulla base di un’analisi sostanzialmente storica. Una previsione di questo tipo è certamente rilevante per prendere una decisione, ma non può essere l’unico fattore».

Quindi?

«Il vero punto è questo: le persone che lavoreranno con queste macchine, professionisti, giornalisti o medici che siano, dovranno avere le competenze tecniche per comprendere a grandi linee i loro meccanismi di funzionamento, ma soprattutto dovranno avere sviluppato e metabolizzato una corretta dinamica di interazione con l’Intelligenza Artificiale. Dovranno saper riconoscere che dietro quelle macchine vi sono progettisti e scelte progettuali, che quelle scelte non sono mai neutre e che, come tali, impattano profondamente sulla qualità delle previsioni e, in generale, sul funzionamento di quei sistemi».

È una grande sfida ad ampio raggio, insomma?

«Ecco, la responsabilizzazione è una partita che si gioca sul tavolo della conoscenza, è un tema di educazione soprattutto all’analisi critica e all’interazione uomo-macchina. Nel prossimo futuro dovremo, infatti, sempre più imparare a interagire con queste macchine, che saranno sempre più presenti nelle nostre attività quotidiane e nelle attività professionali, che sempre più ci forniranno pareri e previsioni. Ma bisogna ricordare sempre che decidere è, e deve restare, tutt’altra cosa».

Il Corriere della Calabria è anche su WhatsApp. Basta cliccare qui per iscriverti al canale ed essere sempre aggiornato

Argomenti
Categorie collegate

Corriere della Calabria - Notizie calabresi
Corriere delle Calabria è una testata giornalistica di News&Com S.r.l ©2012-. Tutti i diritti riservati.
P.IVA. 03199620794, Via del mare 6/G, S.Eufemia, Lamezia Terme (CZ)
Iscrizione tribunale di Lamezia Terme 5/2011 - Direttore responsabile Paola Militano | Privacy
Effettua una ricerca sul Corriere delle Calabria
Design: cfweb

x

x