Cerca

'Se l'intelligenza artificiale punta a sostituire il medico'

Docente Pontificia Università Gregoriana, 'si sta profilando un nuovo colonialismo digitale con Paesi poveri usati come cavie'

MEDICINA
'Se l'intelligenza artificiale punta a sostituire il medico'

Computer

Algoritmi in grado di analizzare enormi banche dati, per accelerare la diagnosi o la ricerca di nuove cure. "Ma cosa succede se l'intelligenza artificiale, anziché essere usata per aiutare il medico, viene impiegata piuttosto per ottimizzare i costi? In questo caso il rischio è quello di affidarsi a un responso oracolare che si sostituisce al medico stesso, rimpiazzandolo", con una serie di problemi etici e rischi per la salute. A parlarne con l'AdnKronos Salute è Paolo Benanti, frate francescano docente di etica delle tecnologie alla Pontificia Università Gregoriana, che sottolinea come l'intelligenza artificiale presenti una serie di incognite, non solo per la professione del medico.


E avverte: "Si sta profilando un nuovo colonialismo digitale, con Paesi poveri usati come cavie. La conoscenza medica e la prassi medica - dice Benanti - sono due aspetti diversi: applicare la conoscenza nel singolo caso dipende dalla preparazione e formazione del medico, ma anche dal livello della struttura sanitaria in cui opera. Ebbene, là dove non si hanno strutture all'avanguardia, l'intelligenza medica può davvero aiutare. E' stato visto già in una serie di studi in Ruanda", dove ad esempio l'impiego di droni per la distribuzione di farmaci e dispositivi medici ha apportato notevoli benefici.

"Ma non possiamo dimenticare i rischi: algoritmi e software sanitari che si sostituiscono alla diagnosi del medico - continua l'esperto - aprono una questione etica. Se il medico è un Homo sapiens e l'intelligenza artificiale una Machina sapiens, la collaborazione è l'approccio corretto e vantaggioso, mentre se si innesca una competizione è errato". Non solo. "Se guardiamo i modelli di intelligenza artificiale, scopriamo che quelli basati sul deep learning sono i più precisi, ma anche i più complessi da spiegare. Allora possiamo utilizzare per la salute un modello di questo tipo?". E se qualcosa va storto? "La salute non è come la meccanica: se l'algoritmo sbaglia a prevedere un problema al motore, tutt'al più la macchina si ferma prima. Con la salute - dice Benanti - i pericoli sono molto maggiori, e parlare di probabilità può non bastare".

C'è chi investe in ricerca e il panorama globale è molto diverso. "Ci sono Paesi più disposti a rischiare, e che hanno una legislazione più lasca rispetto alla nostra. I Paesi africani come il Ruanda stanno diventando un bacino di sperimentazione, anche per una questione economica. Insomma, in questo campo entrano in gioco valori diversi: quello dei dati, quello morale e quello economico. Il rischio - conclude - è quello di utilizzare i Paesi poveri come 'cavie' per l'intelligenza artificiale, una sorta di nuovo colonialismo digitale".



RIPRODUZIONE RISERVATA © Copyright Adnkronos.