cerca CERCA
Martedì 19 Marzo 2024
Aggiornato: 04:18
10 ultim'ora BREAKING NEWS

La signora dell'AI Francesca Rossi: "L'etica è possibile"

28 febbraio 2020 | 15.11
LETTURA: 3 minuti

La signora dell'Ai, Francesca Rossi, Ai Ethics Global Leader e Membro fondatore di Ibm Research (Foto ADNKRONOS)
La signora dell'Ai, Francesca Rossi, Ai Ethics Global Leader e Membro fondatore di Ibm Research (Foto ADNKRONOS)

(di Andreana d'Aquino) -

Ottenere sistemi basati sull'Intelligenza Artificiale che lavorino in maniera etica, "che prendano decisioni etiche è possibile" e nei lab "si sta lavorando a specifiche proprietà da inserire" quando si progettano questi sistemi. A livello internazionale la conoscono come 'la signora dell'Ia', per questo, quando parla di questa nuova tecnologia, gli orizzonti delineati da Francesca Rossi, Ai Ethics Global Leader e Membro fondatore di Ibm Research, hanno un proprio 'peso specifico'. Intervistata dall'Adnkronos a margine della firma del documento promosso dalla Pontificia Accademia per la Vita con Ibm e Microsoft quali primi firmatari, Francesca Rossi segnala però che "non basta solo arrivare a soluzioni tecnologiche, quello che serve per arrivare ad una Ia 'etica', "è un approccio muldisciplinare" un approccio "multi stackeholder", ovvero una consapevolezza condivisa.

Quando parliamo di Intelligenza Artificiale, parliamo di "una tecnologia che è così promettente nel poter risolvere importanti problemi" ma che "richiede attenzione su come viene sviluppata e utilizzata" osserva Francesca Rossi. "Servono soluzioni non solo tecnologiche ma anche multidisciplinari e multi stackeholder e "per rendere l'Ia etica ci sono tutte le proprietà che chi sviluppa o produce Intelligenza Artificiale deve fare in modo che siano inserite all'interno di questi sistemi" indica la 'signora dell'Intelligenza Artificiale'. Ciò che si sta cercando di realizzare, spiega Francesca Rossi, è ad esempio, progettare un "insieme di tecnologie che rendano questi sistemi capaci di assumere decisioni non discriminatorie". Bisogna insomma "fare in modo che i sistemi di Ia non prendano decisioni che siano discriminatorie, vanno cioè progettati nel modo giusto".

Guardando alle tecniche di "machine learning, che si basano su una grande quantità di dati, Rossi sottolinea che bisogna prestare grande attenzione a come vengono messi insieme questi dati perchè se non sono abbastanza bilanciati, inclusivi, poi il sistema può apprendere in modo discriminatorio, può cioè prendere decisioni, o suggerire decisioni, a persone e decisori finali, in modo discriminatorio". "Quindi -segnala ancora Francesca Rossi- è importante sviluppare soluzioni tecnologiche che imparino a guardare e a trovare i 'pregiudizi' dentro questi sistemi di Intelligenza Artificiale e possibilmente mitigarli". Rossi indica ancora l'aspetto della 'spiegabilità' come importante sistema da inserire nei sistemi di Ia. "E' la capacità di poter spiegare perchè suggeriscono questa decisione e non un'altra a chi utilizza queste tecnologie. Ad esempio devono saper spiegare ad un medico perchè gli indicano di usare una terapia e non un'altra", solo così, aggiunge ancora Francesca Rossi, userà queste Intelligenze artificiali e si fiderà.

Attualmente Ibm impiega 6 miliardi di euro in R&S anche sui temi di etica dell'Intelligenza Artificiale. Francesca Rossi segnala che "interi gruppi di ricerca si occupano di generare questi nuovi algoritmi di soluzioni per la trust - sistemi di cui ci si può fidare- dell'Ia, poi ci sono le business unit che lavorano come modificare i loro processi per inserire questi check relativi all'etica dell'Ia , attività educative interne, partnership esterne con Vaticano Ue e altre aziende anche competitors con cui lavoriamo insieme su questi temi".

Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche


SEGUICI SUI SOCIAL



threads whatsapp linkedin twitter youtube facebook instagram
ora in
Prima pagina
articoli
in Evidenza