cerca CERCA
Sabato 31 Luglio 2021
Aggiornato: 18:41
Temi caldi

IA emotiva

Usi e abusi dell'IA alla ricerca del punto di discrimine

04 giugno 2021 | 10.37
LETTURA: 4 minuti

Il riconoscimento dei nostri volti e dei nostri stati emotivi da parte delle intelligenze artificiali si presta a una molteplicità di scopi, non sempre se non raramente con il pieno risvolto etico e consapevole della questione.

alternate text
- Da Reclaimyourface.eu

L'intelligenza artificiale emotiva, o IA emotiva, interpreta dalle nostre espressioni, dai nostri movimenti, dai livelli di agitazione che esprimiamo in qualunque modo fisico, più o meno minimo e più o meno raffinato, quello che stiamo provando. Per reagire di conseguenza. In senso utile, nei giochi, nelle automobili, nei bot di assistenza vocale. Ma anche in senso preoccupante: ci sono ragioni e tecnologie a sufficienza per esercitare forme di controllo di polizia, nelle aule scolastiche o alle frontiere che stanno tra il lecito, l'illecito e soprattutto il non normato. Le discriminanti sono tante e sottili, a partire dalla possibile identificazione delle persone.

La tanto attesa proposta di regolamento sull’Intelligenza Artificiale europea è stata presentata da poche settimane nel tentativo di intervenire preservando il rispetto dei diritti fondamentali e dei valori europei senza limitare, al contempo, lo sviluppo tecnologico. Il Regolamento divide gli usi in base al rischio: basso, medio o elevato. Riservando al rischio elevato una serie di divieti, indirizzati soprattutto alla vendita e all’uso di sistemi di IA che utilizzano tecniche subliminali per distorcere in maniera sostanziale il comportamento di una persona, alla vendita e all’uso di sistemi di IA che sfruttano una vulnerabilità legata all’età o ad una disabilità di uno specifico gruppo di persone, all'uso di sistemi di social scoring (la valutazione del cittadino) da parte delle autorità pubbliche, all’uso in tempo reale di sistemi di identificazione biometrica da remoto, tipo i sistemi di riconoscimento facciale, in luoghi accessibili al pubblico per finalità di repressione dei reati. Il tutto con diverse eccezioni ed eliminando, rispetto alla bozza trapelata in un primo tempo, il divieto di utilizzo di sistemi di IA a fini di sorveglianza di massa indiscriminata e generalizzata, anche se già limitato da altre norme.

Particolare che non è sfuggito al movimento di Reclaim your face che ha avviato una petizione specifica sulla questione: “Chiediamo alla Commissione europea di regolamentare rigorosamente l'uso delle tecnologie biometriche al fine di evitare indebite interferenze con i diritti fondamentali. In particolare, chiediamo alla Commissione di vietare, nella legge e nella pratica, usi indiscriminati o arbitrariamente mirati della biometria che possono portare a una sorveglianza di massa illegale. Questi sistemi intrusivi non devono essere sviluppati, utilizzati (anche in via sperimentale) o utilizzati da enti pubblici o privati in quanto possono portare a interferenze inutili o sproporzionate con i diritti fondamentali delle persone”.

Caso recente è quello connesso ai software di proctoring. Ovvero gli strumenti che vengono sempre di più adottati per controllare l’ambiente fisico o digitale di una persona che deve sostenere un esame online. La pandemia ha, anche in questo caso, prodotto una accelerazione nell'uso di queste tecnologie, soprattutto a livello universitario: all'università di Torino è stato sollevato il caso ma altre università hanno già adottato strumenti simili, come la Bicocca di Milano e Roma Tre. Si va da funzioni che possono bloccare la schermata del browser impedendo all’esaminando di aprire altre pagine o avviare altre applicazioni, fino al riconoscimento facciale e a modelli di machine learning che sono in grado, proprio basandosi su sistemi di IA emotiva, di valutazione movimenti e comportamenti della persona per capire per esempio se sta copiando. Fino a che punto, nonostante le rassicurazioni delle università, si possa arrivare nel rispetto della privacy delle persone è ancora tutto da definire.

Il caso più estremo rilevato di recente è quello connesso alla regione autonoma cinese dello Xinjiang che ospita 12 milioni di uiguri, una minoranza etnica la maggior parte della quale è formata da musulmani. Gli appartenenti a questa minoranza etnica vengono internati in campi di detenzione, rieducati, il quotidiano tedesco Die Welt ha parlato di un vero e proprio genocidio nascosto agli occhi del mondo. Operato anche attraverso la sperimentazione di un sistema di telecamere con software di intelligenza artificiale che dal riconoscimento facciale puntano a rivelare reazioni emotive. Il caso è stato sollevato da numerose testimonianze riportate dalla BBC. Si tratterebbe, in sostanza, di una sorta di evolute macchine della verità con telecamere che rilevano e analizzano anche i minimi cambiamenti nelle espressioni facciali creando dei grafici a torta per evidenziare stati mentali di ansia.

Non che le persone siano poi tanto favorevoli a farsi leggere dentro e fuori da una macchina: nella ricerca The Right to privacy in the age of emotional AI condotta da Andrew McStay si riporta come nel Regno Unito il 50% dei cittadini non sia d'accordo con il rilevamento delle emozioni in qualsiasi forma, il 33% ammette di essere d'accordo con il rilevamento delle emozioni a patto di non essere personalmente identificabile. Insomma la strada dell'equilibrio e della consapevolezza è appena cominciata.

Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche
ora in
Prima pagina
articoli
in Evidenza