cerca CERCA
Martedì 11 Maggio 2021
Aggiornato: 00:39
Temi caldi

Ue, no a riconoscimento facciale in luoghi pubblici

21 aprile 2021 | 12.40
LETTURA: 2 minuti

Nella proposta di regolamento sull'Intelligenza Artificiale, tutti i sistemi di identificazione biometrica in remoto vengono considerati "ad alto rischio". Previste limitate eccezioni

alternate text
(FOTOGRAMMA/IPA)

L'Ue non diventerà come la Cina, dove i sistemi di riconoscimento facciale o di identificazione biometrica in remoto vengono utilizzati su scala massiccia per controllare la popolazione. Nella proposta di regolamento sull'intelligenza artificiale presentata oggi dalla Commissione Europea, tutti i sistemi di identificazione biometrica in remoto vengono considerati "ad alto rischio" e sono pertanto soggetti a severa regolamentazione. L'uso di questi sistemi in luoghi accessibili al pubblico a fini di applicazione della legge è proibito, in linea di principio.

Sono previste limitate eccezioni, che vengono strettamente regolate, per esempio per la ricerca di bambini scomparsi, per prevenire una minaccia terroristica "specifica ed imminente" o per localizzare o identificare o perseguire un sospetto autore di un reato grave. Questo utilizzo delle tecniche di riconoscimento biometrico in remoto deve essere autorizzato dall'autorità giudiziaria, o da un'altra istituzione indipendente, e deve avere limiti appropriati nel tempo, nello spazio e per i database utilizzati.

Le nuove regole sull'intelligenza artificiale saranno applicate direttamente in tutti gli Stati membri e seguono un approccio basato sul rischio. I sistemi di intelligenza artificiale (Ai in gergo) che comportano "rischi inaccettabili", che costituiscono in altre parole una "chiara minaccia" per la vita e alla sicurezza delle persone, verranno vietati.

Tra questi figurano sistemi e applicazioni di Ai che manipolano il comportamento umano, come ad esempio i giochi che utilizzano l'assistenza vocale incoraggiando comportamenti rischiosi da parte di minori e sistemi che permettono ai governi di effettuare classificazioni nella società ('social scoring' in gergo).

Sotto i sistemi a rischio inaccettabile ci sono quelli a rischio elevato, che includono le tecnologie di Ai utilizzate in infrastrutture critiche come i trasporti, che possono mettere a rischio la vita e la salute dei cittadini; i sistemi di formazione, che potrebbero determinare l'accesso all'educazione e il percorso professionale delle persone, come i sistemi che valutano gli esami.

Riproduzione riservata
© Copyright Adnkronos
Tag
Vedi anche
ora in
Prima pagina
articoli
in Evidenza