Gli autori de "Il Secolo dell'IA", Lorenzo Basso e Marco Bani, parlano con l'Adnkronos di come l'Italia e l'Europa possono affrontare la trasformazione
L'intelligenza artificiale è ovunque, ma continua a essere raccontata con sensazionalismo e confusione. È da questa constatazione che nasce "Il secolo dell'IA" (il Mulino/Arel), il nuovo libro - con la prefazione di Paolo Benanti - di Marco Bani, responsabile affari istituzionali, formazione e digitalizzazione del Pd, e del senatore Pd Lorenzo Basso, informatico e imprenditore, già promotore della strategia "Industria 4.0". Basso, con altri parlamentari dem e il lavoro preparatorio di Bani, aveva presentato l'anno scorso un disegno di legge sull’IA, ma in queste settimane è diventato legge il testo voluto dalla maggioranza.
Perché avete scritto un libro sull’intelligenza artificiale, in un momento in cui il tema è ovunque?
Marco Bani: Non lo abbiamo fatto per mania di gloria o perché mancassero libri sull’argomento. Se ne parla tanto, ma spesso male e a sproposito: non si capisce cos’è l’IA, cosa può fare davvero, quali impatti avrà. Ci sono titoli ottimistici e altri catastrofisti. L’obiettivo era fare un libro divulgativo, per studenti, professori e chiunque voglia capire a che punto siamo e quali sfide abbiamo di fronte. Non vogliamo dare risposte definitive, ma dati e stimoli per una riflessione politica sulle implicazioni sociali, etiche ed economiche.
Il tema del lavoro è quello che spaventa di più. Cosa sta accadendo davvero?
Lorenzo Basso: C’è meno paura della perdita dei posti di lavoro di quanto si pensi. Il timore reale è un altro: rimanere indietro rispetto a chi sa usare gli strumenti di IA. Quello che percepiamo parlando con imprese e sindacati è il rischio di perdere la propria prospettiva professionale se non ci si aggiorna. La perdita generale dei posti di lavoro non appare imminente: il lavoro dipende dalla domanda sociale, e molte professioni – relazionali, socio-sanitarie, altamente qualificate – non sono affatto superabili oggi. Ma tutta l’area dei servizi e delle professioni finora non toccate dall’automazione sta entrando in una fase nuova.
In Italia si discute del nuovo obbligo per i professionisti di dichiarare l’uso di IA. Che ne pensate?
LB: Finirà come molti disclaimer: copia-incolla senza reale utilità. Nella nostra proposta c’era una posizione diversa: invece di introdurre un reato, sarebbe stato meglio “bollinare” i deepfake – immagini o video difficili da riconoscere – perché circolano senza responsabilità dell’autore. I professionisti invece rispondono già con la propria reputazione: avvocati, giornalisti, autori hanno sempre usato archivi, assistenti o modelli senza doverlo dichiarare. L’atto lo firmano loro.
MB: Inoltre i grandi produttori di modelli generativi inseriscono già watermark invisibili per permettere di risalire all’origine delle immagini. Il governo ha scelto un approccio sovranormativo e burocratico, che crea più domande che risposte: quando stai usando IA? Un algoritmo di Excel è IA? Un’email con i suggerimenti automatici? Questo rischia di creare solo confusione e di demonizzare uno strumento utile.
Le aziende lamentano che le università non preparano abbastanza i giovani.
LB: È il tema centrale: la preparazione. Serve formare chi entra nel mercato del lavoro, ma anche chi è già dentro e deve aggiornarsi.
MB: È verissimo. Io ho lavorato in una big tech americana e vedevo che chi aveva una certificazione rilasciata da quei provider trovava lavoro subito; chi usciva da una laurea in informatica, molto meno. Il mercato va veloce: chi sa “mettere le mani dentro la macchina” è più appetibile. In UK hanno creato tech for.uk, mettendo big tech e governo insieme per fare formazione su larga scala. Nel nostro testo di legge c’era un “Fondo per l’intelligenza naturale”, per coordinare pubblico e privato sulla sfida delle competenze, che è il vero driver della catena del valore dell’IA.
In questo scenario l’Europa può ancora giocare la sua partita? Ha un potere di attrazione?
LB: Sì, per due ragioni. La prima: la velocità del cambiamento. Anche chi oggi è avanti può essere sorpassato. La seconda: l’Europa ha mercato, capacità tecnologica, università, centri di ricerca. Quello che manca sono i capitali privati: la distanza con gli Usa nel venture capital è enorme. L’idea di posticipare ex post parte dell’AI Act non ci convince: se verifichi i rischi quando la tecnologia è già implementata, è tardi. Servono due cose: una Carta di principi europea che sintetizzi ciò che nell’AI Act è irrinunciabile; un’autorità tecnica europea, unica, che aiuti imprese, ricercatori e amministrazioni a valutare i rischi settore per settore.
MB: Gli USA hanno un modello muscolare, la Cina punta sull’integrazione dei modelli open source in tutte le filiere industriali. L’Europa deve trovare una “terza via”: multilateralismo, campioni europei, investimenti su istruzione, sanità e beni comuni, dove possiamo davvero fare la differenza.
L’attuale governance europea sull’IA funziona?
LB: Così com’è, rallenta l’Europa. È complessa, frammentata, difficile da applicare. Non possiamo chiedere a ogni ricercatore o professionista di studiare 500 pagine di regolamento. I principi vanno difesi, ma serve flessibilità: un’agenzia europea tecnica che distingua i rischi a seconda dei settori. E, soprattutto, serve rendere questi principi comprensibili ai cittadini: non possiamo costruire una difesa popolare dell’AI Act se nessuno capisce di cosa parla.
Guardando oltre l’IA: quali priorità servono per mantenere competitiva l’Europa?
MB: Più Europa. Dobbiamo creare un’Unione dei capitali per impedire che 500 miliardi l’anno di investimenti privati vadano negli Usa. Serve un antitrust forte, capace di favorire la nascita di campioni europei. Alcuni segnali ci sono, come l’investimento di Asml in Mistral. Ma bisogna metterli a sistema. E poi non dimentichiamo le tecnologie abilitanti: quantum computing, supercomputer, biotecnologie, neurotecnologie. L’IA è un motore che accelera tutto ciò.
LB: Per questo noi proponiamo un’autorità europea che unisca IA e neurotecnologie, anticipando la sfida futura. L’Europa non potrà superare gli USA sugli LLM nativi, ma può recuperare terreno rapidamente e leadership sulle tecnologie che arriveranno. (di Giorgio Rutelli)