
Milano,3 luglio 2025
In occasione di Kaspersky Horizons, la conferenza europea che si è tenutadal 30 giugno al 2 luglio 2025 a Madrid, gli esperti di cybersecurity chiedono una maggiore trasparenza riguardo all’utilizzo dell’intelligenza artificiale. L’IA è un’arma a doppio taglio: se da un lato permette un significativo aumento dell’efficienza e consente di attivare nuove potenzialità sia per le aziende che per gli utenti, allo stesso tempo può essere utilizzata in modo improprio dai cybercriminali per agevolare la creazione di malware e molto altro. Da una recente ricerca condotta da Kaspersky risulta che il 52% delle aziende a livello globale teme di perdere la fiducia se non migliorano la protezione contro gli attacchi informatici basati sull’intelligenza artificiale. Allo stesso tempo, il 41% dichiara di non avere le competenze necessarie per affrontare le minacce esterne e proteggersi efficacemente da questi scenari. Grazie alle “Linee guida per lo sviluppo e l’implementazione sicuri dei sistemi di IA”, Kaspersky fornisceindicazioni specifiche che le aziende possono seguire per implementare l’IA in modo sicuro e responsabile. Inoltre, il documento “Principi di utilizzo etico dei sistemi di IA nella cybersecurity”integra queste linee guida con principi etici per lo sviluppo e l’utilizzo dell’IA nella cybersecurity.
L’intelligenza artificiale si sta sviluppando rapidamente e, sebbene il suo potenziale sia prevalentemente indirizzato a effetti favorevoli per le aziende e gli utenti, i cybercriminali meno esperti stanno già utilizzando l’IA per aumentare le loro abilità criminali.
Dallo studio di Kaspersky emerge che la maggior parte delle aziende è consapevole di questi pericoli: il 58% delle aziende a livello globale teme una violazione dei dati sensibili e il 52% la perdita di fiducia, oltre a subire danni finanziari (52%), nel caso in cui non dovessero migliorare la propria protezione contro gli attacchi guidati dall'intelligenza artificiale. Tuttavia, spesso mancano le conoscenze necessarie: il 41% degli intervistati dichiara di non disporre di informazioni rilevanti da parte di esperti esterni riguardo alle attuali minacce derivanti dagli attacchi supportati dall'IA.
Kaspersky propone quindi linee guida chiare per lo sviluppo e l'utilizzo etico dell'IA, al fine di prevenire efficacemente eventuali abusi e manomissioni. Nel 2024, Kaspersky ha firmato l'AI Pact della Commissione Europea, un'iniziativa finalizzata a preparare le aziende alla realizzazione dell'AI Act, il primo quadro normativo completo sull'IA a livello mondiale, adottato dall'Unione Europea (UE). Nel dicembre dello stesso anno, Kaspersky ha anche presentato le sue linee guida per lo sviluppo e l'implementazione sicura dei sistemi di IA durante un workshop all'Internet Governance Forum (IGF) 2024 a Riyadh. Trasparenza, sicurezza, controllo umano e protezione dei dati sono i principi e le basi di questo impegno.
"L'IA etica si basa sulla fiducia, sulla conformità e sul successo aziendale sostenibile. Consente alle aziende di minimizzare efficacemente il rischio di violazione dei dati e di minacce basate sull'IA, rispettando al contempo in modo affidabile i requisiti normativi come la legge europea sull'IA. In un mondo sempre più digitalizzato, l'utilizzo responsabile dell'IA non è solo una questione tecnologica, ma anche di integrità aziendale e di redditività sul lungo termine. Le nostre linee guida per lo sviluppo e l'implementazione sicura dell'intelligenza artificiale, così come i nostri principi per l'uso etico dei sistemi di IA nella cybersecurity, consentono alle aziende di utilizzare l'IA in modo responsabile e sicuro, per proteggersi dalle minacce legate all'IA senza sacrificare i vantaggi offerti dalla tecnologia",ha commentato Jochen Michels, Director Public Affairs Europe di Kaspersky.
"L'intelligenza artificiale viene sempre più utilizzata per rafforzare la sicurezza informatica, dal rilevamento delle minacce alla previsione degli attacchi. Ma chi decide fino a che punto questi strumenti dovrebbero spingersi? Quando si verificano delle violazioni, il problema spesso ricade più gravemente sui singoli individui e sui gruppi vulnerabili, mentre le aziende più grandi subiscono meno ripercussioni. Abbiamo bisogno di sistemi non solo efficaci, ma anche equi ed etici, per garantire che il controllo, la responsabilità e i danni siano condivisi in modo equo nel nostro mondo digitale",ha dichiarato Liliana Acosta, Founder e CEO di Thinker Soul, una società di consulenza che applica l'etica, il pensiero critico e la filosofia per guidare le aziende nella trasformazione digitale.
Clément Domingo, Cybersecurity Expertha condiviso le proprie esperienze e scoperte: "Negli ultimi mesi ho assistito a un aumento significativo di utilizzo dell'IA da parte dei cybercriminali che si sono resi conto di quanto questa tecnologia possa cambiare le carte in tavola e la utilizzano già con successo per potenziare i loro attacchi. È quindi estremamente importante che anche le aziende inseriscano l'IA nelle loro strategie di difesa, per rafforzare le misure di sicurezza complessive. Nel farlo, è fondamentale comprendere le tattiche dei cybercriminali - a volte anche mettendosi nei loro panni - per diventare più efficaci nel combatterli. In questo contesto, l'IA può essere utilizzata come un potente strumento - se usata in modo consapevole e responsabile - per proteggere i dati sensibili, le infrastrutture, la privacy e le aziende in generale".
Trasparenza, sicurezza, controllo e protezione dei dati sono gli elementi fondamentali dell'utilizzo etico dell'IA.
Per promuovere l’adozioneeticadell'AI, Kaspersky ha sviluppato delle linee guida e dei principi per il suo utilizzo responsabile.
Le “Linee guida per lo sviluppo e l'implementazione sicuri dei sistemi di IA” riguardano gli aspetti chiave dello sviluppo, dell'implementazione e del funzionamento dell'IA, tra cui la progettazione, le best practice di sicurezza e l'integrazione, oltre a focalizzarsi sullo sviluppo di modelli fondamentali. Tra questi rientrano:
I “Principi di utilizzo etico dei sistemi di IA nella cybersecurity” invitano a una maggiore formazione ed alla definizione di standard chiari incentrati su trasparenza, sicurezza, controllo umano e protezione dei dati, per prevenire efficacemente la violazione e l'uso improprio delle applicazioni di IA. Questi principi includono:
Informazioni su Kaspersky
Kaspersky è un’azienda globale di cybersecurity e privacy digitale fondata nel 1997. Con oltre un miliardo di dispositivi protetti dalle minacce informatiche emergenti e dagli attacchi mirati, la profonda esperienza di Kaspersky in materia di sicurezza e di Threat Intelligence si trasforma costantemente in soluzioni e servizi innovativi per la sicurezza di aziende, infrastrutture critiche, governi e consumatori in tutto il mondo. Il portfolio completo dell’azienda comprende una protezione Endpoint leader, prodotti e servizi di sicurezza specializzati e soluzioni Cyber Immune per contrastare le minacce digitali sofisticate e in continua evoluzione. Aiutiamo milioni di persone e oltre 200.000 aziende a proteggere ciò che più conta per loro. Per ulteriori informazioni è possibile consultare https://www.kaspersky.it/
Seguici su:
https://twitter.com/KasperskyLabIT
http://www.facebook.com/kasperskylabitalia
https://www.linkedin.com/company/kaspersky-lab-italia
https://www.instagram.com/kasperskylabitalia/
https://t.me/KasperskyItalia
Contatti:
Contatti: Noesis Kaspersky Italia
kaspersky@noesis.net
COMUNICATO STAMPA SPONSORIZZATO: Immediapress è un servizio di diffusione di comunicati stampa in testo originale redatto direttamente dal soggetto che lo emette. I giornalisti Adnkronos non sono in nessun modo coinvolti né responsabili per i contenuti dei comunicati trasmessi.