È emerso un nuovo volto dell’intelligenza artificiale applicata all’hacking nell’estate del 2025, nel contesto della guerra informatica tra Russia e Ucraina.
A luglio, secondo i rapporti tecnici diffusi dal governo ucraino e da diverse società di cyber sicurezza, i servizi segreti russi hanno condotto una campagna di phishing che si distingueva dalle migliaia di operazioni precedenti: all’interno delle email inviate alle vittime era nascosto un eseguibile camuffato da file PDF che chiamava un LLM remoto per generare i comandi.
Una volta installato, questo strumento era in grado di scandagliare automaticamente i computer infettati alla ricerca di file sensibili da inviare a Mosca.
Si è trattato della prima volta in cui è stato documentato l’uso di un modello linguistico di grandi dimensioni (LLM) all’interno di codice malevolo creato da apparati di intelligence.
E non si tratta di un caso isolato: infatti, negli ultimi mesi hacker di varia natura hanno iniziato a integrare strumenti di intelligenza artificiale che, pur restando soggetti a errori e imprecisioni, rendono chi già possiede competenze tecniche più veloce ed efficiente.
Gli LLM sono capaci, infatti, di tradurre istruzioni in linguaggio naturale in codice eseguibile, di riassumere e analizzare documenti complessi, di generare testi e contenuti persuasivi.
Heather Adkins, vicepresidente per la sicurezza ingegneristica di Google, ha sottolineato che questa è solo una delle prime fasi di una trasformazione.
Il team di Adkins ha avviato nel 2024 un progetto grazie al quale sarebbe possibile sfruttare Gemini, il modello linguistico sviluppato da Google, per scoprire vulnerabilità software prima che vengano individuate dai criminali.
I risultati sono stati all’altezza dei ricercatori dato che Gemini ha individuato almeno venti bug significativi, nascosti in programmi ampiamente utilizzati, con tempi che i metodi tradizionali non avrebbero mai permesso.
A confermare la tendenza c’è stato anche il caso di Xbow, giovane azienda specializzata in hacking automatizzato, che nel giugno 2025 è riuscita a scalare la classifica di HackerOne, la piattaforma che dal 2016 monitora i ricercatori di sicurezza più attivi nel segnalare vulnerabilità.
Xbow è stata la prima entità “non umana” a raggiungere il vertice, tanto che la piattaforma ha dovuto creare una nuova categoria per distinguere i team che utilizzano strumenti automatizzati da quelli composti da ricercatori individuali.
Dall’altro lato, Adam Meyers, vicepresidente senior della società di cyber sicurezza CrowdStrike, ha dichiarato di osservare segnali sempre più evidenti dell’uso di strumenti di IA da parte di gruppi hacker legati a Cina, Russia, Iran e in generale alla criminalità organizzata.
Se inizialmente l’uso degli LLM era limitato a scrivere email di phishing convincenti o condurre operazioni di ingegneria sociale, oggi la tecnologia viene impiegata anche direttamente nell’hacking.
Il dibattito su quale delle due fazioni sia più avanti nell’integrazione delle intelligenze artificiali è aperto.
Tra gli altri, Alexei Bulazel, direttore senior per il cyberspazio al Consiglio di Sicurezza
Nazionale della Casa Bianca, ha sostenuto che l’IA rappresenti un alleato più forte per chi protegge i sistemi che per chi cerca di violarli.
Secondo lui, gli algoritmi sono particolarmente efficaci nell’individuare vulnerabilità di minore entità ma diffuse in realtà medio-piccole, quelle che più spesso finiscono nel mirino dei criminali.
La capacità di scoprire automaticamente falle a basso costo e in tempi rapidi democratizza l’accesso all’informazione sulle vulnerabilità, riducendo lo spazio d’azione degli attaccanti.
Il quadro è però in costante evoluzione e un rischio evidente è il rilascio pubblico in futuro di uno strumento gratuito di penetration testing basato su IA.
Secondo Adkins ciò significherebbe dare a chiunque, anche senza grandi risorse e capacità, la possibilità di automatizzare attacchi su vasta scala contro piccole e medie imprese.
A complicare il panorama c’è l’avvento delle Agentic AI, sistemi in grado di eseguire azioni complesse in autonomia come inviare email, interagire con applicazioni o lanciare script.
Meyers di CrowdStrike ha sottolineato che queste tecnologie rischiano di trasformarsi nella prossima grande minaccia interna, perché una volta impiegate nelle aziende potrebbero essere manipolate per agire senza adeguate barriere di sicurezza.
Nel luglio 2025, invece, gli attacchi contro sistemi di sicurezza e difesa ucraini hanno rivelato un ulteriore utilizzo dell’IA per rafforzare i malware.
Nello specifico, un software si mascherava da documento PDF e conteneva codice capace di interagire con un LLM remoto. Quando incontrava un ostacolo nelle difese, richiedeva al modello l’elaborazione di nuovo codice per superare la barriera.
Secondo il ricercatore Vitaly Simonovich, si è trattato del primo attacco documentato di questo genere e anche se non è chiaro l’impatto finale, la capacità di “chiedere aiuto al cloud” per rigenerare il malware segna un salto qualitativo.
Secondo Gil Messing, dirigente di Check Point, l’IA ha “ampliato il raggio d’azione” degli hacker, consentendo loro di colpire più bersagli con minore sforzo.
Prima dell’avvento dei modelli generativi, i criminali dovevano investire ingenti somme in team specializzati e infrastrutture, oggi, con abbonamenti da poche centinaia di dollari, è possibile accedere a strumenti come XanthoroxAI, un modello progettato ad hoc per attività illegali, capace di generare deepfake e condurre campagne di spear phishing altamente personalizzate, rese ancora più pericolose dal fatto che i modelli possono raccogliere enormi quantità di dati dai social media per confezionare messaggi credibili.
Nel caso di spearphishing, dove il bersaglio è un individuo specifico, l’IA può generare persino voci o video sintetici che imitano colleghi o dirigenti, convincendo la vittima a scaricare software infetto.
Gli effetti economici sono già tangibili. Secondo IBM, nel 2024 un incidente di data breach su sei ha visto coinvolta l’IA, così come due attacchi di phishing aziendale su cinque.
Deloitte stima che le frodi abilitate dall’IA potrebbero raggiungere i 40 miliardi di dollari nel 2027, rispetto ai 12 miliardi del 2023.
Non sorprende quindi che il mercato della cyber sicurezza stia conoscendo un’espansione senza precedenti.
Gartner prevede che gli investimenti aziendali in sicurezza aumenteranno di un quarto tra il 2024 e il 2026, toccando i 240 miliardi di dollari.
La corsa all’IA sta ridefinendo la cyber sicurezza tanto quanto la minaccia e le stesse tecnologie che alimentano l’innovazione e la produttività sono oggi al centro di una competizione feroce tra hacker e difensori.
La dinamica assomiglia sempre più a una spirale in cui ogni avanzamento da un lato stimola la risposta dall’altro.