Il fatto che l’Intelligenza Artificiale possa sognare è ancora un interrogativo irrisolto, con buona pace di Philip K. Dick e con nostro sollievo. Evitiamo così di doverci preoccupare di risolvere l’incertezza successiva su che cosa possa essere una pecora elettrica.
La certezza, però, è che l’impiego diffuso dei sistemi di IA sia un vero e proprio incubo di cyber security.
Di conseguenza, è il caso di porsi qualche domanda, ma soprattutto di trovarsi nella condizione di fornire risposte concrete in relazione ai nuovi fabbisogni emergenti.
Nei moderni scenari di cyber risiko globale, infatti, sia gli attaccanti che i difensori dispongono di sistemi di IA. E non si fanno troppi scrupoli ad impiegarli. Cosa che non è proprio positiva.
Fare ricorso ad uno o più strumenti o tecnologie che rispondono allo stato dell’arte, e dunque alla frontiera dell’IA, è oggi fondamentale per essere in grado di mantenere un livello di sicurezza adeguato rispetto alla continua evoluzione degli attacchi. Per esempio, ampliando il novero delle azioni di rilevazione e di contrasto ed aumentandone l’efficacia.
In tal senso, è emblematico l’impiego dell’IA per affrontare la complessità e la frequenza dei nuovi attacchi di phishing.
Occorre però che l’IA venga affrontata come un problema a cui può – anzi: deve – seguire una soluzione coerente. Soluzione che è il processo di miglioramento continuo della sicurezza, al cui interno vengono svolte valutazioni di contesto, analisi dei rischi e un coordinamento dell’IA con le ulteriori misure di natura tecnica e organizzativa adottate o che si intendono adottare.
Nella sicurezza cyber, infatti, l’IA non sostituisce, ma supporta quel fattore umano che dev’essere rafforzato anche attraverso l’attuazione delle politiche di sensibilizzazione e formazione continua.
Tutto questo richiede però il giusto tempo per analizzare, selezionare ed implementare gli strumenti più coerenti ed efficaci per il perseguimento delle proprie strategie. Cosa che gli attaccanti fanno sistematicamente, mentre i difensori talvolta trascurano per eccesso di zelo, fretta o per aver ceduto alla falsa convinzione che la sicurezza possa essere gestita adottando una soluzione o attivando una licenza.
Questo porta così a uno dei bias cognitivi più pericolosi nell’ambito della cybersecurity: l’allucinazione – ahimé, umana – di aver risolto ogni problema per effetto dell’adozione di una tecnologia o l’attuazione di un intervento “spot”.
La falsa percezione della propria sicurezza, sia essa più o meno sostenuta dall’IA, non è altro che una vulnerabilità che gli attaccanti non si faranno problemi a sfruttare.
Anzi, è proprio uno di quegli elementi di contesto su cui è stata addestrata l’IA che sarà utilizzata nelle prossime campagne.