Come difendersi dai sistemi di Agentic AI: serve più cultura organizzativa
好,我需要帮用户总结这篇文章,控制在100字以内。首先,我通读文章,发现主要讨论了网络安全的复杂性,包括AI在攻击和防御中的应用、数据管理、漏洞处理以及组织文化的重要性。用户要求直接描述内容,不需要开头语。 接下来,我需要提取关键点:AI在网络安全中的双刃剑作用、数据爆炸带来的挑战、漏洞管理、以及组织文化对安全成熟度的影响。然后,将这些点简洁地整合成一段话,确保不超过100字。 最后,检查语言是否流畅自然,确保信息准确传达。 </think> 最近几个月网络安全领域面临多重挑战,包括AI技术的双刃剑效应、数据爆炸带来的管理难题、漏洞数量激增以及组织文化对安全成熟度的影响。尽管AI在检测和防御中发挥重要作用,但其也被用于复杂攻击和数据泄露风险。此外,数据管理和责任自动化需平衡技术与人为因素。 2026-2-25 10:33:20 Author: www.cybersecurity360.it(查看原文) 阅读量:7 收藏

Gli ultimi mesi sono stati piuttosto complessi in ambito cyber security, soprattutto perché molte organizzazioni non hanno ancora affinato le proprie strategie di difesa, come la visibilità e le capacità di detection.

La mancanza di tempo, risorse economiche e competenze specializzate lascia ampi spazi di manovra ai criminal hacker. Inevitabilmente, senza strumenti adeguati di rilevamento, risulta estremamente difficile capire quando un attacco è in corso, da dove proviene e come si sta propagando.

L’AI sta poi complicando la protezione delle identità

L’AI generativa supporta la simulazione degli attacchi, il training anti-phishing e l’analisi rapida di eventi complessi, mentre l’AI Agentic può collegare segnali eterogenei, valutare il rischio e attivare contromisure in automatico sotto la supervisione umana.

L’analisi comportamentale crea modelli di normalità per utenti e macchine, rilevando variazioni sottili ma indicative, come movimenti laterali o uso improprio dei token. Integrate all’interno del framework zero trust, queste tecnologie consentono una verifica continua delle identità e un controllo adattivo degli accessi, rendendo la postura di difesa più reattiva e autonoma.

Un ruolo determinante rimane quello del fattore umano. Anche la migliore tecnologia può essere vanificata da errori come cliccare link di phishing, riutilizzare password o approvare richieste MFA fraudolente. La sicurezza richiede quindi una cultura diffusa, fatta di apprendimento continuo, simulazioni regolari, processi di segnalazione semplici e consapevolezza delle nuove minacce come deepfake e furto di sessione.

L’equilibrio tra sicurezza e attrito per l’utente si ottiene tramite l’autenticazione adattativa, che aumenta i controlli solo quando il rischio lo richiede. Le tecnologie passwordless – come passkey e biometria – migliorano sia la protezione sia l’esperienza d’uso eliminando l’anello più debole della catena.

Focus sulla gestione del numero delle vulnerabilità

Un’altra criticità importante riguarda la gestione del numero delle vulnerabilità, sempre più numerose e complesse da risolvere. Negli ambienti cloud, tuttavia, sono oggi disponibili soluzioni in grado non solo di identificare le vulnerabilità, ma anche di stabilirne le priorità, consentendo alle aziende di intervenire prima su quelle realmente critiche.

Accanto a queste problematiche consolidate, stanno poi emergendo con forza due trend specifici.

Il primo trend è l’uso massivo dell’AI negli attacchi. Oltre all’impiego dell’AI per aumentare velocità e sofisticazione, si è assistito a un primo esempio di attacco “Agentic” su scala globale, dove l’intelligenza artificiale è stata utilizzata come vero e proprio strumento offensivo.

Sebbene l’impatto sia stato limitato, l’evento ha segnato il superamento di una soglia importante e indica che questo tipo di attacchi è destinato a evolversi nel 2026.

Il secondo trend riguarda il fatto che l’intelligenza artificiale è diventata una nuova superficie di attacco, probabilmente una delle meno protette. Le aziende hanno adottato l’AI per migliorare produttività, sviluppo e supporto ai clienti, senza però considerare adeguatamente i rischi legati alla sicurezza.

Tecniche come jailbreaking, prompt injection e manipolazione dei modelli dimostrano quanto l’AI possa essere sfruttata dagli hacker.

La criticità della condivisione di dati sensibili tramite la GenAI

Una criticità è la condivisione di dati sensibili tramite strumenti di AI generativa: sintesi di meeting, dati confidenziali o codice proprietario vengono esposti senza che l’utente ne percepisca il rischio. Le aziende oscillano tra due approcci estremi: bloccare totalmente l’uso dell’AI, scelta inefficace e facilmente aggirabile tramite lo Shadow IT, oppure lasciare tutto libero senza controlli.

La direzione corretta è una terza via basata su consapevolezza, governance e coinvolgimento del board, perché l’AI impatta l’organizzazione a 360 gradi.

L’esplosione significativa dei dati generati

Un ulteriore elemento centrale è l’esplosione significativa dei dati.

Digitalizzazione, smart working, OT e l’adozione di tecnologie 5G stanno facendo crescere i volumi dei dati a un ritmo stimato del 35% annuo. Se in passato il problema dei responsabili della sicurezza informatica era legato alla mancanza di dati, oggi il rischio è l’eccesso: troppe informazioni, difficili da gestire e costose da trasferire e analizzare.

Le imprese devono quindi valutare di affidarsi a innovative tecnologie di data pipeline management che consentano di filtrare, analizzare, arricchire e instradare i dati in modo efficiente.

Poiché solo circa il 20% dei dati è realmente utile ai fini della cyber security, occorre ridurre i costi, migliorare l’efficacia operativa e abbassare i tempi di rilevamento e risposta agli incidenti.

Cresce inoltre l’attenzione sul luogo dove risiedono i dati, spinta sia dalla compliance normativa sia dalle tensioni geopolitiche e dal rischio di cyber spionaggio da parte di gruppi sponsorizzati dagli Stati.

Non si potranno automatizzare le responsabilità

Gli strumenti di AI potranno gestire gran parte delle procedure cyber eseguite dai team umani, i quali si occuperanno semplicemente di supervisionare poiché gestire l’output di migliaia di agent AI diventa impossibile con i tradizionali alert.

Servirà trovare il giusto equilibrio tra il livello di automazione e la responsabilità umana, laddove l’AI aggrega attività e alert correlati e li presenta come un unico punto decisionale per l’operatore.

Le persone prenderanno così una singola decisione, responsabile e verificabile, invece di dover valutare migliaia di decisioni individuali potenzialmente incoerenti, mantenendo la supervisione pur sfruttando al contempo la capacità dell’AI di svolgere un lavoro completo e coerente.

La cultura organizzativa definirà la maturità cyber

Sempre più sarà la cultura, non la tecnologia, a definire la maturità della cyber security.

Con i CISO delle principali aziende che segnalano budget invariati o in calo, molti passeranno dall’acquisizione di nuovi strumenti a un approccio basato sulla consapevolezza al tema resilienza dei singoli individui.

La prossima ondata di investimenti sarà dedicata all’integrazione della ‘security by design’ in ogni ruolo, processo e decisione.

Le organizzazioni più lungimiranti dovranno impegnarsi a misurare il cambiamento culturale con lo stesso rigore con cui misurano le performance tecniche.

I team di security passeranno dalla programmazione di sessioni di sensibilizzazione all’influenza sul modo in cui i rischi vengono discussi a livello del board. I CEO diventeranno sostenitori di una condotta sicura, integrandola nei KPI aziendali.


文章来源: https://www.cybersecurity360.it/nuove-minacce/come-difendersi-dai-sistemi-di-agentic-ai-serve-piu-cultura-organizzativa/
如有侵权请联系:admin#unsafe.sh