Deepfake: il nuovo punto vulnerabile delle aziende è umano
Le tecnologie per la generazione di audio e video sintetici, i deepfake, hanno raggiunto una soglia 2025-11-20 10:6:30 Author: www.cybersecurity360.it(查看原文) 阅读量:15 收藏

Le tecnologie per la generazione di audio e video sintetici, i deepfake, hanno raggiunto una soglia critica. Un tempo limitate soprattutto all’intrattenimento per social media e alle occasionali manipolazioni politiche, oggi sono strument pienamente integrati nelle tattiche dei cyber attacchi.

Questo cambiamento rappresenta molto più di un’evoluzione tecnologica, segnando una trasformazione in cui la percezione umana è diventata essa stessa superficie di attacco.

Riconoscere una voce o un volto familiari non è infatti più garanzia di autenticità.

La manipolazione del comportamento umano

In questo contesto le aziende devono fare i conti con una minaccia che non si basa tanto su competenze puramente tecniche quanto più sulla sottile manipolazione del comportamento umano.

Le campagne truffaldine ricorrono oggi a voci clonate e video manipolati per simulare comunicazioni autentiche che traggono in inganno anche il più attento dei dipendenti.

Nel febbraio 2024, un impiegato di una multinazionale di Hong Kong ha trasferito 24 milioni di dollari, dopo essere stato ingannato da un deepfake. La truffa ha avuto successo perché tutto sembrava autentico: accento, ritmo, tono.

L’ampia disponibilità di questi tool, grazie al loro basso costo e alla facile accessibilità, accelera l’industrializzazione di questo tipo di attacchi.

Una minaccia tecnologica diventata umana

Gli attacchi simulati condotti da organizzazioni internazionali dimostrano che i deepfake non sono più una semplice ipotesi futuristica bensì una realtà ormai
radicata.

Un report Anozr Way del 2024 aveva calcolato che i deepfake avrebbero potuto passare dai 500.000 casi del 2023 agli 8 milioni del 2025. I deepfake sfruttano una vulnerabilità raramente prevista dalla cybersicurezza: la nostra fiducia istintiva nelle interazioni umane.

Le voci clonate impersonano dirigenti d’azienda. I video generati, a partire da contenuti pubblici, vengono inseriti all’interno di scenari credibili che traggono in inganno anche il personale più esperto.

Al di là della complessità tecnica, è l’industrializzazione di questi attacchi ciò che dovrebbe suscitare allarme.

Per clonare una voce oggi bastano solo pochi secondi di audio pubblicamente
disponibile, spesso reperibile su canali come YouTube o TikTok, permettendo di
generare voci artificiali in pochi minuti e a costi contenuti. Queste voci vengono
quindi usate in campagne automatizzate come telefonate di massa condotte da
agenti conversazionali capaci di simulare interazioni umane convincenti.

Questo cambiamento di paradigma sposta il vettore di attacco dai sistemi IT al comportamento umano sfruttando fiducia, senso di urgenza e riconoscimento delle voci.

L’identità: la nuova superficie di attacco

Negli attacchi più recenti, compresi quelli sferrati contro Marks&Spencer e Jaguar Land Rover, assistiamo a un chiaro mutamento nel comportamento degli attaccanti.

I malintenzionati non cercano più di entrare surrettiziamente nei sistemi, semplicemente vi si collegano, grazie a credenziali perfettamente valide ottenute mediante campagne di phishing, vishing e social engineering che consentono di operare sotto il radar delle difese tradizionali.

I deepfake estendono questo schema, permettendo il furto e l’imitazione delle identità stesse. Una voce clonata o un volto generato dalla AI possono superare lo scetticismo, facendo credere alle persone di interagire con un collega o un dirigente conosciuti.

L’identità è diventata la principale moneta dell’accesso. Se le aziende rafforzano i loro controlli tecnici, gli attaccanti passano a sfruttare sempre più la fiducia umana usandola come la strada più facile per entrare.

Questa convergenza tra social engineering e impersonificazione basata su AI significa che la prossima ondata di attacchi non sarà più rivolta contro le vulnerabilità dei sistemi IT, bensì contro le persone.

Consapevolezza, dubbio e verifica: i nuovi pilastri della cybersicurezza

La maggior parte delle aziende ha concentrato gli sforzi della cyber sicurezza sulla protezione di dati e sistemi.

Con i deepfake, tuttavia, il punto di ingresso diventano gli esseri umani. Questi attacchi sfruttano una importante falla dell’attuale cyber sicurezza: la mancanza di riflessi di verifica nelle comunicazioni vocali e video.

Anche se moltissime organizzazioni effettuano campagne email per diffondere la consapevolezza del phishing, la consapevolezza dei deepfake resta minima. A differenza del phishing, che oggi è ben compreso, la falsificazione di chiamate e videoconferenze resta ancora fortemente sottovalutata.

Il realismo dei deepfake, in particolare in situazioni di stress o di urgenza, oscura quei sottili segnali che potrebbero suscitare allarme.

Il rilevamento dipende dalla capacità di notare piccole incongruenze come ritardi
nella temporizzazione o inflessione lievemente robotica, segni che è facile ignorare nel corso di una giornata impegnata.

Le aziende devono definire procedure di verifica che vadano al di là dei controlli tecnici: per esempio includere domande contestuali a cui solamente un vero collega saprebbe rispondere e che cambino regolarmente (per esempio, “Quand’è stata l’ultima volta che ci siamo incontrati?”) o conferme attraverso canali secondari.

“Fidarsi, ma controllare” è un motto usato da tempo nella cyber sicurezza, ma gli attacchi basati sull’identità come i deepfake lo rendono attuale come non mai.

Le robocall

Le telefonate automatiche (“robocall”), già ampiamente utilizzate per chiamare quotidianamente utenti individuali mediante la AI, possono essere sfruttate anche per scopi illeciti.

Anche qui brevi ritardi di temporizzazione e irregolarità nell’intonazione sono indicatori a cui fare attenzione.

Come proteggersi

La consapevolezza del personale non può più essere limitata alla posta elettronica. Deve piuttosto includere questi nuovi scenari addestrando i dipendenti al riconoscimento delle manipolazioni e promuovendo una cultura di verifica sistematica.

La fiducia non deve più essere implicita, anche quando sembra naturale. La minaccia dei deepfake non può più essere considerata una curiosità tecnologica o un rischio di nicchia, poiché mette in discussione fin dalle basi il modo in cui le aziende gestiscono la fiducia, la tracciabilità delle decisioni e la sicurezza delle comunicazioni.

Le aziende devono integrare nella governance queste attenzioni: simulazioni di crisi, protocolli di verifica, canali di informazione ridondanti e formazione continua.

Più che una risposta tecnologica, questo scenario richiede un approccio organizzativo, cognitivo e culturale.

Contro un’illusione digitale che si affida alla familiarità, solo una vigilanza attiva può evitare che si verifichi il prossimo attacco, utilizzando la voce del Ceo.


文章来源: https://www.cybersecurity360.it/nuove-minacce/deepfake-il-nuovo-punto-vulnerabile-delle-aziende-e-umano/
如有侵权请联系:admin#unsafe.sh