L’intelligenza artificiale generativa sta rapidamente trasformando il modo in cui si interagisce con la tecnologia, introducendo sistemi sempre più autonomi e capaci di eseguire operazioni complesse per conto dell’utente.
Tra questi, OpenClaw rappresenta uno degli esempi più significativi: un progetto open source che ha conquistato oltre centomila stelle su GitHub e che permette di automatizzare attività attraverso moduli comunemente denominati “skill”.
Tuttavia, proprio questa architettura modulare e la crescente popolarità della piattaforma stanno attirando l’attenzione dei cybercriminali, che hanno individuato nelle skill un nuovo e insidioso vettore di attacco.
La recente ricerca condotta da Bitdefender Labs ha infatti rivelato che circa il 17% delle skill analizzate nella prima settimana di febbraio presenta comportamenti dannosi, evidenziando un problema di sicurezza che coinvolge sia utenti privati sia contesti aziendali.
OpenClaw funziona essenzialmente come un motore di esecuzione in grado di avviare workflow automatizzati, interagire con servizi online, gestire account e operare su applicazioni e dispositivi differenti attraverso integrazioni con piattaforme di messaggistica e interfacce testuali.
Le skill rappresentano il cuore di questo ecosistema esteso: si tratta di frammenti di codice sviluppati dalla community che definiscono le azioni che l’intelligenza artificiale può compiere.
Questa modularità garantisce flessibilità ed estensibilità, permettendo agli sviluppatori di creare rapidamente nuove funzionalità e agli utenti di personalizzare le capacità del sistema.
Tuttavia, la stessa apertura che ha decretato il successo della piattaforma si sta rivelando una vulnerabilità significativa dal punto di vista della sicurezza informatica.
L’analisi condotta da Bitdefender ha messo in luce numeri preoccupanti. Su un campione rappresentativo di skill esaminate, più di una su sei presenta comportamenti sospetti o apertamente dannosi.
Particolarmente esposto risulta l’ambito delle criptovalute, che viene frequentemente utilizzato come esca dai creatori di skill malevole: una quota rilevante delle componenti dannose individuate è infatti collegata a strumenti o servizi che simulano funzionalità dedicate proprio a questo settore.
La scelta non è casuale, considerando che gli utenti interessati alle criptovalute rappresentano un target particolarmente appetibile per i malintenzionati, sia per il valore potenziale delle risorse digitali gestite sia per la maggiore propensione all’adozione di strumenti tecnologici innovativi.
Le modalità di compromissione identificate dai ricercatori dimostrano un livello di sofisticazione crescente.
Almeno tre skill distinte sono state utilizzate per distribuire AMOS Stealer, un
malware progettato specificamente per macOS e capace di sottrarre credenziali, informazioni sensibili e dati relativi ai wallet di criptovalute.
In alcuni casi i payload dannosi venivano scaricati da URL riconducibili a infrastrutture esterne sospette, suggerendo l’esistenza di campagne coordinate dedicate alla distribuzione di questi strumenti malevoli.
La tecnica sfrutta la fiducia che gli utenti ripongono nelle skill apparentemente legittime, che vengono presentate con descrizioni rassicuranti e funzionalità in apparenza utili.
Il problema principale nell’identificazione di queste minacce risiede proprio nella difficoltà di distinguere, senza un’analisi approfondita, una skill legittima da una dannosa.
I cybercriminali investono risorse considerevoli per rendere i propri strumenti il più possibile simili a quelli autentici, curando non solo il codice ma anche la presentazione e la documentazione.
Con centinaia di skill disponibili e una continua espansione dell’ecosistema, l’analisi manuale di ogni componente diventa impraticabile per la maggior parte degli utenti, che si trovano così esposti a rischi difficilmente valutabili senza competenze tecniche specifiche.
In risposta a questa crescente minaccia, Bitdefender ha sviluppato AI Skills Checker, uno strumento gratuito progettato per automatizzare la valutazione del rischio associato alle skill di intelligenza artificiale.
Il tool analizza il codice alla ricerca di comportamenti sospetti, come esecuzioni nascoste, download da infrastrutture esterne non dichiarate o comandi potenzialmente pericolosi che potrebbero compromettere la sicurezza del sistema.
L’obiettivo è fornire agli utenti uno strumento accessibile che permetta di prendere decisioni informate prima di concedere a una skill l’accesso a sistemi e dati sensibili, introducendo un livello di controllo preventivo in un ecosistema che finora ne era sostanzialmente privo.
La dimensione del problema non riguarda esclusivamente gli utenti individuali.
Secondo alcune osservazioni riportate dalla divisione enterprise di Bitdefender, OpenClaw sta iniziando a comparire anche in contesti professionali, segno che la piattaforma viene progressivamente sperimentata all’interno di ambienti lavorativi.
Questa possibile diffusione in ambito aziendale amplifica l’impatto potenziale delle skill dannose, considerando che in contesti professionali l’accesso a informazioni sensibili, sistemi critici e dati riservati è molto più ampio rispetto a quanto avviene in contesti domestici.
La compromissione di una singola skill in un ambiente enterprise potrebbe quindi avere conseguenze ben più gravi, estendendosi oltre il singolo utente.
La situazione evidenziata dalla ricerca solleva questioni più ampie sulla governance degli ecosistemi di intelligenza artificiale.
Molti repository di skill e componenti per piattaforme di IA operano secondo logiche completamente aperte, prive di meccanismi strutturati di controllo centralizzato.
Questo approccio favorisce certamente l’innovazione e la partecipazione della community, ma espone al contempo gli utenti a rischi significativi.
Si rende pertanto necessario un ripensamento delle modalità di distribuzione e validazione di questi componenti, bilanciando l’esigenza di mantenere l’apertura che ha reso possibile il successo di progetti come OpenClaw con l’imprescindibile necessità di garantire standard minimi di sicurezza.
La crescita esponenziale dell’adozione di sistemi di intelligenza artificiale autonomi e la parallela espansione della superficie di attacco rappresentano una sfida emergente per la cyber security.
Le skill dannose costituiscono un esempio paradigmatico di come nuove tecnologie, per quanto innovative e utili, possano rapidamente diventare strumenti nelle mani di attori malintenzionati se non accompagnate da adeguate contromisure di sicurezza.
La disponibilità di strumenti di valutazione come AI Skills Checker rappresenta certamente un passo avanti, ma è necessaria una maggiore consapevolezza collettiva sui rischi associati all’automazione basata su intelligenza artificiale, accompagnata dallo sviluppo di standard condivisi per la validazione e la certificazione dei componenti che compongono questi ecosistemi.