Negli ultimi anni, i LLM (ChatGpt e similari) sono diventati strumenti di conversazione sempre più diffusi, in grado di fornire risposte fluide e apparentemente sicure su qualunque argomento. Ma dietro questa sicurezza si nasconde un limite fondamentale: le AI non sanno davvero ciò che dicono.
Un caso emblematico si è verificato con Grok, il chatbot di xAI. All’improvviso, il sistema è stato sospeso dalla piattaforma X. Quando gli utenti hanno chiesto spiegazioni al sistema stesso, Grok ha fornito motivazioni completamente diverse tra loro: in un caso ha detto di essere stato bloccato per aver accusato Israele e gli Stati Uniti di genocidio a Gaza, in un altro per presunte violazioni di norme su contenuti per adulti, e ancora per segnalazioni legate a messaggi d’odio.
In realtà, Elon Musk ha poi chiarito che la sospensione era dovuta a un “errore stupido” e che il chatbot non aveva alcuna conoscenza reale della causa.
Questo episodio dimostra un punto cruciale: i chatbot non hanno consapevolezza delle proprie azioni. Non sono in grado di spiegare il loro funzionamento o il motivo per cui accade qualcosa. Si limitano a generare frasi statisticamente plausibili sulla base dei dati di addestramento.
Perché i chatbot hanno le allucinazioni
I modelli di AI generativa funzionano con logiche probabilistiche: prevedono la parola più probabile da generare. Questo comporta che i modelli linguistici abbiano quelle che vengono chiamate “allucinazioni” (AI hallucination): il termine è usato per descrivere quando un modello di intelligenza artificiale generativa, come un chatbot o un sistema di text-to-image, produce un contenuto che sembra plausibile ma non ha alcun fondamento reale.
Questo comporta altresì che i LLM:
- non possono spiegare davvero se stessi;
- non hanno memoria consapevole delle loro istruzioni interne;
- inventano risposte quando non sanno cosa dire.
Senza documentazione trasparente su dati di addestramento, system prompts e meccanismi di revisione, è impossibile distinguere tra ciò che l’AI ha appreso e ciò che semplicemente inventa.
Senza una documentazione chiara fornita dagli sviluppatori — che indichi i dati di addestramento, le istruzioni iniziali e le modalità di revisione umana — non è possibile sapere cosa realmente accada all’interno del modello.
Un chatbot potrà anche sembrare onesto, ma il suo mestiere non è dirti la verità: è generare la risposta più probabile.