Gli agenti di Ai possono molto, ma non possono tutto e la narrazione che fino ad oggi li vorrebbe onnipotenti e onniscienti è alterata da esigenze di vendita e sfruttamento dell’attuale hype tecnologico.
Tuttavia, fare chiarezza su cosa possono e non possono fare gli agenti di AI è doveroso per permettere scelte consapevoli e soprattutto per evitare azioni frettolose verso le risorse umane e il conseguente rischio dell’effetto boomerang che già oggi è realtà.
La narrazione distorta sulle AI e sulle loro capacità e usi conseguenti è da ridimensionare in una visione più realistica. Questo anche per far comprendere i limiti di utilizzo nei diversi contesti lavorativi.
Il rischio per i C-level frettolosi e superficiali è introdurre in azienda sistemi di AI di capacità limitate, di qualità circoscritta (venduti come sostituti di risorse umane) pensando di risparmiare sul costo del lavoro nel breve periodo, ritrovandosi incapaci di crescere sul lungo periodo.
Anche le recenti tendenze di sostituire junior e mansioni più semplici con AI devono essere valutate con attenzione, per il rischio di alterare in modo sbagliato gli equilibri del mercato del lavoro che sebbene sia soggetto a normali fluttuazioni non dovrebbe essere stravolto da queste dinamiche.
Stefano Epifani, presidente della Fondazione per la Sostenibilità Digitale, in proposito ha recentemente scritto che “i modelli linguistici di AI possono far sembrare questi sistemi vere e proprie macchine pensanti. Ma sembrare pensante non vuol dire esserlo. E tali capacità non devono essere confuse con il possesso di intenzionalità o coscienza”.
Abbiamo voluto approfondire proprio con lui motivi per cui spesso le aspettative sulle AI sono considerate parigrado delle capacità umane secondo la tendenza ad antropomorfizzare le AI e quali errori ne conseguano.
Il docente chiarisce che “l’antropomorfizzazione dell’IA nasce dal nostro bisogno evolutivo di interpretare il mondo in termini umani. Si vedono volti nelle nuvole e intenzioni nei semafori, figurarsi in una chatbot che scrive poesie. Se un sistema linguistico risponde con coerenza, il cervello ‘colma il vuoto’ attribuendogli coscienza, emozioni, perfino umorismo”.
“Si tratta di un corto circuito cognitivo”, spiega, “la fluidità del linguaggio viene scambiata per pensiero. In fondo, se una macchina ci scrive ‘capisco come ti senti’, è più rassicurante crederle. Così l’IA, da calcolatore statistico, diventa falsamente compagno empatico. Ma è come affezionarsi a un frigorifero perché tiene bene il vino”.
Il livello degli errori che ne conseguono non è mai banale. Epifani, infatti, osserva come “antropomorfizzare l’IA porti a due errori opposti ma complementari: la sopravvalutazione delle sue capacità e la sottovalutazione delle nostre. Si delegano decisioni complesse a sistemi che non comprendono, si invocano ‘intelligenze’ artificiali come se fossero consulenti o terapeuti”.
Il passo ad una ulteriore ambigua serie di conclusioni è breve. Continua infatti il docente: “Da qui deriva, l’idea che l’IA possa sostituire medici, insegnanti, artisti. Ma una chatbot non insegna, ripete pattern. Un’auto non guida, risponde a sensori. Pensare che un algoritmo possa ‘capire’ un paziente o interpretare una poesia è come affidare la vita amorosa a un frigorifero intelligente. Il rischio? Un’epidemia di fiducia mal riposta”.
Proprio questa fiducia estrema è mal riposta per l’eccesso di aspettative verso gli strumenti di AI, perlomeno nel confronto diretto con l’essere umano. In effetti il docente chiarisce come “non convenga, né abbia senso sostituire l’umano in attività che richiedono empatia, creatività situata, giudizio etico o senso comune: educazione, cura, arte, giustizia”.
I motivi risiedono nei dettagli, spiega, “un assistente AI può correggere un tema, ma non cogliere la fragilità dietro un errore; può generare musica, ma non sentire una sinfonia. Le relazioni, i dilemmi morali, le decisioni complesse emergono dal corpo, dalla cultura, dall’esperienza. Pensare che una rete neurale possa sostituire un’insegnante è come credere che un dizionario possa educare un bambino da solo: ha tutte le parole, ma nessuna voce”.
A riprova di quanto spiegato da Epifani anche fatti di cronaca recenti evidenziano e comprovano i primi effetti boomerang di decisioni frettolose verso la sostituzione di persone con Agenti di AI.
Sostituzioni rivelatesi disastrose, che hanno richiesto di riassumere personale umano. Il caso non è neanche di una piccola azienda, ma della grande e nota IBM. La notizia diffusa a maggio 2025 evidenzia gli effetti del piano del CEO Arvind Krishna. Dal 2023 aveva annunciato in pompa magna tagli al personale (7800 unità licenziate) e l’automazione del 30% delle mansioni interne, soprattutto quelle ripetitive e descritte come ‘facilmente sostituibili’.
Per poi dover ammettere, in una intervista al WSJ quest’anno, che l’AI non basta e che ha dovuto riassumere personale in ruoli dove il pensiero critico e le capacità relazionali sono fondamentali ovvero programmatori, venditori e professionisti del marketing.
Inoltre, ha aggiunto come “le macchine non possano competere nella comunicazione, nella creatività e nell’adattabilità”, ammonendo sulla fretta di automatizzare e sui suoi effetti boomerang. Di fatto l’intelligenza artificiale è potentissima, ma non è onnipotente e il recente libro “AI Snake Oil: what artificial intelligence can do, what it can’t, and how to tell the dfference” di Arvind Narayanan e Sayash Kapoor, sembra dirlo molto chiaramente e molto apertamente (fonte: Agenda digitale).
Se si vuole comprendere al meglio cosa le AI non sappiano fare è utile ricordare che il loro apprendimento (spesso molto lungo) è estremamente circoscritto a problemi specifici: un’altissima specializzazione ma su temi delimitati.
Ne consegue che anche la capacità di multitasking è limitata. Anche se alcuni strumenti di Google sono stati avviati ad attività in parallelo, la realtà ad oggi è che le AI fanno una cosa per volta e con ‘prompt di richiesta’ che devono essere molto accurati (alla stregua di dover fare mentorship o coaching di continuo).
In aggiunta, per il modo in cui sono addestrate (qualità e quantità dei data set di apprendimento), non è immediatamente comprensibile dall’utilizzatore finale da dove derivi la qualità delle loro risposte (anche se si può chiedere la natura delle fonti), se tale qualità delle risposte sia veramente imparziale e/o se esente da bias.
Non è decidibile se la risposta dell’AI sia saggia o meno, perché mancano informazioni su come è stata ottenuta una risposta (negli LLM la risposta è probabilistica e non basata su un processo deduttivo). Per non parlare di valutazioni di carattere morale (che cercano di rifarsi al livello medio di morale della popolazione), reazioni di empatia, simpatia, comprensione di ironia e satira.
E su tutti, la proattività, che non appartiene affatto ai sistemi di AI, perché per sua costituzione, la tecnologia è principalmente reattiva: ha bisogno di input per fornire output e la qualità stessa dell’output dipende dalla qualità della progettazione e dell’input (fonti: IBM, Forbes).
Tutti elementi quelli sopraccitati fortemente condizionati da elementi valoriali, emozionali, ed etici che al momento non sono prerequisiti dei sistemi di AI. Anche la creatività in termini di generazione di nuove idee, soluzioni a problemi mai sperimentate prima, è lontana.
La creazione di canzoni o quadri o immagini è ancora guidata da esseri umani che interagiscono con i sistemi di AI. La generazione di parole non è equiparabile alla generazione di nuove idee, come la generazione di nuove immagini non è necessariamente sinonimo di creazione di un pensiero senziente e conscio di sé.
Per tutti questi motivi la sostituzione completa di un essere umano nel suo lavoro non ha senso, poiché come è noto, il valore di una risorsa non è solo costituita da hard e soft skill, ma anche da un valore intangibile prettamente umano fatto di idee, soluzioni, apporti motivazionali, iniziative innovative e critica costruttiva che corredano e a volte, arricchiscono a tal punto l’apporto della risorsa da renderla insostituibile per i suoi colleghi.
Tenendo conto delle competenze e capacità che non possono essere svolte dalle AI, vi sono attività professionali in cui la loro adozione si rivela una pessima scelta. Non è negli scopi di questo approfondimento fornire una lista puntuale delle attività lavorative specifiche, ma in termini generali è intuitivo e improbabile che l’intelligenza artificiale possa sostituire i lavori che richiedono competenze strettamente umane come giudizio, creatività, destrezza fisica, intelligenza emotiva e sociale.
Lo stesso dicasi per i ruoli che necessitano di pensiero analitico, empatia e ascolto attivo, leadership, pianificazione e influenza sociale. Fin dal 2023 uno studio del WEC dal titolo Future of Jobs Report 2023, aveva valutato la non sostituibilità di alcuni ruoli tanto nel contesto dell’agricoltura, nel campo dell’educazione, nelle catene di fornitura e nella logistica.
Ma alla luce di quanto accaduto in IBM e delle parole del suo CEO Arvind Krishna, questa dinamica riguarda anche programmatori, venditori e professionisti del marketing senza dimenticare anche business developer e le figure dedite alle relazioni istituzionali e pubbliche, o alla comunicazione esterna e gestione delle crisi.
Un’ultima e significativa osservazione andrebbe anche fatta in funzione della sostenibilità ambientale: il cervello umano è un organo ad alta efficienza, che può gestire molte capacità consumando da 350 a 500 calorie al giorno, pari a circa 20 watt di potenza (Fonte Human Brain project).
Prendendo un qualsiasi sistema di AI ad alta capacità di calcolo (come, ad esempio, un supercomputer) si arriva circa a 2 milioni di watt, a fronte di capacità più limitate.
Allora valutando la RAL media di un dipendente e i risultati di un investimento nella sua formazione e crescita e facendo un confronto con i costi di sistemi di AI (costi di prodotto ed elettrici) siete davvero sicuri che la spesa sia più conveniente e più sostenibile? Ai posteri…