Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N. 216 - 2 marzo 2026
Buongiorno a tutti, la newsletter torna oggi dopo una lunga pausa, a causa di importanti questioni personali che mi hanno impedito di scriverla. Per lo stesso motivo, ancora per un po’ di tempo non avrà una cadenza regolare. Grazie per la comprensione.
EBOOK GUERRE DI RETE
Ricordo che potete scaricare liberamente dal nostro sito il nostro recente Manualetto di sicurezza digitale per giornalisti e attivisti.
AI E GUERRA
L’AI va in guerra (c’era già, ma qualcosa è cambiato?)
È impressionante, ma non inaspettata, la velocità con cui siamo passati a parlare di intelligenza artificiale intesa come il tuo copilota personale o lavorativo che toglierà di mezzo un sacco di compiti noiosi, a intelligenza artificiale intesa come tecnologia che facilita un bombardamento.
Voglio dire, è ovvio che questo secondo aspetto fosse già lampante da tempo (per molti, sicuramente per questa newsletter e per il sito Guerre di Rete): del resto, bastava seguire i resoconti della guerra in Ucraina e degli attacchi israeliani su Gaza.
Ma lo scontro tra il Pentagono e Anthropic (società che produce Claude, la nota famiglia di modelli linguistici di grandi dimensioni) ha avuto il merito di funzionare da pirandelliano strappo nel cielo di carta.
Si sta infatti cementando un complesso militare-industriale con al centro l’intelligenza artificiale, su cui i governi (in primis, quello Usa), ossessionati dal raggiungere la supremazia tecnologica, stanno scommettendo moltissimo e per cui sono disposti a far saltare qualsiasi regola, anche nei rapporti con le società produttrici. E, d’altro canto, queste ultime, affamate di utili che ancora non arrivano, non si fanno alcuno scrupolo a siglare contratti coi militari, whatever it takes.
Tutto ciò, in uno scenario in cui le conseguenze di questa rapidissima integrazione tra AI e sistemi d’arma e d’intelligence sono ancora tutte da capire (in termini di affidabilità, sicurezza, risvolti etici, legali) e prospettano scenari distopici.
E dunque veniamo all’analisi di chi questo cielo di carta, nelle ultime settimane, lo ha preso a mazzate: lo scontro Anthropic-Pentagono, che ha portato alla messa al bando della società dai contratti governativi americani. Partendo però dalla fine. Perché secondo il WSJ, il Comando Centrale degli Stati Uniti (CENTCOM) ha ancora utilizzato l’intelligenza artificiale di Anthropic durante gli attacchi in Iran, poco dopo il ban. Del resto, Trump aveva specificato che ci sarebbe stata una fase di transizione di sei mesi per il Dipartimento della Difesa e le altre agenzie che utilizzano i prodotti dell’azienda. Nel mentre, il segretario alla Difesa Pete Hegseth ha ordinato al Pentagono di designare Anthropic un “rischio per la catena di approvvigionamento”, come una qualsiasi azienda hi tech cinese o russa sospettata di avere backdoor nei suoi prodotti (e infatti sulla dubbia legalità di questa mossa senza precedenti, rimando a questo articolo).
“Con effetto immediato, nessun appaltatore, fornitore o partner che intrattiene rapporti commerciali con l’esercito degli Stati Uniti può svolgere alcuna attività commerciale con Anthropic”, ha scritto Hegseth in un post sui social.
Su come Claude sia utilizzato dai militari si sa ovviamente poco. Sappiamo che Anthtropic è stata la prima società di modelli di AI ad ottenere un contratto da 200 milioni di dollari col Pentagono, la scorsa estate, creando dei modelli ad hoc, come Claude Gov, con meno restrizioni. E che fino a pochi giorni fa è stata l’unica a poter lavorare con sistemi classificati. Secondo fonti di Wired Usa, Claude Gov sarebbe utilizzato principalmente per compiti di routine, come la redazione di rapporti e la sintesi di documenti, ma anche per l’analisi delle informazioni e la pianificazione militare. “Da quanto ne sappiamo - scrive la newsletter AI Update - viene utilizzato per elaborare dati di intelligence, identificare pattern nelle immagini satellitari e nelle comunicazioni intercettate, eseguire simulazioni e generare briefing. Pensatelo come l’assistente di ricerca più costoso al mondo, non come un Terminator. Ma il confine tra “supportare le decisioni” e “prendere decisioni” diventa rapidamente sfumato quando si elaborano i dati che determinano dove cadrà il prossimo missile”.
Inoltre Claude è integrato in una piattaforma di Palantir, società di analisi dei dati ben nota per i molteplici contratti col governo Usa: si tratta del Maven Smart System, uno strumento di AI che fornisce alle truppe un quadro unificato delle informazioni di intelligence provenienti da più sensori.
Ed è proprio questa partnership che ha portato alle prime avvisaglie dello scontro Anthropic-Pentagono, quando a gennaio è emerso sui media che nella cattura di Maduro sarebbe stato usato anche Claude. Un dipendente di Anthropic avrebbe chiesto chiarimenti sull’operazione a una controparte in Palantir, che a sua volta avrebbe informato il Pentagono, che si sarebbe alquanto irritato. Anche perché probabilmente erano già in atto delle tensioni e negoziazioni con la società cofondata da Dario Amodei sulle restrizioni volute dalla stessa società nell’utilizzo di Claude da parte dei militari. Fra queste, due apparivano come non negoziabili per Amodei: no all’uso per fare sorveglianza di massa sui cittadini Usa; no all’uso in armi completamente autonome (senza supervisione umana).
Due questioni che erano già state sottolineate da Amodei in un saggio pubblicato a gennaio. E che sono francamente diventate una sorta di limite etico minimo, una specie di palizzata disperata contro i carri armati della distopia. Per questo Amodei, e Anthropic, che hanno costruito la loro società sull’idea, se volete sul brand, di essere migliori di OpenAI, di pensare di più alla sicurezza e all’etica, non avrebbe mai potuto cedere alle minacce del Pentagono. È stata la cronaca di una spaccatura annunciata.
Ora Anthropic, che combatterà in tribunale la designazione di rischio nella catena di fornitura, è diventata un paria per il governo ma si è guadagnata il rispetto di molti nel settore. E ha generato delle scosse telluriche in altre aziende, dove i dipendenti di sono messi a firmare petizioni per chiedere di opporsi all’uso dei loro strumenti di intelligenza artificiale per la sorveglianza di massa e per la produzione di armi in grado di uccidere senza il controllo umano. E mentre Claude balza in cima ai download sull’App Store Usa, c’è chi chiede di boicottare ChatGPT dopo la notizia che OpenAI avrebbe invece trovato un accordo con il Pentagono per usare i suoi modelli in reti militari classificate. Un accordo che non convince anche molti esperti di tecnologia.
E quindi, siamo di fronte a una Authoritarian AI Crisis, come ha scritto Casey Newton? Non lo so, ma certo ci voleva una buona dose di ingenuità (o un fitto strato di prosciutto sugli occhi) per pensare che si potessero fare contratti coi dipartimenti della difesa senza che questi sollevassero grossi problemi etici per aziende private nate come laboratori di ricerca per costruire una tecnologia che migliorerà il mondo.
Ma almeno ora alcune delle contraddizioni sono più visibili per tutti. Come è palese che i margini di azione in questo campo da parte della società civile e di chi si preoccupa di diritti umani e legalità si stanno restringendo sempre più velocemente, se non si agisce subito.
DAL SITO GUERREDIRETE.IT
Assalto al trono di Nvidia
Rivali che puntano a eroderne il dominio, startup innovative e la rincorsa cinese: il gigante fondato da Jensen Huang deve iniziare a guardarsi alle spalle.
Di Andrea Daniele Signorelli
LINK VARI
Microsoft says bug causes Copilot to summarize confidential emails - Bleeping Computer
EU Parliament blocks AI tools over cyber, privacy fears – POLITICO
Guilty Verdict in Greece’s Predator Spyware Trial - tovima.com
LIBRO
Reminder: qualche mese fa è uscito il mio romanzo L’inganno dell’automa, un thriller pieno di temi da Guerre di Rete. Il libro si trova, in versione cartacea o ebook, sulle maggiori piattaforme di vendita di libri e sul sito dell’editore Venipedia, oltre che in negozio (ma spesso va ordinato
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 14.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo).
Ha anche una pagina Facebook, Linkedin e Instagram. Seguiteli!
