Guerre di Rete - L'inganno dell'automa
这篇文章介绍了《Guerre di Rete》电子报的内容,包括网络安全研究者的新书发布、AI劳动者的困境与抗议、AI隐私威胁及太空盾计划等科技议题。 2025-9-21 11:1:7 Author: guerredirete.substack.com(查看原文) 阅读量:13 收藏

Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N. 211 - 21 settembre 2025

Cosa è e come funziona la newsletter Guerre di Rete
Specie per i nuovi, ricordo che questa newsletter (che oggi conta 15mila iscritti - ma molti più lettori, essendo pubblicata anche online) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione.

Il progetto editoriale Guerre di Rete
In più, il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito.
Qui una lista con link dei nostri progetti per avere un colpo d’occhio di quello che facciamo.

In questo numero:
- Uscito il mio nuovo romanzo
- Uno spaccato tra i lavoratori che migliorano i sommari AI che leggete sui motori di ricerca
- Cos’è il model welfare e perché per alcuni è un depistaggio
- Scudi spaziali, guerre stellari e droni in Europa
- E altro

LIBRO
È uscito il mio nuovo romanzo, L’inganno dell’automa. Mi permetto di usare questo spazio per annunciarlo in anteprima perché, pur essendo un romanzo, è pieno di temi e questioni alla Guerre di Rete. Per cui ho pensato che potesse interessare ad alcuni dei miei 15 (mila) lettori. Qua una breve sinossi:

"Italia contemporanea. Andrea, un giovane ricercatore di cybersicurezza che vive tra Milano e la Liguria, viene interrotto nella sua edonistica quotidianità dalla notizia dell’arresto a Dubai di un vecchio amico. L’uomo, che commerciava vulnerabilità informatiche e si dedicava a vari traffici in giro per il mondo, è accusato di spionaggio.

Mentre Andrea cerca di capire come aiutare l’amico e cosa si nasconda dietro l’arresto, incrocia sulla sua strada una giornalista investigativa, Agnese, autrice di un blog molto seguito, dal quale si scaglia contro la corruzione del governo; ma anche Caterina, brillante e frustrata social media manager di una politica nazionale.

Travolta da rivelazioni, inquietanti trafficanti d’armi, e oscuri intrecci di politici corrotti e società di intelligenza artificiale, la vita dei tre viene cambiata, obbligandoli a cercare giustizia più che una facile via d’uscita.

E non tutto è ciò che sembra”.

Il libro è già acquistabile, in versione cartacea o ebook, sul sito dell’editore Venipedia.
https://mercante.venipedia.it/shop/libri/inganno-dellautoma/

Da ottobre sarà anche disponibile sulle maggiori piattaforme di vendita libri e nei negozi.
Non ho ancora informazioni da dare sulle presentazioni dal vivo, che comunque inizieranno più avanti. In ogni caso, se qualcuno ha proposte al riguardo, mi può scrivere.

AI, MACCHINE, LAVORO
Google: proteste, agitazione sindacale e licenziamenti tra i lavoratori AI in subappalto

Più di 200 collaboratori che lavoravano in subappalto alla valutazione e al miglioramento dei prodotti di intelligenza artificiale di Google sono stati licenziati senza preavviso in almeno due ondate di licenziamenti avvenute il mese scorso, riferisce un interessante articolo di WIRED Usa.

La valutazione, modifica e riscrittura delle risposte del chatbot Gemini per migliorare gli output dell’AI (tra cui la funzione di sintesi delle ricerche di Google chiamata AI Overviews) è affidata a collaboratori esterni impiegati dalla GlobalLogic (Hitachi) e da altre società di outsourcing. Diversamente dai lavoratori che devono etichettare o moderare contenuti, spesso dislocati in Paesi come il Kenya, pagati pochi dollari all’ora, e impiegati da varie società tech, in questo caso parliamo di persone reclutate negli Stati Uniti, insegnanti o professionisti del settore della conoscenza. In particolare, chi partecipava al programma Super Rater (dedicato ai sommari AI) doveva avere un master o un dottorato di ricerca, diversamente dai valutatori generalisti con il compito di giudicare output più semplici.

Secondo i lavoratori sentiti da Wired, i licenziamenti arrivano nel mezzo di una disputa in corso su retribuzioni e condizioni di lavoro. Ma chi è rimasto si chiede se il suo stesso lavoro non ponga le basi per la propria sostituzione.

“Secondo alcuni documenti interni visionati da WIRED - scrive la testata - GlobalLogic sembra utilizzare questi valutatori umani per addestrare il sistema di intelligenza artificiale di Google che valuta automaticamente le risposte, con l'obiettivo di sostituirli con l'intelligenza artificiale”.

Da autori a rater: la parabola discendente dei lavoratori della conoscenza

Uno spaccato di cosa voglia dire lavorare in questo settore lo si trova sul Guardian, dove una lavoratrice descrive i propri compiti: riceve un prompt - generato da utenti o sintetico – e due possibili risposte dell’AI, per poi scegliere quella più vicina alle linee guida ricevute. Ma, afferma, ai valutatori verrebbero fornite poche informazioni, oppure le linee guida cambierebbero troppo rapidamente per poter essere applicate in modo coerente. Quando le risposte dell’AI non sono corrette, lei deve valutarle in base a veridicità e fondatezza. Il tutto entro serrati ritmi di lavoro e di produttività.

Non manca l’esposizione a contenuti violenti, sensibili o disturbanti.

Questi lavoratori, all’interno della catena di fornitura globale dell'AI, occupano una posizione intermedia: guadagnano meglio degli annotatori di dati di Nairobi, ma molto meno degli ingegneri che progettano questi modelli. Soprattutto, tendono a essere invisibili.
Sull’invisibilità degli stessi esiste ormai un’ampia letteratura. Dal libro di Kate Crawford (Atlas of AI) a quello di Mary Gray e Siddharth Suri (Ghost Work) o di Antonio Casilli (Schiavi del clic).

E proprio Casilli recentemente si è scagliato contro l’ultima suggestione della Silicon Valley: “il model welfare”. Di che si tratta? Lo spiega un articolo di Wired di due settimane fa: “un settore piccolo ma in crescita chiamato “model welfare”, che si occupa di capire se i modelli di AI siano coscienti e meritevoli di considerazioni morali, come i diritti legali. Nell'ultimo anno sono nate due organizzazioni di ricerca che studiano il model welfare: Conscium ed Eleos AI Research”.

Qui non entro nemmeno nel merito di questo campo di ricerca, perché il punto che fa Casilli sul suo blog in un certo senso si ferma ancora prima del merito. Per usare le sue parole. “Il model welfare è un depistaggio. L'obiettivo di garantire diritti all'intelligenza artificiale va a braccetto con il fatto di spendere milioni di dollari per nascondere il lato oscuro della catena di approvvigionamento dell'AI, schiacciando i sindacati negli Stati Uniti e all'estero, subappaltando la miseria, traumatizzando i moderatori che filtrano contenuti tossici per pochi centesimi. Milioni di lavoratori umani addetti ai dati addestrano e mantengono questi sistemi, mentre le aziende privatizzano i guadagni e socializzano i danni. Se la Silicon Valley avesse davvero a cuore il benessere, inizierebbe dai lavoratori umani: salari dignitosi, contrattazione collettiva, sicurezza, responsabilità”.
“Il “campo di ricerca” del model welfare - aggiunge Casilli - non è stato creato da studiosi disinteressati. I suoi architetti gravitano nella stessa orbita delle principali aziende di AI”.

Qui si entra davvero nel campo minato dell’AI. Il fatto cioè che la ricerca del settore sia ormai legata a doppio, triplo filo con l'industria. Un tema di cui ci eravamo occupati già nel nostro ebook di due anni fa sull’AI generativa.Ad allargare ancora di più la visuale ci pensa un rapporto (uscito quest’estate) dell’AI Now Institute, molto critico verso vari aspetti dell’AI, legati alle dinamiche economiche, di mercato, di potere.

“Sommersa dall'entusiasmo per il potenziale (ipotetico) dell'AI, la realtà preoccupante del suo presente e del suo recente passato viene oscurata. Quando consultiamo i dati su come l'AI sta già intermediando infrastrutture sociali critiche, vediamo che sta materialmente rimodellando le nostre istituzioni in modi che aumentano la disuguaglianza, rendono le istituzioni opache per coloro che dovrebbero servire e concentrano il potere nelle mani di chi è già potente”, scrive il rapporto, che suggerisce anche come reagire. Ad esempio, promuovendo l'organizzazione dei lavoratori; e attuando un programma politico di “fiducia zero” (zero trust) per l'AI, ovvero non confidando nella benevolenza delle aziende che si occupano del settore.

AI E PRIVACY
Agenti AI come minaccia di nuovo livello per privacy e sicurezza

“Un agente AI (sistemi software progettati per compiere azioni concrete in modo autonomo per conto degli utenti, ndr) è un sistema complesso che include modelli AI, software e infrastruttura cloud. Affinché il sistema possa svolgere il proprio compito, ovvero riassumere le vostre e-mail o spendere i vostri soldi, ha bisogno di un accesso quasi totale alla vostra vita digitale. Non si tratta della consueta richiesta di autorizzazione per visualizzare i vostri contatti, ma è come concedere l'accesso “root” all'intero dispositivo. La cronologia del browser, i dettagli della carta di credito, i messaggi privati e i dati sulla posizione sono tutti destinati a diventare materiale per l'intelligenza artificiale”.

Così scrive in questi giorni sull’Economist Meredith Whittaker, che di privacy se ne intende, essendo presidente della fondazione Signal (la app di messaggistica cifrata).
Alcuni ricercatori hanno già dimostrato che gli agenti AI possono essere indotti a rivelare dati sensibili a cui hanno accesso. Ma per Whittaker il peggio deve ancora arrivare, ed è proprio la minaccia alla privacy delle comunicazioni, con la possibilità per gli agenti AI di aggirare le protezioni di app come Whatsapp o Signal.
Il problema è aggravato dal fatto che gli agenti non vengono offerti come app opzionali che possiamo scegliere di ignorare. Gli sviluppatori di sistemi operativi come Apple, Google e Microsoft, infatti, li stanno integrando nel cuore delle loro piattaforme, rendendoli praticamente obbligatori.

“Per dirla senza mezzi termini, il percorso attuale verso gli agenti AI porta all'eliminazione della privacy e della sicurezza a livello di applicazione”, scrive la presidente di Signal. Che offre anche alcune soluzioni. Una è che il controllo deve rimanere nelle mani degli sviluppatori di applicazioni che agiscono per conto dei propri utenti. L’altra è la richiesta di una trasparenza radicale: “i fornitori di sistemi operativi hanno l'obbligo di essere chiari e precisi in merito alla loro architettura e ai dati a cui accedono i loro agenti di intelligenza artificiale, alle modalità di utilizzo degli stessi e alle misure adottate per proteggerli”.

GUERRE STELLARI
Che cos’è il Golden Dome, lo scudo spaziale di Donald Trump

Sul sito Guerredirete.it Paolo Marelli racconta il faraonico scudo spaziale del presidente degli Stati Uniti, che sta però dividendo il Paese, con una battaglia su un budget da 175 miliardi di dollari e con una raffica di critiche sulla sua efficacia militare.

“Il Golden Dome dovrebbe fermare i missili in tutte e quattro le fasi di un potenziale attacco: rilevamento e distruzione prima di un’offensiva, intercettazione precoce, arresto a metà volo e arresto durante la discesa verso un obiettivo. E lo farà grazie a una flotta di satelliti di sorveglianza e a una rete separata di satelliti d’attacco.”
Leggi l’articolo su GuerrediRete

DRONI
L'Europa punta sulla tecnologia ucraina per creare una “barriera anti-droni” contro la Russia
Dopo le recenti incursioni della Russia nello spazio aereo della NATO, l'UE vuole investire miliardi nella creazione di una “barriera anti-droni” con una tecnologia collaudata in Ucraina.
La risposta della scorsa settimana alle incursioni aeree russe in Polonia e Romania ha dimostrato che la NATO utilizza tecnologie costose per intercettare droni relativamente economici, una vulnerabilità che Mosca può sfruttare ulteriormente. Per colmare questa lacuna, Bruxelles ha incoraggiato i suoi Stati Membri a utilizzare i fondi UE per acquistare congiuntamente sistemi già testati in Ucraina.
Financial Times

CHIPS WAR
Ora è la Cina a non volere più i chip americani

L'autorità cinese di regolamentazione di Internet ha vietato alle principali aziende tecnologiche come Alibaba e ByteDance di acquistare i chip RTX Pro 6000D AI di Nvidia, con l'obiettivo di ridurre la dipendenza dalla tecnologia statunitense. Pechino ritiene che i chip nazionali siano ormai alla pari con le prestazioni di Nvidia e sta accelerando gli sforzi per costruire un ecosistema AI autosufficiente.
Financial Times.
Intanto alcuni ricercatori tornano in Cina (Guardian).

EVENTI
Sarò a Firenze il 24 settembre per un dialogo con gli studenti di 42 Firenze sui temi dell’AI, dei diritti e della società digitale.

Il 25-26 darò a Modena al festival di giornalismo investigativo DIG Awards per tenere un workshop su giornalismo e AI.

E il 27 sarò a Roma a presentare, con Gerardo Di Giacomo, Romhack, la conferenza di cybersecurity organizzata da Cyber Saiyan.

Cosa è e come funziona la newsletter Guerre di Rete
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 14mila iscritti - ma molti più lettori, essendo pubblicata anche online) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione.

Il progetto editoriale Guerre di Rete
In più, il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito.
Qui una lista con link dei nostri progetti per avere un colpo d’occhio di quello che facciamo.

Discussione su questo Post


文章来源: https://guerredirete.substack.com/p/guerre-di-rete-linganno-dellautoma
如有侵权请联系:admin#unsafe.sh