Guerre di Rete - Effetto Scarlett
2024-5-26 16:16:35 Author: guerredirete.substack.com(查看原文) 阅读量:12 收藏

Scarlett Johansson - Paul Bird, CC BY 2.0 <https://creativecommons.org/licenses/by/2.0>, via Wikimedia Commons

Guerre di Rete - una newsletter di notizie cyber
di Carola Frediani
N.187 - 24 maggio 2024

(Comunicazioni di servizio)
Specie per i nuovi, ricordo che questa newsletter (che oggi conta più di 13mila iscritti - ma molti più lettori, essendo pubblicata anche online) è gratuita e del tutto indipendente, non ha mai accettato sponsor o pubblicità, e viene fatta nel mio tempo libero. Se vi piace potete contribuire inoltrandola a possibili interessati, o promuovendola sui social. Molti lettori sono diventati sostenitori facendo una donazione.

Dona alla newsletter

In più, il progetto si è ingrandito con un sito indipendente e noprofit di informazione cyber, GuerrediRete.it. Qui spieghiamo il progetto. Qui l’editoriale di lancio del sito
Qui una lista con link dei nostri progetti per avere un colpo d’occhio di quello che facciamo.

Nel 2024 si è aggiunta Digital Conflicts, una newsletter bimensile in inglese, che per ora sarà principalmente una trasposizione della newsletter italiana, con alcune aggiunte e modifiche pensate per un pubblico internazionale (e con particolare attenzione all’Europa).
Qui leggete il primo numero.
Qui per iscriversi..

Qui invece potete scaricare gratis il primo ebook di Guerre di Rete che si intitola Generazione AI ed è dedicato agli ultimi sviluppi dell’intelligenza artificiale (uscito a settembre).

In questo numero:

- Effetto Scarlett (Johansson)
- Un ChatGPT italiano van cercando
- Truffano azienda con deepfake
- E altro

AI
Effetto Scarlett (Johansson)
Usare la voce di una donna in un robot per “manipolare” l’opinione pubblica è una tattica presente fin dai racconti di Asimov (vedi “Intuito femminile”). L’idea che gli umani trattino i computer con voce femminile in modo diverso rispetto a quelli con voce maschile è trattata già in un noto studio di metà degli anni ‘90, The Media Equation. Mentre gli effetti psicologici indotti sugli umani anche da un chatbot primitivo e non certo “intelligente” sono stati sviscerati con approccio critico, già negli anni ‘70, da Joseph Weizenbaum, lui stesso creatore di un chatbot, anzi del primo chatbot, ELIZA (ne abbiamo scritto su Guerre di Rete).

Nel 2019 uno studio UNESCO analizzava (e criticava) la tendenza delle aziende tech a femminilizzare di default le voci degli assistenti vocali, sostenendo che potevano consolidare o affermare pregiudizi di genere. Nel 2020 (quindi prima dell’esplosione dell’AI generativa) un report dell’istituto americano Brookings e di quello italiano ISPI tornava sul tema con un articolo intitolato: “Come i bot e gli assistenti vocali rafforzano i pregiudizi di genere”.

Mentre le due ricercatrici Kate Crawford e Jessa Lingen nel 2020 analizzavano non solo gli stereotipi di genere degli assistenti vocali, ma anche come questa rappresentazione aiutasse a non percepirli come strumenti di sorveglianza.

In questo contesto inseriamo Sam Altman, Ceo di OpenAI (la società dietro a ChatGPT). Il quale decide che la nuova modalità per cui si può parlare con ChatGPT-4o deve avere la voce di Scarlett Johansson, che fra le altre cose ha interpretato l’intelligenza artificiale di cui Joaquin Phoenix si innamora nel film Her.
A una prima dimostrazione di questa funzione a settembre molti avevano già notato che Sky, una delle voci con cui il chatbot poteva parlare, assomigliava molto a quella dell’attrice.

Veniamo all’oggi. In questi giorni Johansson ha rivelato che Altman aveva tentato di negoziare con lei per mesi per prestare la sua voce a ChatGPT, perché ciò “avrebbe aiutato i consumatori a sentirsi più a loro agio” con questo cambiamento tecnologico.

Ma l’attrice si rifiutò. Salvo rimanere di sasso quando poi è uscita la demo con una voce così simile alla sua. Johansson ha detto di essere rimasta “scioccata, arrabbiata e incredula”. Tanto più che a pochi giorni dal lancio della demo Altman aveva ricontattato il suo agente, chiedendo di rivedere la sua decisione. E prima di poter anche solo rispondere, la demo era uscita.
“Sul momento, era sembrato un grande successo”, scrive in questi giorni il giornalista Casey Newton nella sua newsletter Platformer.  “Certo, avevo trovato il suo flirt aggressivo inquietante e apparentemente in contrasto con le precedenti dichiarazioni di Altman, secondo cui l'azienda non avrebbe perseguito strumenti di intelligenza artificiale che facessero da compagni romantici. Ma la demo era indubbiamente riuscita ad affascinare il mondo della tecnologia”.

Ma la faccenda è tornata indietro come un boomerang, anche perché Johansson ha mobilitato gli avvocati (e diffuso un messaggio pubblico che viene riportato qua). E così la scorsa domenica OpenAI ha annunciato che avrebbe tolto la voce Sky da ChatGPT, spiegando che si trattava di un fraintendimento e che non c’era stata alcuna intenzione di scippare la voce all’attrice contro la sua volontà (qua la spiegazione di OpenAI). Tanto più, ha riportato poi il WahsPost, che per Sky non ci sarebbe stata clonazione della voce di Johansson, ma sarebbe stata reclutata un’attrice, e che la documentazione uscita finora non mostrerebbe esplicite richieste di trovare una sonorità simile a quella della più nota superstar.

Il problema è che non aiuta a credere a questa interpretazione - ovvero che sia stato un fraintendimento, una somiglianza casuale - il fatto che proprio Altman, con mossa devo dire molto muskiana, poco dopo la dimostrazione di maggio abbia twittato un tweet con scritto solo Her, appunto il titolo del film con Johansson, annullando come nota qualcuno ogni possibile plausible deniability (traducibile tecnicamente in: “davvero? non sapevo, non sono stato io, ma che strana coincidenza”). Se pensava di prendersi una sorta di vendetta per il gran rifiuto dell’attrice (che per inciso aveva già messo Disney alle strette aprendo un contenzioso poi conclusosi con un accordo per lei soddisfacente), ha pensato molto male.

Soprattutto la vicenda ha assunto un significato simbolico che va ben oltre la nota celebrità, e anche oltre le modalità con cui sarebbe stata ottenuta quella voce (ragioni legali incluse, che in ogni caso restano incerte: anche se la voce non è clonata, dati i precedenti e gli elementi di contesto, OpenAI è ancora a rischio, come spiega The Verge). E ciò a causa del comportamento complessivo di Altman e OpenAI, e più in generale a causa dell’approccio complessivo di questa industria.

“Johansson è una delle attrici più famose del mondo e parla a nome di un'intera classe di creativi che si sta confrontando con il fatto che i sistemi automatizzati hanno iniziato a erodere il valore del loro lavoro”, commenta ancora Newton.

Scrive anche l’autore (e professionista di PR) Ed Zitron: “Non dovrebbe sorprendere che la Johansson non abbia colto al volo l'opportunità di lavorare con OpenAI. In quanto membro del sindacato dei lavoratori dello spettacolo SAG-AFTRA, Johansson ha partecipato allo sciopero del 2023, che ha di fatto bloccato tutta la produzione televisiva e cinematografica per gran parte dell'anno. Una delle principali preoccupazioni del sindacato era l'uso potenziale dell'AI per creare una copia di un attore, utilizzando le sue sembianze ma senza pagarlo”.

Zitron, ricordando anche come OpenAI non abbia voluto dire se Sora, il suo modello che genera video da testo, sia stata addestrato sui video di YouTube, giunge a una conclusione radicale: “bisogna smettere di ascoltare tutto ciò che Sam Altman ha da dire”.

Il giornalista tech Brian Merchant (autore del bel libro Blood in the machine, di cui ho parlato in passato) estende ancora di più il concetto: “la stessa OpenAI è un motore che si basa sul pensare che tutto ti sia dovuto: di avere il diritto di raccogliere e riappropriarsi in modo non consensuale delle opere di milioni di scrittori, programmatori, artisti, designer, illustratori, blogger e autori, il diritto di usarle per costruire un prodotto a scopo di lucro, il diritto di scavalcare chiunque all'interno dell'azienda si preoccupi di aver tradito la sua missione di sviluppare responsabilmente i suoi prodotti. Il diritto di copiare la voce di una delle star del cinema che ha incassato di più al mondo dopo che lei ha detto di no”. Gran parte della promessa dell'AI generativa, così come è attualmente costituita, è guidata da questo modo di pensare, afferma Merchant.

Il fatto che perfino una personalità come Johansson “non riesca a sfuggire allo sfruttamento tech”, per citare le parole dell’autore e podcaster Paris Marx, e che l’arroganza di alcuni magnati e amministratori tech non sembri fermarsi neanche di fronte a celebrità molto più potenti dei comuni cittadini, ci deve far riflettere su quanto abbiamo concesso a quell’arroganza di crescere. Su quanto abbiamo accettato acriticamente la “versione di Altman” e di altri come lui. E su quanto hype continui a spargersi da questo settore.

Nel mentre il team di “super-allineamento” di OpenAI ha visto diverse dimissioni chiave, incluso Ilya Sutskever (Vox).

- Leggi anche questo recente studio di DeepMind che analizza tra le altre cose il rischio di antropomorfizzare gli assistenti AI. DeepMind.

AI, LLM, ITALIA
Un ChatGPT italiano van cercando

“Ma un dataset forte, in italiano, ancora manca. Ed è questo il problema principale per avere un campione nazionale degli LLM. La domanda, a questo punto è chiara: perché questo lavoro di sistematizzazione non è stato fatto? E a chi spetta? 

“La risposta è che raccogliere questi dati, aggiungere tag e metadati è un’operazione lunga, complessa”,  spiega a Guerre di Rete il CTO di un’importante società, che accetta di parlare a condizione dell’anonimato. “Questo lavoro di sistematizzazione non l’ha ancora fatto nessuno. E per venirne a capo serve l’intervento dello Stato, ma anche quello dei privati”. Poi torna sul tema commerciale: “Chi sarà in grado di firmare accordi vincenti avrà il maggior vantaggio in futuro”.
Ad ogni modo, ecco di seguito alcuni dei progetti più avanzati in Italia sul fronte degli LLM. Si tratta di una lista non esaustiva e in continuo aggiornamento, ma quanto di seguito offre una buona fotografia.

Leggi tutto l’articolo di Antonio Piemontese sul sito Guerre di Rete sui progetti di ricerca nazionali che stanno mettendo a punto modelli linguistici basati sull’italiano: la sfida oggi è su dataset, licenze e infrastrutture.

POLITICA, AI
Come i politici indiani stanno usando l’AI generativa
I partiti politici indiani hanno sfruttato l'intelligenza artificiale per distorcere la realtà attraverso falsi audio a basso costo, immagini di propaganda e parodie. Ma mentre il discorso globale sui deepfake si concentra spesso sulla disinformazione, molti politici indiani stanno usando la tecnologia per raggiungere e mobilitare gli elettori.
Wired Usa.

Tracciare la disinformazione sotto elezioni
La testata Rest of World ha lanciato un progetto, “2024 AI Elections Tracker”, per monitorare la disinformazione generata e diffusa dall’intelligenza artificiale, con una attenzione particolare ai “Paesi al di fuori dell’Occidente”.
Sky Tg24

AI E DATI
Sorpresa per gli utenti di Slack

Slack ha ricevuto critiche dagli utenti per la sua ambiguità su come i dati degli utenti siano utilizzati per addestrare il suo prodotto Slack AI.
TechCrunch

CYBERSECURITY
Truffano azienda con deepfake
La multinazionale britannica di design e ingegneria Arup ha confermato di aver subito una truffa con al centro l’uso di deepfake nel febbraio di quest'anno. L'azienda ha perso 25 milioni di dollari dopo che uno dei suoi dipendenti di Hong Kong è stato indotto a inviare fondi a un conto bancario sbagliato. Il dipendente ha dichiarato di aver trasferito i fondi dopo che i truffatori lo avevano invitato a una videocall con versioni deepfake dei suoi colleghi e del direttore finanziario dell'azienda.
Sono sempre un po’ scettica verso questo genere di notizie se mancano i dettagli, ma un portavoce dell’azienda avrebbe confermato a CNN che sarebbero state usate “immagini e voci finte”. Anche la polizia di Hong Kong aveva parlato di “creazioni deepfake”.
Secondo la polizia, il lavoratore aveva inizialmente sospettato di aver ricevuto un'e-mail di phishing dall'ufficio britannico dell'azienda, in quanto specificava la necessità di effettuare una transazione segreta. Tuttavia, il lavoratore avrebbe messo da parte i suoi dubbi dopo la videochiamata perché le altre persone presenti avevano l'aspetto e la voce di colleghi che aveva riconosciuto. Vedremo se i dettagli verranno confermati.
CNN

Gli Usa vogliono aumentare la protezione dei servizi idrici
L'Agenzia statunitense per la protezione dell'ambiente (EPA) ha sollecitato le aziende di servizi idrici a migliorare le proprie difese di sicurezza informatica. Secondo l'agenzia, da recenti ispezioni è emerso che oltre il 70% delle aziende idriche non soddisfa gli standard di base di cybersicurezza. L'EPA afferma di aver trovato sistemi con vulnerabilità critiche non patchate e con password predefinite.
EPA.Usa, programma per gli ospedali
Sempre gli Stati Uniti stanno investendo 50 milioni di dollari in un programma volto a creare strumenti informatici per proteggere gli ospedali da cyber attacchi. Il nuovo programma si chiama UPGRADE, ovvero Universal PatchinG and Remediation for Autonomous DEfense. UPGRADE sarà in grado di testare le reti ospedaliere, identificare i sistemi vulnerabili e distribuire automaticamente le patch. Lo scopo del programma è quello di mantenere le reti aggiornate con il minimo sforzo da parte del personale IT dell'ospedale.
AHA.

ITALIA
Amazon vuole entrare nel cloud nazionale italiano
Amazon web services è in trattativa con il Polo strategico nazionale per diventare il quarto fornitore dell'infrastruttura dove gli enti pubblici devono migrare i loro dati più sensibili.
Wired Italia

AI
Questo articolo mi ha fatto molto ridere (nello sconforto).
Lascio il titolo originale perché merita.
Google Is Paying Reddit $60 Million for Fucksmith to Tell Its Users to Eat Glue.
404media

RANSOMWARE
Sei mesi dopo l’attacco informatico, la British Library non è più la stessa cosa.
Il Post. (Della faccenda ne avevo scritto mesi fa in newsletter se ricordate, purtroppo la situazione non si è ancora risolta).

EVENTI
A settembre torna RomHack, la conferenza di cybersecurity organizzata a Roma da Cyber Saiyan che avrò di nuovo l’onore di presentare insieme a Gerardo Di Giacomo.
Qui trovate la Call For Papers.
Qui per iscriversi ai training.

→ DIFFONDI LA NEWSLETTER
Ti è piaciuta la newsletter? Inoltrala a chi potrebbe essere interessato! Promuovila sui social. La newsletter (che è fatta nel mio tempo libero) resta gratuita, indipendente, senza sponsor, mandanti o agende altrui, e si diffonde col passaparola dei suoi stessi utenti. 

Non sei ancora iscritto? Iscriviti qua, è gratuita.

Grazie per aver letto Guerre di Rete! Iscriviti gratuitamente per ricevere nuovi post e per supportare il mio lavoro.

Dona alla newsletter

—> INFO SU GUERRE DI RETE
Guerre di Rete è un progetto di informazione sul punto di convergenza e di scontro tra cybersicurezza, sorveglianza, privacy, censura online, intelligenza artificiale, diritti umani, politica e lavoro. Nato nel 2018 come newsletter settimanale, oggi conta oltre 12.000 iscritti e da marzo 2022 ha aggiunto il sito GuerreDiRete.it.
Nell’editoriale di lancio del sito avevamo scritto dell’urgenza di fare informazione su questi temi. E di farla in una maniera specifica: approfondita e di qualità, precisa tecnicamente ma comprensibile a tutti, svincolata dal ciclo delle notizie a tamburo battente, capace di connettere i puntini, di muoversi su tempi, temi, formati non scontati.
Il progetto è del tutto no profit, completamente avulso da logiche commerciali e di profitto, e costruito sul volontariato del gruppo organizzatore (qui chi siamo).
Ha anche una pagina Facebook, un profilo TwitterLinkedin e Instagram. Seguiteli! I podcast della newsletter li trovate sulle principali piattaforme ma attualmente sono in pausa (Apple Podcasts; Spotify; Google Podcast; Anchor.fm)


文章来源: https://guerredirete.substack.com/p/guerre-di-rete-effetto-scarlett
如有侵权请联系:admin#unsafe.sh