Se il corpo diventa password: il revamping del riconoscimento facciale di Meta
Meta在2021年因社会压力停止面部识别后,于2024年重新引入该技术以打击广告欺诈和保护账户安全。尽管强调功能可选和数据删除承诺,但隐私、用户信任及潜在扩展风险引发关注。 2025-10-2 08:1:12 Author: www.cybersecurity360.it(查看原文) 阅读量:2 收藏

Nel 2021 Facebook (oggi Meta), con una decisione epocale, dettata da pressioni sociali, preoccupazioni etiche e dal timore di interventi regolatori, annunciava lo smantellamento del suo sistema di riconoscimento facciale usato per il “tag automatico” nelle foto e la cancellazione dei dati biometrici di oltre un miliardo di utenti.

Ora, a distanza di pochi anni, sembra di ricominciare: Meta ha deciso infatti di reintrodurre il riconoscimento facciale, presentandolo come strumento mirato e opzionale, volto a combattere le truffe pubblicitarie che usano volti noti e a rendere più sicuro il recupero degli account compromessi.

Questo ritorno tocca importanti aspetti centrali come privacy, fiducia degli utenti, potere delle piattaforme digitali e regole europee sull’IA.

La vera domanda è quindi la seguente: Meta si sta davvero limitando a proteggere gli utenti o sta, più silenziosamente, normalizzando un’infrastruttura biometrica globale in una forma apparentemente (e inizialmente) più accettabile?

Le nuove funzioni: tra tutela e normalizzazione

Prima del 2021 Facebook/Meta aveva già usato il riconoscimento facciale, ma solo per funzioni di tagging automatico (2010–2012) e di avviso all’utente quando compariva in foto non taggate (2017).

Le due funzioni pilota introdotte ora da Meta sono state presentate come strumenti di sicurezza.

La prima riguarda la protezione “celeb-bait”: quando un annuncio pubblicitario sfrutta l’immagine di una celebrità, il sistema confronta la faccia che compare nell’ad con le foto presenti nel profilo ufficiale della celebrity e, se viene rilevata una corrispondenza sospetta (cioè il volto dell’ad sembra proprio essere quello della celebrity, ma l’uso non è autorizzato o l’annuncio appare fraudolento), l’annuncio viene bloccato.

In questo senso, Meta si propone di rispondere direttamente al proliferare di truffe basate su volti noti, utilizzati senza autorizzazione. Attualmente Meta sta proponendo una sperimentazione con circa 50.000 celebrità e figure pubbliche che verranno “automaticamente iscritte” e che potranno disattivare la funzione esercitando l’opt-out.

La seconda riguarda il recupero degli account compromessi: gli utenti potranno inviare a Meta un breve video selfie che verrà confrontato con la foto del profilo, così da verificare rapidamente l’identità del titolare legittimo.

Meta insiste sul fatto che si tratta in entrambe i casi di funzioni opzionali, e che i dati biometrici raccolti saranno cancellati immediatamente dopo l’uso, una garanzia che (sulla carta) suona certamente rassicurante.

Tuttavia, ci si chiede come sia in concreto garantita la cancellazione completa in infrastrutture globali distribuite e chi sia il soggetto che vigilerà realmente sul rispetto di questa promessa.

Geografia e tempistiche: rollout calibrato

Il test del riconoscimento facciale è iniziato nel 2024 in mercati selezionati, evitando le aree più sensibili dal punto di vista regolatorio, come l’Unione Europea e il Regno Unito.

Da marzo 2025, con il via libera delle autorità britanniche, le nuove funzioni sono state estese al Regno Unito. In parallelo, Meta ha annunciato la volontà di introdurle anche nell’Unione Europea, pur con adattamenti alle normative locali e alle valutazioni delle singole autorità garanti; non è ancora chiaro in quali Paesi l’attivazione avverrà per primi e a quali condizioni.

A sorpresa, è stato incluso un altro mercato cruciale, cioè la Corea del Sud, Paese che si distingue per un approccio ambivalente, caratterizzato da una forte attenzione ai diritti digitali e alla regolazione dei dati personali (la Personal Information Protection Act è una delle normative tra le più stringenti dell’Asia e molto vicino al quadro normativo europeo) e da un ecosistema tecnologico estremamente avanzato e favorevole alla sperimentazione di soluzioni biometriche già in uso per servizi bancari, pagamenti e sicurezza digitale.

Per Meta la Corea rappresenta infatti un laboratorio ideale, perché è un contesto ad alta digitalizzazione e, al tempo stesso, un banco di prova di compatibilità normativa. Si tratta, in sostanza, di un terreno di sperimentazione privilegiato e cioè di un ambiente tecnologicamente pronto, ma con regole abbastanza simili a quelle europee da offrire un test credibile di compatibilità.

Questo rollout frammentato e “calibrato” mette in luce la strategia di Meta, che consiste nel procedere a piccoli passi, adattando la narrazione a seconda del mercato e sfruttando ogni via regolatoria per consolidare gradualmente l’ingresso e l’accettazione del riconoscimento facciale.

Limiti intrinseci e rischi tecnologici

Il riconoscimento facciale, anche nella versione presentata da Meta, non è esente da limiti e rischi.

La prima criticità riguarda i bias demografici: diversi studi e audit indipendenti (fra cui Gender Shades e il test NIST FRVT) mostrano che molti sistemi biometrici e di riconoscimento facciale commettono errori in misura sproporzionata su donne e persone con carnagione scura; in certi casi, l’errore sulle donne di colore può superare del 30% quello degli uomini di carnagione chiara.

Nel Regno Unito, un’indagine di Big Brother Watch ha rivelato che, in un test della Metropolitan Police con il sistema Live Facial Recognition, l’81 % delle persone segnalate risultarono innocenti.

La seconda criticità riguarda la scalabilità: Meta deve garantire accuratezza su milioni di contenuti al minuto, il che è un compito titanico soprattutto se si pensa che angolazioni diverse, luce scarsa, accessori come occhiali o mascherine rendono il matching sempre più complesso.

La terza criticità riguarda la sicurezza contro i deepfake: la verifica tramite video selfie richiede algoritmi di liveness detection per distinguere un volto reale da una manipolazione, in quanto i sistemi rischiano altrimenti di essere ingannati con estrema facilità.

Il rischio più insidioso resta comunque quello del mission creep: una volta creata, un’infrastruttura biometrica tende a essere riutilizzata e ampliata.

Se, in un primo momento, venisse utilizzata per bloccare frodi pubblicitarie e recuperare account, successivamente potrebbe essere usata per verificare l’età degli utenti, identificare soggetti nei video caricati o persino integrarsi con sistemi di sicurezza statali.

Si tratta di un percorso già visto con altre tecnologie, introdotte per motivi di emergenza e poi “normalizzate” come strumenti permanenti di controllo.

Basti pensare alle telecamere di sorveglianza nelle città, inizialmente giustificate per contrastare terrorismo e criminalità organizzata, che in molti Paesi sono diventate un’infrastruttura permanente e si stanno espandendo con analisi algoritmica e riconoscimento automatico.

Il quadro giuridico europeo: GDPR e AI Act

Per comprendere appieno le implicazioni dell’annuncio di Meta, occorre guardare al quadro normativo europeo.

Il GDPR considera i dati biometrici che identificano un individuo in modo univoco come “categorie particolari di dati” (art. 9) e prevede, per trattare tali dati, una base giuridica rafforzata, in quanto l’art. 9 pone un divieto generale, salvo eccezioni.

Pertanto, le basi legali ordinarie dell’art. 6 (tra cui il “legittimo interesse”) devono necessariamente essere combinate con una delle condizioni specifiche elencate all’art. 9 (i.e. consenso esplicito, motivi di interesse pubblico rilevante, obblighi legati alla sicurezza).

Il consenso che gli utenti rilasceranno a Meta deve essere libero, informato e inequivocabile, mentre la semplice cancellazione dei dati dopo l’uso non eliminerà la necessità di una solida base legale del trattamento. Il consenso esplicito dell’interessato dovrebbe essere quindi la via più ovvia per Meta.

Infatti, anche qualora tentasse di sostenere che l’uso della biometria sia necessario per proteggere utenti e piattaforma dalle frodi (configurando così un interesse legittimo), senza consenso esplicito o una base giuridica ad hoc (es. legge nazionale), il trattamento resterebbe comunque illecito.

Accanto al GDPR, si aggiunge ora il Regolamento europeo sull’Intelligenza Artificiale (AI Act) in cui i sistemi biometrici sono classificati come “ad alto rischio” e soggetti a requisiti stringenti: valutazioni di impatto, registri di conformità, audit indipendenti e sorveglianza continua. Per Meta, ciò implica l’obbligo di rendere trasparenti tassi di errore, bias e modalità di utilizzo.

A livello nazionale, inoltre, ogni autorità garante avrà un ruolo decisivo; in Italia, il Garante per la protezione dei dati personali potrebbe imporre limiti ulteriori o vietare specifiche applicazioni.

Il rischio è, in questo caso, quello di una frammentazione regolatoria interna all’UE, con differenze da Paese a Paese e possibili strategie di forum shopping da parte delle piattaforme, ovverossia l’attivazione delle funzioni, in un primo momento, nei contesti più permissivi e, successivamente, negli altri.

Scenari futuri: normalizzazione o resistenza?

Guardando avanti, si delineano due strade possibili.

La prima è la normalizzazione graduale con l’introduzione da parte di Meta del riconoscimento facciale come strumento opzionale e limitato, costruendo abitudine e fiducia così che col tempo la tecnologia possa diventare parte integrante della vita digitale quotidiana, fino all’ampliamento silenzioso del perimetro delle funzioni. Ciò rientra in una logica del “piccolo passo”, già vista con altre tecnologie invasive.

La seconda è la resistenza sociale e regolatoria in cui associazioni per i diritti digitali, accademici e autorità garanti potrebbero spingere per regole più severe, opt-out globali e tecnologie alternative.

Già oggi la ricerca propone soluzioni innovative per conciliare sicurezza e tutela della privacy e alcuni lavori sperimentano sistemi di anonimizzazione biometrica, che de-identificano i volti mantenendo intatte le informazioni utili all’analisi (ad esempio con tecniche di model-agnostic anonymization o di anonimizzazione “reversibile”). Parallelamente, l’approccio del federated learning viene applicato al riconoscimento facciale, con l’addestramento dei modelli direttamente sui dispositivi degli utenti senza trasferimento dei dati biometrici ai server centrali.

Il risultato finale dipenderà quindi dall’equilibrio fra pressione sociale, volontà politica e potere delle piattaforme.

Verso la dotazione biometrica obbligatoria?

Alcuni probabilmente ricorderanno un riferimento culturale potente nel filmGattaca (1997), ambientato in un futuro indeterminato (ma generalmente collocato intorno ai 2030-2040 e definito dallo stesso regista Andrew Niccol come “not too distant future”) che descriveva un mondo in cui l’accesso a trasporti, lavoro e servizi veniva mediato esclusivamente da controlli biometrici costanti, dalle scansioni dell’iride ai test genetici (che dividevano i soggetti “validi” dagli “in-validi”) e il corpo reale era di fatto sostituito dai “biometric readings” (tracce corporee come urina, capelli, sangue), usati come forma principale di identificazione e sorveglianza.

Il corpo, in quel racconto, “esisteva” solo nelle sue tracce ed era ridotto a soli dati. A spaventare, più che la tecnologia in sé, era la normalizzazione della tecnologia stessa come unico lasciapassare sociale.

Senza dover immaginare un futuro remoto, oggi possiamo chiederci se le funzioni volontarie di Meta potranno diventare domani un prerequisito per accedere a pagamenti, sanità, istruzione online, servizi pubblici digitali. In scenari dove l’identità digitale è sempre più centrale, la pressione ad aderire può facilmente trasformarsi in obbligo e, in caso di rifiuto, si rischierebbe l’esclusione dalla cittadinanza digitale.

Il parallelismo con Gattaca in questo caso è un avvertimento: strumenti introdotti per la sicurezza possono trasformarsi in infrastrutture obbligatorie di controllo in un futuro non troppo lontano, qualora non venga stabilito un argine normativo e sociale chiaro.

Un equilibrio fragile

Il riconoscimento facciale non va in ogni caso demonizzato a priori perché ha senz’altro potenzialità reali nella lotta alle frodi e nella protezione degli utenti se incorniciato in un quadro di regole trasparenti, controlli indipendenti e diritti garantiti, con tre condizioni imprescindibili:

  1. Privacy by design e by default: raccolta di dati minima, cancellazione garantita, sistemi che falliscono in assenza di consenso.
  2. Audit indipendenti e obbligo di trasparenza: report pubblici su prestazioni, errori, bias e casi controversi.
  3. Educazione digitale degli utenti: consapevolezza dei diritti e possibilità di rifiutare senza subire penalizzazioni.

Oltre il mondo di Gattaca

Il revamping del riconoscimento facciale, rilanciato da Meta in una veste apparentemente più accettabile perché strumento di protezione, rappresenta un crocevia politico e culturale: la storia ci insegna, infatti, che le innovazioni biometriche tendono a diffondersi ben oltre le intenzioni iniziali.

È necessario quindi stabilire chiaramente chi raccoglie i dati, chi li controlla e quali garanzie di trasparenza e possibilità di scelta siano effettivamente offerte ai cittadini.

L’UE, con il GDPR e l’AI Act, ha già messo sul tavolo un modello che può diventare riferimento internazionale se interpretato con coraggio politico, sostenuto dalla cooperazione tra autorità e alimentato da un dibattito pubblico informato.

In Gattaca un giovanissimo Jude Law affermava: “They don’t look at you and me, they just look at a piece of paper. It doesn’t matter how strong you are, it’s written”. Un monito che suona sorprendentemente attuale: se riduciamo la persona a un dato (biometrico), rischiamo di costruire una società in cui la libertà non dipende più da chi siamo, ma da ciò che i sistemi decidono di leggere di noi.

In altre parole, se il corpo diventa un lasciapassare digitale, la responsabilità collettiva è quella di impedire che si trasformi in una nuova gabbia della nostra libertà.


文章来源: https://www.cybersecurity360.it/legal/se-il-corpo-diventa-password-il-revamping-del-riconoscimento-facciale-di-meta/
如有侵权请联系:admin#unsafe.sh