Il GDPR è stato adottato per proteggere diritti e libertà fondamentali delle persone. Eppure, nella pratica quotidiana di molte organizzazioni, la violazione di questi diritti continua a essere percepita come un problema secondario, spesso tollerabile, raramente urgente.
Ecco perché questo accade, andando oltre le sole categorie giuridiche.
Il punto non è tanto la mancanza di regole, quanto il modo in cui le persone e le organizzazioni percepiscono il rischio quando il danno non è immediato, non è visibile e non colpisce qualcuno in modo diretto e riconoscibile.
Quando le conseguenze sono diluite nel tempo, distribuite su molti soggetti o nascoste dietro processi tecnici, il senso di responsabilità tende ad affievolirsi.
La comprensione di questa dinamica risulta decisiva per dare concretezza al Regolamento europeo sulla protezione dei dati personali.
La protezione dei diritti smette di essere un adempimento formale solo quando diventa consapevolezza delle conseguenze reali delle decisioni prese sui dati delle persone.
Generalmente, ciò che non si vede non desta preoccupazione perché non attiva l’allarme collettivo.
L’esperienza consolidata mostra che le società umane reagiscono con maggiore prontezza agli eventi che si impongono direttamente alla percezione.
Fenomeni come un incendio, un crollo o un’esplosione rendono il rischio immediatamente riconoscibile: il pericolo è evidente, il nesso causale è breve e la risposta tende a essere rapida e quasi automatica.
Davanti a un danno che prende forma sotto gli occhi, il corpo sociale comprende che qualcosa sta accadendo e si mobilita [1] .
La violazione dei diritti fondamentali, invece, segue una traiettoria diversa e non perché sia meno grave, ma perché si muove in modo silenzioso: non fa rumore, non lascia segni immediati, non produce effetti percepibili nel momento stesso in cui accade.
È un danno che, nella maggior parte dei casi, si accumula, si diluisce nel tempo e che spesso si manifesta quando è ormai difficile ricondurlo alla decisione che lo ha generato.
Un esempio concreto può aiutare a chiarire questo meccanismo.
Si consideri un sistema automatizzato di valutazione del merito creditizio. Questo sistema elabora dati, assegna punteggi e classifica profili.
Immaginiamo che a una persona venga negato l’accesso al credito sulla base di una valutazione algoritmica.
In quel momento la decisione appare neutra, tecnica e formalmente corretta. Non suscita allarme, non provoca reazioni e non viene percepita come un evento critico.
Nel tempo, però, quella decisione inizia a produrre effetti reali. L’impossibilità di accedere al credito limita scelte economiche, riduce opportunità e condiziona percorsi di vita.
Peraltro, la valutazione negativa tende a ripetersi perché il sistema apprende anche dagli esiti precedenti e consolida il profilo attribuito.
Anni dopo, la persona si trova in una condizione di esclusione strutturale senza riuscire a individuare il punto esatto in cui il percorso si è deviato.
Il danno, in questi casi, non si manifesta come un episodio isolato.
Si accumula attraverso decisioni successive, si distribuisce nel tempo e si rende visibile solo quando le conseguenze sono già radicate.
Così, la distanza tra la scelta iniziale e l’effetto finale attenua la percezione del rischio e indebolisce la capacità di reazione collettiva.
È in questo spazio che si colloca la sfida della tutela dei diritti fondamentali nel mondo digitale.
Non si tratta di rispondere a un’emergenza, ma di riconoscere processi che erodono lentamente le condizioni di uguaglianza, di libertà e di dignità.
Diritti che vengono compressi senza rumore non richiedono interventi immediati. Quando però le loro conseguenze diventano evidenti, il tempo per una risposta semplice e diretta è spesso già trascorso.
Il GDPR opera proprio in questo spazio complesso: protegge le persone da danni che non si presentano come eventi improvvisi ma come esiti di processi ordinari e ripetuti e proprio per questo motivo fatica a essere percepito come urgente o necessario.
Ed è qui che emerge un ulteriore livello di complessità: quando il danno nasce da decisioni distribuite nel tempo e nello spazio organizzativo, anche la responsabilità tende a frammentarsi.
Non c’è un gesto singolo, non c’è un decisore isolato né un momento preciso in cui “qualcuno ha sbagliato”.
Questo avviene perché nei sistemi organizzativi complessi, la diluizione del danno si accompagna alla diluizione della responsabilità. Vediamo come.
Nei sistemi organizzativi complessi la responsabilità tende a diluirsi: le decisioni vengono distribuite lungo processi articolati, le attività si frammentano tra ruoli diversi e una parte crescente delle scelte viene affidata a meccanismi automatizzati.
In questo contesto, ciascuno contribuisce a sviluppare una porzione del processo, ma il risultato finale appare distante da ciascun “contributor”, quasi impersonale.
Quando il contributo individuale sembra piccolo, il peso dell’impatto complessivo si attenua.
Nessuno avverte fino in fondo la responsabilità delle conseguenze che ricadono sulle persone.
Il General Data Protection Regulation prova a ricostruire una catena chiara di responsabilità proprio per contrastare questa dispersione. È un tentativo che va contro una tendenza organizzativa molto radicata, abituata a diluire il peso delle decisioni.
Senza un referente riconoscibile, la protezione dei diritti fondamentali resta un concetto astratto e ciò che resta astratto difficilmente mobilita attenzione, cura e scelta consapevole.
A questa dinamica se ne affianca un’altra, altrettanto rilevante. Il valore economico dei dati si manifesta in modo rapido e misurabile, producendo indicatori chiari, ritorni quantificabili e vantaggi che possono essere immediatamente registrati e confrontati nei processi decisionali.
L’analisi dei dati consente, per esempio, di aumentare il tasso di conversione
delle campagne pubblicitarie, inteso come la percentuale di utenti che, a seguito di un contenuto mirato o di una profilazione comportamentale, compiono un’azione economicamente rilevante per l’organizzazione, come l’acquisto di un prodotto o l’attivazione di un servizio.
Si tratta di effetti leggibili in tempi brevi, traducibili in metriche, report e risultati di business.
Il valore umano della protezione dei diritti segue un percorso differente. È diffuso, progressivo e difficilmente riconducibile a un singolo indicatore. Non produce benefici immediatamente misurabili e raramente trova rappresentazione nei bilanci o nei sistemi di reporting.
La tutela della dignità delle persone, dell’autodeterminazione informativa e
dell’uguaglianza di trattamento costruisce effetti nel tempo, spesso percepibili solo quando vengono meno o quando il danno si è già consolidato.
Si consideri una piattaforma digitale che utilizza i dati comportamentali degli utenti per affinare la profilazione pubblicitaria.
L’uso estensivo dei dati consente di dimostrare, in poche settimane, un miglioramento delle performance commerciali, con un aumento misurabile delle conversioni e dei ricavi associati.
La scelta di limitare la raccolta dei dati, di ridurre la granularità delle profilazioni o di rafforzare i meccanismi di consenso e trasparenza, al contrario, non produce un beneficio immediatamente quantificabile.
Non genera un incremento visibile dei ricavi nel breve periodo e non alimenta indicatori di performance facilmente comunicabili. Eppure, proprio quelle scelte possono, in modo concreto:
È un valore reale, ma diluito, che non si presenta come un risultato da esibire, bensì come una forma di stabilità giuridica e organizzativa.
Le organizzazioni, come tutti i sistemi umani, sono naturalmente portate a privilegiare ciò che genera benefici immediati. Non si tratta di malafede, ma di struttura.
I meccanismi di valutazione, gli incentivi interni e i tempi decisionali favoriscono ciò che è visibile e misurabile, mentre ciò che protegge nel lungo periodo tende a restare sullo sfondo.
Il GDPR interviene per riequilibrare questa tensione, riportando attenzione su ciò che non produce un guadagno rapido ma costruisce, nel tempo, condizioni di affidabilità, legittimità e fiducia.
Senza una consapevolezza culturale che sostenga questo equilibrio, il diritto resta fragile e facilmente sacrificabile nelle scelte operative quotidiane.
È proprio a partire dallo squilibrio tra benefici immediati e valore umano di lungo periodo che si può comprendere la natura della diffusa sottovalutazione della protezione dei diritti e delle libertà fondamentali.
Prima ancora di essere giudicato sul piano etico, secondo me, questo fenomeno deve essere compreso nella sua dimensione strutturale.
La maggior parte delle organizzazioni tende a orientarsi verso ciò che produce risultati visibili e rapidi mentre ciò che costruisce legittimità, fiducia e tutela nel tempo resta sullo sfondo, privo di segnali immediati di urgenza.
In questo contesto, l’indifferenza non nasce da volontà malevola né da mancanza di sensibilità morale, ma, stando a quanto sopra evidenziato, appare piuttosto come il prodotto di un intreccio di fattori che riguardano:
Il GDPR si inserisce esattamente in questo spazio richiedendo attenzione e assunzione di responsabilità in contesti nei quali, come abbiamo visto, le conseguenze non sono immediate, ma si manifestano nel tempo e nei quali le decisioni non sono riconducibili a un singolo atto o a un singolo decisore ma emergono dall’interazione di sistemi complessi.
Proprio per questo motivo la normativa deve essere spiegata, narrata e compresa.
Se l’indifferenza nasce come effetto strutturale, la risposta non può limitarsi a richiamare principi astratti o obblighi formali.
Finché la violazione dei diritti resta poco visibile e non immediatamente percepibile, difficilmente potrà generare preoccupazione e, di conseguenza, raramente potrà produrre cura.
Ciò che non si manifesta come un evento critico tende a essere assorbito nella normalità dei processi organizzativi.
Il GDPR cerca di colmare questa distanza rendendo visibile l’impatto concreto delle decisioni che incidono sui diritti e sulle libertà fondamentali. In particolare:
È necessario un cambio di approccio: occorre riconoscere che dietro ogni trattamento vi è una persona reale e che dietro ogni decisione automatizzata permane sempre una responsabilità umana, anche quando è mediata da sistemi tecnici complessi.
Solo quando questo legame diventa evidente, la protezione dei diritti può essere vissuta come una esigenza concreta, strettamente connessa alla qualità delle decisioni e alla solidità dell’organizzazione.
Questo punto apre naturalmente il passaggio successivo del percorso. Nel prossimo capitolo della pentalogia verrà affrontata una delle questioni più delicate: il motivo per cui, nonostante il GDPR, molte organizzazioni si fermano alla compliance formale. Producono documenti corretti, ma nonmcostruiscono protezione reale.
[1] Vds. “The fast and the dangerous: the speed of events influences risk judgements” di Heather C Lench e Sarah A Flores su PubMed.