L’iniziativa, con cui la Commissione europea apre una consultazione per elaborare linee guida e un codice di condotta sugli obblighi di trasparenza dell’intelligenza artificiale, segna un passaggio che è insieme tecnico e costituzionale.
Tecnico, perché punta a standardizzare strumenti di marcatura, riconoscimento e segnalazione dei contenuti sintetici.
Costituzionale, perché rende esigibile, nel quotidiano digitale, il principio per cui la persona ha diritto di sapere quando dialoga con una macchina, quando è sotto osservazione nelle sue espressioni facciali, quando si colloca in una categoria biometrica, quando l’informazione che riceve è prodotta o alterata da processi automatici.
Non è un esercizio di stile regolatorio, ma la messa a terra dell’idea di “trasparenza relazionale” che l’AI Act ha cristallizzato all’articolo 50 e che ora necessita di prassi applicative verificabili, ripetibili e interoperabili, non a caso, la consultazione convoca un’ampia platea – fornitori e gestori di sistemi generativi e interattivi, soggetti che sviluppano tecniche di trasparenza, accademia, società civile, autorità – a contribuire entro il 2 ottobre 2025, in parallelo a un invito a manifestare interesse per partecipare ai lavori redazionali del codice di condotta coordinati dall’Ufficio europeo per l’IA.
Un meccanismo di co-regolazione che, se ben orchestrato, può trasformare precetti astratti in protocolli operativi e metriche di conformità realmente adottabili nella filiera.
L’ AI Act è in vigore dal 1° agosto 2024, con un calendario di applicazione scaglionato: nel 2025 sono già operative le norme su divieti e alfabetizzazione all’IA e, dal 2 agosto 2025, le regole di governance e gli obblighi per i modelli di uso generale; gli obblighi di trasparenza rivolti a fornitori e distributori diverranno applicabili dal 2 agosto 2026.
È dunque oggi, nell’intervallo tra la norma e la sua piena esigibilità che si costruisce il “ponte” tecnico-giuridico capace di evitare che l’adempimento si riduca a un’etichetta cosmetica o a un avviso legale di stile.
Infatti, la trasparenza, per non essere una promessa vuota, ha infatti bisogno di una grammatica comune: messaggi a schermo chiari e accessibili, metadati di provenienza macchine-leggibili, filigrane digitali robuste e resistenti alle manipolazioni, registri di trasformazioni, logiche di attestazione verificabili da terzi, percorsi d’uso che non inducano l’utente in modelliì di interazione opachi.
La Commissione, nelle note di lancio della consultazione, prefigura proprio questo intreccio fra indicazioni d’uso e soluzioni tecniche, mirando anche a favorire l’identificazione e l’etichettatura dei contenuti generati o manipolati dall’IA, con l’obiettivo – tanto semplice nella formulazione quanto esigente nell’attuazione – di informare gli utenti ogni volta che interagiscono con un sistema di IA.
La riflessione giuridica impone allora di distinguere almeno tre piani della
trasparenza: relazionale, semantica e fisiognomica.
Il primo è la trasparenza relazionale. L’utente deve sapere, ex ante e senza ambiguità, che sta conversando con un sistema automatizzato e proprio in questo passaggio, il diritto parla la lingua dell’interfaccia e della comprensibilità: un avviso percepibile, persistente quanto basta, compatibile con le tecnologie assistive, in grado di seguire l’utente lungo i diversi passaggi dell’interazione, senza rifugiarsi in note a piè di pagina.
Il secondo è la trasparenza semantica o di contenuto: quando un testo, un’immagine, un audio o un video sono sintetici o alterati, la loro provenienza va resa intellegibile non solo all’occhio umano (icone, diciture) ma anche alle macchine che li indicizzano, diffondono o moderano; questo richiede standard di metadati, “filigrane” resilienti e politiche di piattaforma coerenti, altrimenti la marcatura si perde nei passaggi di ricompressione, ritaglio e ripubblicazione.
Infine il terzo piano è la trasparenza fisiognomica: se si utilizzano sistemi di riconoscimento delle emozioni o di categorizzazione biometrica, l’ordinamento chiede un’informazione esplicita e preventiva, pena lo scivolamento verso forme di sorveglianza normalizzata che compressono autodeterminazione e dignità.
In tutti e tre i piani il ruolo dell’articolo 50 è di cornice, ma la sostanza si gioca nella concreta specificazione del “come”: quali messaggi, quali metadati, quali soglie di robustezza, quali prove di efficacia.
È su questo “come” che un codice di condotta ben congegnato può agire da
catalizzatore, infatti il codice, nel lessico del diritto europeo, non è un atto meramente soft, se gode di un’adesione diffusa e se viene integrato nei controlli delle autorità, può costituire prova di diligenza, parametro per le verifiche ispettive, bussola per i bandi pubblici e per le catene di fornitur, il rischio, altrimenti, è la frammentazione: ogni operatore si inventa la propria etichetta, la propria icona, la propria filigrana, vanificando l’obiettivo di rendere riconoscibile l’artificialità attraverso segnali comuni.
La scelta della Commissione di attivare quindi due gruppi tematici di lavoro, con
presidenze designate dall’Ufficio europeo per l’IA, sembra orientata a evitare tale dispersione e a far sì che le linee guida dialoghino con pratiche d’uso già sedimentate nell’industria e nella ricerca, superando l’alternativa fuorviante tra regola rigida e spontaneismo tecnologico.
Invece, sul piano delle garanzie, il principio di trasparenza non è isolato: dialoga con la protezione dei dati personali, con la non discriminazione, con la libertà di ricevere e impartire informazioni.
L’informativa sull’uso dell’IA non può trasformarsi in una captazione del consenso che allarga, per via di moduli, il perimetro del trattamento. E la marcatura dei contenuti non può divenire un pretesto per classificare l’utente che li produce o li condivide, la trasparenza è chiaramente rivolta all’oggetto (il sistema, il contenuto, la modalità d’interazione), non al soggetto.
Infatti, vigilare su questa distinzione è compito tanto del diritto quanto dell’ingegneria dei sistemi – parimenti, la trasparenza non va scambiata per responsabilità editoriale.
Segnalare che un contenuto è sintetico non assolve dalle regole sulla liceità del contenuto stesso e le piattaforme di intermediazione, già sottoposte agli obblighi di valutazione del rischio sistemico e di mitigazione ai sensi del quadro sui servizi digitali, dovranno allineare i propri processi di provenienza e segnalazione per non trasformare la trasparenza in un labirinto di bollini inconcludenti.
In questa prospettiva, l’armonizzazione tra AI Act e disciplina dei servizi digitali non è un tema ornamentale, ma il cuore della futura applicazione.
Entrando nel merito, vi è poi la questione, spesso elusa, della resilienza.
Infatti, una trasparenza che si fondi su tecniche fragili genera una fiducia illusoria, i sistemi di marcatura devono quindi essere valutati rispetto a
modelli di minaccia realistici:
Il codice di condotta dovrebbe misurare e graduare la robustezza, non imporre un unico metodo, e prevedere verifiche di terza parte, prove di stress e aggiornamento periodico degli schemi, perché ciò che è resistente oggi può essere inefficace domani.
Ugualmente, serve una trasparenza multilivello:
In quest’ambito, la co-regolazione può favorire la convergenza verso soluzioni aperte e standardizzate, evitando che la provenienza dei contenuti diventi un recinto proprietario e, con esso, un nuovo vettore di lock-in.
Non meno delicato è il profilo della proporzionalità e dell’accessibilità, è lapalissiano che l’obbligo informativo deve essere calibrato al contesto.
La “ovvietà” dell’interazione con l’IA, di cui parla la norma, non è un lasciapassare per sottrarsi all’avviso, ma una chiamata a disegnare interfacce che rendano evidente, senza paternalismi, la natura automatizzata del dialogo.
Al contempo, l’informazione deve essere fruibile da tutti: se la trasparenza si spezza sui lettori di schermo, sulle minorazioni sensoriali, sulle barriere linguistiche, essa tradisce il suo scopo.
Il richiamo all’alfabetizzazione all’IA, già entrato in applicazione, non va quindi
confinato alle aule: riguarda la progettazione responsabile dei sistemi e la chiarezza dei messaggi, perché la trasparenza non è soltanto dire la verità, ma renderla comprensibile.
Chiedere casi d’uso, esempi concreti, commenti stringati non significa limitarsi a un inventario di soluzioni.
Ma vuol dire riconoscere che la trasparenza, per diventare infrastruttura della sfera pubblica digitale, deve essere negoziata tra interessi legittimi, ma in tensione: l’innovazione che ha bisogno di margini di sperimentazione, la tutela dei diritti fondamentali che esige presidi forti, la competitività europea che invoca certezza delle regole.
Se il codice di condotta saprà riflettere questa pluralità, evitando sia il minimalismo difensivo sia il massimalismo punitivo, potrà dare sostanza a un principio che non è mero obbligo informativo, bensì vero e proprio diritto di riconoscibilità. Il diritto, cioè, a non essere ingannati dall’automazione e a mantenere il controllo semantico e sociale dell’informazione che ci circonda.
È questa, in definitiva, la scommessa: fare della trasparenza non una formula rituale, ma un bene pubblico condiviso, verificabile e contestabile, capace di reggere all’urto del tempo, delle tecniche e delle astuzie.
La consultazione europea offre lo spazio per disegnarne l’alfabeto. Alla comunità tecnica e giuridica spetta il compito di scriverne la grammatica.