Il testo definitivo dell’Artificial Intelligence Act, entrato in vigore il primo agosto 2024 con una piena applicazione scaglionata tra il 2025 e il 2027, si sta già rivelando più fragile del previsto.
Negli ultimi giorni, alcune importanti testate giornalistiche, hanno rivelato che la Commissione starebbe valutando di includere all’interno di un pacchetto di “semplificazione normativa” da emanare il 19 novembre, una moratoria/pausa su alcune disposizioni dell’AI Act (es. per sistemi ad alto rischio) con lo scopo di concedere alle imprese più tempo per adeguarsi.
Si starebbe infatti considerando un “grace period” di un anno per le aziende che utilizzano sistemi AI ad alto rischio o che li hanno già immessi sul mercato prima della data di entrata in vigore delle nuove norme.
Parallelamente, per le obbligazioni legate alla trasparenza (ad esempio dichiarare contenuti generati da AI) si valuterebbe un possibile rinvio delle sanzioni fino ad agosto 2027, per “fornire tempo sufficiente” a provider e deployer.
La bozza di proposta è comunque ancora oggetto di discussioni informali all’interno della Commissione e potrebbe ancora subire modifiche prima del19 novembre; in ogni caso dopo l’adozione formale da parte della Commissione, dovrà esserci l’approvazione dal Consiglio dell’UE (Stati membri) e del Parlamento Europeo.
Nonostante quanto trapelato, la Commissione e i suoi portavoce continuano a ribadire che “non c’è fermo del cronometro” (“no stop the clock”) e che i termini del regolamento restano vincolanti.
Se confermata, si tratterebbe comunque di una correzione di rotta alquanto significativa, che rischia di trasformare la legge più ambiziosa d’Europa in un (ben meno rivoluzionario) negoziato tra potere politico e potere tecnologico.
Non bisogna dimenticare che, con l’AI Act, l’Europa ha voluto dare un segnale forte, cioè quello di regolare l’intelligenza artificiale prima che fosse l’intelligenza artificiale a regolare noi. Era un gesto politico e allo stesso tempo il primo quadro giuridico al mondo che disciplinava lo sviluppo e l’uso dei sistemi di AI, costruito su una logica di rischio e proporzionalità.
La prospettiva di una “pausa” potrebbe rivelarsi fatale per la credibilità di Bruxelles ma essere anche letta come strumento a favore delle imprese che devono ancora organizzarsi.
La moratoria di dodici mesi o “anno cuscinetto” (come spesso vengono definiti questi periodi di transizione), consentirebbe alle imprese di “adattare le pratiche senza interrompere il mercato”.
Inoltre, per i fornitori di AI generativa (come modelli linguistici e sistemi multimodali) già sul mercato prima della data di applicazione, si prevederebbe una deroga temporanea, cioè del tempo extra per adeguare le policy di trasparenza, la documentazione tecnica e i processi di risk assessment.
Tuttavia, la parte più controversa riguarda il calendario sanzionatorio, e cioè lo slittamento delle multe per violazioni delle norme sulla trasparenza (come, ad esempio, l’obbligo di segnalare che un contenuto è generato da AI) ad agosto 2027.
Il segnale politico sarebbe evidente: dopo aver imposto all’industria globale il primo quadro normativo vincolante sull’intelligenza artificiale, l’Europa si starebbe interrogando su quanto severamente intenda davvero applicarlo.
Dietro la prudenza ufficiale, sembra muoversi una dinamica ormai ricorrente, ovverossia la pressione crescente delle grandi aziende tecnologiche.
Negli ultimi mesi i principali gruppi di lobbying avrebbero intensificato la loro attività a Bruxelles. L’associazione CCIA Europe (che rappresenta tra gli altri Alphabet, Meta, Amazon, Apple e Microsoft) avrebbe chiesto di “ritardare” l’attuazione dell’AI Act, sostenendo che le imprese europee e globali non dispongono ancora delle linee guida necessarie per adeguarsi.
Anche alcuni colossi industriali europei come Airbus, ASML, Siemens e Mercedes-Benz, hanno sottoscritto lettere aperte chiedendo una pausa di almeno due anni in quanto il quadro regolatorio sarebbe incompleto e la competitività europea rischierebbe di essere compromessa.
Queste pressioni si inseriscano in un momento in cui l’Unione Europea tenta di riaffermare la propria sovranità tecnologica mentre Stati Uniti e Cina consolidano posizioni dominanti sull’AI: in questo quadro, ogni concessione o rinvio assume un valore che va oltre la tecnica normativa, toccando l’equilibrio geopolitico e industriale stesso del continente.
Occorre ricordare che, per la Commissione europea, la partita dell’AI Act oltre che giuridica, è sempre stata anche geopolitica. L’Unione aveva scelto di essere la prima grande potenza normativa a definire limiti etici e giuridici all’intelligenza artificiale, sfidando implicitamente il modello americano, più permissivo, e quello cinese, basato sul controllo centralizzato.
In questo contesto, qualsiasi segnale di cedimento rischia di essere letto come un arretramento di principio. Se il regolatore concede tempo e deroghe proprio a chi ha esercitato la maggiore pressione politica ed economica, la percezione è inevitabile: la politica europea si sta piegando alla realpolitik tecnologica.
Sarebbe superficiale ritenere che si tratta di una pure questione d’immagine, dal momento che la stessa credibilità di Bruxelles come “regolatore globale” (il cosiddetto Brussels Effect) si fonda sulla coerenza.
Quando l’UE introduce regole e le impone anche alle multinazionali esterne al suo mercato, esercita un soft power; se le attenua prima ancora dell’entrata in vigore, il messaggio si rovescia e si trasforma e le regole europee diventano negoziabili.
Leggere il “grace period” come una semplice resa alle Big Tech sarebbe però riduttivo, in quanto, sempre secondo fonti giornalistiche, all’interno della stessa Commissione si sosterrebbe che la flessibilità temporanea sia una forma di realismo regolatorio e che un’applicazione graduale sarebbe preferibile rispetto al rischio di una paralisi immediata delle imprese.
Non possiamo ignorare il fatto che la transizione verso il nuovo regime richiede l’adozione di standard tecnici armonizzati, linee guida dettagliate e la definizione di autorità di controllo nazionali.
In assenza di questi strumenti, imporre da subito l’intero corpus normativo rischierebbe di generare un vuoto operativo, con regole formalmente in vigore, ma di fatto inapplicabili.
In questo senso, la moratoria potrebbe essere vista come una misura di “messa a terra” e un modo per evitare il caos amministrativo e dare alle autorità competenti il tempo di organizzarsi, in una logica di gradualismo e non di rinuncia.
Tuttavia, resta il dubbio su fino a che punto la flessibilità possa diventare rinvio, e il rinvio possa diventare indecisione.
Dal punto di vista delle aziende, il “periodo di grazia” offrirebbe vantaggi non trascurabili.
Significherebbe più tempo per adeguarsi, per comprendere gli obblighi di classificazione dei sistemi AI, per organizzare la documentazione tecnica e le procedure di audit richieste dal regolamento.
Per le imprese medio-grandi, soprattutto nei settori manifatturieri, retail, sanitario o finanziario, l’AI Act comporta infatti la creazione di un vero e proprio sistema interno di governance algoritmica. Un anno in più potrebbe fare la differenza tra adeguamento ordinato e corsa caotica.
Il rinvio delle sanzioni per la trasparenza fino al 2027 concederebbe inoltre una tregua ai fornitori di modelli generativi e alle imprese che li utilizzano in comunicazione, marketing o servizio clienti.
Le aziende potrebbero sperimentare soluzioni di AI generativa (chatbot, analisi dei dati, supporto creativo) senza il timore immediato di sanzioni per errori formali.
Sul piano strategico, la moratoria offrirebbe anche un vantaggio competitivo potenziale: chi utilizzasse questo tempo per costruire una compliance robusta, anticipando gli obblighi, potrebbe presentarsi come “first mover etico” in un mercato che presto premierà la trasparenza e la fiducia.
Le imprese che invece dovessero interpretare la moratoria come una sorta di “anno sabbatico” rischierebbero di trovarsi impreparate quando i controlli e le multe diventeranno effettivi.
Il tema non è solo europeo. Negli Stati Uniti, alcune testate hanno recentemente portato alla luce il dibattito sull’uso dell’AI in ambito sanitario (in particolare, con riferimento ai chatbot terapeutici) che sta sollevando le stesse questioni etiche e regolatorie che l’Europa tenta di codificare.
L’assenza di un quadro normativo federale univoco sta creando una giungla di linee guida locali e autoregolamentazioni private e si chiede a gran voce una regolamentazione adeguata a livello federale.
A questo proposito occorre ammettere che l’Europa, pur con le sue difficoltà, resta l’unico blocco politico che sta tentando di trasformare la governance tecnologica in diritto positivo. Ed è proprio per questo che ogni cedimento potrebbe pesare di più.
Se Bruxelles arretra, manda un messaggio chiaro a livello globale e cioè che anche il modello europeo della “sovranità digitale” è negoziabile, esattamente come quello americano, che l’UE voleva superare.
C’è poi un’altra dimensione, meno visibile ma cruciale: il tempo come strumento politico.
Nel diritto europeo, i periodi transitori sono spesso usati per bilanciare innovazione e compliance.
Nel caso dell’AI Act, il tempo è anche potere, poiché ogni mese di ritardo concede alle grandi piattaforme più spazio per consolidare infrastrutture, addestrare modelli e influenzare standard tecnici.
Nel frattempo, le istituzioni, le PMI i soggetti più piccoli (proprio coloro per cui il regolamento prometteva chiarezza) restano in attesa di regole operative che tardano ad arrivare.
In sostanza: chi ha la capacità di muoversi rapidamente (come le Big Tech) può trasformare il tempo in vantaggio competitivo; chi deve attendere invece linee guida per potersi strutturare ed organizzare, rischia di subire questo rinvio come svantaggio.
Il “grace period” non è dunque una scelta neutrale perché redistribuisce potere economico e tale redistribuzione avviene prima ancora che la norma inizi a produrre effetti concreti. Come evidenzia la stessa letteratura sul regolamento europeo dell’AI, le politiche normative modellano già dalla fase d’adozione la distribuzione di potere tra i diversi attori.
Da un lato, se il quadro fosse confermato, Bruxelles sembra voler evitare una guerra frontale con le grandi aziende globali, soprattutto in un contesto geopolitico che la vede dipendere ancora fortemente dalle tecnologie americane. Dall’altro lato, deve mantenere la promessa politica di un’Europa capace di regolamentare l’AI secondo valori umani e diritti fondamentali.
Il compromesso in discussione rappresenta un tentativo di equilibrio e cioè evitare di smantellare la norma, ammorbidendone l’impatto iniziale.
Il rischio, però, è di aprire una crepa più profonda tra discorso politico e pratica regolatoria.
Un’Europa che annuncia la leadership etica ma concede margini di flessibilità alle stesse imprese che intendeva sorvegliare, rischia di perdere la coerenza, ovvero l’elemento più prezioso del suo modello.
Se il “grace period” diventasse il nuovo linguaggio della politica digitale europea, allora l’AI Act rischierebbe di nascere come una grande promessa sospesa: un regolamento potente nei principi, ma indeciso nei tempi e nelle conseguenze.
In fondo, le norme non regolano solo il comportamento delle imprese, ma anche quello delle istituzioni che le applicano.
E in questa partita, il tempo è anche la misura del coraggio politico.
L’AI Act era nato per dimostrare che l’Europa può guidare l’innovazione senza rinunciare ai diritti. Oggi, con la prospettiva di una moratoria, il rischio è che l’Europa finisca per guidare soprattutto la cautela.
In definitiva,il “grace period” proposto dalla Commissione può essere visto come una scelta di pragmatismo, o come un sintomo di debolezza.
Per le imprese, è un’occasione per pianificare meglio; per la politica europea, è un test di credibilità.