Lo scorso 2 agosto 2025 è entrata in vigore l’AI Act, una nuova normativa europea che regola l’utilizzo dell’intelligenza artificiale.
Chi lavora in una PMI e usa ChaptGPT, ad esempio per scrivere le e-mail, si chiede cosa deve fare per mettersi in regola. Vediamo l’impatto dell’AI Act su PMI e microimprese, tenendo comunque conto che la Commissione UE starebbe valutando una moratoria/pausa su alcune disposizioni dell’AI Act con lo scopo di concedere alle imprese più tempo per adeguarsi.
L’AI Act (Artificial Intelligence Act) è un nuovo Regolamento approvato e pubblicato dall’Unione europea il 12 luglio 2024, che si pone come obiettivo principale la regolamentazione e l’applicazione di principi etici e di sicurezza all’utilizzo e allo sfruttamento degli strumenti e delle tecnologie digitali basate sull’intelligenza artificiale.
Si tratta in realtà della prima normativa a livello mondale che ha come obiettivo la regolamentazione dell’AI e, come tale, non si poteva certo avere la pretesa che il testo fosse preciso, esaustivo e delineasse dei confini chiari e inequivocabili.
In realtà, il contesto in cui si troveranno a muovere i primi passi le aziende per l’applicazione di questa normativa è molto nebuloso per non dire vago. Probabilmente ancora meno preciso e dettagliato del GDPR che, però, almeno poteva contare su basi normative precedenti e consolidate (Direttiva UE 95/46).
A conferma di quanto appena detto, il Regolamento non fa distinzioni nette fra chi è soggetto e chi non è soggetto, lasciando l’interpretazione in base all’utilizzo che se ne fa di questa tecnologia, distinguendo fondamentalmente in due principali categorie di soggetti:
Innanzitutto, i compiti più gravosi spettavano ai vari Stati membri, che avrebbero dovuto mettere in atto alcune azioni indispensabili, tra cui individuare e nominare gli enti e le autorità preposte all’applicazione e al controllo della normativa.
In Italia è stato nominato l’Acn (Agenzia Cybersecurity Nazionale), che già si occupa della supervisione e del supporto per altre normative come la NIS 2.
Ricordiamo che, in base all’art.3 dell’AI Act, sono definiti provider coloro che sviluppano e/o modificano modelli di GPAI allo scopo di trarne un profitto.
Su questa definizione si può aprire un mondo di interpretazioni, ma, tutti ci aspettiamo maggiore chiarezza nei decreti attuativi che sono in discussione nei tavoli tecnici governativi e che dovrebbero uscire nel mese di settembre 2025.
In ogni caso i Provider AI devono fornire, a partire dal 2 agosto ed entro il 2 agosto 2027:
La data del 2 agosto ha stabilito anche uno spartiacque fondamentale per tutti, Provider ed aziende utilizzatrici di modelli GPAI sugli obblighi di base da adottare entro il 2 febbraio 2026, che sono fondamentalmente due:
Per capire comunque meglio in che misura occorre rispettare questo obbligo, è meglio aspettare il prossimo decreto attuativo che, almeno ci auguriamo, dovrebbe indicare con maggiore chiarezza gli ambiti operativi e pratici.
Se un semplice utilizzatore modifica sostanzialmente un modello AI e lo rende disponibile ad altri, potrebbe rientrare a far parte della categoria dei Provider, con obblighi più estesi e stringenti.
Inoltre, particolare attenzione dovrà essere posta per i “sistemi ad alto rischio” (ad esempio sistemi che possono generare comportamenti pericolosi, tipo valutazioni sanitarie eccetera) per i quali bisogna già cominciare a prepararsi fin da ora.
Al fine di non disperdere inutilmente energie e risorse è fondamentale, ancor prima di avviare la formazione, partire da un’analisi in azienda delle reali esigenze di strumenti AI, individuando reparti, funzioni, utenti, gruppi di utenti e relative responsabilità nonché le piattaforme e i fornitori più idonei, sia per livello di conformità/sicurezza che per costi e prestazioni, a soddisfare le esigenze emerse dall’analisi.
È altresì importantissimo strutturare l’analisi in modo tale da mappare i modelli di AI ad alto rischio, elencati nel Regolamento e suddivisi in 6 categorie: proibiti, alto rischio, limitati, GPAI, zero risk.
Altra attività strategica da mettere in atto per rendersi conformi è sicuramente quella di stabilire un piano di azione che preveda, oltre all’analisi preliminare, una serie di attività di governance e monitoraggio atte a tenere tutto sotto controllo quali, per esempio: test e audit, documentazione e procedure da tenere costantemente aggiornati adottando un approccio by design e by default simile a quanto richiesto dal Gdpr.
Fino a qui ci siamo imbattuti più volte in un acronimo senza mai darne una definizione precisa. Ma è importante conoscerlo in quanto è probabilmente il tipo di strumento AI più comune che ci troveremo ad usare e ad affrontare: il GPAI.
L’AI Act definisce un sistema GPAI o General Purpose Artificial Intelligence: “Un modello di intelligenza artificiale che può essere utilizzato per una vasta gamma di compiti, non specificamente progettato o limitato a un’applicazione particolare”.
Il GPAI è uno strumento di AI base che può essere usato così com’è (as-is) da un utente finale per creare testi, immagini, video, report, presentazioni, traduzioni eccetera.
Un esempio può essere il classico testo di una mail che viene elaborato da piattaforme AI quali ChatGPT, CoPilot o altro per essere corretto, migliorato, integrato, arricchito eccetera con ulteriori informazioni tecniche, storiche o statistiche o altro.
Oppure lo stesso modello GPAI potrebbe essere customizzato o personalizzato da sviluppatori, quindi provider, per essere utilizzato in determinati ambiti specifici (marketing, finanza, amministrazione, medicina, sport eccetera).
La diffusione che l’AI sta avendo, e che avrà in misura sempre maggiore, implica profonde riflessioni e ripercussioni in tutti gli ambiti, lavorativo e privato, in particolare per i rischi che l’utilizzo indiscriminato di questa potentissima tecnologia può comportare, sia a livello di sicurezza che di etica.
Ben vengano quindi regolamentazioni che mirino a stabilire dei confini da non superare per non essere vittime della tecnologia, bensì per essere in grado di pilotarla e governarla senza infrangere leggi scritte e non scritte.
Questo primo tassello normativo costituisce una pietra miliare con cui ci dovremmo rapportare tutti.
Non può costituire un alibi il fatto di essere una piccola azienda, e cadere nel madornale errore di considerarla immune dal subire o causare rischi legati all’intelligenza artificiale.
L’AI Act non pone nessun tipo di limite dimensionale o settoriale per cui anche le Pmi e le microimprese dovranno, nolenti o dolenti, affrontare con serenità un percorso di compliance che sarà ovviamente proporzionato in base all’effettivo impatto che avrà l’AI nel business dell’azienda.
La primissima cosa che comunque ci sentiamo di consigliare da mettere in atto è sicuramente la formazione a dipendenti e dirigenti (CDA compreso), senza sottovalutare nessuna mansione: anche il semplice magazziniere potrebbe essere tentato di farsi aiutare da ChapGPT per scrivere il testo di una mail che magari contiene anche dati importanti e vitali per l’azienda.
È vitale che tutti i dipendenti, anche solo minimamente, ricevano informazione, istruzione e siano consapevoli sui rischi dell’intelligenza artificiale e sul modo migliore di utilizzarla per non compromettere il business dell’azienda e i diritti altrui.