L’AI entra nelle professioni intellettuali, ma la legge italiana ne chiarisce i confini: strumento di supporto, mai sostituto dell’ingegno umano.
La L. 132/2025, in armonia con l’AI Act, impone due regole semplici e decisive: il professionista resta al centro, il cliente deve sapere come viene usata
l’AI.
Sul piano creativo, il diritto d’autore protegge solo ciò che porta l’impronta autentica dell’autore, anche se arricchita dall’ausilio tecnologico.
Ecco cosa significa la norma e quali prassi operative comporta, partendo da esempi concreti mirati per avvocati, commercialisti e consulenti.
Il riferimento alle professioni intellettuali non va inteso soltanto in relazione all’attività svolta dal singolo professionista, ma si estende anche agli studi professionali che operano avvalendosi di più professionisti, i quali mettono a disposizione le proprie competenze attraverso prestazioni di natura intellettuale.
Con gli articoli 13 e 25 della Legge 132/2024 sull’AI, il legislatore italiano non ha scelto la via del divieto, ma quella della regolamentazione.
Ha tracciato una linea netta: da un lato l’uso lecito, dall’altro quello illecito; da una parte l’opera che merita tutela, dall’altra il semplice prodotto automatizzato.
In questo modo, la nuova normativa non blocca lo sviluppo ma lo orienta. Protegge il valore umano della professione e la fiducia che ne è alla base.
Ora analizziamo la struttura dei due articoli, mostrandone la complementarità e offrendo una guida concreta per applicarli nella pratica quotidiana dei professionisti.
L’AI, nelle professioni intellettuali, è ammessa esclusivamente per attività strumentali o di supporto. Il baricentro della prestazione resta infatti la prevalenza del lavoro intellettuale umano.
Inoltre, il professionista deve comunicare al cliente, con linguaggio chiaro, semplice ed esaustivo, le informazioni sui sistemi di utilizzati.
“Strumentale” è cosa diversa di “sostitutivo” Quindi sembra chiaro che siano ammissibili le seguenti operazioni:
Quindi, resterebbero in capo al professionista:
Resta intatto nella prestazione erogata la “prevalenza del lavoro intellettuale oggetto della prestazione d’opera”.
Noi pensiamo che la prevalenza dell’attività umana dovrebbe essere dimostrabile quindi, forse, non basta “averci dato un’occhiata”: occorre una traccia del contributo umano (commenti, revisioni sostanziali, scelte argomentative autonome, fonti verificate, versioni intermedie), così da poter mostrare, a posteriori, che l’AI non ha “fatto il lavoro al posto del professionista”.
Riguardo la trasparenza verso il cliente. L’informativa non è un pro forma: deve indicare – con linguaggio chiaro, semplice ed esaustivo – quali sistemi si usano, per che cosa, con quali cautele sui dati, limiti e rischi residui, chi decide e chi risponde (il professionista).
L’art. 25 della legge italiana sull’AI introduce una modifica all’Art. 1 della legge 633/1941 sul diritto d’autore (c.d. LDA) che è di portata storica.
L’aggiunta dell’aggettivo “umano” e la specifica sulle opere create “con l’ausilio” di AI chiariscono che la macchina, di per sé, non è autore e la tutela scatta solo se l’opera è il “risultato del lavoro intellettuale dell’autore”.
Ciò richiede un contributo creativo, e selettivo significativo.
Ovviamente, non basta premere un pulsante. Occorre guidare, istruire, revisionare, integrare e dare una forma originale al output della macchina.
In altre parole, nessuna protezione per contenuti generati in autonomia dalla macchina, piena tutela invece quando l’AI resta strumento e l’autore resta mente e mano del risultato.
L’art. 25 inserisce anche l’art. 70-septies LDA che ricollega le estrazioni tramite AI agli artt. 70-ter e 70-quater.
Quindi, in concreto, quando si addestrano o si utilizzano modelli di AI che estraggono testi e dati, contenuti in rete o in banche di dati a cui si ha legittimamente accesso, occorre verificare la titolarità dei diritti, la provenienza lecita delle fonti, le condizioni di riutilizzo e il rispetto degli eventuali opt-out dei titolari.
Sembra quindi che siano necessarie misure specifiche, da definire caso per caso, sia quando i sistemi di AI vengono addestrati utilizzando basi di dati ad accesso libero, ma comunque coperte da diritto d’autore, sia quando sono impiegati per effettuare ricerche mirate i cui risultati vengono poi riutilizzati in altri ambiti senza alcun apporto creativo che consenta al professionista di dare “nuova forma all’elaborato”.
In questo quadro, è fondamentale investire nella formazione del personale, così da renderlo capace di condurre ricerche consapevoli in materia di proprietà intellettuale.
Si tratta, in fondo, di un tema già presente da anni con le ricerche effettuate sul web senza il ricorso a strumenti di AI, che però oggi si arricchisce di complessità e trova una disciplina specifica.
Le due norme convergono su un principio operativo semplice: il valore tutelato è il lavoro intellettuale umano.
Nell’esecuzione della prestazione professionale (art. 13) come nella paternità dell’opera (art. 25), l’AI è, e resta, uno strumento. Invece la responsabilità e la creatività restano all’autore/professionista, sia quando offre la prestazione (art. 13) sia quando i suoi materiali vengono riutilizzati da sistemi di AI (art. 25).
Questa convergenza speculare è il cardine per disegnare policy, informative cliente, clausole contrattuali, registri interni, misure tecniche ed organizzative.
Dal 10 ottobre 2025 gli studi professionali dovranno farsi trovare pronti.
Per questo motivo, proponiamo un modello semplice a due livelli: regole interne di governance e policy, e regole operative di trasparenza e tracciabilità verso i clienti.
In questo livello di rilevanza strategica bisognerebbe definire per iscritto: elenco degli strumenti di AI ammessi; casi d’uso consentiti/vietati; regole sui dati (no input di segreti/particolari senza basi giuridiche adeguate e misure tecniche); controllo umano minimo richiesto su ogni deliverable; responsabilità e audit interni.
Questo è il livello operativo ove occorrerebbe integrare il mandato con una “Clausola AI” che spieghi, in modo semplice: quali strumenti si potranno usare (categorie, non marchi se cambiano), per quali attività (solo supporto), come saranno protetti i dati, chi decide, chi risponde.
La stessa informativa andrebbe integrata anche nelle lettere di incarico e, se necessario, in nota nei documenti consegnati.
A tal fine, la clausola relativa all’impiego di soluzioni di intelligenza artificiale, inserita nell’offerta o nel contratto, dovrebbe prevedere indicazioni esplicite, ad esempio attraverso una formulazione del tipo: “Nello svolgimento delle attività oggetto della presente offerta, il professionista – anche in qualità di partner di uno Studio – potrà avvalersi, nel rispetto della normativa applicabile in materia di […], di strumenti di intelligenza artificiale (senza necessità di indicarne nel dettaglio le singole applicazioni) per svolgere attività di […], finalizzate a […]. Sono state adottate le seguenti misure per proteggere i dati e le informazioni della committenza: […]. Restano ferme le responsabilità a carico del professionista”.
La clausola dovrebbe inoltre specificare in che modo gli elaborati forniti al cliente siano stati integrati o generati mediante l’uso di strumenti di AI, così da garantire trasparenza e tracciabilità del processo.
Infine, qualora la prestazione professionale comporti il trattamento di dati personali, l’informativa al cliente dovrà essere aggiornata ai sensi del GDPR per includere le informazioni sul ricorso all’AI.
Tuttavia, anche nei casi in cui non siano trattati dati personali, il committente dovrebbe essere messo in condizione – prima della sottoscrizione del contratto – di disporre di tutte le informazioni necessarie per valutare l’impatto dell’impiego dell’intelligenza artificiale sulla prestazione richiesta.
Inoltre sarebbe utile anche istituire e mantenere un registro interno degli usi (data, pratica, attività supportata, prompt/brief sintetico, revisione umana effettuata, decisioni assunte), conservando le versioni con commenti e scelte motivazionali per dimostrare che l’apporto decisivo è umano.
Per applicare correttamente l’articolo 25, il punto centrale è capire quando un’opera può essere davvero considerata frutto dell’ingegno umano, anche se è stata realizzata con l’aiuto di strumenti di intelligenza artificiale.
Un criterio utile è quello della c.d. “dominanza creativa”: l’AI può suggerire, proporre bozze o alternative ma è sempre il professionista a decidere, selezionare, riscrivere, integrare e dare forma all’elaborato.
Se, eliminando l’intervento umano, il testo o il lavoro finale perde il suo carattere distintivo – il taglio, le scelte argomentative, l’architettura complessiva – allora significa che la vera impronta è quella dell’autore e l’opera resta tutelabile.
Un altro accorgimento pratico consiste nel predisporre, quando opportuno, una dichiarazione di paternità intellettuale. In questo documento andrebbe specificato che l’AI è stata utilizzata solo come strumento di supporto e che la responsabilità del risultato finale è interamente del professionista.
In questo modo si rafforza la trasparenza verso il cliente e, se necessario, si può dimostrare con chiarezza la titolarità dell’opera.
Vediamo alcuni esempi pratici: lo studio legale (contenzioso); commercialista (parere fiscale); consulente (white paper per un cliente corporate)
Un avvocato usa un sistema di AI per:
L’atto finale viene scritto e motivato dall’avvocato. Inoltre le citazioni sono verificate e la strategia processuale è autonoma.
Il cliente riceve un’informativa semplice chiara ed esaustiva che spiega che l’AI ha svolto funzioni di ricerca/organizzazione, ma non di decisione.
Gli esiti sono:
Il team usa soluzioni di AI per:
Le scelte interpretative, gli esempi numerici e le conclusioni operative sono autonomamente redatti dal professionista.
Si usa l’AI per:
Le tesi, la struttura narrativa e i casi d’uso sono sviluppati dal consulente. La copertina riporta: “Documento realizzato con ausilio strumentale di AI; contenuti, scelte e responsabilità sono dell’autore”.
La Legge 132/2025 definisce la struttura in modo netto:
Quindi, chi esercita professioni intellettuali non deve temere l’AI ma deve governarla.
Questo richiede policy, informativa chiara, tracce di controllo umano e consapevolezza del perimetro autoriale.
È un vero e proprio cambio di metodo non un orpello formale, quindi chi lo attua oggi sarà più credibile domani, davanti ai clienti e – se serve – davanti a un giudice.