IA e attività legale: limiti e rischi
L’utilizzo incontrollato dell’intelligenza artificiale è da condannare, anche processualmente. Ha st 2025-11-24 12:31:44 Author: www.cybersecurity360.it(查看原文) 阅读量:8 收藏

L’utilizzo incontrollato dell’intelligenza artificiale è da condannare, anche processualmente. Ha stabilito questo principio la sentenza del Tribunale di Torino n. 2120 del 16 settembre 2025.

In questo caso (quello delle sentenze fantasma), una parte processuale, che si era avvalsa di sistemi di intelligenza artificiale, ha depositato atti giudiziari manifestamente infondati, è stata condannata al pagamento delle spese di lite aggravate dall’applicazione delle sanzioni ex art. 96 c.p.c. per lite temeraria.

Ecco perché.

I fatti e la decisione del Tribunale

La vicenda trae origine da un giudizio di opposizione a un decreto ingiuntivo promosso da una lavoratrice avverso una serie di “avvisi di addebito” emessi da un ente previdenziale.

Il ricorso in opposizione della lavoratrice era mirato ad evidenziare che la stessa non potesse esser ritenuta debitrice delle somme, per varie (e davvero distanti tra loro) ragioni indicate in ricorso, tra cui: “la decadenza dal potere impositivo, l’incompetenza territoriale, l’inesistenza dei titoli per vizi della sottoscrizione, la mancata indicazione del criterio di calcolo degli interessi, l’inesistenza della notifica degli avvisi di addebito, l’intervenuto silenzio assenso”.

Ricorso infondato

Il Tribunale di Torino ha dichiarato il ricorso manifestamente infondato, sottolineando che tutte le doglianze della lavoratrice (sia relative al merito della pretesa creditoria portata dagli avvisi di addebito sottesi all’intimazione di pagamento sia alla validità formale degli stessi) erano state espresse “in termini del tutto astratti, privi di connessione con gli specifici titoli impugnati e che, pertanto, risultano in larga parte inconferenti”.

Ed erano, peraltro, tardive rispetto al termine decadenziale di 40 giorni dalla notifica di ciascuno degli avvisi di addebito.

Ma non è tutto.

La motivazione

Una volta che l’atto giudiziario fosse stato predisposto “col supporto dell’intelligenza artificiale”, evidentemente senza alcun controllo critico da parte dell’avvocato, il Tribunale ha condannato la parte anche alle sanzioni di lite temeraria ex art. 96 c.p.c., fornendo un’importante motivazione.

Il Tribunale ha infatti affermato che la lavoratrice avesse “agito in giudizio con malafede o, quantomeno con colpa grave, dal momento che ha proposto opposizione nei confronti di avvisi di addebito che le erano stati tutti notificati in precedenza”, già oggetto di plurimi atti di esecuzione anch’essi tutti regolarmente notificati ed ha svolto – tramite un ricorso redatto “col supporto dell’intelligenza artificiale”.

La sentenza ha inoltre definito il ricorso come caratterizzato da “un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate”.

I precedenti giurisprudenziali

La sentenza del Tribunale di Torino non è un caso isolato. Infatti, qualche
mese addietro, nel marzo 2025, il Tribunale di Firenze aveva affrontato un caso in cui un avvocato di causa si era affidato ai risultati suggeriti da un sistema di intelligenza artificiale.

Il caso fece molto rumore tra le notizie in quanto l’avvocato in questione aveva citato, nel proprio scritto difensivo, precedenti giurisprudenziali inesistenti a supporto della propria difesa e la controparte, resasi conto di ciò, aveva sollevato la questione dinanzi al Giudice.

In tal caso, l’avvocato “autore dell’errore” si era giustificato affermando che i precedenti fossero stati indicati da una propria collaboratrice, la quale aveva fatto a sua volta uso di uno strumento di intelligenza artificiale, che le aveva fornito numeri di sentenze inesistenti.

In tale occasione, però, per ragioni attinenti al caso in esame, il Tribunale ritenne di non applicare le “sanzioni” di condanna lite temeraria ex art. 96 c.p.c.

Insegnamenti e prospettive (anche di legge)

La particolarità che accomuna i due casi citati è che entrambi sono frutto dei tempi che viviamo, ossia di un’incalzante e smodato utilizzo di sistemi di IA generativa a supporto delle professioni intellettuali del giorno d’oggi e, allo stesso tempo, si posizionano come primi arresti evidenzianti la questione dell’utilizzo (s)corretto degli stessi (a latere rispetto alle vicende sottese ai giudizi) in assenza, al tempo della pubblicazione delle sentenze, di una legge regolante il fenomeno.

Questa è già una grande differenza che pone una netta linea di demarcazione rispetto al tempo in cui si scrive.

Infatti, il 10 ottobre 2025 è entrata in vigore la legge n. 132/2025 la quale offre una “disciplina guida” per l’adozione e lo sviluppo di sistemi e di modelli di intelligenza artificiale e, soprattutto, ne promuove un utilizzo corretto, trasparente e responsabile.

La normativa italiana si pone in linea di contiguità con i principi espressi a livello europeo, orientati a un approccio etico, definendo un modello di regolazione che governa gli effetti dell’intelligenza artificiale garantendo trasparenza e diritti. 

Articolo 1

Ora, l’art. 1 della legge precisa sin da subito che l’utilizzo di sistemi di intelligenza artificiale deve essere promosso secondo “un utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica“.

Concetto, questo, molto rilevante in relazione a quanto accaduto nei precedenti giurisprudenziali.

L’antropocentrismo che permea la legge

Lo stimolo non è nella direzione per cui l’intelligenza artificiale sostituirà le
professioni, bensì il legislatore italiano ha evidenziato il concetto fondamentale di antropocentrismo. E, cioè, di utilizzo della tecnologia in rapporto (e non in sostituzione) all’uomo.

La tecnologia deve dunque migliorare, valorizzare al massimo l’apporto intellettuale, non sostituirlo.

Ed infatti, con stretta aderenza al mondo delle professioni intellettuali, l’art 13 della legge n. 132/2025 stabilisce che l’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera.

E, per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista dovranno essere comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo.

Le caratteristiche del lavoro intellettuale

Ciò non deve considerarsi una novità limitante. Infatti, storicamente, il lavoro intellettuale si basa su accentuate caratteristiche di giudizio critico, esperienza e responsabilità.

L’intelligenza artificiale, invece, può essere un ottimo alleato per arricchire le professioni e valorizzarne ancor di più gli aspetti peculiari, se usata correttamente.

In questo contesto, la legge n. 132/2025 e la recente giurisprudenza forniscono sia il perimetro entro cui muoversi correttamente sia i segnali di monito evidenzianti i limiti d’utilizzo.

Chi esercita una professione intellettuale può usufruire di IA come un potente strumento di supporto, ma mai sostitutivo. E sempre governato dall’immancabile (e doveroso) controllo umano.


文章来源: https://www.cybersecurity360.it/legal/ia-e-attivita-legale-limiti-e-rischi/
如有侵权请联系:admin#unsafe.sh