Quando l’uso degli strumenti di intelligenza artificiale altera il processo
La diffusione degli strumenti di intelligenza artificiale generativa sta modificando profondamente anche il lavoro dell’avvocato.
La ricerca giurisprudenziale, un tempo attività complessa e metodica, è oggi spesso delegata a sistemi automatizzati capaci di produrre risultati in pochi secondi.
Tuttavia, questa apparente efficienza nasconde rischi rilevanti per l’affidabilità degli atti processuali.
Una recente decisione del Tribunale Amministrativo Regionale per la Lombardia offre un esempio emblematico. La pronuncia evidenzia in modo netto come l’utilizzo non verificato dell’intelligenza artificiale possa tradursi in una violazione dei doveri professionali dell’avvocato.
La vicenda merita attenzione. Non solo per il caso concreto, ma soprattutto per le implicazioni deontologiche e processuali che ne derivano.
Il caso deciso dal TAR Lombardia
La controversia riguardava l’impugnazione della non ammissione di una studentessa alla classe successiva di un liceo musicale.
I genitori avevano contestato la decisione del consiglio di classe deducendo, tra gli altri motivi:
- il mancato accesso a determinati documenti;
- l’insufficiente attivazione di strumenti di recupero;
- la mancata applicazione del piano didattico personalizzato;
- il numero ridotto di verifiche in alcune materie.
Il Tribunale ha tuttavia ritenuto infondati tutti i motivi di ricorso, respingendo integralmente l’azione giudiziaria.
L’elemento più rilevante emerge però nella parte finale della sentenza.
Il Collegio ha infatti rilevato che numerosi precedenti giurisprudenziali citati nel ricorso risultavano non pertinenti o addirittura inesistenti.
In sede di discussione, il difensore ha dichiarato di aver reperito tali pronunce tramite strumenti di ricerca basati sull’intelligenza artificiale.
Il giudice amministrativo ha considerato questa circostanza irrilevante sotto il profilo della responsabilità professionale.
Il principio affermato dal giudice amministrativo
La decisione afferma un principio destinato ad assumere grande rilievo nella pratica forense.
Secondo il Tribunale:
la sottoscrizione dell’atto processuale attribuisce piena responsabilità al difensore, indipendentemente dagli strumenti utilizzati per redigerlo.
In altri termini, l’avvocato rimane responsabile anche quando l’errore deriva da un sistema automatizzato.
Il Collegio richiama inoltre la Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense, adottata dall’Ordine degli Avvocati di Milano nel 2024.
Secondo tale documento, infatti, l’uso degli strumenti di intelligenza artificiale deve essere sempre accompagnato da verifica umana, l’operatore giuridico mantiene la centralità decisionale e gli strumenti automatizzati possono generare risultati errati, spesso definiti “allucinazioni da intelligenza artificiale”.
Si tratta di un passaggio significativo. Il giudice riconosce espressamente il fenomeno delle cosiddette allucinazioni, ossia la produzione di informazioni plausibili ma inesistenti.
3 rischi legali nell’uso dell’intelligenza artificiale negli atti giudiziari
L’episodio offre l’occasione per riflettere su tre criticità sempre più ricorrenti nella pratica professionale.
1. Citazione di precedenti inesistenti
Il rischio più evidente riguarda la produzione di riferimenti giurisprudenziali non reali.
I sistemi di intelligenza artificiale generativa non effettuano ricerche nel senso tradizionale del termine.
Essi producono testi probabilistici, costruiti sulla base di modelli linguistici.
Il risultato può essere convincente.
Ma non necessariamente corretto.
Nel caso esaminato dal TAR, alcune pronunce citate non erano pertinenti alla materia trattata o risultavano completamente estranee alla questione giuridica.
Questo fenomeno rappresenta uno dei principali pericoli nell’uso indiscriminato di tali strumenti.
2. Violazione dei doveri di lealtà processuale
Il giudice ha qualificato la condotta come violazione del dovere di lealtà e probità nel processo.
L’introduzione di precedenti inesatti, infatti, altera il contraddittorio, rende più gravoso il controllo da parte del giudice e soprattutto può influenzare impropriamente la decisione.
In questa prospettiva, l’uso non verificato dell’intelligenza artificiale non costituisce una semplice imperizia tecnica.
Può diventare una vera e propria violazione deontologica.
3. Responsabilità professionale dell’avvocato
Il passaggio più significativo della decisione riguarda il profilo della responsabilità.
Il Tribunale afferma chiaramente che l’avvocato risponde degli atti sottoscritti anche quando siano stati redatti con l’ausilio di strumenti automatizzati.
La responsabilità non viene attenuata.
Non rileva che il testo sia stato prodotto da collaboratori di studio, da software di ricerca giuridica o da sistemi di intelligenza artificiale generativa. La verifica del contenuto rimane un onere professionale imprescindibile.
La centralità della verifica umana
La decisione del TAR Lombardia rappresenta uno dei primi casi italiani in cui il giudice affronta esplicitamente il problema delle allucinazioni generate da sistemi di intelligenza artificiale nel contesto giudiziario.
Il messaggio che emerge è chiaro.
Gli strumenti di intelligenza artificiale possono rappresentare un supporto operativo estremamente utile.
Non possono però sostituire il controllo critico dell’operatore giuridico.
La redazione di un atto processuale resta un’attività intrinsecamente umana.
La tecnologia può assistere l’avvocato.
Ma la responsabilità giuridica rimane sempre personale.
