21 Aprile 2026
Corte digitale e intelligenza artificiale
Atti processuali scritti con intelligenza artificiale: il Tribunale di Latina condanna i difensori per abuso del processo e responsabilità aggravata.

Quando l’automazione della scrittura legale diventa abuso del processo

La diffusione di strumenti di intelligenza artificiale generativa nella pratica forense ha aperto scenari nuovi.
Velocità di redazione. Automazione di modelli difensivi. Supporto alla ricerca giurisprudenziale.

Tuttavia, quando tali strumenti vengono utilizzati senza controllo professionale, il rischio è elevato.
Non solo sul piano qualitativo degli atti. Ma anche su quello deontologico e processuale.

Due recenti decisioni del Tribunale di Latina offrono un esempio emblematico. Le pronunce affrontano una questione che inizia a emergere con frequenza crescente: l’utilizzo improprio di sistemi di intelligenza artificiale nella redazione degli atti giudiziari.

Le sentenze, entrambe del 23 settembre 2025, mostrano come l’automazione non supervisionata possa trasformarsi in un vero e proprio abuso del processo.


Il contesto processuale delle decisioni

Le due controversie nascono nell’ambito di procedimenti di lavoro aventi ad oggetto l’impugnazione di avvisi di addebito contributivo e intimazioni di pagamento.

In entrambi i giudizi il ricorrente chiedeva l’accertamento negativo dei crediti contributivi azionati dagli enti previdenziali.

Il Tribunale ha tuttavia rilevato numerose anomalie nella gestione del contenzioso quali la duplicazione di procedimenti identici, oppure atti difensivi ripetitivi e stereotipati, o ancora difese prive di reale attinenza con il caso concreto e addirittura reiterata mancata comparizione dei difensori convocati dal giudice.

Questi elementi hanno condotto il giudice a una valutazione particolarmente severa del comportamento processuale.

In un caso il ricorso è stato rigettato nel merito, con condanna alle spese e applicazione della responsabilità aggravata.

Nel secondo procedimento il Tribunale ha addirittura dichiarato l’inammissibilità del ricorso per nullità della procura alle liti, ritenendo il mandato processuale inesistente.


Il punto centrale: atti redatti con strumenti di intelligenza artificiale

La parte più significativa delle pronunce riguarda la valutazione del contenuto degli atti.

Secondo il Tribunale, i ricorsi risultavano “evidentemente redatti con strumenti di intelligenza artificiale”, circostanza desumibile da una serie di indici sintomatici.

Tra questi la scarsa qualità tecnica degli scritti difensivi, l’assenza di una reale struttura argomentativa, l’accumulo di citazioni normative e giurisprudenziali prive di coerenza logica e l’inconferenza degli argomenti rispetto al thema decidendum.

Il giudice descrive gli atti come un coacervo disordinato di riferimenti astratti, incapaci di incidere sulla controversia concreta.

In altre parole, il problema non è l’uso della tecnologia.
Il problema è l’assenza di controllo professionale sul risultato prodotto dall’automazione.


Responsabilità aggravata e abuso del processo

Le conseguenze processuali sono state rilevanti.

Nel primo procedimento il Tribunale ha ritenuto che l’azione fosse stata introdotta in malafede o con grave negligenza, applicando l’art. 96, comma 3, c.p.c. con una condanna pecuniaria aggiuntiva.

Nel secondo caso la valutazione è stata ancora più incisiva.

Il giudice ha ritenuto che il mandato difensivo fosse invalido e generico, la parte non fosse mai comparsa nonostante le convocazioni e che l’intera gestione del processo evidenziasse un uso abusivo dello strumento giudiziario.

La conseguenza è stata duplice:

  • condanna del difensore in proprio al pagamento delle spese di lite;
  • applicazione della responsabilità aggravata ex art. 96 c.p.c. nei confronti dei legali coinvolti.

Il rischio sistemico per la professione forense

Le pronunce del Tribunale di Latina evidenziano un problema che sta emergendo con crescente frequenza.

L’intelligenza artificiale può essere uno strumento straordinariamente utile per l’attività forense.
Ma non può sostituire il giudizio critico dell’avvocato.

Quando gli atti processuali vengono generati automaticamente e depositati senza verifica si compromette la qualità della difesa, si rischia di introdurre contenuti errati o inconferenti e si espone il cliente a conseguenze processuali negative.

Il giudice sottolinea inoltre un ulteriore profilo: la serialità degli atti.

Nel caso di specie i ricorsi facevano parte di centinaia di procedimenti analoghi redatti con modelli standardizzati, elemento che ha rafforzato il sospetto di una produzione automatizzata.


La lezione per chi utilizza l’intelligenza artificiale nella pratica legale

Le decisioni in commento offrono un insegnamento chiaro.

L’uso dell’intelligenza artificiale nella professione forense non è vietato.
Anzi, può migliorare l’efficienza dello studio legale.

Tuttavia resta imprescindibile un principio.

La responsabilità dell’atto processuale rimane sempre del difensore.

Ogni documento generato con strumenti automatizzati deve essere:

  • verificato;
  • rielaborato;
  • adattato al caso concreto.

In mancanza di questo controllo, l’automazione rischia di trasformarsi da opportunità a fonte di responsabilità professionale e processuale.

Sull'autore