La madre di una studentessa di seconda liceo di Milano decide di ricorrere al Tar per la bocciatura di sua figlia, sostenendo che la ragazza, in condizioni di salute precarie, non aveva ricevuto dalla scuola il supporto didattico necessario. Per farlo si affida ad un avvocato che prepara il ricorso.
Il Tar analizza il caso e decide: rigetta il ricorso e trasmette il tutto all’ordine degli avvocati di Miano per le valutazioni di competenza. Che è successo?
Il Tar in sostanza scrive che l’avvocato nel suo ricorso ha citato, a sostegno delle sue tesi, sentenze riferite a casi precedenti e giurisprudenza inesistenti, facendo perdere al Tar ore di lavoro per verificare tutti i precedenti citati che sono risultati falsi o decisamente non pertinenti perché riferiti a tutt’altri casi.
Che ha detto l’avvocato a sua discolpa? Che aveva fatto fare il lavoro a sistemi di intelligenza artificiale generativa (molto diffusi anche nel settore della giurisprudenza) che avevano preso degli abbagli e che si erano inventati di sana pianta casi e sentenze da citare a sostegno della sua tesi. E che lui non aveva verificato prendendoli per veri e corretti. Si tratta di quelle che tecnicamente si chiamano allucinazioni, ovvero, in sostanza, invenzioni dei sistemi LLM che, anche per assecondare l’utente che li interroga, creano dal nulla esattamente ciò che l’utente desidera. E lo fanno in modo molto puntiglioso citando precisamente sentenze, casi, tribunali, con tutti i numeri di riferimento tipici così da risultare decisamente convincenti.
Talmente convincenti che è necessario molto tempo per verificare, una alla volta, tutte le citazioni fatte andando a spulciare caso per caso nelle raccolte di giurisprudenza di decine di tribunali in giro per l’Italia.
Ora sarà il comitato di disciplina degli avvocati di Milano, scrive il Corriere della Sera del 25 ottobre che riporta la notizia, a decidere se e come sanzionare l’avvocato.
Il Corriere riporta anche le parole di Stefano Mielli, presidente della V sezione del Tar, che sostiene che il comportamento dell’avvocato “costituisce una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità, in quanto introduce elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria verso un percorso non corretto, e perché rende inutilmente gravosa a giudici e controparti l’attività di controllo della giurisprudenza citata e dei principi apparentemente affermati”.
Il fatto che l’avvocato abbia spiegato di aver utilizzato sistemi di intelligenza artificiale generativa non lo scusa di certo perché, comunque sia, la responsabilità degli atti – indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori o di strumenti di intelligenza artificiale – è di chi li firma, ovvero dell’avvocato.
Cosa del resto sostenuta proprio dalla Legge 23 settembre 2025, n. 132, che così recita: “Disposizioni in materia di professioni intellettuali. 1. L’utilizzo di sistemi di intelligenza artificiale nelle professioni intellettuali è finalizzato al solo esercizio delle attività strumentali e di supporto all’attività professionale e con prevalenza del lavoro intellettuale oggetto della prestazione d’opera. 2. Per assicurare il rapporto fiduciario tra professionista e cliente, le informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista sono comunicate al soggetto destinatario della prestazione intellettuale con linguaggio chiaro, semplice ed esaustivo”.
Quello di Milano non è il primo caso denunciato in Italia ed è decisamente molto interessante che riguardi la scuola, quasi in un corto circuito tra professioni intellettuali, allucinazioni da IA, invenzioni, perdita di tempo, rischio di scrivere sentenze sbagliate nel caso si dia credito alle allucinazioni. Insomma, un bel crogiuolo che mette assieme molte delle questioni di cui si discute in questo periodo a riguardo del nuovo mondo digitale in cui l’intelligenza artificiale prende sempre più piede e chiede di agire con sempre minori controlli da parte umana.