
Sentenza 3348/2025 TAR Lombardia
La sentenza fa riflettere su un tema ormai centrale: l’uso della IA nella professione forense.
Il caso riguarda un ricorso presentato davanti al TAR Lombardia, nel quale l’avvocato ricorrente aveva citato più pronunce giurisprudenziali che si sono rivelate non pertinenti o inesistenti, collegate ad ambiti completamente diversi dall’oggetto della controversia.
Durante l’istruttoria, l’avvocato avrebbe ammesso che tali elementi erano stati reperiti “mediante strumenti di ricerca basati sull’intelligenza artificiale che avevano generato risultati errati”.
Il Collegio ha ritenuto che tali errori non potessero essere considerati “esimenti”: in altre parole, l’utilizzo dell’IA non esonera il professionista dal dovere di controllo e verifica dei risultati che essa produce.
In particolare, la pronuncia rileva che la sottoscrizione degli atti processuali attribuisce comunque al difensore la responsabilità degli esiti degli scritti, “indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi di strumenti di intelligenza artificiale”.
Vi è poi un richiamo alla Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense, redatta dall’Ordine degli Avvocati di Milano nel 2024: secondo quella Carta, l’uso della IA non può spogliare il professionista del ruolo decisionale e del controllo critico.
La delega alla IA di attività fondamentali della difesa, come la ricerca di giurisprudenza o la costruzione di argomenti, non può essere “passiva” e senza verifica.
Il rischio è l’inserimento nel ricorso di citazioni false o non pertinenti, che non solo compromettono la qualità dell’atto, ma possono pure alterare il corretto contraddittorio e gravare inutilmente sull’attività del giudice o della controparte.
L’uso incontrollato dell’IA può integrare una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità (richiamando l’art. 88 c.p.c. e l’art. 9 del Codice Deontologico Forense), laddove la qualità del controllo non viene garantita e i risultati non sono verificati.
La sentenza chiarisce che le “allucinazioni” (ossia la generazione di risultati apparentemente coerenti ma falsi o inventati da parte dei modelli linguistici) non possono costituire giustificazione per mancate verifiche.
La responsabilità, dunque, resta in capo al professionista e la tecnologia non può sostituire il giudizio, la capacità di selezione delle fonti ed il controllo critico delle argomentazioni.
