Negli ultimi mesi la giurisprudenza sta assumendo una posizione sempre più netta sull’uso improprio dell’Intelligenza Artificiale (IA) nella redazione degli atti difensivi. Diverse pronunce hanno sanzionato condotte processuali caratterizzate da un utilizzo automatico, non verificato e acritico di strumenti di IA, con conseguenze rilevanti sul piano della responsabilità professionale.
- Tribunale di Firenze (ord. 14.03.2025) Pur senza condanna ex art. 96 c.p.c., il Tribunale ha chiarito che l’avvocato deve sempre verificare la veridicità delle fonti, anche quando utilizza strumenti come ChatGPT, segnalando casi di sentenze inesistenti o travisate.
- Tribunale di Torino (sent. n. 2120/2025) Qui la condanna per lite temeraria: l’atto, palesemente generato tramite IA, era composto da citazioni astratte, disordinate e inconferenti, prive di qualsiasi collegamento con il caso concreto.
- Tribunale di Latina (sent. n. 1034/2025) Sanzione particolarmente severa per atti “redatti a stampone”, riconducibili all’uso massivo di IA, con argomentazioni manifestamente infondate e prive di pertinenza rispetto al thema decidendum.
- Corte di Cassazione (provv. n. 34481/2025) La Suprema Corte richiama anche i giudici al rischio di “abdicare” al proprio ruolo valutativo, sottolineando come l’uso dell’IA non possa mai sostituire il momento critico e valutativo umano, essenziale per garantire terzietà e imparzialità.
La conclusione della giurisprudenza è chiara: l’IA è uno strumento legittimo e utile, ma non può essere utilizzato in modo automatico e incontrollato. Ciò che viene censurato non è l’ausilio tecnologico, bensì la rinuncia al vaglio critico del professionista. L’avvocato che utilizza l’IA senza verifiche espone sé stesso (e il cliente) a sanzioni processuali, responsabilità professionale, possibili azioni risarcitorie. L’IA supporta il lavoro giuridico, ma non sostituisce competenza, esperienza e responsabilità.
