Cosa succede nel mondo AI legale
OSSERVA
Capire cosa sta succedendo, prima ancora di decidere cosa fare.
Osserva / quadro normativo
Le regole da conoscere, senza perdersi nella teoria.
L'Avvocato di oggi si trova alla perfetta intersezione normativa tra disciplina sull'intelligenza artificiale, normativa specifica della professione forense e tutela dei dati personali.
Il tema non è soltanto capire se l'IA sia utile oppure no. Il tema, oggi, è usarla in modo coerente con il proprio ruolo professionale, con la riservatezza dei dati trattati e con gli obblighi che derivano dall'esercizio della professione forense.
Il regolamento europeo che introduce ruoli, livelli di rischio e obblighi specifici per chi sviluppa o utilizza IA.
La legge quadro italiana che coordina e cala il tema nel contesto nazionale e nelle professioni intellettuali.
La cornice essenziale per chi tratta dati di clienti, controparti e terzi tramite strumenti automatizzati.
1. AI Act – Regolamento (UE) 2024/1689
Il punto di partenza è il Regolamento europeo sull'intelligenza artificiale. Segue una logica di rischio: più alto è il rischio per i diritti fondamentali, più stringenti diventano gli obblighi. Nella pratica quotidiana di Studio, l'AI Act serve come griglia di orientamento.
I quattro ruoli
- Provider: Chi sviluppa il sistema.
- Deployer: Chi usa l'IA nell'attività professionale (il ruolo tipico dello Studio).
- Importer: Chi introduce sistemi da paesi extra-UE.
- Distributor: Chi mette a disposizione il sistema sul mercato.
Le fasce di rischio
- Rischio vietato: Pratiche non consentite nell'UE.
- Alto rischio: Sistemi con impatto serio su diritti e sicurezza.
- Rischio limitato/minimo: Dove ricade la maggior parte dei tool di produttività forense.
Nota operativa: Nel 90% dei casi l'Avvocato opera come deployer di IA e l'utilizzo ricade in termini di rischio accettabile o minimo, dove prevalgono obblighi di trasparenza e consapevolezza.
2. Legge 132/2025 (Italia)
La Legge 132/2025 rappresenta il tassello fondamentale della disciplina italiana sull'intelligenza artificiale, traducendo i principi dell'AI Act europeo nel tessuto normativo nazionale. Per chi esercita una professione intellettuale, il cuore della norma risiede nell'affermazione della centralità del professionista.
Supporto, non sostituzione
L'utilizzo di sistemi di IA deve restare finalizzato ad attività strumentali e di supporto. La prestazione professionale non può essere svuotata del suo contenuto intellettuale proprio: l'IA assiste, ma l'Avvocato decide e risponde.
Trasparenza e Informativa
La legge introduce obblighi chiari di informativa verso il cliente: l'avvocato deve rendere noto quando l'attività professionale si avvale in modo significativo di strumenti di IA generativa, garantendo il diritto alla consapevolezza dell'assistito.
Responsabilità e Vigilanza
Il professionista è tenuto a una vigilanza costante (human-in-the-loop). Qualsiasi errore, allucinazione o omissione generata dal sistema ricade interamente sotto la responsabilità civile e deontologica del difensore.
Nota operativa: La Legge 132/2025 non vieta l'innovazione, ma impone un metodo: il professionista deve mantenere il "dominio algoritmico", assicurando che l'output sintetico sia sempre filtrato da una valutazione umana critica prima di qualsiasi deposito o comunicazione esterna.
3. GDPR e Riservatezza
Ogni input inserito in un'IA (nomi, atti, vicende giudiziarie) è un trattamento di dati. L'uso dell'IA non sospende il GDPR; anzi, ne richiede un'applicazione più attenta.
4. Deontologia e Responsabilità
La Legge 247/2012 e il Codice Deontologico non cambiano: indipendenza, competenza e segreto professionale restano i pilastri. L'output di un'IA non è mai una verità assoluta, ma un suggerimento da vagliare criticamente.
Matrice AI Act per Avvocati e Studi Legali
Strumento orientativo per classificare il tuo utilizzo dell'intelligenza artificiale in termini di rischio, ruolo prevalente e primo livello di compliance suggerito.
Questa domanda aiuta soprattutto a distinguere deployer, distributor e provider.
Classificazione orientativa
Ruolo prevalente
Primo livello di compliance suggerito
Nota interpretativa
Prossimo passo consigliato
Risposta pronta da copiare o esportare
Questa matrice ha finalità esclusivamente orientativa. La qualificazione finale dipende dal caso concreto, dalle funzionalità del sistema, dal livello di controllo esercitato, dal contesto professionale e dalla posizione dello studio nella filiera del servizio AI.
Mappa dei Tool Attuali
L'ecosistema dell'IA legale attuale prevede una sostanziale macro differenza che poi andremo a vedere più nello specifico: GPAI vs. tool verticale.
GPAI è un termine previsto dall'AI Act e significa General Purpose AI, ai generaliste, LLM che “sanno tutto” e possono rispondere a qualsiasi cosa. E nel loro essere tuttologi, sanno anche di norme, fonti, leggi: ma fino a quale punto?
Confronto: GPAI vs Tool Verticale
General Purpose AI (GPAI)
Sistemi generalisti come ChatGPT, Claude o Gemini. Progettati per rispondere a qualsiasi domanda, ma senza una conoscenza certificata del diritto italiano.
- Forza: Estremamente versatili, eccellenti nella sintesi, traduzione e rielaborazione di testi complessi.
- Debolezza: Rischio altissimo di "allucinazioni" (inventano sentenze). Non accedono a banche dati giuridiche chiuse.
- Uso: Riassunto documenti, brainstorming strategico, revisione linguistica.
per provare alcuni di questi tool direttamente da questo sito, vai alla pagina /applica.
Tool Verticale Legale
Piattaforme sviluppate appositamente per gli avvocati, che limitano o azzerano le allucinazioni collegando l'IA a fonti normative e giurisprudenziali reali.
- Forza: Ricerca giurisprudenziale ancorata a sentenze vere, aggiornamento costante, template di atti italiani.
- Debolezza: Costo generalmente più alto e rigidità strutturale (fanno bene una cosa sola).
- Uso: Ricerca di precedenti, bozze di atti e pareri, analisi di contratti.
Con passione e pazienza, e anche perché sono il “target” di duecento pubblicità al giorno su questo tema (basate sulle mie ricerche ovviamente) ho pensato di mappare tutti i tool legali verticali esistenti e di inserire i più comuni o più utilizzati tool specifici, verticali per il settore legale, che esistono ad oggi, aprile 2026, sul mercato italiano.
Puoi vederli uno ad uno o cercare per parole chiave com “gratuito”, “abbonamento”, “giurisprudenza”: naturalmente non è ancora tutto perfetto ma ci impegniamo ad aggiornare l'elenco continuamente con nuove informazioni su ciascuno.
Elenco Strumenti AI
| Nome Strumento |
|---|
Osserva / Rischi e Incidenti
Rischi e Incidenti
Il tema dei rischi non è teorico, remoto o futuribile. È già entrato nelle aule di giustizia.
Nel momento in cui un Avvocato usa in modo acritico uno strumento di IA e ne riversa l'output dentro un atto, il problema non è più tecnologico. Diventa immediatamente processuale, professionale e, in prospettiva, anche deontologico.
Le prime pronunce italiane hanno già mostrato con notevole chiarezza che il punto non è "se l'IA si possa usare", ma come venga usata. Il bersaglio del giudice non è l'esistenza dello strumento, bensì la rinuncia del difensore al controllo, alla verifica e al filtro critico.
L'IA non diventa pericolosa quando entra nello Studio.
Diventa pericolosa quando smette di essere verificata.
Quali sono i rischi veri
Allucinazioni giurisprudenziali
Precedenti inesistenti, massime deformate, citazioni plausibili ma false, numeri di sentenza reali associati a contenuti sbagliati o del tutto inventati.
Copia-incolla non verificato
Testo pieno di formule astratte, affermazioni generiche, argomenti inconferenti o riferimenti fuori fuoco. Il rischio dell'atto apparentemente ben scritto ma tecnicamente vuoto.
Delega cieca alla macchina
Quando l'output viene preso come se fosse già ragionamento professionale, l'Avvocato smette di usare l'IA come supporto e inizia, di fatto, a farsi trascinare da essa.
Falsa sicurezza
Più l'output suona bene, più aumenta il pericolo che venga creduto senza essere controllato. Ed è proprio questo il terreno sul quale si sono mosse le prime decisioni dei giudici italiani.
I casi che hanno segnato il tema
Focus: Art. 96 c.p.c. - Responsabilità aggravata
"Se risulta che la parte soccombente ha agito o resistito in giudizio con mala fede o colpa grave, il giudice, su istanza dell'altra parte, la condanna, oltre che alle spese, al risarcimento dei danni..."
L'uso non verificato dell'IA, generando false prove o precedenti fittizi, viene qualificato dai giudici come colpa grave o abuso dello strumento processuale, innescando le sanzioni previste da questo articolo.
Tribunale di Firenze, Sezione Imprese
Ordinanza del 14 marzo 2025, RG 11053/2024
È il primo caso italiano diventato davvero simbolico. In una comparsa difensiva erano stati inseriti riferimenti a sentenze della Cassazione inesistenti o con contenuto non corrispondente a quello riportato; il difensore ha poi spiegato che la ricerca era stata svolta da una collaboratrice tramite ChatGPT, senza controllo finale sulle fonti.
Il Tribunale non ha accolto la domanda di condanna ex art. 96 c.p.c., perché le citazioni errate non sono state ritenute idonee, in quel caso specifico, a sorreggere da sole l'impianto difensivo o a influenzare il collegio. Ma il passaggio importante è un altro: l'errore viene ricondotto con chiarezza alle allucinazioni dell'IA e viene confermato che il controllo sulla veridicità delle fonti resta un onere del difensore.
Principio operativo: l'uso di IA non esonera dalla verifica puntuale di esistenza, pertinenza e contenuto dei precedenti citati.
TAR Lombardia, Sezione V
Sentenza del 21 ottobre 2025, n. 3348
Nel ricorso erano state richiamate pronunce non pertinenti e massime riferibili a orientamenti non noti. Il giudice amministrativo ha ricondotto il problema all'uso non controllato di strumenti di IA e ha evidenziato che la sottoscrizione dell'atto attribuisce al difensore la piena responsabilità del suo contenuto.
La sentenza ha disposto la trasmissione degli atti all'Ordine degli Avvocati di Milano per le valutazioni di competenza, collegando il tema ai doveri di lealtà e probità nel processo.
Principio operativo: l'IA non attenua la responsabilità del difensore; al contrario, rende più stringente il dovere di filtro umano prima del deposito.
Tribunale di Siracusa
Sentenza del 20 febbraio 2026, n. 338
Qui il passaggio è ancora più netto. In memorie di parte erano stati inseriti quattro precedenti della Cassazione con citazioni virgolettate risultate inesistenti o estranee alla materia del contendere. Il Tribunale ha escluso le spiegazioni alternative e ha ritenuto più compatibile con il caso l'uso di IA generativa senza adeguata verifica delle fonti.
La decisione ha qualificato la condotta come colpa grave e ha applicato la responsabilità aggravata ex art. 96 c.p.c., mostrando che il problema può tradursi non solo in imbarazzo difensivo, ma in una vera sanzione processuale.
Principio operativo: quando l'output inventa fonti o ne altera il contenuto, il rischio non resta tecnologico; diventa immediatamente processuale.
Il quadro italiano si sta consolidando
Non siamo più nel terreno delle ipotesi. Tra settembre 2025 e febbraio 2026 i provvedimenti italiani hanno iniziato a comporre una linea abbastanza nitida: l'IA può entrare nel lavoro dello Studio, ma non può sostituire verifica, pertinenza e responsabilità professionale.
Tribunale di Torino
16 settembre 2025, sentenza n. 2120. Il giudice del lavoro condanna ex art. 96 c.p.c. per un ricorso redatto con il supporto dell'IA, descritto come un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti. Fonte
Tribunale di Latina
23/24/25.09.2025 n. 1034, 1035, 1036, 1037, 1072. Il Tribunale ravvisa i presupposti della responsabilità aggravata ex art. 96 c.p.c. in ricorsi redatti con strumenti di IA, segnati da scarsa qualità, duplicazione seriale e argomenti non pertinenti. Fonte
Tribunale di Verona
16.02.2026 n. 315. Il Tribunale ha condannato la parte per responsabilità aggravata (art. 96 c.p.c.) a causa dell'uso non controllato di IA nella redazione dell'atto, in cui erano rimaste visibili le risposte del chatbot. Fonte
Tribunale di Mantova
24.03.2026. Sanzionato l'uso di IA generativa per la citazione di precedenti inesistenti o inconferenti. Condanna ex art. 96 c.p.c., ribadendo che l'obbligo di verifica delle fonti resta integralmente in capo all'avvocato. Fonte
///
Il messaggio che arriva dai tribunali è ormai piuttosto limpido.
Non è vietato usare l'intelligenza artificiale.
È pericoloso usarla senza filtro, senza riscontro, senza verifica, senza governo professionale.
E questo, per l'Avvocato, cambia molto. Perché la sanzione processuale colpisce formalmente la parte, ma la motivazione mette spesso in piena luce la condotta del difensore, il suo livello di diligenza e il suo rapporto con gli obblighi professionali.
IL RISCHIO NON È USARE L'IA.///IL RISCHIO È DEPOSITARLA.
Osserva / Pensieri
Pensieri
Qui troverai una serie di pensieri, paper, osservazioni, consigli e più in generale articoli del blog, anche con ospitate di altri Colleghi o autori.
Uno spazio aperto per riflettere, condividere prospettive, analizzare casi concreti e discutere del rapporto tra intelligenza artificiale e professione forense. Contenuti pensati per chi vuole comprendere il tema in profondità, senza semplificazioni.
In costruzione
Questa sezione è in fase di sviluppo e sarà popolata progressivamente con contributi, riflessioni e analisi dedicate all'intelligenza artificiale in ambito legale. Se hai voglia di contribuire con un tuo pensiero o una tua esperienza, contattami in /chiedi.