Intelligenza artificiale e diritto: dal database alla scrittura giuridica assistita

Al Dipartimento di Scienze politiche e sociali due seminari per esplorare il nuovo linguaggio del diritto nell’era dell’IA

Laura Beninato e Carmela Finocchiaro

«Il ciclo di seminari nasce dalla necessità di istruire e rendere coscienti gli studenti sul corretto utilizzo dell’intelligenza artificiale e sulle possibilità che offre e può offrire nel mondo dello studio e del lavoro di domani». Con queste parole il prof. Vincenzo Antonelli, ordinario di Diritto Amministrativo e Diritto Pubblico, ha aperto il ciclo di incontri su Intelligenza Artificiale e diritto: strumenti, metodi e prospettive, organizzato dal Dipartimento di Scienze Politiche e Sociali dell’Università di Catania.

Nel corso degli ultimi due appuntamenti - 31 ottobre e 7 novembre 2025 - Alfredo Spitaleri, giudice civile al Tribunale di Siracusa, ha guidato gli studenti in un viaggio tra teoria e pratica dell’intelligenza artificiale applicata al diritto: dalla ricerca giurisprudenziale assistita alla scrittura giuridica aumentata.

Un momento dell'incontro

Un momento dell'incontro

Dal database al ragionamento assistito

Nel primo incontro, dedicato a IA e ricerca giurisprudenziale: dal database al ragionamento assistito, Spitaleri ha mostrato come l’intelligenza artificiale stia trasformando il modo di cercare, comprendere e correlare le decisioni giudiziarie.

«Le banche dati tradizionali - ha spiegato - lavorano per parole chiave, non per concetti. Sanno trovare, ma non capire. La sfida è costruire basi di conoscenza capaci di riconoscere i significati giuridici e le relazioni tra i casi».

Al centro della lezione, il funzionamento dei Large Language Models (LLM), ossia i modelli linguistici alla base di sistemi come ChatGPT o Gemini.

«Un LLM non cerca documenti: predice linguaggio plausibile. È una rete neurale che elabora miliardi di parole per imparare come funziona il linguaggio umano -ha chiarito - ma non conosce la verità, elabora probabilità».

Spitaleri ha illustrato come architetture come il Transformer e i meccanismi di self-attention e embedding consentano di rappresentare le parole in forma numerica, riconoscendo somiglianze semantiche e contesti d’uso:

«Il modello non capisce davvero - ha spiegato -, ma sa che portiere può significare cose diverse a seconda che accanto compaiano parole come rigore o palazzo. È statistica, non comprensione reale, ma può essere di grande aiuto se usata con metodo».

Da qui l’importanza della Retrieval-Augmented Generation (RAG), tecnologia che vincola la generazione linguistica a fonti giuridiche reali: «La RAG permette al modello di rispondere basandosi solo sui testi recuperati - ha spiegato - così da evitare “allucinazioni” e garantire la verificabilità del risultato. È il passaggio decisivo dal database al ragionamento assistito: non più solo cercare, ma comprendere».

Il magistrato ha poi richiamato il principio di controllo umano significativo, sancito anche dalla Legge n. 132/2025 sull’Intelligenza Artificiale: «Nel diritto la decisione è - e deve restare - sempre umana. L’algoritmo può aiutare a trovare le fonti, ma non a interpretarle».

Dal database al ragionamento assistito

Dal database al ragionamento assistito

Scrivere con l’Intelligenza Artificiale

Nel secondo incontro ci si è spostati dal piano della ricerca a quello della scrittura giuridica, con il seminario Scrivere con l’Intelligenza Artificiale.

Il dibattito si è aperto con una riflessione che ha catturato l’interesse degli studenti: «In futuro - se non già adesso - vedremo molti laureandi utilizzare ChatGPT per scrivere la tesi. È inevitabile - ha osservato Spitaleri - e proprio per questo è necessario imparare a usarlo con consapevolezza: l’IA non fornisce verità assolute, è uno strumento da maneggiare con senso critico».

L’attenzione si è spostata sul modo in cui un modello linguistico può assistere lo studente o il professionista nella redazione di testi giuridici, purché guidato da un prompting consapevole e da rigore metodologico.

«Quando poniamo una domanda a ChatGPT, è sicuro che ci darà una risposta - ha osservato Spitaleri - perché è stato creato per generare parole che stanno bene insieme una dietro l’altra. Ma non è detto che siano corrette. È nostro compito formulare il prompt in modo chiaro, inserendo quante più informazioni possibili, per indirizzare la generazione verso risultati precisi».

Da qui il passaggio al cuore della lezione: il prompt didattico, concepito come una vera e propria istruzione di metodo per ottenere testi coerenti e verificabili.

Il magistrato ha spiegato che un buon prompt deve essere costruito con metodo e cura: anzitutto occorre definire il ruolo che il modello deve assumere, ad esempio, «agisci come un cultore della materia di diritto costituzionale» così da orientarne il registro linguistico e il livello tecnico. È poi necessario chiarire con precisione l’obiettivo dell’elaborato, che potrà essere una tesina, un parere o la simulazione di una sentenza, in modo da fornire al modello un perimetro chiaro entro cui operare.

Fondamentale è anche la fase di apprendimento contestuale (In-Context Learning), durante la quale il sistema “legge” i materiali forniti e ne assimila lo stile, il linguaggio e la struttura argomentativa.

Come ha spiegato Spitaleri, gli sviluppi più recenti mostrano che questa tecnica non serve più soltanto a insegnare al modello come rispondere, ma anche a limitarne il campo d’azione entro una base di conoscenza controllata.

«Nel diritto - ha sottolineato il magistrato -, questo approccio consente di ottenere testi che non solo riproducono il linguaggio tecnico e la logica argomentativa del giurista, ma rispettano anche la struttura tipica dell’elaborazione giuridica - introduzione, quadro normativo, analisi critica, conclusioni e bibliografia - garantendo così coerenza ai contenuti prodotti. Allo stesso tempo, può servire a evitare “allucinazioni”, costruendo testi basati su fonti affidabili e verificabili, preventivamente selezionate e controllate dall’utente».

Durante l’esercitazione, gli studenti hanno confrontato diversi prompt sul tema “La libertà di manifestazione del pensiero e i suoi limiti”, osservando come piccole variazioni nelle istruzioni producessero testi di tono, registro e profondità completamente diversi.

«Capire come funziona un prompt - ha concluso il magistrato - significa imparare a pensare in modo strutturato. È una forma di scrittura aumentata che non sostituisce la mente, ma la allena a funzionare diversamente».

Scrivere con l’Intelligenza Artificiale

Scrivere con l’Intelligenza Artificiale

Etica, metodo e responsabilità

In entrambi gli incontri, il messaggio di fondo è stato lo stesso: l’intelligenza artificiale è uno strumento potente solo se usato con consapevolezza critica.

«L’intelligenza umana non potrà mai essere sostituita pienamente dall’IA - ha ricordato Spitaleri - ma può essere accompagnata, potenziata e resa più efficiente da essa».

Il prof. Antonelli ha infine sottolineato il valore formativo di una didattica interdisciplinare: «Il giurista del futuro dovrà comprendere il funzionamento delle macchine non per diventare un tecnico, ma per restare padrone del proprio giudizio».

I prossimi appuntamenti

Il ciclo di incontri proseguirà nelle prossime settimane con tre nuovi appuntamenti.

Il 20 novembre si parlerà de “L’IA e la pubblica amministrazione” con gli interventi dell’Avv. Martina Motta e del funzionario pubblico Giovanni Magnano.

Il 28 novembre sarà la volta di “Scrivere una legge con l’IA”, a cura di Fabio Francesco Pagano, consigliere parlamentare dell’Assemblea Regionale Siciliana.

Chiuderà il ciclo, il 5 dicembre 2025, una tavola rotonda su “IA, diritto e professioni”, occasione di confronto tra accademia e mondo delle professioni legali.

Back to top