Nuove regole, nuovi diritti: come cambia la protezione dei dati personali. Ne hanno discusso alcuni esperti al Dipartimento di Giurisprudenza
I sistemi di intelligenza artificiale rappresentano la nuova frontiera dell’innovazione tecnologica e, al pari di ogni nuova frontiera, promettono indubbi avanzamenti, ma nascondono anche molteplici rischi.
Di fronte a uno scenario globale e tecnologico in costante evoluzione, la scienza giuridica ha la responsabilità di elaborare e fornire risposte adeguate in materia di regolamentazione dei numerosi conflitti di interesse generati o acuiti dalle numerose ed eterogenee forme di applicazione di questi nuovi sistemi.
Un impegno, questo, divenuto ormai ineludibile, specie all’indomani della novella normativa di matrice interna sull’uso dell’intelligenza artificiale (l. n. 132/2025) e delle di poco precedenti innovazioni introdotte dal Regolamento europeo 2024/1689 (c.d. IA Act).
In tale contesto si inserisce l’idea di organizzare un’occasione di dialogo e confronto su alcune delle tematiche più complesse e controverse legate al rapporto tra intelligenza artificiale e diritto, affidando il ruolo di relatori a giovani autori di opere monografiche sull'argomento, chiamati a dialogare con docenti qualificati ed esperti.
L’evento, tenutosi nella suggestiva cornice dell’Auditorium intitolato al prof. Enzo Zappalà, è stato introdotto dai saluti istituzionali del Vicedirettore del Dipartimento, prof. Antonio Guidara, del presidente del corso di laurea, prof. Giuseppe Speciale, e del Coordinatore della Commissione Informatica del Consiglio dell’Ordine degli Avvocati di Catania, avv. Elio Guarnaccia.
A seguire il responsabile scientifico dell’iniziativa, dott. Alfio Guido Grasso, ha illustrato gli obiettivi del seminario, finalizzato all’analisi delle sfide prospettate dalla transizione digitale alla luce di un quadro normativo di nuova introduzione, ma già in fase di fervente sviluppo.
Conclusa la presentazione del progetto, ha preso la parola il prof. Mario Barcellona, coordinatore dei lavori, il quale ha fornito preziose indicazioni metodologiche attraverso cui analizzare ed impostare la materia: due distinti gruppi di questioni, afferenti, da un lato, al confronto dialettico fra le applicazioni delle nuove tecnologie e le libertà individuali e collettive; dall’altro, al discorso sui termini del giudizio di responsabilità civile per i danni procurati dall’uso dei sistemi di IA.
Apre il confronto tra gli autori, il dott. Beniamino Parenzo, il quale si è occupato delle interferenze che si delineano nel rapporto fra la «profilazione algoritmica» e l’autonomia privata, ponendo l’accento sui riflessi pregiudizievoli rispetto al potere decisionale del profilato.

Un momento dell'intervento del prof. Giuseppe Speciale
Ne è scaturito un dibattito, cui hanno partecipato i docenti Ilaria Amelia Caggiano e Raffaele Caterina, in cui sono stati evidenziati, oltre all’esigenza di un approccio interdisciplinare allo studio di questa tematica, esteso, specialmente, alla psicologia comportamentale, i possibili rimedi alla debolezza del consenso, inteso quale strumento di legittimazione al trattamento dei dati personali a fini di profilazione.
Il dialogo è proseguito con le parole del secondo relatore, il prof. Andrea Bertolini, sul rapporto fra uso dei sistemi di intelligenza artificiale e responsabilità civile. La regolamentazione delle diverse forme di applicazione dei sistemi intelligenti non si presta ad essere colta in termini unitari ed omogenei, necessitando una diversificazione funzionale alla risoluzione degli specifici problemi propri di ciascuna manifestazione operativa, secondo Bertolini.
In questo quadro si inserisce, inoltre, una riflessione intorno alle ragioni del “fallimento normativo” della disciplina sulla responsabilità da prodotto difettoso, di cui si addita l’inattitudine a fornire risposte adeguate alle sfide della complessità emergente nel campo delle innovazioni tecnologiche.
Ne hanno discusso le docenti Arianna Fusaro e Carolina Perlingieri, soffermando l’attenzione, in primo luogo, sulle riserve formulate riguardo alla «neutralità tecnologica», cioè al principio di indistinzione della disciplina di responsabilità nel campo dei sistemi di intelligenza artificiale. Mentre, in secondo luogo, orientando il dialogo sulle eventuali ragioni funzionali in grado di sostenere l’idea dell’attribuzione di soggettività giuridica agli strumenti di IA, almeno in alcuni casi.
Infine, l’ultima relatrice, la dott.ssa Marina Federico ha illustrato gli argomenti che depongono a favore dell’opportunità di riconcettualizzare la protezione dei dati personali, evidenziandone la dimensione non soltanto individuale, ma anche collettiva. Muovendo da questa premessa, ha intrapreso un itinerario di ricerca che, intrecciandosi con l’esperienza giuridica di common law, conduce ad evidenziare i pregi dei rimedi processuali collettivi nella gestione, in particolare, delle forme di violazione “massiva” dei diritti al trattamento dei dati personali.
La vocazione comparatistica della ricerca ha suggerito alcune riflessioni, sviluppate dai professori Guido Smorto e Antonio Las Casas, relative non solo alla duplice funzione dei rimedi collettivi, declinata in rapporto alla tipologia di danno, seriale o sociale, ma anche alle funzioni del ricorso alla comparazione giuridica.
Nelle conclusioni, affidate al prof. Ugo Salanitro, è stato individuato il profilo rimediale come filo conduttore dei vari interventi, nella convinzione che i sistemi di IA rappresentino un fattore di rischio, nonostante la loro attitudine a garantire sicurezza.
Hanno collaborato Martina Caravello, Ilenia Bruno e Giulia Samira Timofte