Diritto penale e intelligenza artificiale: nuove sfide tra garanzie e responsabilità

Dal controllo umano ai rischi dell’IA generativa: studiosi a confronto al Dipartimento di Giurisprudenza sui limiti e sulle prospettive della responsabilità penale nell’era degli algoritmi

Ilenia Bruno e Giulia Samira Timofte

Si è aperto con una riflessione sul presente, più che sul futuro, il seminario dal titolo Intelligenza artificiale e diritto penale: prevenzione, responsabilità e garanzie fondamentali, dedicato all’analisi delle profonde trasformazioni che l’uso crescente dei sistemi di IA sta producendo nel sistema penale. 

L’incontro, che si è svolto nelle settimane scorse nell’aula magna di Villa Cerami del Dipartimento di Giurisprudenza, ha offerto un confronto articolato tra studiosi su temi centrali quali l’impiego degli algoritmi nei processi decisionali, le ricadute sulla responsabilità penale e la tenuta dei principi fondamentali del diritto penale di fronte a tecnologie sempre più autonome e opache.

Ad aprire l’incontro dedicato al ruolo del diritto penale di fronte alle sfide dell’intelligenza artificiale è stata la prof.ssa Anna Maria Maugeri, che ha presieduto i lavori sottolineando come il tema non appartenga più a un orizzonte puramente futuro. 

“L’intelligenza artificiale, infatti, è già oggi impiegata in diversi ambiti del sistema penale, in particolare nelle fasi di prevenzione e analisi del rischio”, ha detto la docente dell'ateneo catanese. 

“L’intelligenza artificiale può assistere il giudizio umano, ma non sostituirlo, soprattutto quando sono in gioco libertà personali e responsabilità penali”, ha affermato la prof.ssa Maugeri, richiamando l’attenzione sulla necessità di distinguere tra l’uso dell’IA come strumento di supporto e il rischio di affidare alle macchine funzioni decisionali che incidono direttamente sui diritti fondamentali. 

Un passaggio centrale è stato dedicato al tema della regolazione. Il recente regolamento europeo sull’intelligenza artificiale rappresenta, secondo la docente del Dipartimento di Giurisprudenza, “un esempio di approccio interventista che cerca di bilanciare innovazione tecnologica e tutela delle garanzie fondamentali, distinguendosi sia dal modello statunitense, più permissivo, sia da quello cinese, maggiormente accentrato e meno sensibile alla protezione dei diritti”. 

In chiusura di intervento la prof.ssa Maugeri ha richiamato le nuove sfide poste dall’intelligenza artificiale generativa, con particolare riferimento ai fenomeni di manipolazione dell’informazione e ai rischi per il “corretto funzionamento dei processi democratici”. In questo scenario, il diritto penale è chiamato a interrogarsi su come prevenire e reprimere condotte nuove, senza rinunciare ai principi di legalità, proporzionalità e responsabilità penale. 

In foto da sinistra Angelo Mangione, Anna Maria Maugeri e Beatrice Fragasso

In foto da sinistra Angelo Mangione, Anna Maria Maugeri e Beatrice Fragasso

Il secondo intervento è stato affidato al prof. Angelo Mangione dell’Università Lumsa di Palermo, che ha affrontato il tema dell’impiego dei sistemi di intelligenza artificiale nell’attività d’impresa e le ricadute in termini di responsabilità penale. Al centro della riflessione, la consapevolezza che l’IA è ormai parte integrante degli assetti organizzativi delle grandi imprese e non può più essere considerata un fattore esterno o neutro.

Secondo il prof. Mangione “l’utilizzo dei sistemi intelligenti rientra oggi negli obblighi di corretta organizzazione e gestione del rischio che gravano sugli amministratori”. “L’adozione, o la mancata adozione, di questi strumenti incide direttamente sulla posizione di garanzia degli organi apicali, chiamati a governare processi decisionali sempre più complessi”, ha detto.

Un nodo cruciale riguarda il regolamento europeo sull’intelligenza artificiale che, pur con alcuni limiti, rafforza gli obblighi di controllo umano, sorveglianza e valutazione del rischio. “La sfida - secondo Mangione - è trovare un equilibrio tra innovazione e principi fondamentali, evitando tanto l’arroccamento su schemi classici quanto la rinuncia alle garanzie costituzionali che sorreggono la responsabilità penale”.

La docente Beatrice Fragasso dell’Università di Milano La Statale nel suo intervento, ha esaminato l’impatto dei sistemi di intelligenza artificiale sui principi e sulle categorie del diritto penale. A partire dalle domande di ricerca che hanno guidato il suo lavoro, viene proposta una griglia concettuale utile a leggere scenari molto diversi: dagli incidenti che coinvolgono i veicoli a guida autonoma alla diffusione di contenuti lesivi, fino agli errori diagnostici. 

“Il punto di avvio è la trasformazione del contesto socio-tecnologico caratterizzato dall’opacità dei sistemi intelligenti che rende sempre più difficile esercitare un controllo effettivo – ha detto -. Tale difficoltà investe utenti, produttori e programmatori, mettendo così in tensione i meccanismi tradizionali dell’imputazione penale fondati sul dominio del rischio”. 

Per ordinare queste questioni la dott.ssa Fragasso ha incrociato l’elemento soggettivo relativo a colpa e dolo con la posizione dell’agente, soffermandosi soprattutto sui profili della responsabilità colposa. 

“Per quanto riguarda il ruolo del produttore – ha proseguito nella sua relazione -, il problema risiede nei sistemi di IA definiti unpredictable by design in cui autonomia e opacità rendono difficile ricostruire il nesso causale e valutare la prevedibilità ed evitabilità dell’evento. A ciò si unisce la congenita imprevedibilità dei risultati algoritmici e l’assenza di regole cautelari, fattori che rendono particolarmente complesso affermare una responsabilità colposa del produttore”.

“Inerenti, invece, alle criticità relative alla responsabilità colposa del supervisore-utilizzatore occorre fare riferimento all’articolo 14 dell’AIAct secondo cui bisogna garantire una sorveglianza effettiva sul funzionamento dei sistemi ad alto rischio – ha detto la docente dell’ateneo milanese -. Questa  pretesa rischia però di trasformarsi in una norma-manifesto, poiché la perdita di controllo sui processi decisionali dell’algoritmo può rendere il dovere di vigilanza non praticabile e il supervisore diviene così un mero capro espiatorio”. 

Nelle sue conclusioni la prof.ssa Fragasso ha sottolineato come “queste tecnologie rappresentino un banco di prova decisivo per la dogmatica penalistica, imponendo di ripensare strumenti e categorie senza sacrificarne i principi cardine”. 

Da qui si evince la consapevolezza che l’intelligenza artificiale, pur promessa di progresso, impone al diritto penale un ripensamento profondo e urgente delle proprie coordinate fondamentali. 

Back to top