AI Generativa per la sostenibilità: un’analisi multimediale per la sicurezza e l’ambiente

Al Palazzo della Cultura, in occasione del GreenMindAI Catania Hackathon sono intervenuti Sebastiano Battiato di Unict e Roberto Leotta di IcTLab

Massimiliano Galizia, Giuliana Moscuzza Mania e Marta Maria Robusto

«L'AI dove nasce? A cosa ci porta? Cosa possiamo fare per renderla più concreta?». Con queste domande Sebastiano Battiato, ordinario di Informatica dell’Università di Catania e esperto di autenticità di immagini, video e sicurezza digitale, ha introdotto un excursus sull’evoluzione della Computer Vision e dell’AI Generativa, dal suo stato teorico iniziale fino alle attuali applicazioni pratiche in occasione del panel Generazione AI: Competenze digitali nelle professioni dell’innovazione che si è tenuto al Palazzo della Cultura di Catania nell’ambito del GreenMindAI Catania Hackathon in collaborazione con la Steve Jobs Academy.

Oggi viviamo una vera e propria “ondata” di AI generativa, e ci interroghiamo se queste tecnologie siano pronte per l'uso quotidiano o ancora confinate al laboratorio. Già negli anni '40 e '50 i ricercatori si chiedevano se le macchine avrebbero mai potuto emulare il sistema visivo umano. Con la Computer Vision oggi è possibile estrarre informazioni di natura semantica. Le fotocamere, pur con i limiti fisici dei pixel, riescono a catturare abbastanza dati da rappresentare la complessità del reale. Con il tempo, gli algoritmi hanno imparato a interpretare numeri trasformandoli in contenuti comprensibili.

Bisogna, però, distinguere fra la realtà e l’utopia. Il prof. Battiato, per chiarire questa differenza, nel suo intervento, ha suddiviso l’AI in “ristretta” e "sovrumana": la prima estrae dati e li genera, è veloce, autonoma e svolge specifici compiti grazia alla vastissima disponibilità di dati offerti da internet e social media; la seconda è ancora solo ipotetica.

«Oggi le macchine hanno raggiunto capacità impressionanti che non devono spaventarci. L'approccio giusto è assicurarsi che esse siano solo degli assistenti che affiancano l'uomo – ha aggiunto il docente -. Durante il corso della storia l'uomo ha sempre creato delle nuove invenzioni, delle macchine che lo agevolassero. Oggi L'AI ci spaventa perché l'aiuto che ci dà è di tipo intellettuale».

Con questo menziona il matematico Alan Turing, noto per aver decriptato, durante la Seconda guerra mondiale, il codice Enigma usato per le comunicazioni nella Germania nazista. Nel suo articolo del 1950 "Computing Machinery and Intelligence", ha posto la domanda "Possono le macchine pensare?" introducendo il "Test di Turing", ideato per valutare quanto il comportamento di una macchina possa somigliare a quello umano.

sebastiano battiato

Un momento dell'intervento del prof. Sebastiano Battiato

Il professore Battiato, inoltre, si è soffermato anche sul software d’intelligenza artificiale più utilizzato ad oggi: ChatGPT, che ha aperto al mondo la presenza di tecnologie legate all'AI, iniziando a estrarre i concetti dai dati, la semantica e la struttura del linguaggio.

Nel campo dell’educational motori come ChatGPT vengono già adoperati giornalmente da giovani studentesse e studenti, che in esso, il più delle volte, proiettano una scorciatoia per un lavoro sufficiente e rapido, più che un modo per elevare ulteriormente il lavoro svolto, non è detto che nel futuro questo non possa cambiare.

Si propone un tutor virtuale basato sull’intelligenza artificiale, personalizzato tramite tecniche di prompt engineering, che non si limiterebbe a fornire soluzioni immediate, ma offrirebbe risposte mirate a potenziare le capacità di apprendimento dell’utente, con l’obiettivo di supportarne concretamente il percorso scolastico.

L’accento è sempre posto sulla conoscenza della macchina: «Educare le nuove generazioni, educare noi stessi». Guardando ad una prospettiva cronologica, diversamente da come possa sembrare, non siamo che alla fine di un lungo processo di automatizzazione delle macchine. La domanda posta da Battiato è: «Come siamo arrivati all’AI generativa?»

Una tappa importantissima è il Generative Adversarial Network (GAN), algoritmo che mette in competizione due macchine. La prima, analizza un quantitativo di data, con la task standard di tirarne fuori, in maniera statistica, una serie di informazioni, mentre una seconda, in competizione con la prima, ha l’obiettivo “difficilissimo”, spiega Battiato, «di generare dati con la stessa distribuzione della prima».

«Nel momento in cui la macchina generatrice genera dei dati random, la prima macchina la corregge con indicazioni su come migliorare l’analisi di dati; questo processo, ripetuto per milioni o miliardi di volte, porterà alla generazione di un segnale quasi o del tutto realistico», ha aggiunto.

un momento dell'incontro

Un momento dell'incontro

«Questo processo, sviluppato nel tempo, ha portato alla generazione, nonché modificazione, di volti umani renderizzati ad altissima definizione, dei quali tratti caratteristici facciali possono essere modificati a piacimento - ha sottolineato il docente del Dipartimento di Matematica e Informatica di Unict -. Si tratta di soggetti nati dal calcolo statistico operato su milioni di volti umani. Da questa funzionalità, per quanto strabiliante, scaturiscono una lunga serie di problemi, legati alla sicurezza, alla privacy, alla normativa e all’etica di un mondo che è impreparato di fronte alla rivoluzione AI».

«Una delle conseguenze imminenti è l'Impostor bias, un meccanismo difensivo della mente che porterà a diffidare dei contenuti visivi, sempre meno distinguibili da quelli artificiali – ha aggiunto -. Ciò solleva gravi implicazioni anche in ambito giudiziario, dove la prova visiva ha finora avuto un ruolo cruciale nelle sentenze».

«L’utilizzo di volti di persone reali si affaccia ad un’ulteriore serie di problematiche: l’autenticità delle immagini, come diritto di chi le ha generate, potrebbe essere contrassegnata da watermarks e copyright; che tuttavia, normativamente, dovrebbero essere applicati anche alla persona presente nel medium», ha precisato.

Una delle proposte, nel campo dei Multimedia Forentics, è riconoscere che l’uso di AI rappresenta una “challenge scientifica e sociale”. Ciò consiste nel cercare gli artefatti, degli errori che possano essere individuati in un processo di Image Authenticity. Tuttavia, con l’avanzamento dei modelli generativi, il processo è diventato sempre più difficile, quasi obsoleto.

Si interviene cercando indizi lasciati dai modelli generativi, resi individuabili dal loro funzionamento basato su operazioni ripetitive. In un'epoca e in un settore in continua evoluzione, dove ogni mese emergono scoperte rivoluzionarie, è fondamentale restare costantemente aggiornati.

Una possibile prospettiva, afferma Battiato, è quella che le immagini reali si rivelino così complesse che sarà impossibile emularle del tutto concludendo il suo intervento sottolineando che «ad oggi è difficile fare predizioni, si tratta di una gara del tutto aperta».

Un momento dell'intervento di Roberto Leotta

Un momento dell'intervento di Roberto Leotta

A seguire è intervenuto Roberto Leotta di ICTLAB, uno spin off dell’Università di Catania relativo al Dipartimento di Matematica e Informatica, in cui ci si occupa di trasferimento tecnologico. Lo spinoff trasferisce conoscenze, competenze, tecnologie, metodi di produzione o innovazioni sviluppate in ambito scientifico o accademico e le applica nel settore industriale o commerciale, al fine di generare nuovi prodotti o servizi, sia per grandi compagnie, sia per piccoli consumatori.

Nel suo intervento Roberto Leotta ha illustrato diversi casi di studio che mostrano come l’AI generativa possa essere utilizzata nella quotidianità.

Tra gli esempi presentati vi è Visualize, assistente AI che analizza in tempo reale flussi di video, immagini e audio trasformandoli in azioni concrete. Nasce dall’esigenza di assistere gli operatori di videosorveglianza addetti al controllo di centinaia di ore di video. Grazie a un’elaborazione video rapide e informate.

A seguire, è stato illustrato DORS, software di monitoraggio multimodale che rivoluziona la gestione dei rifiuti e il monitoraggio urbano, identificando proattivamente episodi di littering e illeciti simili. Il fulcro della sua efficienza è la dinamicità.

L’ultimo caso studio è Icon, una chatbot AI avanzato, progettato per rispondere a domande complesse in linguaggio naturale, fornendo risposte accurate e citate grazie a delle solide preconoscenze. Combina la potenza dei modelli linguistici con l’accesso a fonti affidabili e aggiornate, diventando un collaboratore instancabile per chi ha bisogno di informazioni precise, rapide e verificabili.

L’evento si è concluso con le parole del professore Sebastiano Battiato: «La lezione che dobbiamo portarci dietro è di non pensare alle AI come un oracolo onnisciente a cui poter chiedere tutto, ma devono affiancarci e migliorare quelle che sono le nostre prestazioni. L’obiettivo è che l’AI possa crescere come vogliamo noi, dandoci il supporto che desideriamo». 

Back to top