Al Monastero dei Benedettini una giornata di studi sui confini e i rischi della dipendenza da IA promossa da Meter, Aiart, Disum e Arcidiocesi di Catania, a partire dalle recenti indagini sull’adolescenza e dall’appello di papa Francesco al G7 del 2024
Il 41,8% dei giovani tra i 15 e i 19 anni, in Italia, ha usato di recente l’IA per cercare aiuto quando si sentiva triste, solo o ansioso, e oltre il 42% di loro si è rivolti all’Intelligenza Artificiale per avere indicazioni e suggerimenti su scelte delicate legate a relazioni, scuola o lavoro .Il 7,1% degli utilizzatori ammette di farlo per aumentare il proprio benessere e il 4,2% per trovare compagnia.
L’uso dell’Intelligenza artificiale tra gli adolescenti è ormai diffusissimo: la utilizza il 92,5%, contro il 46,7% degli adulti. Strumenti come chatbot (ad esempio, ChatGPT, Claude, Dixit), assistenti vocali e traduttori automatici vengono però sempre più utilizzati non solo per studio e ricerca di informazioni, ma anche come supporto emotivo.
A crescere è anche l'utilizzo di chatbot “relazionali” (9,3%) come Character AI e Anima: si tratta di bot che simulano vere e proprie relazioni affettive, fino a diventare inseparabili amici o, nei casi estremi, addirittura partner. Il 28,8% dei ragazzi intervistati ritiene una caratteristica positiva dell’AI il fatto di essere sempre disponibile, il 14,5% che sia gentile e il 12,4% il fatto che non sia giudicante. In questo caso, però, può essere definito preoccupante quel 20,8% che ritiene più soddisfacente confrontarsi con una macchina rispetto a quanto avvenga con una persona.
Una dinamica che rischia di innescare distorsioni e tragiche conseguenze per una platea molto ampia e dall’elevata fragilità, come si desume parafrasando l’appello di papa Leone XIV che il 14 novembre scorso - lo stesso giorno in cui Save The Children anticipava alcuni dei dati più rilevanti della nuova edizione di Senza Filtri, l’Atlante dell’Infanzia a rischio in Italia - ha esortato “chi di competenza” a guidare con responsabilità lo sviluppo dell’intelligenza artificiale affinché sia sempre al servizio dell’uomo.
«Quando non è orientata al bene comune – ha detto a chiare lettere il Pontefice, in perfetta continuità con quanto dichiarato dal suo predecessore papa Francesco al G7 del 2024 -, la tecnologia rischia di trasformarsi in uno strumento che sacrifica la dignità umana a favore del profitto». Chi siano i destinatari prioritari di queste esortazioni papali lo ha poi esplicitato il Segretario di Stato vaticano Pietro Parolin, che ha invitato governi, istituzioni e società civile a un impegno comune per garantire che lo sviluppo tecnologico non metta a rischio i più vulnerabili: «Le piattaforme basate su algoritmi intelligenti possono esporre i bambini e gli adolescenti a contenuti pericolosi, manipolazioni e violazioni della privacy».

IA tra confini e sconfinamenti: ai Benedettini incontro su etica, educazione e responsabilità
Confini e sconfinamenti dell’IA
Per una singolare coincidenza, nella stessa giornata di venerdì, in prossimità della Giornata Mondiale dell'Infanzia e dell'Adolescenza, l’auditorium del Monastero dei Benedettini ha ospitato una giornata di formazione e studio promossa da Associazione Meter, AIART – Associazione Cittadini Mediali, in collaborazione con il Dipartimento di Scienze umanistiche dell’Università di Catania e con l’Arcidiocesi di Catania, sul tema IA: un territorio da esplorare tra confini e sconfinamenti - Etica, educazione e responsabilità nell’era dell’intelligenza artificiale.
L’occasione più idonea per avviare, anche in una sede universitaria, un confronto multidisciplinare tra accademici, esperti e rappresentanti istituzionali sulle sfide poste dall’intelligenza artificiale in campo etico, educativo e sociale, ancora più urgente alla luce dei dati che confermano che questa tecnologia e le sue tante applicazioni sono nelle mani di tutti, anche dei minori. E della consapevolezza che, se è vero che la disponibilità costante e la natura “non-giudicante” dell’IA sono apprezzate da molti adolescenti che talvolta preferiscono confrontarsi con una macchina piuttosto che con un’altra persona, allora la prima cosa da mettere in discussione sono proprio quegli adulti che li affiancano, la loro presenza e le modalità di interazione adottate.
«È fondamentale interrogarsi sul ruolo dell’IA nella nostra vita quotidiana, sulle sue potenzialità e sui rischi che essa comporta, soprattutto in relazione alla tutela dei minori e alla costruzione di una società più giusta e inclusiva», ha esordito Giovanni Baggio, presidente nazionale Aiart, invitando tutti i presenti a “immergersi nell’esplorazione” attraverso idee e valutazioni capaci di orientare un uso dell’IA che «sia un alleato per il progresso umano» e introducendo una sessione articolata di interventi che hanno attraversato storia dell’intelligenza artificiale, immaginario digitale, dimensioni etiche, forme emergenti di affettività e tutela dei minori.
All’incontro sono intervenuti anche Sandra Cioffi, presidente del Consiglio nazionale degli utenti (Cnu), la dott.ssa Chiara Griffini (presidente del Servizio nazionale CEI per la tutela dei minori), il prof. Giacomo Buoncompagni (Università di Macerata) e il prof. Lindo Nepi (AIART Ascoli Piceno).
Oltre le illusioni e l’inganno digitale
Il prof. Sebastiano Battiato, ordinario di Informatica al dipartimento di Matematica e Informatica dell’Ateneo catanese, ha affrontato ad esempio il tema, tanto tecnico quanto etico, delle false identità create dalle IA generative in grado di modificare la percezione stessa dell’autenticità. «L’occhio della macchina non è più passivo – ha affermato -. È diventato capace di ricostruire ciò che vede e di immaginare ciò che non esiste. L’intelligenza artificiale generativa sta trasformando profondamente la società, soprattutto nel campo delle immagini e dei video, dove è ormai in grado di riprodurre sembianze umane e contenuti audiovisivi quasi perfetti».
«Questa capacità rende sempre più difficile distinguere ciò che è reale da ciò che è generato dalle macchine, mettendo in crisi i nostri sensi, gli stessi che hanno guidato l’evoluzione umana. Siamo quindi davanti a una fase storica delicata, in cui occorre interrogarsi su come reagire a questa nuova forma di inganno digitale», ha aggiunto. «Gli studiosi – ha sottolineato Battiato – hanno il compito di educare soprattutto i più giovani a comprendere, riconoscere e gestire strumenti potenti ma ambivalenti, valorizzandone le potenzialità senza ignorarne rischi e limiti. In altre parole, siamo chiamati a dare ordine al fenomeno, creando criteri e responsabilità per governare strumenti che non sono più semplici accessori, ma parti integranti della nostra vita sociale e culturale».

Il prof. Sebastiano Battiato
Innamorarsi di un chatbot
Dai dati anticipati nella ricerca di Save the Children emerge il profilo di un’IA che è divenuta a pieno titolo un “confidente a portata di click” e a costo decisamente ridotto. Una scorciatoia per chi ha timore a chiedere aiuto, soprattutto in condizioni di fragilità. Ma che non può e non deve, secondo gli psicologi, sostituirsi alle relazioni umane. La maggior parte di questi strumenti inoltre sono utilizzabili (più o meno legittimamente) senza la supervisione di un adulto. «Il problema è che tendiamo ad attribuire all’IA un profilo umano – spiegano gli esperti -. Questa ambiguità può portare a fraintendimenti pericolosi».
Autore del recente saggio Amanti sintetici. Sesso, relazioni e intimità nell’epoca dell’intelligenza artificiale (Il Pensiero Scientifico Editore), il prof. Davide Bennato, docente di Sociologia dei media digitali al Disum, ha spiegato come sia possibile, al giorno d’oggi, arrivare persino a innamorarsi di un “chatbot”.
«Stiamo assistendo a un cambiamento rapido, che ci mette di fronte a forme inedite di digitalità e a modi nuovi di vivere le relazioni Sono passati appena due anni dal lancio di ChatGPT – ha detto – e questa nuova ‘commodiity’ è già diventata un’estensione naturale del nostro sistema comunicativo. Nella vita quotidiana l’emotività gioca un ruolo centrale e sempre più persone iniziano a instaurare forme di relazione con i chatbot e le intelligenze artificiali. A prima vista questa tendenza può sembrare inquietante, perché sappiamo bene che si tratta di tecnologie incapaci di provare emozioni autentiche. Eppure, spesso queste interazioni rivelano il bisogno umano di confrontarsi con sé stessi, di esprimere ad alta voce sentimenti e pensieri».
«Dal punto di vista sociologico e antropologico – ha aggiunto Bennato -, il rapporto emotivo con l’IA si colloca in una zona intermedia: non è paragonabile del tutto alle relazioni affettive tra persone, ma neppure così distante dal legame che costruiamo con gli animali, verso i quali sviluppiamo empatia e forme di attaccamento. Le IA diventano così un inedito punto di equilibrio tra relazioni umane e relazioni “altre”, rivelando nuovi modi con cui gli individui cercano ascolto, confronto e rassicurazione». Citando diversi esempi, divenuti poi casi di studio, il docente ha spiegato che «le relazioni con l’IA non sono più un’ipotesi, ma una pratica che prende forma nella quotidianità in maniera certamente più veloce di quanto la cultura riesca ad accompagnarla, lasciandoci senza modelli condivisi per interpretare queste nuove relazioni».
Per comprenderne davvero l’impatto, soprattutto sul piano emotivo, servono due percorsi paralleli: il primo è un ampio dibattito pubblico: «Solo costruendo modelli culturali collettivi – suggerisce Bennato - possiamo definire limiti, potenzialità e rischi dell’IA nelle nostre relazioni. Il secondo percorso è legato a un vero processo di alfabetizzazione, che coinvolga scuole, università, comunità scientifica e cittadini. Formazione e confronto devono intrecciarsi, includendo tutti gli stakeholder, per garantire che l’IA trovi un ruolo equilibrato nella vita emotiva delle persone: uno strumento utile, senza diventare un sostituto delle relazioni umane né un fattore di isolamento sociale».

Il prof. Davide Bennato
Algoretica vs Algocrazia
Del profilo etico dell’IA nel magistero di Papa Francesco ha parlato don Oronzo Marraffa, segretario della Commissione regionale cultura e comunicazione sociale della Cep (Conferenza episcopale pugliese) e consulente ecclesiastico Aiart. «Ben prima del suo emblematico intervento al G7dello scorso anno – ha osservato don Marraffa - Papa Francesco aveva invitato, con la Rome Call for AI Ethics del 2020, istituzioni e aziende a impegnarsi per norme che tutelino la dignità umana».
«Nel Messaggio per la Giornata delle Comunicazioni Sociali 2024 ha ribadito poi che l’IA può e deve avanzare, ma senza mai sacrificare libertà, relazioni autentiche e riconoscimento dell’altro: valori che fondano il passaggio “dall’io al noi” – ha aggiunto -. L’IA non va demonizzata, ha detto Francesco, ma accolta con “sapienza del cuore”, consapevoli delle sue opportunità e dei suoi rischi. È uno strumento potente, affascinante e anche temibile: proprio per questo, se orientata al bene comune, può contribuire a ridurre disuguaglianze e favorire un progresso più umano e inclusivo».
«L’innovazione digitale permea ogni aspetto della vita, ma nessun algoritmo può determinare il valore o la dignità dell’essere umano – ha concluso il sacerdote -. Le macchine possono assumere un ruolo emotivo nelle nostre interazioni, ma non possiedono coscienza né una reale comprensione del mondo. Per questo è fondamentale mantenere un controllo umano significativo sui processi decisionali dell’IA: l’uomo, infatti, evolve, cambia, sorprende; la macchina, invece, esegue calcoli. Da qui nasce l’urgenza di una vera algoretica, capace di prevenire derive di “algocrazia” e orientare la tecnologia al servizio della persona».
Una ‘rete’ diffusa per proteggere i minori
«L’intelligenza artificiale, già ampiamente utilizzata da anni – ha osservato don Fortunato Di Noto, presidente dell’Associazione Meter e responsabile del Servizio regionale tutela minori della Cesi -, ha aggravato i rischi per la sicurezza dei minori, anche in virtù della diffusione sempre più capillare in quella fascia d’età. Immagini e video possono essere manipolati e sfruttati dalle organizzazioni pedocriminali, amplificando in modo drammatico la diffusione e l’impatto degli abusi. Questa forma di violenza è reale e produce conseguenze gravi sullo sviluppo e sulla vita dei minori. Il problema è aggravato dal fatto che la tecnologia corre più veloce delle leggi e della consapevolezza sociale, lasciando bambini e adolescenti ancora più vulnerabili».
Quale può essere allora il ruolo della comunità educante – scuola, famiglia, Chiesa e istituzioni, società civile – nel costruire una cultura digitale che prevenga l’abuso e promuova un uso etico e protettivo dell’IA verso i più fragili? «È indispensabile costruire una rete forte e coordinata tra tutte le agenzie coinvolte nella tutela dei minori – risponde il sacerdote di Avola, da anni impegnato su questi fronti -: non solo quelle educative, ma anche forze dell’ordine, magistratura e istituzioni politiche. La complessità e la pericolosità crescente del contesto digitale richiedono un impegno comune: la protezione dei bambini non può più essere delegata a pochi, ma deve diventare un patto educativo condiviso, serio e pubblico, in cui ciascuno contribuisca al bene dei più piccoli». Don Di Noto ha concluso con un richiamo alla responsabilità degli adulti ricordando che «il mondo del social non è un gioco da ragazzi», e chiedendo un accompagnamento competente e costante dei minori nel digitale.