Home Primo Piano Quando la religione usa l’AI: per un uso etico delle nuove tecnologie

Quando la religione usa l’AI: per un uso etico delle nuove tecnologie

Quando la religione usa l’AI: per un uso etico delle nuove tecnologie

Perché questo articolo ti dovrebbe interessare? Sono sempre di più i progetti sperimentali che uniscono religione e intelligenza artificiale. Dall’ologramma che parla come Gesù al chatbot addestrato sui documenti del Magistero, dalle app per la preghiera agli assistenti spirituali generati dall’AI. Quali interrogativi etici sollevano? Ne abbiamo parlato con Lucandrea Massaro, giornalista professionista che si occupa di temi religiosi, e Giovanni Tridente, docente di Teoria e pratica dell’argomentazione scritta e Intelligenza Artificiale applicata alla comunicazione presso la Pontificia Università della Santa Croce (Roma).

Abbiamo già avuto occasione di discutere dell’uso che gli ambienti religiosi stanno facendo dell’intelligenza artificiale. Nella più antica chiesa cattolica di Lucerna, in Svizzera, è stato installato un ologramma addestrato per parlare come Gesù, una chiesa polacca ha inaugurato la prima “nanocappella“ nella città di Poznań, ispirata a una catena di supermercati. Nel 2023 un chatbot è stato addestrato sui documenti del Magistero e sulle scritture e sono sempre più diffuse le app per la preghiera.

Le religioni hanno sempre avuto un forte impatto sulla società, inclusa la sua componente atea, anche grazie al loro carattere ritualistico, alla radice culturale che portano con sé e al modo in cui definiscono significati e valori condivisi. L’uso dell’AI nei contesti religiosi solleva una serie di interrogativi etici su cui si sta riflettendo a livello accademico, istituzionale e in parte anche all’interno delle comunità di fedeli.

La disintermediazione

Delegare alcune funzioni e pratiche religiose all’intelligenza artificiale può rischiare di far perdere sacralità e quindi presa alla religione? Oppure può rendere le persone fedeli più indipendenti nella loro pratica di fede, senza la mediazione di un membro dell’istituzione di riferimento, come il Vaticano?

Risponde Lucandrea Massaro, giornalista professionista che si occupa di temi religiosi anche nella newsletter Sacro&Profano: “Credo che sia una domanda cruciale nel nostro tempo, ma credo anche che la prima cosa sia intendersi sul tema della ‘religione‘. Se ci basiamo sul suo significato etimologico, la religione – che non ha necessariamente a che fare con la fede – è uno strumento sociale (che non è un fatto negativo) che crea legami, affiliazioni, comunità al pari di strutture come la famiglia, lo stato, la squadra di calcio. La tecnologia informatica che oggi arriva in maniera così pervasiva nelle nostre vite invece ha potere di disintermediazione enorme, che livella tutto, permette al cittadino di parlare direttamente col il suo sindaco o i parlamentari senza averne il numero di telefono, ma al contempo lascia da soli di fronte al potere.

La ‘religione’ intesa come legatura sociale (Dahrendorf) limita la libertà, ma protegge gli individui. Nel medioevo le persone erano sottoposte agli arbitri del conte, ma anche alla protezione del vescovo. E viceversa. Credo quindi la tecnologia – con le GPT interrogate come nuovi oracoli – rischino di rappresentare quasi una forma di idolatria, un moloch vuoto che rompe con tutti i legami sociali e rischiamo di dargli un ruolo che non può assolvere. I sacerdoti – con tutti i loro limiti – sono persone con cui instaurare relazioni, non slot machine a cui chiedere sacramenti. Se quindi la tecnologia libererà il parroco dalla burocrazia bene, se mi libererà dal parroco avrò perso un riferimento e magari un amico”.

Quali domande vengono poste?

L’intelligenza artificiale ha il potenziale di divulgare insegnamenti religiosi soggetti a numerose interpretazioni, sia dal punto di vista esegetico che teologico. Da un lato c’è il rischio che vengano diffuse interpretazioni non fondate o erronee, che potrebbero essere prese per vere dalle persone fedeli. Dall’altro, a seconda dei dati con cui l’AI è addestrata, potrebbero essere portate avanti solo visioni vicine all’istituzione religiosa o a chi ha prodotto – ad esempio – il chatbot, riducendo così il fiorire di punti di vista diversi e la possibilità di mettere in discussione proposte teologiche che potrebbero essere riviste.

A questo proposito spiega Massaro: “Come prima il tema è non caricare la tecnologia di domande a cui non è chiamata a rispondere. Se mi serve sapere quando è stata pronunciata una certa enciclica una AI che scandagliasse l’intero corpus della produzione teologica e canonica cattolica sarebbe il migliore amico per teologi e vaticanisti, non spetta alle AI formulare ipotesi invece. Tuttavia – fatto salva la certezza circa i documenti, cosa non scontata al momento, viste le allucinazioni a cui sono soggetti i modelli di LLM [Large Language Model, modello di apprendimento automatico specializzato nella comprensione e nella generazione di testo naturale] – come fu per la stampa, ogni aumento nella diffusione del sapere comporta il rischio di abusi e di sciocchezze, ma anche la libertà di esplorare cose nuove. Io non conosco l’ebraico e il mio greco è ad essere generosi parecchio arrugginito, ma ora magari sono in grado di avere una idea di prima mano dei testi originali.

Da un lato c’è il rischio ‘Biglino’, dall’altra c’è la possibilità di approcciare nuove fonti, qui però intervengono l’educazione digitale e il metodo scientifico. La scuola non può impedire ai ragazzi di farsi fare i compiti da chatGPT o simili, può insegnargli ad usarli con intelligenza, però va ripensata la scuola con meno compiti a casa (inutili ormai) e più permanenza in classe a fare esercizi, ugualmente con la fede: posso fare le mie ricerche, ma è nella comunità, nella catechesi permanente, nelle lectio comunitarie che le chiese (tutte) troveranno il modo di correggere, integrare o accogliere. Deve cambiare il modo di essere chiesa, cioè comunità, ma non si può prescindere da essa”.

L’educazione digitale

Perché l’AI possa essere concretamente utile anche negli ambiti di fede, è quindi necessario saperla usare. Le persone che abitano questi contesti – che quando sono al di fuori dell’accademia prevedono spesso un approfondimento teologico ed esegetico limitato – possiedono davvero, al momento, le capacità necessarie per utilizzare queste tecnologie?

Risponde Giovanni Tridente, direttore di comunicazione e docente di “Teoria e pratica dell’argomentazione scritta” e “Intelligenza Artificiale applicata alla comunicazione” presso la Pontificia Università della Santa Croce (Roma): “Siamo tutti consapevoli ormai che l’intelligenza artificiale rappresenta una sfida tecnologica e culturale che evolve rapidamente. Proprio questa velocità di sviluppo ci espone ad una difficoltà nel controllarne gli effetti e comprenderne appieno le implicazioni. In contesti di fede, dove spesso l’approfondimento teologico ed esegetico può essere limitato, è allora fondamentale coltivare il desiderio di apprendere, di volerne sapere di più.

Ciò significa impegnarsi a conoscere da vicino queste tecnologie, analizzandone sia gli aspetti positivi che i rischi. Bisogna immaginare come possano migliorare le capacità personali e le relazioni sociali, senza però ignorare i pericoli che si nascondono dietro ad un utilizzo superficiale o inconsapevole.

Questa è una decisione che ciascuno deve prendere individualmente: approfondire, formarsi e non smettere mai di imparare. Solo così sarà possibile essere protagonisti del cambiamento, minimizzarne i rischi e massimizzarne le opportunità, valorizzando queste tecnologie a totale beneficio della comunità”.

Un uso etico dell’AI

Usare l’intelligenza artificiale in campo religioso – come in molti altri contesti – pone davanti a degli interrogativi: qual è il modo corretto di fare ricorso all’intelligenza artificiale? Proprio per questo sempre più denominazioni cristiane stanno stilando delle linee guida. Quali sono i principi fondamentali da tenere a mente per garantire un uso etico e rispettoso dell’AI in ambito religioso?

Tridente, anche autore di Anima digitale, commenta: “Direi che la domanda attiene almeno a tre ambiti fondamentali che giocano un ruolo chiave anche in questo contesto: sviluppatori, imprenditori e utilizzatori. Ogni gruppo è chiamato a riflettere e agire responsabilmente. Per gli sviluppatori, il principio fondamentale dovrebbe essere quello della correttezza e della trasparenza, evitando di realizzare artefatti che potrebbero indurre in errore le persone meno esperte. Non tutti, infatti, hanno la capacità di distinguere tra realtà e simulazione, e un’intelligenza artificiale troppo antropomorfa rischia di generare illusioni o fraintendimenti.

Gli imprenditori, invece, dovrebbero concentrarsi sull’utilità pubblica degli strumenti, promuovendo relazioni autentiche e favorendo la crescita spirituale e formativa, basandosi su contenuti certi e verificati. L’interesse economico non dovrebbe mai prevalere sul bene comune.

Infine, gli utilizzatori finali – la maggior parte di noi – hanno la responsabilità di sviluppare un pensiero critico e di porsi nei confronti dell’intelligenza artificiale con una consapevolezza matura, evitando di cadere in facili credulonerie. È necessario discernere i limiti e le potenzialità degli strumenti, senza lasciarsi abbagliare dall’artificiosità che, per quanto sofisticata, rimane tale.

Tutti insieme, poi, dobbiamo puntare alla trasparenza e all’onestà, promuovendo così un uso della tecnologia che sia rispettoso verso gli altri e verso noi stessi“.