
Il teologo morale deve iniziare a preoccuparsi di essere anche lui rimpiazzato dall’intelligenza artificiale? Dopo che l’ormai celeberrima ChatGPT si è cimentata con successo nell’omiletica (qui), era solo questione di tempo che a qualcuno venisse in mente di sottoporre all’algoritmo anche la risoluzione di dilemmi morali. È quanto riporta l’ANSA (qui), che a sua volta cita uno studio pubblicato su Scientific Reports (qui), nel quale alcuni ricercatori hanno constatato, non senza un certo sconcerto, quanto l’intelligenza artificiale possa influenzare l’esercizio del giudizio morale: ChatGPT, così si riporta, sembrerebbe addirittura corrompere tale capacità invece che migliorarla. Pertanto è necessaria, secondo gli autori dello studio, una più accurata formazione digitale da parte degli utenti. Ma è davvero così?
ChatGPT (acronimo che sta per Chat Generative Pre-trained Transformer, Trasformatore Pre-addestrato Generativo di Conversazioni) è un algoritmo che appartiene alla classe dei modelli linguistici di grandi dimensioni (Large Language Models, LLM), vale a dire un algoritmo che ha lo scopo di comprendere e generare espressioni in linguaggio naturale per vari scopi. A dir la verità, l’algoritmo non comprende un bel niente, ma si limita a fare quello per cui è progettato: calcolare. In particolare, un modello linguistico non fa altro che determinare, su base statistica, le parole che hanno maggiore probabilità di essere associate al testo in input. Affinché ciò sia possibile, devono essere calibrati (tuned) un certo numero di parametri interni che permettono di restituire in uscita una stringa di caratteri corrispondenti a una risposta (o, piuttosto, a quella che l’utente legge e comprende come risposta) coerente con la stringa di caratteri in entrata. Per avere un’idea dei numeri in gioco, ChatGPT ha un qualcosa come qualche miliardo di parametri. La regolazione avviene facendo elaborare all’algoritmo milioni e milioni di pagine in tutte le lingue: è questo il processo di “addestramento” (training). In sostanza, quando facciamo una domanda all’algoritmo, esso costruisce la risposta per assonanza a partire da testi che ha già “letto”, senza semplicemente copiarli, ma, anzi, variando di volta in volta l’output. Con i pro e i contro del caso (i cosiddetti bias).
Veniamo ai nostri dilemmi morali. Ciò che colpisce dello studio citato sopra non è tanto la scoperta del potere che avrebbe su di noi una macchina tanto potente quanto incomprensibile; o, meglio, sì, ma perché è un potere che le abbiamo dato noi. Lo studio si mostra alquanto parziale nell’impostazione etica di riferimento, ma si può constatare come sia i ricercatori che i soggetti dell’esperimento condividano una medesima convinzione sotterranea: le macchine sono migliori di noi nel giudicare le situazioni, in quanto, ad esempio, sono immuni da emozioni che ostacolino un retto giudizio. È proprio questa nostra convinzione il potere che hanno le macchine su di noi.
La domanda che suscita un fatto simile, allora, è la seguente: l’etica può essere ridotta a un algoritmo? Si può ridurre il ragionamento morale a una procedura che, dato un certo input (il caso morale), ci fornisca la corrispondente soluzione (la decisione)? Se la risposta che diamo è sì, purtroppo dobbiamo rassegnarci: tutto ciò che è ri(con)ducibile a un algoritmo, prima o poi verrà realizzato meglio e più velocemente di noi da una macchina. Il motivo è che la procedura dà il lusso di non pensare: quanti sono i compiti che crediamo intelligenti e invece sono solo delle routine che eseguiamo in modo, appunto, automatico?
Se, all’opposto, crediamo – come ci insegna proprio la teologia morale – che regole e procedure siano strumenti in aiuto alla decisione, allora il rimedio non è quello che ci propongono gli autori del nostro studio, la formazione digitale, ma la formazione umana, morale innanzitutto. L’intelligenza artificiale può aiutarci a essere più umani, ma prima di tutto dobbiamo volerlo.
Andrea Pizzichini
Un commento
E’ già apparsa in Romania „La prima Chiesa virtuale con Intelligenza Artificiale” (ovviamente online) dove (presumibilmente) si possono confessare i peccati e ricevere risposte attraverso Chat GPT (premendo il pulsante „Spovedanie”). Sempre lì in base alle preferenze o necessità, lo Chat genera preghiere personalizzate („Rugăciuni”), versi per canzoni di Natale („Colinde”), messaggi pasquali („Mesaje Paște”) ecc. Ecco il sito: https://www.bisericagpt.ro/