ChatGPT e dilemmi morali
Pizzichini / 18 Aprile 2023

Il teologo morale deve iniziare a preoccuparsi di essere anche lui rimpiazzato dall’intelligenza artificiale? Dopo che l’ormai celeberrima ChatGPT si è cimentata con successo nell’omiletica (qui), era solo questione di tempo che a qualcuno venisse in mente di sottoporre all’algoritmo anche la risoluzione di dilemmi morali. È quanto riporta l’ANSA (qui), che a sua volta cita uno studio pubblicato su Scientific Reports (qui), nel quale alcuni ricercatori hanno constatato, non senza un certo sconcerto, quanto l’intelligenza artificiale possa influenzare l’esercizio del giudizio morale: ChatGPT, così si riporta, sembrerebbe addirittura corrompere tale capacità invece che migliorarla. Pertanto è necessaria, secondo gli autori dello studio, una più accurata formazione digitale da parte degli utenti. Ma è davvero così? ChatGPT (acronimo che sta per Chat Generative Pre-trained Transformer, Trasformatore Pre-addestrato Generativo di Conversazioni) è un algoritmo che appartiene alla classe dei modelli linguistici di grandi dimensioni (Large Language Models, LLM), vale a dire un algoritmo che ha lo scopo di comprendere e generare espressioni in linguaggio naturale per vari scopi. A dir la verità, l’algoritmo non comprende un bel niente, ma si limita a fare quello per cui è progettato: calcolare. In particolare, un modello linguistico non fa altro che determinare, su base…