AI & Ethics
Carbajo / 8 Aprile 2024

The “exciting opportunities and grave risks”[1] that generative Artificial Intelligence (AI) provide, along with its rapid adoption, have alerted the international community. ChatGPT was launched on November 30, 2022, and two months later had already reached 100 million active users, “making it the fastest-growing consumer application in history.”[2] On March 22, 2023, more than 1,000 technology experts, researchers and investors signed an open letter[3] cautioning against the “profound risks to society” posed by giant AI systems. The letter called for a six-month suspension in their development. Notable signatories included high-level specialists like Yoshua Bengio, and entrepreneurs such as Elon Musk, co-foundeder of OpenAI, and Steve Wozniak, co-founder of Apple.[4] The need for ethics Pope Francis’ approach to AI is critical but not pessimistic. He invites us “to set aside catastrophic predictions” and, at the same time, urges the international community to “adopt a binding international treaty that regulates” its development and use.”[5] Besides, he insists that “regulation is, of itself, not sufficient.” Without ethics, we may become “rich in technology and poor in humanity.” Thus, he urges the establishment of “bodies charged with examining the ethical issues arising in this field” (WCD 2024). Fundamental human values must be protected, such…

Living in Truth in the AI Era
Carbajo / 19 Marzo 2024

Artificial intelligence is already part of our lives. It is not a mere instrument, but a living environment. How to inhabit responsibly this new cultural environment in which we are all immersed? How to “live in truth” in the AI era? “Exciting opportunities and serious risks” AI, in its many forms, offers “exciting opportunities and serious risks”[1]. It promises, for instance, “a revolution in processes of accumulating, organizing and confirming data” as well as “important innovations in agriculture, education and culture”[2]. It can also “help to overcome ignorance and facilitate the exchange of information between different peoples and generations” (WCD 2024). At the same time, AI is making it easy for anyone to produce and disseminate content that can be hard to differentiate from real news, thus blurring the distinction between truth and falsehood. In fact, from May to November 2023, “websites hosting AI-created false articles have increased by more than 1,000 percent, according to NewsGuard”. The Washington Post says AI is becoming “the next great misinformation superspreader”[3]. Another article shows that ChatGPT offer different results according to the version used. Curiously, sometimes updated versions do not provide more accurate results[4]. Before the qualitative leap of generative AI, Nicholas Carr…

Artificial Intelligence & Wisdom
Carbajo / 5 Marzo 2024

“This invention will produce forgetfulness in the minds of those who learn to use it, because they will not practice their memory. [… it] will discourage the use of their own memory within them. You have invented an elixir not of memory, but of reminding; and you offer your pupils the appearance of wisdom, not true wisdom, for they will read many things without instruction and will therefore seem to know many things, when they are for the most part ignorant and hard to get along with, since they are not wise, but only appear wise”[1]. Technical dimension vs anthropological dimension These words about writing, attributed to Socrates (469-399 BC) by Plato, are quite similar to those we hear today about artificial intelligence (AI). This shows that, at the anthropological level, the ethical challenges of communication have been essentially the same throughout the centuries, even though the technologies used have changed and continue to evolve. We need to distinguish clearly between the technical and anthropological dimensions of communication. Indeed, “the challenges AI poses are technical, but also anthropological, educational, social and political”. It raises “questions that transcend the realms of technology and engineering and have to do with the deeper…

Intelligenza artificiale e pace
Pizzichini / 23 Dicembre 2023

Il messaggio per la 57ma Giornata Mondiale della Pace è dedicato da Papa Francesco al tema dell’intelligenza artificiale (=AI, qui), un accostamento che potrebbe sembrare non molto scontato, ma che mostra come anche la tecnologia abbia ormai un ruolo decisivo per una fraterna convivenza tra i popoli. A tal fine, la riflessione del Papa si àncora su quella più fondamentale sul ruolo della tecnologia nel progresso umano. In genere, le due realtà sono considerate, se non la stessa cosa, perlomeno una la conseguenza dell’altra: lo sviluppo della scienza e della tecnologia[i] non può che generare maggiore benessere e, quindi, grazie a un generalizzato soddisfacimento dei bisogni fondamentali, far venir meno le cause stesse della guerra. Pertanto, nell’immaginario comune, la tecnoscienza costituisce come una moderna escatologia per l’uomo secolarizzato e materialista. Certo, le sue conquiste sono sotto gli occhi di tutti, anche se, come ricorda il Pontefice, esse non sono mai totalmente “neutrali” o incondizionatamente buone, «ma soggette alle influenze culturali», per cui «le direzioni che prendono riflettono scelte condizionate dai valori personali, sociali e culturali di ogni epoca» (n. 2). Per cui è forse più corretto parlare di sviluppo tecno-scientifico, il quale diviene propriamente progresso «nella misura in cui contribuisce…

ChatGPT e dilemmi morali
Pizzichini / 18 Aprile 2023

Il teologo morale deve iniziare a preoccuparsi di essere anche lui rimpiazzato dall’intelligenza artificiale? Dopo che l’ormai celeberrima ChatGPT si è cimentata con successo nell’omiletica (qui), era solo questione di tempo che a qualcuno venisse in mente di sottoporre all’algoritmo anche la risoluzione di dilemmi morali. È quanto riporta l’ANSA (qui), che a sua volta cita uno studio pubblicato su Scientific Reports (qui), nel quale alcuni ricercatori hanno constatato, non senza un certo sconcerto, quanto l’intelligenza artificiale possa influenzare l’esercizio del giudizio morale: ChatGPT, così si riporta, sembrerebbe addirittura corrompere tale capacità invece che migliorarla. Pertanto è necessaria, secondo gli autori dello studio, una più accurata formazione digitale da parte degli utenti. Ma è davvero così? ChatGPT (acronimo che sta per Chat Generative Pre-trained Transformer, Trasformatore Pre-addestrato Generativo di Conversazioni) è un algoritmo che appartiene alla classe dei modelli linguistici di grandi dimensioni (Large Language Models, LLM), vale a dire un algoritmo che ha lo scopo di comprendere e generare espressioni in linguaggio naturale per vari scopi. A dir la verità, l’algoritmo non comprende un bel niente, ma si limita a fare quello per cui è progettato: calcolare. In particolare, un modello linguistico non fa altro che determinare, su base…