abstract • Pizzichini • StMor 62/2 (2024) 215-237

  • Versione
  • Download 3
  • Dimensioni file 2 MB
  • Data di creazione 3 Agosto 2025
  • Download

 

Pizzichini Andrea, «Learning Machines. How Freedom and Responsability chang with Artificial Intelligence», in StMor 62/2 (2024) 215-237


In recent times, the advanced application of machine learning and deep learning techniques has enabled substantial advances in the field of artificial intelligence [= AI], making it seem much closer the time when a machine will finally reach an intelligence that will enable the emergence of some typically human capabilities such as freedom. But is this really the case? The article addresses this question from a theological-moral point of view, first analyzing what consists the “learning” of a machine, and in which extent we can effectively speak of moral action in the case of such artefacts. Then, a distinction is proposed between the concepts of moral agent and moral subject, which permits to take into account the ethical impact of a highly automated device, which cannot be reduced to the classical agent instrument logic, and exclude also any moral subjectivity of AI.

Keywords: Artificial intelligence; Technology; Responsibility

* * *

En los últimos tiempos, la aplicación avanzada de técnicas de aprendizaje automático y aprendizaje profundo ha permitido avances sustanciales en el campo de la inteligencia artificial [= IA], por lo que parece cada vez más cerca el momento en que una máquina pueda finalmente alcanzar una inteligencia tal que permita la aparición de capacidades típicamente humanas como la libertad. Pero, ¿es realmente así? El artículo aborda esta cuestión desde un punto de vista teológico-moral, analizando en primer lugar en qué consiste el “aprendizaje” de las máquinas y hasta qué punto podemos hablar realmente de acción moral para tales artefactos. A continuación, se propone una distinción entre los conceptos de agente y sujeto moral, que permite tener en cuenta el impacto ético de un artefacto altamente automatizado, que no puede reducirse a la lógica clásica de agente-instrumento, al tiempo que excluye toda subjetividad moral de la IA.

Palabras clave: Inteligencia artificial; Tecnología; Responsabilidad

* * *

In tempi recenti, l’applicazione avanzata di tecniche di machine learning e deep learning ha permesso progressi sostanziali nel campo dell’intelligenza artificiale [= AI], facendo sembrare sempre più vicino il tempo in cui una macchina possa finalmente raggiungere un’intelligenza tale da permettere l’emergenza di capacità tipicamente umane come la libertà. Ma è davvero così? L’articolo affronta tale questione da un punto di vista teologico-morale, analizzando innanzitutto in cosa consista l’«apprendimento» delle macchine e in che misura si possa effettivamente parlare di agire morale per tali dispositivi. Quindi, si propone una distinzione tra i concetti di agente e soggetto morale, che consenta di tener conto dell’impatto etico di un dispositivo ad alta automazione, non riducibile alla classica logica agente-strumento, pur escludendo una qualsiasi soggettualità morale dell’AI.

Parole chiave: Intelligenza artificiale; Tecnologia; Responsabilità