Emociones

Enfoque normativo del libre albedrío moral artificial

Enfoque normativo del libre albedrio moral artificial

Behdadi D., Munte K.

Mente y máquinas 30, 195–218 (2022).

https://doi.org/10.1007/s11023-020-09525-8

Resumen

Este artículo propone un redireccionamiento metodológico del debate filosófico sobre la actividad moral artificial (AMA) en respuesta a las necesidades prácticas cada vez más apremiantes del desarrollo tecnológico. Este “enfoque normativo” propone abandonar las discusiones teóricas sobre qué condiciones pueden existir para el libre albedrío moral y en qué medida los objetos artificiales, como los sistemas de inteligencia artificial y los robots, pueden cumplirlas. En cambio, el debate debe centrarse en cómo y en qué medida tales entidades deben incluirse en las prácticas humanas, que generalmente involucran la agencia moral y la responsabilidad de los participantes. La sugerencia se ve reforzada por un análisis del debate de la AMA, que se ha enfrascado demasiado en la yuxtaposición de las llamadas concepciones estándar y funcionalistas de la actividad moral, conceptualmente confusas y prácticamente inertes. Además, destacamos algunos temas de investigación clave que requieren atención a la luz del enfoque normativo propuesto para AMA.

Libre albedrío y autonomía

Varios debatientes de la AMA han argumentado que el libre albedrío es necesario para ser un agente moral (Himma 2009; Hellström 2012; Friedman y Kahn 1992). Otros hacen una afirmación similar (y posiblemente relacionada) sobre la necesidad de autonomía (Lin et al. 2008; Schulzke 2013). En el debate de la AMA, algunos argumentan que los objetos artificiales nunca pueden tener libre albedrío (Bringsjord 1992; Shen 2011; Bringsjord 2007), mientras que otros, como James Moore (2006, 2009), están abiertos a la posibilidad de que las máquinas futuras puedan tener libre albedrío. voluntad. Nota al pie15 Otros (Powers 2006; Tonkens 2009) han sugerido que la plausibilidad de la condición del libre albedrío para la agencia moral puede variar según el tipo de teoría ética normativa que se asuma, pero no desarrollaron más esta idea.

A pesar de apelar al concepto de libre albedrío, esta parte del debate de la AMA no aborda cuestiones clave en la literatura sobre libre albedrío, como el debate de compatibilismo versus incompatibilismo (O’Connor 2016). Los participantes en el debate de AMA asumen que los humanos tienen libre albedrío y cuestionan si los objetos artificiales pueden satisfacer el control de versiones (McKenna et al. 2015). Es decir, la pregunta es si tales entidades pueden ser la fuente de sus acciones de una manera que les permita controlar lo que hacen, en el sentido que asumen los agentes morales humanos.

Una excepción a esta formulación del tema del libre albedrío en el debate de la AMA es que Johnson escribe que «… la naturaleza no determinista del comportamiento humano lo hace algo misterioso, pero solo debido a este aspecto misterioso y no determinista de la libertad moral». voluntad.» que la moralidad y la responsabilidad están entrelazadas” (Johnson 2006, p. 200). Esta es una línea de razonamiento que parece sugerir una comprensión incompatibilista y libertaria del libre albedrío, sugiriendo tanto que es necesario para el libre albedrío moral como que los humanos lo tienen. Esto, por supuesto, deja la noción de agentes morales humanos vulnerable a las objeciones estándar en el debate general sobre el libre albedrío (Shaw et al. 2022). Además, notamos que la idea de Johnson de tener un «aspecto misterioso» de los agentes morales humanos puede permitir la AAD de la misma manera que la referencia de Dreyfus y Hubert al subconsciente: se pueden crear entidades artificiales para incluir este aspecto.

El tema de la fuente en el debate de la AMA está relacionado con el argumento de la independencia: por ejemplo, cuando se afirma que las máquinas están hechas para un propósito específico y, por lo tanto, no son más que herramientas avanzadas (Powers 2006; Bryson 2010; Gladden 2016) o prótesis (Johnson 2016). ). y Miller 2008), esto significa que las máquinas nunca pueden ser la fuente verdadera o genuina de sus propias acciones. Este argumento plantea la cuestión de si es posible encontrar en la máquina la independencia necesaria para la agencia moral (tanto funcionalistas como estandaristas). Si el repertorio de comportamientos y respuestas de una máquina es el resultado de un diseño cuidadosamente considerado, entonces no es independiente, se argumenta. Floridi y Sanders cuestionan esta propuesta, citando la complejidad de la «programación humana», como los genes y los factores ambientales organizados (como la educación).

LEER  ¿Cómo afecta la marihuana al cerebro?

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba