Juicios morales sobre agentes humanos y de IA en dilemas morales
Zhang Yu, Wu J, Yu F y Xu L (2023).
Ciencias del Comportamiento, 13(2), 181. MDPI AG.
Abstracto
La inteligencia artificial se ha integrado rápidamente en la sociedad humana y sus decisiones morales también han comenzado a filtrarse lentamente en nuestras vidas. El valor de la investigación de los juicios morales sobre el comportamiento de la inteligencia artificial es cada vez más destacado. El presente estudio tiene como objetivo examinar cómo las personas emiten juicios morales sobre el comportamiento de los agentes de IA en el dilema del tranvía, donde las personas suelen ser impulsadas por procesos cognitivos controlados, y en el dilema de la pasarela, donde las personas suelen ser impulsadas por respuestas emocionales automáticas. A través de tres experimentos (n = 626), encontramos que en el dilema del carrito (Experimento 1), los juicios morales de las personas estaban influenciados por el tipo de agente más que por la acción real. En particular, los participantes calificaron el comportamiento de los agentes de la IA como más inmoral y reprobable que el comportamiento de los humanos. Por el contrario, en el dilema de la pasarela (Experimento 2), los juicios morales de las personas se vieron influidos por la acción real más que por el tipo de agente. En particular, los participantes calificaron la acción (acción utilitaria) como menos moral y aceptable y más moralmente incorrecta y reprobable que la inacción (acción deontológica). El experimento de diseño mixto produjo resultados de muestra consistentes con el Experimento 1 y el Experimento 2 (Experimento 3). Esto sugiere que en diferentes tipos de dilemas morales, las personas adaptan diferentes formas de juicio moral a la inteligencia artificial, esto se puede explicar por el hecho de que cuando las personas hacen juicios morales en diferentes tipos de dilemas morales, utilizan diferentes sistemas de procesamiento.
De la discusión
En general, estos resultados indicaron que en el dilema del carrito, las personas están más interesadas en la diferencia entre los humanos y los agentes de IA que en la acción frente a la inacción. Por el contrario, en el dilema de la pasarela, las personas están más interesadas en la acción que en la inacción. Se puede explicar que las personas hicieron juicios morales basados en diferentes procesos de respuesta a estos dos dilemas: los procesos cognitivos controlados a menudo ocurren en respuesta a dilemas como el dilema del trolebús, y las respuestas emocionales automáticas a menudo surgen en respuesta a dilemas como el dilema de la pasarela. Así, en el dilema del carro, los procesos cognitivos controlados pueden llamar la atención de las personas sobre el tipo de agente y concluir que es inapropiado que los agentes de IA tomen decisiones morales. En el dilema de la pasarela, la acción de empujar a alguien fuera de la pasarela puede generar una emoción negativa más fuerte que la acción de cambiar en el dilema del carro. Impulsadas por estas respuestas emocionales negativas automáticas, las personas se centrarán más en si los agentes realizaron la acción dañina y encontrarán que la acción dañina es menos aceptable y más moralmente inmoral.
Sin embargo, cabe señalar que nuestro trabajo tiene algunas limitaciones y sugiere varias direcciones para futuras investigaciones. Primero, el estudio actual solo examinó cómo los humanos hacen juicios morales sobre los humanos y los agentes de IA, no el mecanismo psicológico subyacente. Por lo tanto, todas las interpretaciones de los resultados son suposiciones. La investigación futura puede explorar más a fondo la razón por la cual las personas no quieren que los agentes de IA tomen decisiones morales en el dilema del tranvía, por qué las personas aplican los mismos estándares morales a los humanos y a los agentes de IA en el dilema del puente peatonal, y por qué las personas muestran diferentes patrones de juicio moral en el dilema del tranvía. dilema. el dilema del trolebús y el dilema de la pasarela. Investigaciones anteriores nos han proporcionado algunas pistas. Por ejemplo, la interpretabilidad y la consistencia del comportamiento aumentarán la aceptación de la IA por parte de las personas; el antropomorfismo elevado del agente autónomo mitigaría la culpa por la complicidad del agente en un resultado indeseable. Las diferencias individuales, incluido el carácter, la experiencia de desarrollo y los antecedentes culturales, también pueden influir en las actitudes de las personas hacia los agentes de IA. En segundo lugar, para descartar el impacto potencial de las diferencias individuales entre los Experimentos 1 y 2, llevamos a cabo el Experimento 3 con un diseño en el sujeto, se les pidió a los participantes que leyeran ambos escenarios; sin embargo, el sistema de procesamiento activado por el primer escenario puede afectar el juicio de los participantes sobre el escenario subsiguiente. Por ejemplo, los participantes que leyeron por primera vez el dilema del puente peatonal pueden estar interesados en saber si el personaje actuó o no debido a una fuerte emoción negativa, esta emoción puede hacer que las personas se concentren en la acción del personaje en el dilema del carro subsiguiente, tal como lo hicieron en el dilema del carrito dilema de la pasarela. La investigación futura puede considerar otros enfoques de los métodos para descartar las diferencias individuales y los efectos de orden.