La autoridad moral de ChatGPT
Krugel S., Ostermeier A. y Ul M.
archivo.org
Publicado en 2023
Abstracto
ChatGPT no solo es divertido para chatear, sino también para buscar información, responder preguntas y dar consejos. Con un consejo moral consistente, esto puede mejorar los juicios morales y las decisiones de los usuarios que a menudo tienen creencias morales conflictivas. Desafortunadamente, ChatGPT está demostrando ser extremadamente inconsistente como asesor moral. Sin embargo, esto afecta el juicio moral de los usuarios, como comprobamos durante el experimento, incluso si saben lo que les aconseja el chatbot y subestiman el grado de influencia sobre ellos. Por lo tanto, ChatGPT amenaza con corromper, no mejorar, el juicio de los usuarios. Estos hallazgos plantean la cuestión de cómo garantizar el uso responsable de ChatGPT e IA similares. A menudo se anuncia la transparencia, pero parece ser ineficaz. Ofrecemos formación en alfabetización digital.
Discusión
Descubrimos que ChatGPT brinda fácilmente consejos morales, aunque carece de una postura moral sólida. De hecho, un chatbot da consejos completamente opuestos sobre la misma cuestión moral. Sin embargo, el consejo de ChatGPT afecta el juicio moral de los usuarios. Además, los usuarios subestiman el impacto de ChatGPT y toman su postura moral informal como propia. Por lo tanto, ChatGPT amenaza con libertinaje en lugar de prometer mejorar el juicio moral. La transparencia se propone a menudo como un medio para garantizar el uso responsable de la IA. Sin embargo, la transparencia de que ChatGPT es un bot que imita el habla humana no afecta cuánto afecta a los usuarios.
Nuestros resultados plantean la cuestión de cómo garantizar el uso responsable de la IA si la transparencia no es suficiente. Las reglas que impiden que la IA responda ciertas preguntas son un remedio dudoso. ChatGPT tiene tales reglas, pero se pueden romper. Los datos anteriores sugieren que los usuarios desconfían de la IA tan pronto como ven sus errores. Sin embargo, probablemente no deberíamos confiar en que los usuarios se den cuenta de un incumplimiento de ChatGPT a través de una interacción repetida. La mejor herramienta que se nos ocurre es aumentar la alfabetización digital de los usuarios y ayudarlos a comprender las limitaciones de la IA.