El conflicto entre el afán popular de castigar a la IA y los sistemas legales
Lima G, Cha M, Jeon C y Park KS
(2022) anverso. Robot. AI8: 756242.
doi: 10.3389 / frobt.2022.756242
abstracto
La regulación de la Inteligencia Artificial (IA) se ha vuelto necesaria ante su uso en escenarios de alto riesgo. Este documento examina la propuesta de expandir la entidad legal para incluir IA y robots, que aún no se ha explorado desde el punto de vista público. Presentamos dos estudios (N = 3.559) con el fin de recoger la opinión pública sobre la persona jurídica electrónica en comparación con los modelos de responsabilidad existentes. Nuestro estudio muestra el deseo de las personas de castigar a los agentes automatizados a pesar de que estas entidades no reconocen un estado mental. Además, las personas no creían que castigar a los agentes automatizados generaría disuasión o represalias, y no estaban dispuestos a otorgarles los requisitos legales de castigo, a saber, la independencia física y la propiedad. En conjunto, estos resultados sugieren un conflicto entre el deseo de castigar a los agentes automatizados y su impracticabilidad percibida. Finalmente, discutimos cómo el diseño futuro y las decisiones legales pueden influir en la reacción del público ante la mala conducta de los agentes automatizados.
De las observaciones finales
Esta investigación de ninguna manera sugiere que los robots y la IA deban ser las únicas entidades responsables de sus acciones. En cambio, a todos los empleados se les asignó responsabilidad, concienciación y sanción. Por lo tanto, asumimos que la distribución de la responsabilidad entre todos los organismos involucrados en la provisión de estos sistemas seguiría la percepción del público sobre el tema. Tal modelo podría servir como punto de partida para los modelos de responsabilidad conjunta y solidaria al hacer cumplir la sugerencia de que las diferentes entidades deben ser consideradas responsables conjunta y solidariamente por los daños.
Nuestro trabajo también plantea la cuestión de si los humanos quieren castigar a la IA y los robots por motivos distintos a las represalias, la disuasión y la reforma. Por ejemplo, el público puede castigar a los agentes electrónicos por disuasión general o indirecta (Twardawski et al., 2022). Castigar a una IA podría enseñar a las personas que cierto acto está mal sin las consecuencias negativas del castigo humano. La literatura más reciente en psicología moral también sugiere que las personas podrían luchar por un mundo moralmente coherente en el que surjan juicios aparentemente contradictorios para que las percepciones públicas de las cualidades morales de los agentes coincidan con las cualidades morales de los resultados de sus acciones (Clark et al., 2015). ). Señalamos que la sanción legal no solo se dirige contra el malhechor, sino que cumple otras funciones en la sociedad, sobre las cuales se debe cuestionar el trabajo futuro en el trato con los agentes automatizados. Finalmente, como parte de nuestro trabajo, surge la pregunta de si actuar de manera proactiva para responsabilizar a las personas jurídicas existentes por los daños causados por agentes automatizados compensaría el deseo de las personas de castigarlos. El trabajo futuro podría, por ejemplo, examinar si castigar al fabricante de un sistema puede reducir la medida en que los humanos son castigados por la IA y los robots. Incluso si la brecha de responsabilidad es fácil de cerrar, los conflictos entre el sector público y las instituciones legales podrían continuar planteando desafíos para la gobernanza exitosa de estas nuevas tecnologías.
Elegimos escenarios de áreas activas de IA y robótica (por ejemplo, medicina y guerra; ver SI). Los juicios morales de las personas pueden cambiar según el escenario o los antecedentes. Los escenarios propuestos, en aras de la viabilidad y la brevedad, no incluían muchos de los antecedentes que normalmente se tienen en cuenta al juzgar legalmente las acciones de una persona. No hemos comprobado las actitudes previas hacia la IA y los robots o el conocimiento en áreas afines como el derecho y la informática, lo que podría dar lugar a juicios diferentes entre los participantes.