Emociones

Por qué son importantes y cómo abordarlos

Por que son importantes y como abordarlos

Santoni de Sio, F., Mecacci, G.

filósofos tecnología 34, 1057-1084 (2022).

https://doi.org/10.1007/s13347-021-00450-x

resúmenes

La noción de “brecha de responsabilidad” con inteligencia artificial (IA) se introdujo originalmente en el debate filosófico para indicar la preocupación de que los “autómatas que aprenden” pueden hacer más difícil o imposible atribuir culpabilidad moral a las personas por eventos adversos. Sobre la base de la literatura sobre filosofía moral y jurídica, y ética de la tecnología, el documento propone un análisis más amplio y completo de la brecha de responsabilidad. La brecha de responsabilidad, se argumenta, no es un problema sino un conjunto de al menos cuatro problemas interconectados -brechas de culpabilidad, responsabilidad moral y pública, responsabilidad activa- causados ​​por diferentes fuentes, algunas técnicas, otras organizativas, legales, éticas y otras. social. Las brechas de responsabilidad también pueden ocurrir con sistemas que no son de aprendizaje. El documento aclara qué aspecto de la IA puede causar qué brecha en qué forma de responsabilidad y por qué cada una de estas brechas es importante. Propone una revisión crítica de los intentos parciales e insatisfactorios de abordar la brecha de responsabilidad: aquellos que la presentan como un problema nuevo e intratable (“fatalismo”), aquellos que la descartan como un falso problema (“deflacionismo”), y aquellos que lo reducen a una sola de sus dimensiones o fuentes y/o lo presentan como un problema que puede resolverse simplemente introduciendo nuevas herramientas técnicas y/o legales («solucionismo»). El documento también describe un enfoque más integral para abordar las brechas de responsabilidad con la IA en su totalidad, basado en la idea de diseñar sistemas sociotécnicos para un «control humano significativo», es decir, sistemas alineados con las razones y capacidades humanas relevantes.

LEER  Actuación: disonancia y armonía | Psychology Today

(cortar)

Las Condiciones de Rastreo y sus Pagos por Responsabilidad

A diferencia de las propuestas basadas en nuevas formas de responsabilidad legal, MHC (Meaningful Human Control) propone que los sistemas sociotécnicos también estén diseñados específicamente para evitar lagunas en la culpabilidad moral, la rendición de cuentas y la responsabilidad activa. La «condición de rastreo» propone que un sistema puede permanecer bajo MHC solo en presencia de una sólida alineación entre el sistema y las capacidades técnicas, motivacionales y morales de los agentes relevantes involucrados, con diferentes roles, en el diseño, control y uso. El objetivo directo de esta condición es promover una distribución justa de la culpabilidad moral, evitando así dos resultados no deseados: primero, el chivo expiatorio, es decir, los agentes son considerados culpables sin tener una capacidad justa para evitar el mal (Elish, 2022): en el Ejemplo de los sistemas de conducción automatizada anteriores, por ejemplo, las capacidades técnicas y motivacionales relevantes de los conductores no están suficientemente estudiadas y capacitadas. En segundo lugar, la impunidad de los accidentes evitables, es decir, las brechas de culpabilidad: la imposibilidad de culpar legítimamente a alguien, ya que ningún agente individual posee todas las capacidades pertinentes, por ejemplo, los gerentes/diseñadores tienen la capacidad técnica pero no la motivación moral para evitar accidentes y los conductores tienen la motivación. pero no las habilidades. La condición de rastreo también ayuda a abordar las brechas de rendición de cuentas y responsabilidad activa. Si una persona u organización debe ser moral o públicamente responsable, entonces también debe poseer la capacidad específica para cumplir con este deber: según otro ejemplo discutido anteriormente, si un médico debe seguir siendo responsable ante sus pacientes por sus decisiones, entonces debe mantener la capacidad y motivación para comprender el funcionamiento del sistema de IA que utiliza y explicar su decisión a los pacientes.

LEER  ¿Es el "soñar despierto desadaptativo" un trastorno mental?

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba