Emociones

Las actitudes públicas valoran la interpretabilidad pero priorizan la precisión en la inteligencia artificial.

Las actitudes publicas valoran la interpretabilidad pero priorizan la precision

Nussberger A. M., Luo L., Celis L. E.,

y Crockett, M. J. (2022).

Comunicación con la Naturaleza, 13(1), 5821.

Resumen

A medida que la inteligencia artificial (IA) prolifera entre importantes instituciones sociales, muchos de los sistemas de IA más potentes disponibles son difíciles de interpretar tanto para los usuarios finales como para los ingenieros. Aquí hemos buscado caracterizar las actitudes públicas hacia la interpretabilidad de la IA. En siete estudios (N = 2475), demostramos una actitud sólida y positiva hacia la IA interpretativa entre los no especialistas que se generaliza a varias aplicaciones del mundo real y sigue patrones predecibles. Los participantes califican la interpretabilidad positivamente en diferentes niveles de autonomía y precisión de la IA, y clasifican la interpretabilidad como más importante para decisiones de IA de alto riesgo y recursos limitados. Es importante tener en cuenta que cuando la interpretabilidad de la IA entra en conflicto con la precisión de la IA, los participantes priorizan la precisión sobre la interpretabilidad en las mismas condiciones, lo que favorece la interpretabilidad en primer lugar: entre mucho en juego y recursos limitados. Esta actitud puede conducir a la proliferación de sistemas de IA que toman decisiones éticas importantes que son difíciles de explicar y comprender.

Discusión

En los últimos años, científicos, formuladores de políticas y desarrolladores han debatido si la interpretabilidad es un requisito previo fundamental para la confianza en los sistemas de IA. Sin embargo, aún se desconoce si los no especialistas, que eventualmente pueden constituir una parte significativa de los usuarios finales de las aplicaciones de IA, realmente se preocupan por la interpretabilidad de la IA y, de ser así, en qué condiciones. Aquí, caracterizamos las actitudes públicas hacia la interpretabilidad de la IA en siete estudios. Nuestros datos muestran que las personas consideran importante la interpretabilidad en IA. Si bien estas actitudes positivas se extienden a través de muchas aplicaciones de IA y exhiben patrones sistemáticos de variación, también parecen caprichosas. Si bien las personas valoraron la interpretabilidad como importante para los sistemas de IA que implementaron decisiones directamente y para los sistemas de IA que recomendaron cursos de acción para humanos (Estudio 1A), valoraron más la interpretabilidad para aplicaciones con mayores (frente a menores) intereses y para aplicaciones que determinan el acceso a información. recursos escasos (versus abundantes) (Estudios 1A-C, Estudio 2). Y aunque los participantes valoraron la interpretabilidad de la IA en todos los niveles de precisión de la IA al considerar dos atributos de forma independiente (Estudio 3A), sacrificaron la interpretabilidad por la precisión cuando los dos atributos estaban en conflicto (Estudios 3B–C). Además, los participantes priorizaron la precisión sobre la interpretabilidad bajo las mismas condiciones que priorizan la interpretabilidad en primer lugar: cuando hay mucho en juego y los recursos son escasos.

Nuestros resultados muestran que las aplicaciones de alto riesgo, como los diagnósticos médicos, normalmente imponen mayores exigencias a la interpretabilidad de la IA. En particular, esta sensibilidad a las tasas es paralela a la sensibilidad a la magnitud como el proceso subyacente de evaluación cognitiva de los resultados. El efecto de las tasas en las actitudes hacia la interpretabilidad fue evidente no solo en nuestros experimentos que manipularon las tasas dentro de una aplicación de IA determinada, sino también en los niveles absolutos y relativos de las calificaciones de los participantes sobre la interpretabilidad de diferentes aplicaciones, por ejemplo, «ambulancia de huracanes». . y la «asignación de vacunas» supera a las «decisiones de contratación», «precios de seguros» y «priorización de espacio de reserva». Quizás tal orden surgiría si clasificamos las aplicaciones de acuerdo con la cantidad de medidas de auditoría y control impuestas a los actores humanos, lo que refleja la capacidad esencial de interpretación para verificar procesos de toma de decisiones adecuados y justos.

LEER  Equilibrio entre cognición y afecto, moralidad diádica y repugnancia, daño y pureza

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba