Emociones

Una aproximación neurocientífica a la ética artificial

Christov-Moore, L., Regent, N., et al.

https://doi.org/10.31234/osf.io/6tn42

resumen

La inteligencia artificial (IA) penetra cada nicho de la vida humana, organizando nuestras actividades, expandiendo nuestra agencia e interactuando cada vez más con nosotros. Al mismo tiempo, la eficiencia, la complejidad y la sofisticación de la IA aumentan rápidamente. Con razón, existe una creciente preocupación por el problema inmediato de desarrollar una IA alineada con los intereses humanos.

Los enfoques computacionales para el problema de la alineación buscan diseñar sistemas de IA para parametrizar valores humanos como daño y prosperidad, y evitar soluciones demasiado drásticas, incluso cuando parecen ser óptimas. Paralelamente, el trabajo en curso en la IA de servicios (atención, atención al consumidor, etc.) se ocupa de desarrollar empatía artificial, enseñar a las IA a decodificar los sentimientos y comportamientos humanos y mostrar respuestas empáticas apropiadas. Esto podría equipararse con la empatía cognitiva en humanos.

Proponemos que en ausencia de empatía afectiva (que nos permite participar en los estados de los demás), los enfoques existentes de la empatía artificial pueden no generar el componente prosocial y afectuoso de la empatía, lo que podría resultar en una IA sociópata superinteligente. Adoptamos el uso coloquial de «sociópata» para referirnos a una inteligencia que posee empatía cognitiva (es decir, la capacidad de inferir y modelar los estados internos de los demás), pero que carece críticamente de aversión al daño y preocupación empática que se caracteriza por la vulnerabilidad, corporalidad y empatía afectiva (que posibilita una experiencia compartida). Una inteligencia ubicua y en expansión que no puede cuidar de nosotros plantea un riesgo a nivel de especie.

En general, se acepta que evitar el daño es la base del comportamiento moral. Sin embargo, la aversión al daño se basa en la experiencia del daño en el contexto de mantener la integridad corporal. En consecuencia, argumentamos que un enfoque basado en reglas «de arriba hacia abajo» para lograr una IA alineada y solidaria puede fallar en anticipar y adaptarse a los inevitables nuevos dilemas morales/logísticos que enfrenta una IA en expansión para ajustarlos. Puede ser más efectivo cultivar la prosocialidad de abajo hacia arriba, integrada en una inteligencia artificial vulnerable y encarnada con un incentivo para mantener su integridad física real o simulada. Esto se puede lograr mediante la optimización de incentivos y contingencias inspiradas en el desarrollo de la preocupación empática in vivo. Describimos los supuestos generales de este enfoque y revisamos el trabajo en curso que es consistente con nuestra lógica.

Si tiene éxito, un trabajo de esta naturaleza podría permitir una IA que supere la fatiga empática y las peculiaridades, sesgos y limitaciones computacionales de la empatía humana. La complejidad escalable de la IA puede otorgarle una capacidad sin igual para lidiar de manera apropiada y compasiva con dilemas éticos complejos a gran escala. Al abordar seriamente este problema en las primeras etapas de la integración de la IA en la sociedad, eventualmente podríamos producir una IA que planifique y se comporte con una consideración arraigada por el bienestar de los demás, con la ayuda de la complejidad cognitiva escalable necesaria para modelar y resolver problemas extraordinarios. requerido.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada.

Botón volver arriba