¿Un nuevo problema de gestión? Robots humanoides, inteligencia artificial y el valor del control
Nyholm, S.
Ética de la IA (2022).
https://doi.org/10.1007/s43681-022-00231-y
Abstracto
Un problema de control comúnmente discutido con los robots y la IA es que podemos perder el control de la tecnología de punta. Cuando escritores como Nick Bostrom y Stuart Russell discuten este tema del control, escriben de tal manera que tener tanto control como sea posible es bueno y perder el control es malo. Sin embargo, en la vida en general, no todas las formas de control son inequívocamente positivas y sin problemas. Algunas formas, como el control sobre otras personas, son éticamente problemáticas. Otras formas de control son positivas y quizás incluso intrínsecamente buenas. Por ejemplo, una forma de control que muchos filósofos han argumentado es inherentemente buena y el autocontrol es una virtud. En este artículo, conecto estas preguntas sobre el control y sus implicaciones para varias formas de robots y la IA en general. Sostengo que cuanto más se hacen los robots para parecerse a los humanos, más problemático, al menos desde un punto de vista simbólico, se vuelve el deseo de ejercer un control total sobre estos robots. Después de todo, no es ético cuando una persona quiere controlar completamente a otra persona. En consecuencia, esto puede verse como problemático, a saber. como una representación de algo intrínsecamente malo: el deseo de crear robots humanoides sobre los que tengamos control total. Por el contrario, si hay formas de IA cuyo control puede considerarse una forma de autocontrol, entonces esto puede considerarse una forma virtuosa de control. El «nuevo problema de control», como lo llamo, es la cuestión de en qué circunstancias es inequívocamente ético mantener y ejercer un control total sobre los robots y la IA.
De la sección «Discusión final»
El autocontrol a menudo se valora como un bien en sí mismo o como un aspecto de las cosas que son buenas en sí mismas, como la virtud, la autonomía personal y la dignidad humana. Por el contrario, controlar a otras personas a menudo se considera incorrecto y malo en sí mismo. Esto significa, como he argumentado, que si bien el control de la IA a veces puede verse o conceptualizarse como una forma de autocontrol, el control de la IA a veces puede ser no solo instrumentalmente bueno, sino que en algunos aspectos también es bueno como un fin en sí mismo. Puede ser una forma de autocontrol ampliado y, por lo tanto, una forma de virtud, autonomía personal o incluso dignidad humana.
Por el contrario, si alguna vez hubo sistemas de IA que razonablemente podrían considerarse personas morales, entonces sería éticamente problemático querer tener control total sobre ellos, ya que sería éticamente problemático querer tener control total sobre la persona moral. Pero incluso antes de eso, querer tener control total sobre ciertos sistemas de IA puede ser moralmente problemático; esto puede ser problemático si están diseñados para verse y actuar como humanos. Sugerí que podría haber algo simbólicamente problemático en querer tener un control completo sobre una entidad que simboliza o representa algo, a saber. ser humano, lo cual sería moralmente erróneo y malo en sí mismo tratar de tener el control total.
Por estas razones, creo que, en general, es mejor tratar de desarrollar sistemas de IA que puedan interpretarse razonablemente como extensiones de nuestra propia agencia, evitando el desarrollo de robots que puedan ser, imitar o representar personalidades morales. Sin embargo, uno podría preguntarse si estas dos posibilidades podrían alguna vez converger, por así decirlo.
Piense, por ejemplo, en la réplica robótica que el mismo investigador japonés en robótica Hiroshi Ishiguro creó. Una pregunta interesante es si la actividad de este robot puede considerarse como una continuación de la actividad de Ishiguro. El robot ciertamente representa o simboliza a Ishiguro. Entonces, si tiene control sobre este robot, entonces tal vez pueda verse como una forma de libre albedrío expandido y autocontrol expandido. Si bien esto puede parecer simbólicamente problemático si Ishiguro quiere tener control total sobre la Erika robótica que creó, que parece una mujer humana, podría no ser un problema en el mismo sentido si quiere tener control total sobre la copia robótica que creó. de si mismo. . Al menos será diferente en cuanto a lo que puede considerarse un símbolo o representación.