Por qué la IA consciente es una mala, mala idea
anil seth
Nautilus.ru
Publicado originalmente el 9 de mayo de 23
La inteligencia artificial se está moviendo rápido. Ahora podemos comunicarnos con modelos de lenguaje grande como ChatGPT como si fueran personas. Los modelos de visión pueden crear fotos ganadoras de premios, así como videos convincentes de eventos que nunca sucedieron. Estos sistemas ciertamente se están volviendo más inteligentes, pero ¿son conscientes? ¿Tienen experiencias subjetivas, sentimientos y creencias conscientes, como usted y yo, pero las mesas, las sillas y las calculadoras de bolsillo no? Y si no es ahora, ¿cuándo, si alguna vez, podría suceder esto?
Mientras que algunos investigadores sugieren que la IA consciente está al alcance de la mano, otros, incluyéndome a mí, creen que sigue estando muy lejos y tal vez no sea posible en absoluto. Pero incluso si es poco probable, no es prudente descartar por completo la posibilidad. La perspectiva de la conciencia artificial plantea cuestiones éticas, de seguridad y sociales mucho más allá de las planteadas por la IA. Es importante tener en cuenta que algunos de estos problemas surgen incluso cuando los sistemas de IA simplemente parecen ser conscientes, incluso si bajo el capó son solo algoritmos que zumban en el olvido subjetivo.
(cortar)
Hay dos razones principales por las que crear conciencia artificial, intencionalmente o no, es una muy mala idea. En primer lugar, puede dotar a los sistemas de IA de nuevas habilidades y capacidades que pueden ser perjudiciales si no se diseñan y afinan. Asegurar que los sistemas de IA actúen de acuerdo con valores humanos bien definidos es bastante difícil. Con la IA consciente, esto se vuelve mucho más difícil, ya que estos sistemas tendrán sus propios intereses, y no solo los intereses que les da la gente.
La segunda razón es aún más preocupante: el amanecer de las máquinas conscientes traerá al mundo un nuevo y enorme potencial de sufrimiento, sufrimiento que quizás ni siquiera seamos capaces de reconocer y que puede surgir en innumerables granjas de servidores con un clic del mouse. . Como señaló el filósofo alemán Thomas Metzinger, esto precipitará una crisis moral y ética sin precedentes, porque cuando algo se vuelve consciente, somos responsables de su bienestar, especialmente si lo creamos. El problema no fue que la criatura de Frankenstein cobrara vida; era que estaba consciente y podía sentir.
Estos escenarios pueden parecer descabellados, y es cierto que la IA consciente podría estar muy lejos e incluso ser imposible. Pero las consecuencias de su ocurrencia son lo suficientemente tectónicas como para que no debamos ignorar la posibilidad. Por supuesto, nadie debería intentar activamente crear conciencia de máquina.
Dejando a un lado los problemas existenciales, hay peligros más inmediatos con los que lidiar, ya que la IA se ha vuelto más humana en su comportamiento. Surgen cuando los sistemas de IA dan a las personas la impresión inevitable de que están conscientes, sin importar lo que suceda debajo del capó. La psicología humana oscila incómodamente entre el antropocentrismo, donde nos ubicamos a nosotros mismos en el centro de todo, y el antropomorfismo, donde las cualidades humanas se proyectan sobre las cosas en función de alguna semejanza externa. Es esta última tendencia la que nos da problemas con la IA.