¿Estamos preparados para que la IA resucite a los muertos?
Jack HolmesRevista EsquirePublicado originalmente el 4 de mayo del 24
Aquí hay un extracto:
Aquí puedes ver grandes oportunidades. Algunos pueden encontrar consuelo al escuchar la voz de su mamá, especialmente si suena como si realmente lo hiciera y da el consejo que realmente dio. Pero Sandel me dijo que cuando presenta opciones a los estudiantes en su clase de ética, la respuesta se divide, incluso si pregunta de dos maneras diferentes. Primero, les pregunta si estarían interesados en un chatbot si un ser querido se lo lega después de la muerte. Luego les pregunta si están interesados en hacer su propio modelo para dárselo a otros. Ah, ¿y si el chatbot se crea sin la participación de una persona resucitada? La noción de que alguien optó por ser representado póstumamente como un avatar digital parece importante, pero aun así, ¿qué pasa si el modelo comete errores? ¿Qué pasa si distorsiona, incluso calumnia, a los muertos?
Muy pronto, estas preguntas dejarán de ser teóricas y no habrá consenso sobre a quién o incluso qué preguntar. Nos acercamos a un dilema ético más fundamental del que solemos escuchar en las discusiones sobre IA: sesgos humanos integrados en algoritmos, problemas de privacidad y vigilancia, falsedades y desinformación, fraude y plagio, desplazamiento laboral, falsificaciones profundas. De hecho, todos estos problemas están interconectados: el bot de Osama Laden puede hacer que un tipo real parezca razonable o simplemente predicar la yihad a los adolescentes, y todos deben ser resistidos. Pensamos mucho en lo mundano (niños haciendo trampa en AP History) y lo extremo (algún tipo de IA avanzada que acaba con la raza humana), pero es probable que caminemos por un pasillo desordenado en el medio. Tenemos que pensar en lo que está permitido y cómo vamos a decidir.
(cortar)
Nuestros problemas de gestión se ven exacerbados por el hecho de que, si bien unas pocas empresas están liderando el camino en la construcción de estas máquinas sin precedentes, la tecnología pronto se generalizará. Es probable que gran parte del código base de estos modelos se convierta en dominio público, lo que permitirá a los científicos informáticos talentosos construir los suyos propios en el garaje. (Algunos muchachos de Stanford ya han construido un simulador de ChatGPT por alrededor de $600). ¿Qué sucede cuando algunos tipos emprendedores crean un modelo de persona muerta sin el permiso de la familia? (Tuvimos una especie de avance en abril cuando un tabloide alemán publicó una entrevista generada por IA con el expiloto de F1 Michael Schumacher, quien sufrió una lesión en la cabeza en 2013. Su familia amenazó con demandar). ¿Qué pasa si es una imagen inexacta? ¿O sufre lo que los informáticos llaman «alucinaciones» donde los chatbots escupen cosas completamente falsas? Ya tenemos porno de venganza. ¿Qué pasa si un viejo enemigo por despecho crea una versión falsa de su difunta esposa? “Existe una tensión seria entre el acceso abierto y las preocupaciones de seguridad”, dice Reich. “La fusión nuclear también tiene un enorme potencial de crecimiento”, agrega, pero en algunos casos, el acceso abierto a la carne y los huesos de los modelos de IA puede ser como “invitar a personas de todo el mundo a jugar con plutonio”.
Artículo aquí.
Sí, hubo un episodio de Black Mirror («Ya vuelvo») al respecto. Wiki está aquí.