Emociones

¿Prevenir la extinción de la IA es realmente una tarea urgente?

Prevenir la extincion de la IA es realmente una tarea

S. Lazar, J. Howard y A. Narayanan

rápido.ai

Publicado originalmente el 30 de mayo de 23

Aquí hay un extracto:

¿Y por qué se presta especial atención a la extinción? Tan malo como es, como el preámbulo de la declaración señala que la IA también plantea otros riesgos sociales graves. Y las prioridades globales deben ser no solo importantes, sino también urgentes. Todavía estamos en el epicentro de una pandemia mundial, y la agresión rusa en Ucrania ha convertido la guerra nuclear en una amenaza inminente. El cambio climático catastrófico, que no se menciona en la declaración, probablemente ya haya comenzado. ¿Es la amenaza de extinción debida a la IA igual de relevante? ¿Piensan los signatarios que los sistemas de IA existentes o sus sucesores inmediatos podrían acabar con todos nosotros? Si lo hacen, entonces los líderes de la industria que firmaron esta declaración deberían cerrar sus centros de datos de inmediato y entregar todo a los gobiernos nacionales. Los investigadores deberían dejar de intentar que los sistemas de IA existentes sean seguros y, en su lugar, pedir su eliminación.

Pensamos que, de hecho, la mayoría de los firmantes de la declaración creen que la IA desenfrenada aún está lejos y que se requerirán avances científicos significativos para lograrlo, que no podemos prever, incluso si estamos seguros de que algún día sucederá. tener lugar. Si es así, entonces se siguen al menos dos cosas.

Primero, debemos prestar más atención a los mayores riesgos asociados con la IA. Incluso si los sistemas de IA existentes y sus plausibles extensiones no nos borran de la faz de la tierra, ya están causando un daño mucho más concentrado, están destinados a exacerbar las desigualdades y, en manos de gobiernos hambrientos de poder y corporaciones sin escrúpulos, socavan libertad individual y colectiva. Podemos mitigar estos riesgos ahora, no tenemos que esperar a algún progreso científico impredecible para avanzar. Deben ser nuestra prioridad. Después de todo, ¿por qué confiaríamos en nuestra capacidad para gestionar los riesgos que plantea el futuro de la IA a menos que hagamos el arduo trabajo de eliminar los que ya existen?

En segundo lugar, en lugar de alarmar al público con predicciones ambiguas sobre el futuro de la IA, deberíamos centrarnos menos en lo que debería preocuparnos y más en lo que deberíamos hacer. Los posibles riesgos extremos de los futuros sistemas de IA deben ser parte de esta conversación, pero no deben dominarla. Debemos comenzar por reconocer que el futuro de la IA, quizás más que las pandemias, la guerra nuclear y el cambio climático, está bajo nuestro control colectivo. Tenemos que preguntarnos ahora qué tipo de futuro queremos que sea. Esto no significa solo pedir información sobre qué reglas debe seguir una IA divina. Significa preguntar si hay una mayoría democrática en algún lugar para crear tales sistemas.

LEER  El regalo de superar la discriminación por edad interna

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba