Emociones

Ética y psicología: prevención de la catástrofe de la IA

Etica y psicologia prevencion de la catastrofe de la IA

benjamin hilton

8000 horas

Publicado originalmente el 25 de agosto de 2022

Resumen

Esperamos un progreso significativo en la IA en las próximas décadas, tal vez incluso hasta el punto en que las máquinas superen a los humanos en muchas, si no en todas, las tareas. Esto puede tener enormes beneficios para ayudar a resolver problemas globales actualmente irresolubles, pero también puede presentar riesgos graves. Estos riesgos pueden surgir por accidente (por ejemplo, si no encontramos soluciones técnicas a los problemas de seguridad de los sistemas de IA) o por diseño (por ejemplo, si los sistemas de IA exacerban el conflicto geopolítico). Creemos que se necesita hacer más trabajo para mitigar estos riesgos.

Algunos de estos riesgos asociados con la IA avanzada pueden ser existenciales, lo que significa que podrían conducir a la extinción de la humanidad o a una pérdida de poder igualmente permanente y grave de la humanidad. Hasta el momento, no hay respuestas satisfactorias a las preguntas que se analizan a continuación sobre cómo esta tecnología transformadora que avanza rápidamente puede desarrollarse e integrarse de manera segura en nuestra sociedad. La búsqueda de respuestas a estas preguntas está muy descuidada, y es muy posible que esto pueda reconciliarse. Estimamos que alrededor de 300 personas en todo el mundo están trabajando directamente en esto.3 Como resultado, la posibilidad de un desastre relacionado con la IA puede ser el problema más apremiante del mundo, y es mejor trabajar en ello para aquellos que están bien situado para contribuir. . .

Las opciones prometedoras para trabajar en este tema incluyen estudios técnicos sobre cómo construir sistemas seguros de IA, estudios estratégicos sobre los riesgos específicos que la IA puede plantear y estudios de políticas sobre las formas en que las empresas y los gobiernos pueden mitigar estos riesgos. Si se va a desarrollar una buena política, necesitaremos personas para desarrollarla e implementarla. También hay muchas oportunidades para tener un gran impacto en una variedad de funciones adicionales, como gestión de operaciones, periodismo, ingresos por donaciones y más, algunas de las cuales enumeramos a continuación.

(Corte)

¿Cuándo podemos esperar una IA transformadora?

Es difícil predecir exactamente cuándo desarrollaremos la IA que esperamos que tenga un gran impacto en la sociedad (para bien o para mal), por ejemplo, al automatizar todo el trabajo humano o cambiar radicalmente la estructura de la sociedad. Pero aquí veremos varios enfoques.

Una opción es entrevistar a expertos. Los datos de una encuesta de 2022 de 300 expertos en IA muestran que existe un 20 % de posibilidades de inteligencia artificial a nivel humano (que probablemente sea revolucionaria en este sentido) para 2036, un 50 % de posibilidades para 2060 y un 85 % de posibilidades para 2100 . Hay muchas razones para desconfiar de estas estimaciones,8 pero las aceptamos como un solo punto de datos.

Ajeya Kotra (investigadora de Open Philanthropy) intentó predecir la IA transformadora comparando el aprendizaje profundo moderno con el cerebro humano. El aprendizaje profundo implica el uso de una gran cantidad de computación para entrenar un modelo antes de que ese modelo pueda realizar cualquier tarea. También existe una relación entre la cantidad de computación utilizada para entrenar el modelo y la cantidad utilizada por el modelo cuando se ejecuta. Y, si la hipótesis de escala es correcta, deberíamos esperar que el rendimiento del modelo mejore de manera predecible a medida que aumenta la potencia de procesamiento utilizada. Por lo tanto, Kotra utilizó varios enfoques (que incluyen, por ejemplo, estimar la cantidad de cómputo que utiliza el cerebro humano para resolver varios problemas) para estimar la cantidad de cómputo que se podría requerir para entrenar un modelo que, cuando se ejecuta, puede realizar las tareas más complejas. la gente puede hacer. Luego calculó cuándo estaría disponible el uso de esa cantidad de cómputo.

La actualización de 2022 de Cotra estima que los hallazgos de su informe tienen un 35 % de probabilidad de IA transformadora para 2036, un 50 % para 2040 y un 60 % para 2050, y señala que estas suposiciones son inestables.22

Tom Davidson (también investigador de Open Philanthropy) escribió un informe que complementa el trabajo de Kotra. Trató de averiguar cuándo podemos esperar ver la IA transformadora, basándose únicamente en los diferentes tipos de investigación en los que podría ser la IA transformadora (por ejemplo, desarrollar una tecnología que es el objetivo final del campo STEM, o probar suposiciones matemáticas complejas ), y cómo completar cada uno de estos tipos de investigación ha llevado mucho tiempo en el pasado, dada una cierta cantidad de financiación y esfuerzo.

Basándose únicamente en esta información, el informe de Davidson sugiere que existe un 8 % de posibilidades de IA transformadora para 2036, un 13 % para 2060 y un 20 % para 2100. Sin embargo, Davidson no considera las formas reales en que ha evolucionado la IA desde que comenzó la investigación en la década de 1950, y señala que es probable que la cantidad de esfuerzo que dedicamos a la investigación de la IA aumente a medida que la IA se vuelva más relevante para nuestra economía. Como resultado, Davidson espera que estas cifras se subestimen.

LEER  Di "NO" sin sentirte culpable ... (aunque sea difícil)

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba