Emociones

La batalla para definir cuándo la IA es de «alto riesgo»

Khari Johnson

wired.com

Publicado originalmente el 1 de septiembre 21

He aquí un extracto:

En el centro de muchos de estos comentarios hay un debate sobre qué tipos de IA deberían clasificarse como de alto riesgo. El proyecto de ley define alto riesgo como la IA que puede dañar la salud o la seguridad de una persona, o violar los derechos fundamentales garantizados a los ciudadanos de la UE, como el derecho a la vida, el derecho a vivir sin discriminación y el derecho a un juicio justo. Los titulares de los titulares de los últimos años muestran cómo estas tecnologías en gran parte no reguladas pueden causar estragos. Los sistemas de inteligencia artificial pueden conducir a arrestos falsos, resultados negativos en la atención médica y vigilancia masiva, especialmente para grupos marginados como negros, mujeres, minorías religiosas, la comunidad LGBTQ, personas con discapacidades y personas de las clases económicas más bajas. Sin un mandato legal para que las empresas o los gobiernos revelen el uso de la IA, es posible que las personas ni siquiera se den cuenta del impacto que la tecnología está teniendo en sus vidas.

La UE ha sido a menudo líder en la regulación de empresas de tecnología, por ejemplo, en cuestiones de competencia y privacidad digital. Al igual que el Reglamento general de protección de datos de la UE, la Ley de IA tiene el potencial de moldear la política más allá de las fronteras de Europa. Los gobiernos democráticos están comenzando a crear marcos legales para regular cómo se usa la IA en función de los riesgos y los derechos. La cuestión de qué definen los reguladores como alto riesgo seguramente provocará cabildeo desde Bruselas hasta Londres y Washington en los próximos años.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba