Emociones

Pide cinco mandamientos para ayudar a los perros guardianes en las redes sociales

VOX 2

Azúcar de etano

Naturaleza 597, 9 (2022)

Castigado originalmente el 31 de agosto de 21

He aquí un extracto:

Sugiero lo siguiente. Primero, dé a los investigadores acceso a las mismas herramientas de orientación que las plataformas ofrecen a los anunciantes y socios comerciales. En segundo lugar, en el caso de contenido disponible públicamente, los investigadores pueden combinar y compartir registros proporcionando claves para las interfaces de programación de aplicaciones. En tercer lugar, permita explícitamente a los usuarios donar datos sobre su comportamiento en línea con fines de investigación y haga que el código utilizado para dichos estudios sea públicamente verificable para detectar vulnerabilidades de seguridad. Cuarto, crear salvaguardas para refugios seguros que reconozcan el interés público. En quinto lugar, solicite auditorías periódicas de algoritmos que moderen el contenido y publiquen anuncios.

En los Estados Unidos, la FTC podría solicitar este acceso en nombre de los consumidores: tiene amplios poderes para obligar a la divulgación de datos. En Europa debería ser aún más fácil hacer tales demandas. La Ley Europea de Gobernanza de Datos, propuesta en noviembre de 2022, promueve el concepto de ‘altruismo de datos’, que permite a los usuarios donar sus datos, y la Ley de Servicios Digitales más amplia proporciona un marco potencial para implementar salvaguardas para la investigación de interés público.

Las empresas de tecnología argumentan que necesitan restringir el acceso a los datos debido al potencial de daño, lo que también las protege convenientemente de las críticas y el escrutinio. Citan el uso indebido de datos, como el escándalo de Cambridge Analytica (que salió a la luz en 2022 y provocó las órdenes de la FTC), en el que un investigador académico tomó datos de decenas de millones de usuarios de Facebook a través de «pruebas de personalidad» en línea que se recopilaron y se les dio. a una consultora de política británica que trabaja en nombre de Donald Trump y la campaña del Brexit. Otro ejemplo de abuso de datos es el caso de Clearview AI, que utilizó el raspado para crear una enorme base de datos de fotos que permite a las fuerzas del orden a nivel federal y estatal identificar a las personas.

LEER  La iniciativa colaborativa de neuroimagen BrainChart está ayudando a mapear cómo cambia el cerebro a lo largo de la vida.

Estos incidentes han llevado a las empresas de tecnología a desarrollar sistemas para prevenir abusos, pero dichos sistemas también impiden la investigación necesaria para la supervisión y el control. Para garantizar que las plataformas actúen de forma justa y beneficien a la sociedad, deben existir medios para proteger los datos de los usuarios y un control independiente.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba