Autoestima

Devorador de pecados moderno | Psicología Hoy

Chris Gray yace despierto en la cama pensando en el bebé. ¿Estaba muerto? Pensó que en ese momento, todavía se lo puede imaginar en el suelo, con la bota de un adulto presionada contra su diminuto pecho. Pero tal vez estaba equivocado. Si el auditor de Chris concluye que el bebé no estaba muerto, la falta irá en contra de su calificación de calidad y estará un paso más cerca del alta. Así que se acuesta hasta altas horas de la noche, sigue viendo la foto y trata de formular un argumento para mantener su trabajo.

Esta es una de las historias que Chris comparte conmigo mientras intenta explicar el impacto que ha tenido el trabajo como moderador de contenido para Facebook en su salud mental. Ahora está demandando a la empresa en los tribunales irlandeses por trauma mental.

Bhaveshgoswami / Pexels en Pixabay

Fuente: Bhaveshgoswami / Pexels en Pixabay

Demos un paso atrás: ¿cuándo fue la última vez que revisó sus redes sociales? Probablemente no hace tanto tiempo. Tal vez esté abierto en otra pestaña mientras lees esto. Pero, ¿con qué frecuencia piensas en las personas cuyo trabajo es asegurarse de que tu feed esté lleno de imágenes de gatos divertidos y artículos interesantes sobre psicología en lugar de los horrores indescriptibles de pesadilla que acechan en los rincones más oscuros de la web? «Los moderadores de contenido», dice el Dr. Jennifer Beckett, profesora de Medios y Comunicación de la Universidad de Melbourne, “son las modernas devoradoras de pecados de Internet. Tu trabajo es absorber lo peor de nosotros para que no tengamos que preocuparnos por eso ‘.

LEER  De vuelta a lo básico de la vida

Miles de presentadores pasan sus días de trabajo filtrando masas de contenido marcado, que incluyen agresión sexual, suicidio, pornografía de venganza y asesinato. Quizás como era de esperar, muchos de ellos lo están haciendo mal. Dr. Beckett cree que la mayoría de los moderadores desarrollarán algún tipo de trastorno de estrés postraumático (TEPT) y que no se ofrecerá el apoyo adecuado.

Chris ciertamente piensa que fue su trabajo de presentador lo que lo llevó a su trastorno de estrés postraumático, aunque le tomó un tiempo aceptarlo. «Soy un hombre adulto», me dice. “He estado en todo el mundo. Nunca se me ocurrió que algo como esto pudiera ser traumático ». Fue solo después de dejar el trabajo y cuando sus síntomas se volvieron abrumadores – un sentimiento constante de nerviosismo, estallar en lágrimas, caer en discusiones airadas – que finalmente buscó la ayuda que necesitaba.

Radicalización

Para Chris, una de las partes más difíciles del trabajo no fueron las publicaciones preocupantes que eliminó, sino las publicaciones que creía que eran racistas o tenían la intención de incitar al odio, pero que técnicamente no violaban las reglas de la plataforma.

Es un dilema que tengo con el Dr. Hablando con Jennifer Beckett, quien señala que las ramificaciones son aún peores para los moderadores que son ellos mismos un grupo minoritario que está siendo atacado en el sitio. “Puedes ver que alguien odia o es racista”, explica. “Pero esta plataforma dice que no, no lo es. Entonces, como miembro de este grupo minoritario, se ve obligado a renunciar a él. Y eso solo sirve para reforzar el mensaje deshumanizador. Imagínese ver todo este trauma, todas estas cosas malas, es una rutina diaria constante. Y ahora estás obligado a renunciar a cosas que dañan a personas como tú. La cantidad de disonancia cognitiva que se requiere en este papel me sorprende «.

¿Qué pasa con la desventaja? ¿Podría el mero hecho de mirar tanto contenido radical conducir a una radicalización de los moderadores? Según el Dr. Beckett tiene pruebas de que esto está sucediendo. La moderación de contenido es un trabajo en su mayoría mal pagado en la economía del concierto. Las personas que hacen esto a menudo ya están en el fondo: se sienten privados de sus derechos, agotados y no tienen ninguna influencia en sus propias vidas. En resumen, son la cohorte perfecta para la radicalización.

Lolcats

Está claro que las empresas de redes sociales deben hacer mucho más para abordar este problema, que los expertos creen que solo empeorará cuanto más moderadores procesen más y más contenido malicioso.

Tranmautritam de Pexels

Fuente: Tranmautritam de Pexels

Ryan Broderick, un periodista que investiga la cultura web, tiene una visión clara: si una empresa de redes sociales no puede proteger adecuadamente a sus usuarios y empleados, no merece existir. Dibuja una analogía con un restaurante. «Si tienes un restaurante y no puedes decirle a la gente que la comida no los enferma, ¡no puedes tener este restaurante!» Lo mismo ocurre con otras empresas. “Bienvenido al centro comercial”, bromea. “Algunas tiendas están en llamas. No podemos decirte cuáles hasta que estés dentro. ¡Mucha suerte!’ Obviamente, un centro comercial así no funcionaría, y con razón.

Es un ejemplo gracioso, pero tiene un punto serio: pensamos en las grandes empresas de redes sociales como absolutamente presentecomo si fuera una ley física inmutable. Puede que sea el momento de reconsiderarlo. La próxima vez que obtenga una linda foto de un gato, piense en los comedores de pecados de hoy en día que trabajan para protegernos a todos, pero ¿a qué costo?

LEER  La edad es solo un número: las conversaciones intergeneracionales son más positivas de lo que crees

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba