|12/05/21 07:21 PM

La "pesadilla" de los moderadores de contenido que trabajan en Facebook

Las redes sociales trabajan día y noche para filtrar los contenidos que consideran dañinos o inapropiados. ¿Quiénes ven lo que no vemos?

Por Redacción

12 de mayo, 2021 - 19:21

Los miembros de un comité del parlamento irlandés fueron testigos de la declaración de Isabella Plunkett, quien trabaja hace dos años revisando y regulando contenidos en la red social que dirige Mark Zuckerberg. La joven de 26 años, que presta servicios a la compañía a través de una empresa contratista basada en Irlanda, aseguró que el apoyo psicológico brindado por Facebook es insuficiente ante la alta exigencia emocional que implica interactuar con fotos y videos con violencia explícita, abusos y hasta suicidios durante turnos de hasta ocho horas.

Ante esta situación, y según relató Isabella, el único alivio que le ha sido permitido es "una hora y media de bienestar por semana" concedida por la compañía subsidiaria y no por Facebook directamente, situación que contradice la afirmación de la red social, que asegura proveer servicio de apoyo psicológico a sus empleados las 24 horas. Actualmente, se estima que unos 15.000 puestos de trabajo en esa plataforma están dedicados a la moderación de contenidos.

Al parecer, las diferencias entre los trabajadores contratados directamente por el gigante tecnológico y los tercerizados como Isabella también se traducen en el espacio de trabajo ya que, de acuerdo a su testimonio, se la obliga a asistir a una oficina y no tiene opción de realizar teletrabajo.

Trato de "confidencialidad"

En su declaración al Comité Conjunto sobre Empresa, Comercio y Empleo irlandés, Plunkett también dio detalles sobre la cláusula que prevé el contrato al que suscribió cuando empezó a trabajar para Facebook: "La empresa ha dejado claro que no podemos hablar acerca de nuestro trabajo con amigos o familia. Es un espacio laboral que alienta a la discreción" desarrolló.

La joven denunció que la imposibilidad de revelar información sobre lo hecho en sus horas de trabajo provoca que incluso cuando vuelve a casa no pueda desligarse de las imágenes a las que debe enfrentarse para cumplir con su tarea. Esto, sumado a la casi nula posibilidad de recibir apoyo psicológico genera que lo que ve en su trabajo "se traslade a sus sueños" y "no pueda evitar recordarlo y revivirlo". "Nunca se sabe lo que verás después y debemos vigilarlo hasta el final porque es posible que haya infracciones a las políticas de contenidos" explicó.

Actualmente, el trabajo de revisión de los contenidos en Facebook es realizado en forma conjunta por personas y sistemas de inteligencia artificial que aprenden a detectar imágenes o videos que la plataforma considera prohibidos. Sin embargo, y a pesar de que desde la compañía afirman que la idea es que este trabajo sea completamente realizado por máquinas en el futuro, la moderación de contenidos sin participación humana está lejos de concretarse.