Los moderadores de TikTok Ex se quejan del trauma en el lugar de trabajo

Imagen del artículo titulado

ImagenOficina Martinimágenes falsas

Un pequeño ejército de moderadores de contenido con exceso de trabajo es la última línea de defensa del público contra una avalancha de contenido depravado y horrible subido a las redes sociales. Mientras que los moderadores nos ayudan a los usuarios normales a evitar lo peor de lo peor, la exposición constante a los impulsos más oscuros de la humanidad puede causar estragos en sus salud mental† Ahora, dos ex moderadores de TikTok alegan que el floreciente gigante de las redes sociales escatimó en el tratamiento de salud mental para los moderadores que lidian con una avalancha de pesadillas digitales.

“Vería gente recibiendo disparos en la cara”, dijo alguien en un… entrevista con NPR. “Y otro video de un niño golpeado me hizo llorar durante dos horas”.

los demanda judicial, presentado el jueves, alega que TikTok y su empresa matriz ByteDance violaron las leyes laborales de California al no garantizar que los moderadores estuvieran adecuadamente protegidos del trauma emocional causado por la exposición a las imágenes. Los moderadores, afirma la demanda, actúan como “los guardianes entre el contenido sin filtrar, repugnante y ofensivo subido a la aplicación y los cientos de millones de personas que usan la aplicación todos los días”. La demanda acusa específicamente a TikTok de negligencia, ejercicio negligente de mantener el control y violaciones de la ley de competencia desleal de California.

“Demandados [TikTok and ByteDance] somos conscientes de los efectos psicológicos negativos que tiene ver contenido gráfico y ofensivo en los moderadores”, afirma la demanda. “A pesar de esto, los acusados ​​no implementan estándares reconocidos de cuidado para proteger a los moderadores de daños”.

Por ahora, no es ningún secreto que los moderadores de contenido tienen que lidiar con material terrible, pero la demanda afirma que la moderación de TikTok es peor que la de otras plataformas. Si bien otras empresas han implementado una serie de esfuerzos de mitigación de daños recomendados por la industria, como el uso de tecnología de filtrado para distorsionar imágenes o brindar asesoramiento obligatorio a los moderadores, TikTok no lo está haciendo, según la demanda. “Esta exposición absoluta e insensibilidad a la implementación de estándares de atención resultó en que los demandantes [the moderators] expuesto a miles de videos ofensivos y objetables, que incluyen violencia ofensiva, agresión sexual y pornografía infantil”, dice la acusación.

Los ex moderadores de TikTok, Ashley Velez y Reece Young, afirman que no lograron aliviar el tratamiento de salud mental adecuado, lo que a su vez condujo a un entorno de trabajo inseguro. Los dos moderadores afirman que estuvieron expuestos a una larga lista de la mierda más horrible en Internet: videos de pornografía infantil, violaciones, bestialidad, asesinatos, decapitaciones y suicidios cruzaron sus escritorios.

Young informó ante la cámara que fue testigo de la ejecución de una niña de 13 años por parte de un miembro del cartel. Vélez le dijo a NPR que las imágenes y videos con niños menores de edad eran responsables de la gran mayoría del contenido perturbador al que estaba expuesta. “Alguien tiene que sufrir y ver estas cosas para que nadie más tenga que hacerlo”, dijo Vélez a NPR.

La demanda alega que exigir cuotas de productividad impuestas a los empleados es “incompatible con los estándares de atención aplicables”.

Según la demanda, se les dice a los moderadores que no califiquen los videos durante más de 25 segundos y que califiquen con una precisión de más del 80% si un video en particular viola o no las reglas de TikTok. Dentro de esos 25 segundos, los moderadores deben pensar y considerar 100 etiquetas posibles que podrían aplicarse para etiquetar contenido problemático, dijeron los fiscales. Los moderadores trabajan en turnos de 12 horas con un descanso para almorzar de una hora y dos descansos de 15 minutos, según la demanda.

“Al examinar las publicaciones de las redes sociales en busca de contenido objetable, los moderadores de contenido son nuestros soldados de primera línea en una guerra contra la depravación: una guerra que todos queremos ganar”, dijo Steven Williams, uno de los abogados de los moderadores de TikTok, en un comunicado. “El trauma psicológico y las deficiencias cognitivas y sociales a las que se enfrentan estos trabajadores son graves. Pero están siendo ignorados y los problemas solo empeorarán, para la empresa y para estas personas”.

TikTok no respondió a la solicitud de comentarios de Gizmodo.

AUSTIN, TX - 5 DE MARZO: Los moderadores de contenido trabajan en una oficina de Facebook en Austin, Texas.

AUSTIN, TX – 5 DE MARZO: Los moderadores de contenido trabajan en una oficina de Facebook en Austin, Texas.
Fotoel poste de washingtonimágenes falsas

Además de esa montaña de terror digital, la demanda alega que los moderadores también están expuestos regularmente a torrentes de teorías de conspiración e información errónea, particularmente sobre el covid-19, que según sus abogados también desencadena reacciones traumáticas.

Cabe señalar que Vélez y Young eran contratistas a través de las empresas Telus International y Atrium Staffing Services, respectivamente. Si bien ambos moderadores técnicamente trabajan para compañías separadas, la demanda aún busca responsabilizar a TikTok y ByteDance, argumentando que es quien establece las cuotas, supervisa a los empleados y es responsable de las medidas disciplinarias. Si bien un portavoz de Telus International le dijo a NPR que brindan asesoramiento sobre salud mental a los contratistas, Vélez argumenta que esto es extremadamente inadecuado. La moderadora dijo que solo tuvo una reunión de 30 minutos con un consejero que parecía inundado de solicitudes de otros moderadores preocupados.

A través de la demanda, los abogados de los moderadores esperan obtener una compensación financiera para Vélez y Young y presionar a TikTok para que evalúe y trate a sus miles de moderadores de contenido actuales y anteriores. Gizmodo contactó a la compañía para hacer comentarios, pero no ha recibido respuesta.

Los moderadores, como es el caso de muchos otros moderadores en compañías tecnológicas rivales, afirmaron firmar Acuerdo de no divulgación lo que les impedía hablar de las imágenes que veían. Después de un día atravesando los rincones más oscuros de la humanidad, los trabajadores tienen que enterrar esas historias, incapaces de hablar de ellas con amigos o incluso familiares.

“Vieron a tanta gente que parecía que no tenían tiempo para ayudarte realmente con lo que estabas sufriendo”, dijo Vélez a NPR.

Si bien TikTok, al igual que otros importantes proveedores de contenido, esfuerzo inteligencia artificial para capturar la mayor parte del contenido problemático, el flujo frenético de contenido potencialmente dañino cargado en sus sitios significa que los moderadores humanos siguen siendo indispensables. En general, estos moderadores suelen ser contratistas independientes que trabajan por salarios más bajos con menos seguridad laboral y menos beneficios que los empleados que trabajan en empresas de tecnología.

Investigadores de la Universidad de Texas y la Universidad de St. Mary tienen una papel revisó la literatura académica sobre moderadores de contenido el año pasado y encontró amplia evidencia de exposición repetida a contenido dañino que conduce a TEPT y otros daños psicológicos.

“Si bien el trabajo de moderación puede ser desagradable, ahora se reconoce que la exposición repetida y prolongada a contenido específico, junto con un apoyo limitado en el lugar de trabajo, puede afectar significativamente el bienestar psicológico de los moderadores humanos”, escriben los investigadores.

En otros casos, moderadores en Youtube y Facebook Según se informa hospitalizado por ansiedad aguda y depresión después de la exposición repetida a los contenidos. Y por desgracia para todos, internet no va a menos. Esta semana el Centro Nacional de Menores Desaparecidos y Explotados dijo El año pasado, se eliminaron de Internet 29,3 millones de artículos de abuso sexual infantil. Eso es un récord y un aumento del 35% en comparación con la cantidad de material que se eliminó un año antes.

Los problemas de salud mental que afectan a los moderadores de contenido en la industria tecnológica han atraído la atención del público en los últimos años gracias a una avalancha de informes reveladores y otras acciones legales. Numerosos medios de comunicación han documentado los entornos de trabajo a menudo impactantes para los moderadores en Facebook y YouTubeaunque comparativamente se ha escrito poco sobre los moderadores de TikTok.

Hace dos años Facebook organizado una demanda presentada en su contra por miles de moderadores por 52 millones de dólares. El mismo bufete de abogados que representa a Vélez y Young también representó a los moderadores de Facebook. Ese acuerdo originalmente surgió de una demanda de 2018 presentada por la moderadora de Facebok Selena Scola, quien afirmó que desarrolló PTSD después de ver casos de violación, suicidio y asesinato en el trabajo. El acuerdo de $ 52 millones se dividió en miles de contratos, cada uno de los cuales recibió al menos $ 1,000 en compensación. También ex moderador de contenido de YouTube. demandado su empleador en 2020, alegando que desarrolló depresión y síntomas relacionados con el TEPT después de ver decapitaciones e imágenes de abuso infantil. Es lógico que TikTok, uno de los más rápidos creciente los sitios de redes sociales en línea, también estarían en el extremo receptor de las demandas.

Leave a Comment