Moderar el contenido en las plataformas de redes sociales es clave para mitigar la propagación de todo, desde teorías de conspiración hasta fotos y videos horribles de violencia masiva. Es por eso que empresas como Facebook utilizan una combinación de herramientas para buscar y eliminar publicaciones que violan sus reglas, incluidos moderadores de contenido humano y AI.

TikTok, como Facebook, emplea humanos para ver y eliminar publicaciones problemáticas. El jueves, dos exmoderadores de contenido presentaron una demanda federal contra la empresa por negligencia y falta de protección de los trabajadores contra el trauma emocional. Además están buscando el estatus de demanda colectiva.

Ashley Velez y Reece Young, las dos mujeres detrás de la demanda, trabajaron como moderadoras de TikTok bajo contrato a través de empresas externas, pero afirmaron que TikTok controlaba las reglas de su trabajo día a día.

También alegaron que los videos y fotos que se vieron obligados a revisar, combinados con horarios estrictos, jornadas constantes de 12 horas y cuotas agresivas, las dejaron traumatizadas. Las acusaciones se hacen eco de las afirmaciones de una demanda de que Facebook (hoy llamada Meta) llegó a un acuerdo por 52 millones de dólares en mayo de 2020. En ese caso, 11.250 moderadores acusaron a la empresa de abusos similares.

Pero confiar únicamente en la IA para censurar el contenido también es una solución imperfecta. Un estudio mostró que más probable que los modelos de IA censuren los tuits escritos por afroamericanos. Activistas indígenas dicen que también han sido censurados por algoritmos racialmente sesgados. Ese potencial permite que los algoritmos de moderación de contenido se politicen más fácilmente, inflamados por la polarización nacional, de modo que las diferentes plataformas de redes sociales se conozcan como de izquierda o de derecha.

Los creators de TikTok se quejan de que se elimina su contenido por razones equivocadas con tanta frecuencia que los videos y artículos instructivos completos están dedicados a aprender formas de apelar la decisión.

TikTok es conocido por brindar a sus moderadores de contenido mejores salarios y beneficios que muchos de sus competidores, y ha hecho una ola de contrataciones para llevar la moderación de contenido de manera interna.

La demanda presentada por los contratistas indica que tal vez ese movimiento fue bueno. Pero TikTok debe descubrir cómo proteger mejor a sus moderadores de contenido y mantener su estrategia de moderación ágil, proactiva y precisa para tener éxito.

 

Fuente: https://www.protocol.com/bulletins/tiktok-content-moderation-lawsuit

 

 

Leave a Reply