A los moderadores de la app TikTok se les dijo que suprimieran videos de usuarios que parecían demasiado feos, pobres o discapacitados, como parte de los esfuerzos de la compañía para tener un aire aspiracional en los videos que promueve, según los nuevos documentos publicados por Intercept.
Los documentos detallan cómo se instruyó a los moderadores de la aplicación de video social para seleccionar contenido para el influyente feed “For You”, una línea de tiempo algorítmica que es el primer puerto de llamada de la mayoría de los usuarios cuando abren la aplicación.
Como resultado, ser seleccionado para For You puede generar una gran cantidad de visitas a un video determinado, pero los criterios de selección siempre han permanecido en secreto, con poca comprensión de la cantidad de automatización involucrada.
Los moderadores de TikTok recibieron instrucciones de excluir videos del feed For You si fallaron en cualquiera de una serie de categorías, según muestran los documentos. Los usuarios con una «forma corporal anormal (no limitada a: enano, acromegalia)», que son «gorditos, obesos o demasiado delgados» o que tienen «aspecto facial feo o deformidades faciales» deben ser eliminados, dice un documento, ya que «si la apariencia del personaje no es buena, el video será mucho menos atractivo, y no valdrá la pena para recomendarlo a los nuevos usuarios».
De manera similar, según los documentos, los videos se eliminarían del feed si «el entorno de filmación está en mal estado y viejo», ya que «este tipo de entorno es… menos elegante y atractivo».
Un portavoz de TikTok dijo que el objetivo era evitar el bullying en la plataforma, vinculando el documento a un informe de diciembre que mostraba que la compañía estaba suprimiendo los videos de usuarios vulnerables en un esfuerzo equivocado para evitar que se convirtieran en el centro de atención que podría volverse agrio.
Sin embargo, las categorías de video suprimidas en el último documento son mucho más amplias que las reveladas en diciembre, ni se menciona el acoso escolar, una discrepancia que la compañía atribuye a una interpretación local de la política más amplia.
Otros documentos publicados por Intercept muestran el alcance de las antiguas reglas de TikTok que requieren que los moderadores hagan cumplir la política exterior china en el extranjero. El sitio publicó las políticas de transmisión en vivo de la compañía, que instruyen a los moderadores a eliminar el «contenido controvertido» que promueve la independencia de Taiwán o es la «uglification» (proceso para tornarse feo) de la historia, como los «incidentes» de la Plaza Tiananmen.
El idioma es idéntico al utilizado en los documentos informados en septiembre de 2019 . En ese momento, TikTok dijo que los documentos eran viejos y habían estado fuera de uso desde mayo de ese año, pero Intercept cita a una fuente que indicó que las políticas «estaban en uso hasta al menos finales de 2019».
En un comunicado, TikTok dijo:
Las pautas de transmisión en vivo en cuestión parecen ser en gran medida iguales o similares a las pautas que ya se informó el año pasado, que se eliminaron tanto antes del informe como también antes de cuando Intercept dice que se accedió al documento.
Durante el año pasado, hemos establecido centros de confianza y seguridad en California, Dublín y Singapur, que supervisan el desarrollo y la ejecución de nuestras políticas de moderación y están dirigidos por expertos de la industria con amplia experiencia en estas áreas.
Los equipos locales aplican las pautas comunitarias actualizadas que publicamos en enero, todas destinadas a mantener a TikTok en un lugar de autoexpresión abierta y un entorno seguro para usuarios y creadores por igual.
La mayoría de las pautas que presentó Intercept ya no están en uso, o en algunos casos parecen nunca haber estado en su lugar, pero es correcto que para la transmisión en vivo TikTok esté particularmente atento a mantener el contenido sexualizado fuera de la plataforma.
TikTok, propiedad del unicornio tecnológico con sede en Beijing Bytedance, ha estado tratando de separar sus esfuerzos internacionales de su hogar chino durante al menos un año. Pero muchos miembros del personal, incluidos los moderadores, todavía tienen su sede en China .
Según el Wall Street Journal, el último de esos moderadores con sede en China se trasladará a otros trabajos dentro de la compañía en breve, con moderadores locales que se harán cargo de la holgura.
TikTok ya había logrado moderar todo el contenido de EE. UU. Desde fuera de China, pero confió en los moderadores con sede en China para muchos otros países, en particular para proporcionar cobertura las 24 horas para gran parte de Europa.