Con un crecimiento constante y más de 1 billón de usuarios en el mundo, TikTok se ha convertido en una de las aplicaciones más populares, sobre todo entre los jóvenes de entre 13 y 18 años, y quizá también… en una de las menos responsables.
Esto de acuerdo a una ex moderadora de contenido de TikTok, quien afirma fue testigo de una gran cantidad de imágenes traumáticas, que sumado a las precarias condiciones laborales de la plataforma, ha culminado por afectar su estabilidad emocional.
Por si fuera poco, un estudio reciente afirma que dicha app debería realizar más investigaciones para evaluar la precisión de la información que comparte. ¿Hasta donde ha llegado el contenido violento en TikTok y su falta de Responsabilidad Social Empresarial (RSE)? Te contamos.
Contenido violento en TikTok
Tiroteos masivos, violación infantil, mutilación de animales, canibalismo, asesinatos e incluso genocidio, son algunas de las acciones grabadas que alimentan a la plataforma, mismas que son subidas y requieren ser filtradas, afirma The Verge.
Esta es la tarea de los moderadores de contenido como lo es Candie Frazier. Su trabajo, como el de muchos otros, es prácticamente ver una cantidad inmensa de reels de TikTok para filtrar aquellos que cumplen con la política de la plataforma y cuáles no.
La labor puede ser realmente ardua, ya que quienes se dedican a esto, afirman que tienen que ver entre tres y diez videos al mismo tiempo, con videos nuevos cargados al menos cada 25 segundos. Su tiempo de descanso es escaso:
15 minutos en las primeras cuatro horas del turno, y luego descansos adicionales de 15 minutos cada dos horas después. Por si fuera poco, Frazier afirma que ByteDance —dueña de TiktoK— suele tener castigos severos para quien incumpla esta forma de trabajo.
Cabe destacar que la cantidad de contenido violento en TikToK es tan exacerbada que Frazier ha compartido que sufre «un trauma psicológico severo que incluye depresión y síntomas asociados con la ansiedad y el trastorno de estrés postraumático», esto sumado a la falta de RSE que afirma la empresa tiene. Debido a ello, la ex moderadora ha demandado a ByteDance.
Demanda por impacto en la salud mental
De acuerdo con la demanda presentada por la afectada, Candie Frazier tiene problemas para dormir y cuando duerme, tiene pesadillas horribles. A menudo se queda despierta por la noche tratando de dormir, reproduciendo videos que ha visto en su mente. Tiene ataques de pánico severos y debilitantes.
El trabajo de Frazier, como el de otros moderadores de contenido es fundamental para la plataforma, ya que son los reels los que alimentan y hacen crecer cada vez más a TikTok.
Según la demanda de Frazier, TikTok y sus socios no han cumplido con ofrecer descansos frecuentes, apoyo psicológico y difuminar o reducir la resolución de los videos bajo resolución, estándares de la industria destinados a mitigar los daños de dicha profesión.
Ante esto, la portavoz de TikTok, Hilary McQuaid ha compartido en un comunicado a The Verge:
Si bien no comentamos sobre litigios en curso, nos esforzamos por promover un entorno de trabajo afectuoso para nuestros empleados y contratistas.
Nuestro equipo de seguridad se asocia con empresas de terceros en el trabajo fundamental de ayudar a proteger la plataforma y la comunidad de TikTok, y continuamos ampliando una gama de servicios de bienestar para que los moderadores se sientan apoyados mental y emocionalmente.
Hilary McQuaid, portavoz de TikTok.
Hasta el momento no se tiene resolución del caso, pero este no ha sido el primero que se presenta contra una red social.
¿Cuáles son las políticas de la plataforma?
De acuerdo con TikTok, dentro de la plataforma no están permitidos los videos “cuyo objetivo sean los contenidos gráficos, sádicos o violentos ni que promuevan, normalicen o glorifiquen la violencia o el sufrimiento extremos”.
En su informe de transparencia, TikTok presentó que de abril a junio del 2021, se eliminaron más de 81 millones de videos a nivel mundial por incumplir las normas de la comunidad, aunque esta cifra equivale solo al representa el 1% de los subidos.
La mayoría (41.3%) fueron desechados por la clasificación Minor security, puesto que la corporación asegura que la seguridad de los menores de edad es fundamental. Y en esta tarea es en donde se desempeñan los moderadores de contenido como Frazier.
Si bien la compañía afirma que tiene buenas prácticas que procuran el bienestar de sus colaboradores, así como filtros sobre el contenido que los usuarios generan, la realidad es que puede estar incumpliendo con ambas afirmaciones, además de estar propagando información no del todo certera, según un nuevo estudio.
Educación sexual en TikTok: una fuente… no fidedigna
Al ser el público joven el mayor consumidor de esta plataforma, muchos se han acercado a ella con el propósito de encontrar información de valor que no hallan en otros sitios y respuestas, comparte The Verge.
Para confirmar esta teoría, el autor de un reciente estudio se dio a la tarea de crear una cuenta y descargar 100 videos que contenían los hashtags #sexeducation y #healthclass. En donde descubrió que:
Más de la mitad se centró en la anatomía masculina y femenina o en el placer sexual, y la mayoría se centró en la anatomía femenina y el placer sexual femenino.
El 13% habló sobre la anticoncepción, y solo 5 de la muestra cubrieron otros aspectos de la salud sexual, como el sexo seguro, el consentimiento y cómo navegar la atención médica.
Estudio.
De acuerdo con los autores del estudio, es probable que quienes se acercan a este tipo de información no tengan el criterio suficiente ni las herramientas para saber si la información que se les está proporcionando es o no fidedigna, lo que puede causar estragos en su percepción.
La problemática se genera al momento en que dichos videos no cuentan con los filtros suficientes para descartar aquellos que tienen información errónea, además de no abrir las puertas a los jóvenes para hacer preguntas.
La cantidad cada vez mayor de contenido disponible en TikTok hace que responder a toda la información errónea sea poco práctico, y no hay garantía de que un usuario alguna vez encuentre estos videos correctivos.
Autores del estudio.
Por si no fuese suficiente, otros estudios muestran que en la plataforma se ha difundido mala información sobre otras áreas de la salud, como el COVID-19 y el cáncer de próstata. ¿Cuál es la magnitud del problema? Enorme.
Más consumidores, más contenido = menos RSE
El consumo inmediato se ha convertido en parte de la vida de los jóvenes, situación que incrementó a raíz de la emergencia sanitaria. Esto lo muestra el Informe de Ditrendia, el cual afirma que tan solo en España, TikTok se abre aproximadamente de 7 a 10 veces al día, y su uso promedio es de 43 minutos todos los días.
Datos de El País comparten que sus visitas oscilan entre 17.000 millones al mes, lo que supone unos 566 millones de visitas diarias. Este es el resultado de una estrategia infalible:
Se muestran al usuario vídeos adaptados a sus gustos, opiniones y búsquedas previas. Esto hace que el usuario solo vea aquello que le interesa, incrementando así su uso.
Por otra parte, estos entornos online contienen algoritmos de alimentación de contenido que ayudan a difundir masivamente los vídeos.
Dra. Jessica Ortega Barón, del Grupo de investigación Ciberpsicología de la Universidad Internacional de La Rioja (UNIR).
Esto ha provocado un incremento masivo de creadores de contenido, consumidores y contenido, que han logrado que TikTok esté valuada en 75 billones de dólares. Empero, ha dejado atrás políticas básicas que la plataforma debería estar respetando, o simplemente controlando conforme a su crecimiento masivo.
Hoy el contenido violento en TikTok es una realidad, y parece que su dimensión ha comenzado a perder el control, impactando directamente a sus stakeholders, como lo son sus colaboradores y claro… sus consumidores.