TikTok, la conocida plataforma de videos cortos, se encuentra en medio de críticas acerca de sus protocolos de seguridad dirigidos a usuarios menores de 13 años. ¿TiTok accesible para menores de 13 años? ¿Qué riesgos podría conllevar? ¿TikTok sin RSE?
Una reciente investigación de The Guardian arrojó que los moderadores recibían indicaciones para permitir que los menores permanecieran en la plataforma. Según su declaración, los padres estaban supervisando sus cuentas y esto les permitía continuar usando el medio.
Este hallazgo plantea dudas sobre la efectividad de las medidas implementadas por TikTok para proteger a su audiencia más joven. Así mismo, destaca la importancia de un examen exhaustivo de sus prácticas de moderación. Te contamos todo al respecto:
TikTok para menores de edad, ¿cuál es el impacto?
Pese a que el impacto varía entre los usuarios y puede depender de factores como la edad, la madurez emocional, el apoyo parental y la forma en que se utiliza la plataforma, el uso de TikTok en menores puede resultar de mayor impacto en ellos por su tendencia adictiva.
Como indica una nota de Educación 3.0, el peligro de los menores frente a la aplicación de vídeos TikTok va más allá. Los jóvenes también pueden afrontar peligro respecto a sus datos personales, ya que la plataforma es conocida por su procesamiento y almacenamiento de datos. Precisamente, estos son los motivos por los que TikTok no es apta para menores de trece años.
No obstante, con la investigación de The Guardían, se reveló un caso particular. Un usuario de 12 años fue permitido en la plataforma porque la cuenta afirmaba estar supervisada por los padres. La comunicación interna revela que los moderadores consultaron a un analista de calidad sobre la posible prohibición de la cuenta, y la respuesta fue que, si la biografía mencionaba supervisión parental, se permitiera que la cuenta permaneciera.
TikTok, sin embargo, niega estas acusaciones, calificándolas de incorrectas o basadas en malentendidos. Un portavoz de la plataforma afirmó que las políticas de TikTok son aplicadas de manera uniforme y que no se permite el acceso a menores de 13 años en la plataforma.
Antecedentes y consecuencias ante la persistencia
Esta revelación llega después de enfrentamientos anteriores con reguladores sobre el manejo de cuentas de menores de 18 años, incluyendo multas significativas en Irlanda y el Reino Unido.
Por su parte, TikTok ha afirmado su compromiso con la seguridad de los usuarios menores de edad, indicando en su sitio web que están «profundamente comprometidos a garantizar que TikTok sea una experiencia segura y positiva para personas menores de 18 años».
Sin embargo, la investigación de The Guardian revela que algunas cuentas potencialmente pertenecientes a menores de edad han recibido etiquetas internas que les otorgan un trato preferencial, como la designación de «creador principal». Este hallazgo plantea preguntas sobre la consistencia y eficacia de las prácticas de moderación de TikTok.
El código infantil del Reino Unido, diseñado para proteger los datos de los niños en línea, establece que el procesamiento de datos personales de un niño es lícito si tiene al menos 13 años. Sin embargo, la investigación sugiere que TikTok podría no estar aplicando estas reglas de manera efectiva.
Procesamiento de datos de los menores de edad:
De acuerdo con las normas del código infantil, no se deben procesar los datos de menores de 13 años, ya que esto infringiría las normativas legales destinadas a su protección. Además, TikTok también está sujeto a la regulación de la OFCOJM en el Reino Unido, las cuales se están incorporando a la recientemente introducida Ley de Seguridad en Línea.
La ley exige que las plataformas tecnológicas establezcan medidas en sus términos de servicio para prevenir el acceso de menores y las apliquen consistentemente. Por un lado, las afirmaciones de TikTok de tener más de 6.000 moderadores en Europa que aplican las directrices de la plataforma de manera equitativa. No obstante, la evidencia presentada por The Guardian plantea dudas sobre la efectividad de estas medidas y destaca la necesidad de una mayor supervisión en las prácticas de moderación de la plataforma.
¿TikTok toma medidas insuficientes?
Desde principios de 2023, TikTok ha hecho propuestas para abordar el uso de su aplicación por parte de menores, persisten dudas sobre su eficacia. Las iniciativas, que incluyen temporizadores y la eliminación de notificaciones para regular el tiempo de uso, parecen insuficientes cuando se trata de salvaguardar la privacidad y los datos de los usuarios más jóvenes.
En última instancia, la discusión sobre las medidas insuficientes de TikTok destaca la importancia de un enfoque más riguroso en la protección de los menores en entornos en línea. La ejecución efectiva de políticas que aborden tanto el tiempo de uso como la seguridad de datos son cruciales para garantizar un entorno digital seguro para los más jóvenes.