De acuerdo con la BBC, el año pasado, TikTok eliminó 80 millones de videos subidos que, de alguna manera, rompían sus reglas, esto gracias a una potente inteligencia artificial combinada con moderadores humanos que consiguieron quitar el 94.2% de este material antes de que alguien lo viera.
Los sistemas que buscan «contenido violento» habían eliminado 17 millones de los videos, los cuales fueron retirados automáticamente. Y otras compañías de redes sociales comparten una historia similar ya que suprimen miles de horas de contenido al día.
Sin embargo, dicha capacidad ha suscitado sospecha ya que algunos se preguntan si, al quitarlo, también podrían estar silenciado las imágenes de crímenes de guerra en Ucrania, lo que las convertiría en empresas cómplices.
Contenido gráfico
Antes de la decisión del presidente ruso, Vladimir Putin, de invadir Ucrania, TikTok ya era una plataforma popular en todo el mundo, pero la guerra ha supuesto un momento de madurez para esta red.
Los videos que utilizan varios hashtags ucranianos han tenido miles de millones de visitas, que podrían estar generando algo más que «likes», pues posiblemente funcionen como pruebas para procesar crímenes bélicos.
Sin embargo, de igual forma, el material podría estar infringiendo las estrictas normas de TikTok y de otras empresas de redes sociales sobre el contenido gráfico.
TikTok es una plataforma que celebra la creatividad, pero no el valor de choque o la violencia.
No permitimos contenidos que sean gratuitamente impactantes, gráficos, sádicos o truculentos.
TikTok.
Y, lamentablemente, algunos contenidos que son testigos de la acción rusa y que representan atrocidades entran en esa categoría y podrían ser borrados.
Un gran problema
Los investigadores en el tema no tienen claro cuántos contenidos generados por los usuarios ucranianos retiran los medios sociales como TikTok, Meta, Twitter y YouTube.
No se sabe qué es lo que no se ha visto y se ha retirado porque era gráfico, pero potencialmente es una prueba.
Hay un gran problema aquí.
Sam Gregory, director del programa Witness.
No es la primera vez que las grandes redes sociales tienen que enfrentarse a pruebas de posibles crímenes de guerra. El conflicto de Siria planteó problemas similares. Por lo que Human Rights Watch lleva años reclamando un sistema centralizado de datos desde las zonas de conflicto.
Las autoridades pueden escribir a las empresas de redes sociales, o pedir una citación o una orden judicial […], pero tal y como funciona el proceso ahora mismo, nadie tiene una idea muy clara de dónde está todo ese contenido.
Belkis Wille, investigadora.
Incluso antes del conflicto, quienes intentan documentar destacaron cómo el aumento de la moderación estaba teniendo un efecto perjudicial en la recopilación de pruebas. Un informe, elaborado por el Centro de Derechos Humanos de la Facultad de Derecho de Berkeley, afirma que:
Este ritmo de detección significa que los actores de los derechos humanos están perdiendo cada vez más la carrera por identificar y preservar la información.
El reporte aboga por la creación de «casilleros digitales», es decir, lugares en los que los contenidos puedan ser almacenados y revisados no solo por las empresas de medios sociales, sino también por organizaciones no gubernamentales (ONGs) y expertos jurídicos.
Pero muchas compañías no quieren invitar a personas ajenas a sus procesos de moderación, lo que deja un acertijo, ya que a menudo no saben qué se ha retirado, así que ¿cómo pueden saber qué solicitar o citar?
Política de ligereza
Pero no todas las plataformas tienen la misma política en lo que respecta a los contenidos gráficos. Telegram ha sido muy importante a la hora de compartir videos desde Ucrania, dado que tiene una política de moderación muy ligera, que los mantiene.
Diría que algunos de los contenidos fotográficos y de vídeo más valiosos que hemos recibido como organización proceden de Telegram.
Belkis Wille, investigadora.
Las empresas de redes sociales, como Facebook y Twitter, eliminan automáticamente los metadatos de las fotos y los vídeos, una especie de identificación digital que revela dónde y cuándo se capturó el contenido, lo cual es crucial para los investigadores.
Otra de las ventajas que hemos encontrado es que los metadatos no se eliminan en Telegram.
Belkis Wille, investigadora.
La protección de los metadatos, desde el momento en que se capta una acción hasta que se muestra en los tribunales, se denomina «cadena de custodia». Wendy Betts, directora de Eye Witness, un proyecto de la Asociación Internacional de Abogados, centrado en la recopilación de atrocidades verificables contra los derechos humanos, anima a la gente a filmar posibles delitos de guerra en su aplicación, Eye Witness to Atrocities, para su uso en los tribunales.
Cuando las imágenes pasan del fotógrafo al investigador y al abogado […], si falta algún eslabón de la cadena, esas imágenes se considerarán más sospechosas, porque podrían haberse hecho cambios durante ese intervalo.
Wendy Betts, directora de Eye Witness.
Pero todas estas soluciones parecen poco sistemáticas e insatisfactorias, al no haber un resguardo empleado por las empresas de redes sociales, ni un lugar donde se almacene todo esto, las pruebas cruciales podrían estar cayendo en las grietas.
Diferentes respuestas
En algunos casos, no está claro si las redes sociales almacenan o documentan estos videos. BBC News preguntó a TikTok, Google, Meta y Twitter sobre sus políticas en este ámbito.
En respuesta, TikTok remitió sus políticas de protección de sus usuarios durante la guerra de Ucrania, pero no respondió totalmente.
No tenemos más que compartir más allá de esta información en este momento.
TikTok.
En tanto, ni Twitter ni Google respondieron, solo Meta contestó que:
Eliminaremos este tipo de contenidos cuando glorifiquen la violencia o celebren el sufrimiento de otros o cuando el contenido sea extremadamente gráfico o violento, por ejemplo, videos de desmembramientos.
En relación específicamente con la guerra de Ucrania, estamos explorando formas de preservar este tipo y otros tipos de contenido cuando los eliminamos.
Meta.
Las reacciones tan diferentes de estas cuatro enormes proveedoras de tecnología muestran la realidad: No hay un sistema, ni una política, que todas compartan. Y hasta que no lo haya, se podrían estar perdiendo y olvidando pruebas cruciales.