Aunque los derechos y la protección de niños y niñas contra la violencia está estipulado en la Convención sobre los Derechos de la Niñez, formas de maltrato físico, emocional o sexual se han trasladado al entorno digital, afectando el desarrollo integral y saludable de su desarrollo.
Existen grandes retos para las redes sociales en el intercambio y creación de contenido basado en la responsabilidad social, por lo que han sido llamadas a una urgente regulación interna y gubernamental. Ahora, a esto también se suma la reciente solicitud legal de Australia para que revelen sus CEOs cómo las redes sociales combaten el abuso infantil.
Twitter, TikTok y Google obligados a confesar
La petición de que comuniquen si redes sociales combaten el abuso infantil, Twitter, TikTok y Google deberán respondan cuales son sus estrategias de seguridad para prevenir temas como el abuso sexual infantil y los intentos de chantaje. Las plataformas tendrán 35 días para responder a las preguntas del comisionado o arriesgarse a multas de hasta 687 mil dólares por día.
Las demandas legales llegan seis meses después de que se emitieran avisos similares a Apple, Meta, Microsoft, Snap y Omegle, ya que se reveló que algunas plataformas tecnológicas no estaban utilizando medidas de seguridad bien conocidas para detectar contenido abusivo y proteger a los usuarios.
Por ello, la comisionada de seguridad electrónica de Australia y autora de la petición, Julie Inman Grant, dijo que estaba particularmente preocupada por el tratamiento del material ilegal en Twitter luego de los recortes masivos de empleos en sus equipos australianos y de seguridad.
«También hemos visto importantes recortes de personal clave de confianza y seguridad en toda la empresa, las mismas personas cuyo trabajo es proteger a los niños, y queremos saber cómo abordará Twitter este problema en el futuro».
Julie Inman Grant, comisionada de seguridad electrónica de Australia.
La comisionada también aprovechó para hacer hincapié en que, cuando Elon Musk adquirió Twitter, prometió poner como prioridad abordar la explotación infantil. Sin embargo, no se han visto detalles ni acciones de cómo Twitter está cumpliendo este compromiso.
Responsabilidad social de plataformas digitales
De acuerdo con la solicitud, las plataformas tecnológicas deben responder preguntas sobre cómo detectan y eliminan el contenido de abuso sexual infantil, incluidas las transmisiones en vivo, cómo los algoritmos podrían ampliar su alcance y cómo las empresas tratan los intentos de extorsión sexual contra los niños.
Al respecto, Inman Grant, quien se desempeñó como directora de políticas públicas de Twitter hasta 2016, dijo que las respuestas de las empresas tecnológicas más grandes, junto con los informes de moderación de contenido menos estricta en Twitter desde que Musk asumió el control, la impulsaron a tomar medidas.
«La creación, difusión y visualización de abuso sexual infantil en línea inflige un trauma incalculable y arruina vidas. También es ilegal».
Julie Inman Grant, comisionada de seguridad electrónica de Australia.
Las redes sociales combaten el abuso infantil, ¿sí o no?
Los incidentes de abuso sexual infantil en plataformas digitales están generalizados, con 29.1 millones de denuncias realizadas al Centro Nacional de Niños Desaparecidos y Explotados de EE. UU. en 2021, incluidas 875 mil 783 denunciadas por Google, 154 mil 618 denunciadas por TikTok y 86 mil 666 de Twitter.
En un comunicado de este mes, Twitter informó que había suspendido 404 mil cuentas por participar en la explotación sexual infantil en su plataforma en enero. Y detalló: «No solo estamos detectando más malhechores más rápido, sino que estamos construyendo nuevas defensas que reducen proactivamente la capacidad de descubrimiento de los tweets que contienen este tipo de contenido».
Samantha Yorke, gerente sénior de asuntos gubernamentales y políticas públicas de Google, dijo que el material de abuso no tenía lugar en las plataformas de la compañía y que «utilizamos una variedad de técnicas de escaneo estándar de la industria, incluida la tecnología de comparación de hash e inteligencia artificial para identificar y eliminar (material de abuso infantil) que se ha sido subido a nuestros servicios».
Por su parte, el gerente de políticas de TikTok para Australia, Jed Horner, dijo en un comunicado que la compañía tenía un enfoque de tolerancia cero para la difusión de material de abuso con más de 40 mil profesionales de seguridad en todo el mundo «que desarrollan y hacen cumplir nuestras políticas y crean procesos y tecnologías para detectar, eliminar o restringir contenido violatorio a escala».
Según las nuevas leyes en Australia, la Comisión de Seguridad Electrónica, una oficina creada para proteger a los usuarios de Internet, puede obligar a las empresas de Internet a brindar información detallada sobre la frecuencia de la explotación infantil en sus plataformas y sobre las medidas que toman para erradicarla.