Matt Watson conocido como MattsWhatltls mostró indignación en un video tras descubrir «una red de pedofilia en YouTube», por ello grabó un video y lo tituló:
«YouTube está facilitando la explotación sexual de niños. Y está siendo monetizada».
En el video, Watson señala que «Las recomendaciones del algoritmo de YouTube están facilitando a los pedófilos la capacidad de conectarse entre sí, intercambiar información y poner enlaces en los comentarios».
Según lo explica, él estuvo a dos clics de acceder a contenido publicado por pedófilos y que la plataforma recomienda videos similares de manera automática, de tal forma que con pocos clics, la columna de recomendaciones se llena de videos con menores.
«Esto está mal, hay que hacer algo. Ellos lo saben. Y me repugna que nadie haga nada».
De acuerdo con BBC, los videos aparentemente inocentes de niñas Son videos aparentemente inocente de niñas probándose bikinis, jugando o haciendo estiramientos, pero en los comentarios se pueden leer las reacciones de pedófilos buscando interacción con los menores o señalando partes del video que encuentran sexualmente sugerentes, así como enlaces que dirigen a contenido pornográfico. Muchos de ellos tienen millones de visualizaciones.
Tras la publicación y viralización del video, compañías como Disney, Nestlé, Purina, McDonald’s, Cana Goose, EpicGames y Fortnite afirmaron que retirarán sus anuncios de la plataforma de videos de Google.
En medio de la tormenta levantada por este escándalo, Insider Latam contactó a Eric Tourtel, Senior Vice President para América Latina de Teads, uno de los principales competidores de YouTube. Tourtel, muy crítico de la situación, no duda en afirmar que, “YouTube tiene un problema grave que tiene que solucionar. Lo que está sucediendo con el reciente escándalo va mucho más allá de un problema de Brand Safety, estamos hablando de aprovechamiento de la plataforma por pedófilos”.
No dudo ni un segundo que Youtube intenta solucionar el problema, pero no parece que estén usando todos los medios posibles para controlarlo”.
Empresas como Grammarly, dijeron que están en conversaciones con la plataforma para tratar de resolver el problema antes de cancelar del todo sus inversiones publicitarias.
«Cuando supimos sobre este asunto, nos quedamos -y todavía estamos- totalmente horrorizados, y contactamos a YouTube para que lo rectifique inmediatamente», declaró Senka Hadzimuratovic, vocera de Grammarly, una herramienta de gramática en línea.
La respuesta de YouTube
Un vocero de YouTube dijo que «cualquier contenido, incluidos los comentarios, que ponga en peligro a los menores es abominable y tenemos políticas claras en YouTube que lo prohíben».
«Hemos tomado acciones inmediatas borrando cuentas y canales, denunciando la actividad ilegal a las autoridades y deshabilitando los comentarios en decenas de millones de videos que contienen imágenes de menores».
«Hay más por hacer, y continuamos trabajando para mejorar y detectar este tipo de abusos más rápidamente».
Este portavoz también le dijo a BBC Mundo que la compañía está tomando acciones más drásticas y «agresivas» de las que ha implementado hasta ahora para abordar mejor la gestión del contenido inapropiado y que ha eliminado más de 400 canales, algo que también ha expresado públicamente.
UPDATE: @YouTube @YTCreators left a comment and provided an update on what they’ve done to combat horrible people on the site in the last 48 hours.
TLDR: Disabled comments on tens of millions of videos. Terminated over 400 channels. Reported illegal comments to law enforcement. pic.twitter.com/zFHFfkX9FD
— Philip DeFranco (@PhillyD) 21 de febrero de 2019
Otras medidas incluyen eliminar videos que fueron publicados sin malas intenciones, pero terminaron poniendo en peligro a menores de edad e incrementar la capacidad de descubrimiento de este tipo de contenido.
Cabe mencionar que el año pasado la plataforma de videos eliminó 46 mil cuentas de ciberdelincuentes y las denunció.