YouTube contará con una política de eliminación de videos deepfake que busca hacer frente a los fraudes relacionados con la creación de contenido mediante el uso de IA, mismos que van en aumento debido a la facilidad con la que los usuarios pueden acceder a sistemas de manipulación de fotografías o videos, e, incluso, a la clonación de voz.
La seguridad en redes sociales es un tema con muchos asuntos pendientes que ponen en riesgo a los usuarios, por lo que en los últimos años las diversas plataformas han tenido que implementar algoritmos y políticas comunitarias para combatir los peligros en sus espacios web. Ahora YouTube propone esta nueva política para eliminar el contenido fraudulento. ¡Sigue leyendo para enterarte!
Los videos deepfake en Youtube serán eliminados
Ante el aumento de la suplantación de identidad y diversos fraudes generados por medio de la manipulación de contenido con IA, la plataforma de contenido multimedia estadounidense ha implementado una política de seguridad que estipula que los videos deepfake en Youtube serán borrados si los usuarios afectados denuncian que se ha uilizado su imagen o voz en la realización del contenido en cuestión.
Sin embargo, la red social indica que no basta con que el usuario denuncie los videos que infringen las normas para que este contenido se remueva, sino que dicha solicitud tendrá que pasar por una serie de evaluaciones para determinar si el contenido debe borrarse.
Para proteger la libertad de expresión y la diversidad de contenidos, la plataforma revisará que los videos denunciados no califiquen como parodia, sátira o sea contenido considerado de interés público, entre otras excepciones. No obstante, YouTube ha dicho que no permitirá imágenes o videos de figuras públicas editados con IA que “muestren comportamientos sensibles”, por ejemplo violencia, publicidad política o actividades delictivas.
¿Qué podrán hacer los creadores del contenido infractor?
La plataforma estadounidense dijo que los creadores de deepfake o imágenes, audios y voces editadas mediante IA que hacen parecer real algo que en realidad una persona no dijo o hizo, contarán con 48 horas para responder a la queja de los denunciantes.
Si el dueño del contenido quita el material antes del lapso estipulado la queja será bloqueada, pero si no hace nada al respecto la red social procederá a realizar un análisis para detectar las posibles violaciones a las normas de convivencia. Si el contenido denunciado infringe las políticas de YouTube, se borrará el video, el nombre y cualquier dato personal o etiquetas que afecten al aludido.
Aún así la red social aseguró que su intención no es prohibir el uso de IA, pues incluso han facilitado algunas herramientas para facilitar la creación de contenido en su plataforma, sino que sólo buscan evitar que esta tecnología se utilice de maneras inapropiadas. Como parte de las medidas de YouTube para impedir este tipo de infracciones la plataforma ha invitado a sus creadores a utilizar el etiquetado que indica que el contenido fue creado con IA.
¿Qué han hecho otras redes sociales contra los contenidos deepfake?
Los contenidos deepfake se han convertido en un problema de seguridad en las diferentes redes sociales, por los desarrolladores de las plataformas han tenido que implementar herramientas y algoritmos para alertar y proteger a los usuarios sobre este tipo de material intervenido con IA.
Meta, por ejemplo, ha diseñado la etiqueta “Imaginado con IA” para avisar sobre los materiales creados con la herramienta de IA de la empresa y, de acuerdo con su página, se encuentra trabajando en la creación de estándares técnicos que detecten cuando un contenido haya sido realizado con IA de otras compañías.
Además las redes sociales de meta establecen en sus políticas de seguridad que cualquier contenido generado con IA que viole las normas de la comunidad por temas de acoso, intimidación, violencia o incitación de conductas antisociales será eliminado y para ello cuentan con un equipo de casi 100 verificadores independientes que revisarán si los materiales señalados como deepfake han sido creados con IA.
Por su parte, la política anti-deepfake de TikTok señala que se eliminará el contenido que simule la apariencia o sonidos de una persona, ya sea real o ficticia, del ámbito público, cuando se utilice con fines comerciales o políticos o cuando involucra a un perfil privado. La red social china también pide a los creadores de contenido etiquetar los videos generados con IA y comunica que cuenta con un sistema que detecta el material creado con IA y lo etiqueta automáticamente, medidas con las que pretende disminuir la desinformación, la suplantación de identidad, entre otras conductas indebidas relacionadas con el uso de esta tecnología.
¿YouTube tiene políticas anti-deepfake responsables?
Si bien los sistemas de detección de contenido generado con IA son incipientes y continúan siendo mejorados, Youtube va por detrás de otras redes sociales en materia de protección contra deepfake para sus usuarios, ya que ha diferencia de las plataformas de Meta, como Facebook o Instagram o de Tik Tok, la plataforma estadounidense de contenido multimedia aún no cuenta con herramientas automáticas de detección de material generado con IA y eliminación automática de contenido engañoso, aunque ha implementado la opción de que los usuarios denuncien y pidan la baja del contenido que se asemeje a su rostro o voz.
Esta medida no es suficiente, ya que deja en manos de los usuarios la seguridad contra la difusión de contenidos en los que se altera la imagen o voz de otros sin su consentimiento. Dado el aumento de los fraudes que involucran materiales creados con IA, así como la difusión de contenido engañoso formulado con esta tecnología, es necesario que las redes sociales se apresuren en el desarrollo de sistemas de detección de contenido fraudulento y que utilicen los ya disponibles para intentar aminorar el riesgo de sus usuarios. No es viable que los videos deepfake en YouTube tengan ser reportados por la comunidad o los afectados, ya que esta red ampliamente usada alrededor del mundo debería contar con los mecanismos para detectar este tipo de infracciones y suprimirlos a la brevedad, por lo menos dentro de las posibilidades que el estado actual de la tecnología permite.