Mark Zuckerberg usó su evento de prensa más grande del año para abordar brevemente un escándalo sobre un video de asesinato que fue subido en Facebook esta semana.
“Tenemos mucho trabajo y seguiremos haciendo todo lo que podemos para prevenir que ocurran tragedias como esta”, dijo Zuckerberg en el escenario del F8, la conferencia anual de Facebook para desarrolladores.
“Nuestros corazones están con la familia y los amigos de Robert Godwin Sr.”, agregó Zuckerberg, que abrió el evento con bromas sobre la película Fast and Furious y habló brevemente sobre la construcción de la comunidad antes de tocar el tema del asesino de Cleveland.
Este domingo, un hombre de Cleveland publicó un video en Facebook donde aparecía disparándole y matando a Godwin, un hombre de 74 años que iba en camino a casa después de la cena de Pascua con su familia.
Justo una hora antes de que la conferencia iniciara, se dio a conocer la noticia de que el sospechoso del asesinato fue hallado muerto. Stephens se disparó a sí mismo y murió.
El video del asesinato estuvo en línea más de dos horas este domingo antes de que fuera removido de Facebook, según un cronograma que fue compartido más tarde por la empresa. El retraso reavivó las críticas sobre el manejo de contenido ofensivo de Facebook.
“Sabemos que necesitamos hacerlo mejor”, escribió en una publicación este lunes Justin Osofsky, vicepresidente global de operaciones de Facebook.
Este es solo el más reciente evento en una creciente lista de inquietantes videos de asesinatos, suicidios, torturas y decapitaciones publicadas en Facebook, ya sea a través de transmisiones en vivo o de videos subidos a la red.
Una fuente cercana a Facebook dijo que tiene “miles” de personas revisando el contenido en todo el mundo. Una vez el contenido es reportado por los usuarios como inapropiado, es típicamente revisado durante un periodo de 24 horas.
Pero algunos han criticado a Facebook por hacer a los usuarios su primera línea de defensa.
“Son de hecho los usuarios los que están expuestos a algo que les parece alarmante, y después ellos empiezan ese proceso de revisión”, dice Sarah T Roberts, profesora asistente de la Universidad de California en Los Ángeles, que estudia moderación de contenidos en línea.
En el caso del más reciente video de asesinato, pasaron cerca de dos horas antes de que los usuarios lo reportaran en Facebook, según la compañía. La red social deshabitó la cuenta detrás del video 23 minutos después de eso.
En un extenso manifiesto sobre el futuro de Facebook publicado en febrero, Zuckerberg reconoció “terribles eventos trágicos —como suicidios, algunos transmitidos en vivo— que tal vez se hubieran podido prevenir si alguno se hubiera dado cuenta de lo que estaba pasando y los hubiera reportado pronto”.
Zuckerberg dijo que Facebook está desarrollando un proyecto de Inteligencia Artificial para reportar mejor el contenido en el sitio. El sistema “ya genera cerca de un tercio de todos los reportes que revisa el contenido”, según la publicación de Zuckerberg.
Fuente: CNN