Facebook está cambiando la forma en que llega a las personas que han encontrado información errónea en su plataforma. La compañía ahora enviará notificaciones a cualquiera que le haya dado like, comentado o compartido una información falsa de COVID-19 que haya sido retirada por violar los términos de servicio de la plataforma.
Luego conectará a los usuarios con fuentes confiables en un esfuerzo por corregir el registro. Aunque los investigadores creen que el contexto adicional podría ayudar a las personas a entender mejor sus hábitos de consumo de noticias, puede ser demasiado tarde para sofocar la marea de desinformación de COVID-19.
De acuerdo con Fast Company, estas notificaciones proactivas sobre la información errónea son el último intento de Facebook para que los usuarios de la plataforma sepan que han entrado en contacto con información falsa y que fue eliminada del sitio. La compañía lanzó este concepto en abril a través de una publicación de noticias que dirigía a los usuarios que se habían involucrado con información errónea a una página web de la Organización Mundial de la Salud donde se desacreditan los mitos de COVID-19. Ahora, Facebook está extendiendo directamente las notificaciones que dicen:
Eliminamos un post que te gustó que tenía información falsa y potencialmente dañina sobre COVID-19.
Al hacer click en la notificación, los usuarios accederán a una página donde podrán ver una imagen en miniatura del contenido ofensivo, una descripción de si les gustó, compartieron o comentaron la publicación y por qué se eliminó de Facebook. También ofrece acciones de seguimiento, como la opción de darse de baja del grupo que originalmente publicó la información falsa o «ver hechos» sobre COVID-19.
Lo que no estaba funcionando
Hay una buena razón para el cambio en la ejecución: Facebook encontró que no estaba claro para los usuarios por qué los mensajes en su canal de noticias los instaban a obtener los hechos referentes a COVID-19.
La gente no entendía realmente por qué veían este mensaje. No había un vínculo claro entre lo que estaban leyendo en Facebook de ese mensaje y el contenido con el que interactuaban.
Valerio Magliulo, gerente de Facebook.
La red social rediseñó la experiencia para que la persona entendiera con qué información exacta entró en contacto, que era un contexto de falsa importancia que no incluía en su formato de lanzamiento original.
La alerta en sí misma está redactada para ser informativa, pero sin juzgar. Con este fin, Facebook no intenta corregir el registro, en cambio, explica por qué un determinado post fue removido de la plataforma de Facebook. Por ejemplo, Facebook podría escribir que no permite información falsa que sugiera que hay una cura o prevención para una enfermedad que podría llevar a alguien a hacerse daño. Pero no explicará cómo un post en particular violó esa regla.
El desafío al que nos enfrentamos y el delicado equilibrio que intentamos lograr es cómo proporcionar suficiente información para dar al usuario un contexto sobre la interacción de la que hablamos sin volver a exponerlo a la desinformación.
Valerio Magliulo, gerente de Facebook.
La preocupación que Magliulo destaca es que la plataforma podría reforzar involuntariamente la desinformación que está tratando de desacreditar.
Pero según Alex Leavitt, un investigador de productos de desinformación en Facebook, el efecto de retroceso, o la posibilidad de que la corrección de la desinformación pueda llevar a la gente a aferrarse más a la desinformación, es mínima.
Es por eso que el cambio parece ser una medida de medio paso. Si bien la nueva notificación es mucho más específica que la característica original, que no daba a los usuarios ninguna información sobre la información falsa con la que interactuaban en absoluto, puede que todavía no sea lo suficientemente explícita. La característica no desacredita en realidad ninguna narración falsa. Aunque Facebook conecta a los usuarios a una lista que disipa los mitos más comunes en torno a COVID-19, no aborda la desinformación particular con la que una persona se involucró.
Entonces, ¿por qué no proporcionar una refutación más directa a la información definitivamente falsa que una persona ha experimentado?
Facebook dice que eso es porque no puede mostrar a los usuarios un post que ya ha sido retirado. Además, la compañía no quiere avergonzar a la persona que publicó la información errónea en primer lugar, ya que puede haber sido involuntario.
Además, Leavitt dice que las experiencias únicas son más fáciles de validar. Cuando un mensaje de desacreditación se adapta a un pequeño grupo de personas que han interactuado con la misma información errónea, «es más difícil tratar de encontrar efectos realmente fuertes en experimentos o encuestas para asegurarse de que realmente funciona«.
Una marea abrumadora
Aunque este cambio podría ser un medio paso en la dirección correcta, los investigadores siguen preocupados de que los esfuerzos de Facebook para luchar contra la desinformación sean muy poco o lleguen demasiado tarde.
Mientras tanto, la desinformación de COVID-19, particularmente sobre las vacunas, continúa extendiéndose rápidamente. En mayo de 2020, Nature publicó un estudio basado en los datos recopilados desde febrero a octubre de 2019, antes de que comenzara la pandemia, en el que se descubrió que, aunque los grupos antivacunación tienen menos miembros que los grupos pro-vacunación, tienen un mayor número de páginas, experimentan un mayor crecimiento y están más conectados con usuarios que no se han decidido por las vacunas.
Un informe de octubre del Centro para Contrarrestar el Odio Digital (CCDH), una organización sin fines de lucro con sede en el Reino Unido, indica que unos 31 millones de personas siguen a los grupos antivacunación en Facebook.
Creo que es genial que Facebook esté pensando concienzudamente sobre la desinformación en la plataforma específicamente relacionada con las vacunas COVID-19 y que estén tratando de redirigir a la gente a fuentes más confiables.
Pero tienen mucho trabajo por delante sólo por la rápida naturaleza de la desinformación.
Kolina Koltai, investigadora postdoctoral que trabaja en el Centro para un Público Informado de la Universidad de Washington.
La compañía también ha tomado otras medidas para combatir las falsedades de COVID-19. Prohibió los anuncios antivacunación y prometió eliminar las falsas afirmaciones sobre las vacunas de COVID-19 que los expertos en salud han denunciado. También eliminó los grupos que apoyan abiertamente la teoría de la conspiración QAnon, que a su vez llevó a uno de los mayores grupos anti-vacunación en Facebook a ser cerrado. Aunque estos son buenos pasos, los investigadores están preocupados de que todavía haya demasiada información errónea sobre COVID-19 en la plataforma.
La compañía también ha tomado otras medidas para combatir las falsedades de COVID-19. Prohibió los anuncios antivacunación y prometió eliminar las falsas afirmaciones sobre las vacunas de COVID-19 que los expertos en salud han denunciado. También eliminó los grupos que apoyan abiertamente la teoría de la conspiración QAnon, que a su vez llevó a uno de los mayores grupos anti-vacunación en Facebook a ser cerrado. Aunque estos son buenos pasos, los investigadores están preocupados de que todavía haya demasiada información errónea sobre COVID-19 en la plataforma.
Koltai dice que los proveedores de desinformación, o información intencionalmente falsa, se han vuelto muy buenos creando contenido que evade por poco la violación de los términos de servicio de Facebook. Una forma de hacerlo es usando información verdadera para hacer afirmaciones falsas. Por ejemplo, durante el lanzamiento inicial de la vacuna COVID-19 de Pfizer en el Reino Unido, dos receptores con un historial de alergias severas tuvieron una reacción adversa después de recibir la vacuna. Algunos grupos utilizaron esta historia para afirmar incorrectamente que la vacuna no es segura. Todas las pruebas científicas apuntan a lo contrario. Hasta ahora, los estudios muestran que la vacuna es muy segura.
Lo que hace que la desinformación de COVID-19 sea especialmente difícil de desacreditar y por lo tanto justificar su eliminación, es que es tan nueva. «Hay décadas de investigación que demuestran que la vacuna SPR es segura«, dice. «No tenemos eso con la COVID-19 [vacuna]. ¿Cómo se puede desacreditar algo que está tan en sus inicios?«
En la práctica, esto significa que parte de la información errónea de COVID-19 permanece en la plataforma, aunque no está claro cuánto. El CCDH dice que reportó 334 casos de desinformación de COVID-19 y Facebook sólo eliminó un cuarto del contenido. Facebook dice que ha eliminado más de 12 millones de piezas de información errónea de COVID-19 que podría conducir a daños físicos en Facebook e Instagram.
Además de la remoción, que Facebook reserva para el contenido que considera dañino, Facebook también agrega etiquetas de verificación de hechos a la información errónea de COVID-19. Sin embargo, no necesariamente notifica a alguien que estuvo en contacto con esa información errónea antes de que la etiqueta fuera aplicada. Por ahora, sólo se informa a la gente cuando entró en contacto con la información errónea que fue retirada.
Eso podría cambiar con el tiempo. Leavitt de Facebook dice que la compañía está trabajando para dirigir a los usuarios a la información más actualizada y creíble que pueda.
Esto es sólo parte de la iteración que hemos estado pasando. Por ahora, quiero asegurarme de que esta característica impacte positivamente a las personas que están dando likes, comentando y compartiendo información errónea. En el futuro podríamos considerar expandirla más allá de eso.
Leavitt, colaborador de Facebook.
Esos cambios pueden no llegar lo suficientemente rápido. Como Koltai señaló, el tiempo que toma crear la desinformación es minúsculo comparado con el complejo trabajo que se requiere para quitarla. La velocidad es necesaria para devolverla. El enfoque persistente de Facebook para un tema de tal importancia es irónico para una compañía que alguna vez fue conocida por moverse rápido.