×
Compartir
Secciones
Última Hora
Podcasts
Encuestas
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Horóscopos
Crucigrama
Herramientas
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Versión Impresa
versión impresa
Redes Sociales
Facebook
Facebook

Los esfuerzos de Facebook por eliminar contenido antivacunas no funcionaron, según estudio

El nivel de interacción de los usuarios con este tipo de publicaciones no solo no se redujo, sino que en algunos casos aumentó

Expandir imagen
Los esfuerzos de Facebook por eliminar contenido antivacunas no funcionaron, según estudio
El nivel de interacción de los usuarios con este tipo de publicaciones no solo no se redujo, sino que en algunos casos aumentó (FUENTE EXTERNA)

Los esfuerzos de la red social Facebook por eliminar contenido antivacunas de su plataforma durante los peores meses de la pandemia de la covid-19 no sirvieron para reducir la exposición de sus usuarios a este tipo de publicaciones, según un estudio publicado  en la revista Science Advances.

Investigadores de la Universidad George Washington, en Washington D.C., descargaron datos públicos de la plataforma de diferentes fechas (antes de que comenzara la política de eliminación de información falsa sobre las vacunas, en diciembre 2020, y después), y vieron que el nivel de interacción de los usuarios con este tipo de publicaciones no solo no se redujo, sino que en algunos casos aumentó.

En un comunicado, una de las investigadoras, Lorien Abroms, explicó que sus resultados demuestran lo difícil que es eliminar la desinformación sobre temas de salud de los espacios públicos.

Su principal hipótesis es que fue la propia arquitectura de Facebook, y en concreto sus sistemas diseñados para impulsar la creación de grupos y compartir información, lo que provocó ese aumento de las interacciones con contenido antivacunas, pese a los esfuerzos de la plataforma por eliminarlo. 

"Los individuos que tienen una alta motivación para encontrar y compartir contenido antivacunas simplemente están utilizando el sistema de la forma en que está diseñado", dijo en el comunicado David Broniatowski, el autor principal del estudio.

Su conclusión es que eliminar contenido o cambiar los algoritmos no sirve si no se modifica el objetivo principal de las plataformas, que es la conexión de diferentes personas que comparten intereses comunes, en este caso, el miedo a las vacunas.

Los investigadores enfatizaron que se trata del primer estudio científico que se fija en la eficacia de los esfuerzos de Facebook para eliminar desinformación de su plataforma.

Según la universidad, los hallazgos sugieren que las empresas de redes sociales pueden mitigar estos efectos dañinos colaborando unas con otras para crear "códigos de construcción" de sus aplicaciones, informados por la ciencia, de la misma forma que los arquitectos tienen que asegurar la seguridad de sus edificios incorporando ventilación, salidas de emergencia y otras medidas.

TEMAS -

Fehaciente, fidedigno y fácil. Agencia de noticias multimedia en español.