Consejo de supervisión de Meta critica su política de moderación en la guerra Israel-Hamás
Críticas en pleno conflicto Israel-Palestina
El Consejo de supervisión de Meta criticó el martes a las plataformas del gigante de las redes sociales por adoptar una política de moderación excesivamente restrictiva en el contexto del conflicto entre Israel y el grupo islamista palestino Hamás.
En respuesta al "aumento excepcional de contenidos violentos y gráficos en sus plataformas" tras los ataques del 7 de octubre, Meta "redujo temporalmente los umbrales de los sistemas de clasificación automática" que identifican y eliminan contenidos violentos y discursos de odio, explicó el martes el Consejo de supervisión de Meta en su página web.
Estas medidas se aplicaron a los contenidos procedentes de Israel y Gaza en todos los idiomas. "Meta estaba utilizando sus herramientas automáticas de forma más agresiva para eliminar contenidos susceptibles de violar sus políticas", continuó el Consejo.
Si bien reconoce el beneficio de esta moderación, el Consejo cree que esta política aumentó el riesgo de que Meta elimine por error contenido relacionado con el conflicto que no violaba sus normas.
Actualmente, cuando se denuncian mensajes o imágenes que potencialmente infringen las regulaciones de Facebook o Instagram, se eliminan rápidamente si se consideran de alto riesgo y si provienen de usuarios desconocidos.
El Consejo de supervisión se basó en dos casos en particular. Uno de ellos se refiere a un video publicado en Facebook que muestra a una mujer israelí rogando a sus captores que no la maten mientras la toman como rehén durante el ataque de Hamás del 7 de octubre.
El otro es un video publicado en Instagram, que muestra lo que parecen ser las consecuencias de un ataque cerca del hospital Al Shifa, en Gaza, durante la ofensiva terrestre israelí. Este video muestra a palestinos muertos o heridos, incluidos niños.
"En ambos casos, el Consejo revocó la decisión inicial de Meta de eliminar el contenido de sus plataformas, pero aprobó la decisión posterior de la compañía de restaurar las publicaciones con una pantalla de advertencia", explicó.
"Dadas las circunstancias rápidamente cambiantes y los altos riesgos que representa la eliminación de este tipo de contenidos para la libertad de expresión y el acceso a la información, Meta debería haber actuado con mayor rapidez para adaptar su política", argumentó también.
Este organismo, creado en 2020 por sugerencia del director de Meta, Mark Zuckerberg, está formado por 20 miembros internacionales, periodistas, abogados, defensores de derechos humanos y exlíderes políticos.