×
Versión Impresa
Día Jueves, 19 de Febrero de 2026 Edición 7251.
Secciones
Última Hora
Podcasts
Encuestas
Servicios
Plaza Libre
Efemérides
Cumpleaños
RSS
Juegos
Herramientas
Más
Contáctanos
Sobre Diario Libre
Aviso Legal
Redes Sociales
IA
IA

¿Es real o fabricado? La IA, otro actor de la guerra en Irán

La frontera entre la realidad y el invento se ha difuminado tanto en la confusión de la guerra de Irán que incluso las imágenes auténticas se cuestionan

Expandir imagen
¿Es real o fabricado? La IA, otro actor de la guerra en Irán
Un vídeo que muestra al primer ministro israelí, Benjamín Netanyahu, con supuestamente seis dedos hace que todos se cuestionen sobre el uso de la IA para generar imágenes falsas. (EFE/ARCHIVOS)

"¿Es Netanyahu real o generado por la IA?", pregunta un titular en línea sobre un vídeo que muestra al primer ministro israelí con supuestamente seis dedos.

El video era auténtico. Pero pronto se llenaron las redes de mensajes que afirmaban, sin prueba alguna, que Netanyahu había muerto en un ataque iraní y que Israel trataba de ocultar la realidad utilizando un doble creado por inteligencia artificial.

"La última vez que comprobé, los humanos no tenían seis dedos, en principio... salvo para la IA", se puede leer en un comentario visto por más de cinco millones de usuarios en X, la plataforma de Elon Musk. "¿Ha muerto Netanyahu?".

Expertos en investigación digital explicaron rápidamente el "dedo de más": se debía a una sombra fugaz que hacía que una parte de la palma de su mano pareciera un dedo adicional.

Pero la demostración se perdió en la vorágine de las redes sociales.

Y no importa que los generadores de imágenes con IA, capaces ahora de producir en unos segundos los "deepfakes" -esos videos modificados ultrarrealistas- hayan hecho desaparecer casi por completo ese antiguo defecto del "dedo de más".

¿Cómo demostrar que lo real es real cuando la frontera entre la realidad y el invento se ha difuminado tanto en la confusión de la guerra de Irán y que incluso las imágenes auténticas se cuestionan?

Unos días después de la difusión del primer video, Netanyahu publicó otro, una especie de prueba de vida filmada en una cafetería, en las que mostró sus manos para acallar los rumores.

Pero, en lugar de frenar las especulaciones, las imágenes alimentaron una nueva ola de teorías infundadas.

"Más IA", lamentó una publicación viral en Threads, que señalaba esta vez otra supuesta prueba de la manipulación: la taza de café del dirigente israelí seguía llena después de que bebiera de ella y no se desbordaba pese a sus movimientos.

Un tercer video de Netanyahu, junto al embajador estadounidense en Israel, Mike Huckabee, tampoco puso fin a los rumores.

Algunos detectives en línea hicieron zoom en las orejas del primer ministro, afirmando que su forma y tamaño no coincidían con las imágenes de él difundidas en el pasado.

"Habladurías"

"Desde el inicio de la guerra en Oriente Medio, el 28 de febrero, la red mundial de la AFP ha producido más de 500 artículos de verificación de hechos que revelan información falsa sobre este conflicto, de los cuales entre el 20 % y el 25 % fueron creados con ayuda de la IA, un nivel nunca alcanzado durante una crisis de tal magnitud.

La invasión de Ucrania por parte de Rusia o la guerra entre Israel y Gaza desencadenaron oleadas de imágenes, vídeos y audios generados por la IA.

Lo que distingue a esta guerra es la magnitud y el realismo de los contenidos artificiales, producidos por herramientas avanzadas, de bajo costo, accesibles y capaces de eliminar gran parte de los antiguos indicios de manipulación, explican investigadores.

"Las plataformas tecnológicas están saturadas de lo que muchos llaman el 'ruido digital'".

"Creo que todos debemos empezar a tratar las fotos, los vídeos y el audio de la misma manera que tratamos las habladurías", dice Thomas Nowotny, director de un grupo de investigación sobre IA en la Universidad de Sussex, en Reino Unido.

Estas imágenes generadas por IA han alcanzado tal nivel de parecido con la realidad que llegan a eclipsar las fotos y vídeos auténticos, generando una crisis de confianza.

Ahora "el problema de la desinformación, en general, no es tanto que la gente se lo crea", explica Constance de Saint Laurent, profesora en la Universidad de Maynooth, en Irlanda. "El problema es que ven información real y ya no confían en ella".

"Perjudiciales"

El volumen de contenidos falsos generados por la IA supera con creces las capacidades de verificación de los profesionales del fact-checking.

Las redacciones más sólidas no están a salvo de ser engañadas. La revista alemana Der Spiegel anunció recientemente haber retirado varias imágenes relacionadas con Irán tras determinar que probablemente habían sido generadas por inteligencia artificial.

Y hasta cuando se ha demostrado que esos contenidos eran inventos, resurgen regularmente, un patrón que algunos investigadores califican de desinformación "zombie".

Los algoritmos priorizan los contenidos en función de las interacciones (las veces que se comparten, los comentarios, "me gusta"...), frecuentemente impulsadas por el sensacionalismo, la indignación y la desinformación.

Las plataformas de redes sociales "actúan como editores, a través de lo que deciden mostrar principalmente mediante su hilo de noticias. Y muy a menudo, esto incluye contenidos perjudiciales y desinformación", señala Constance de Saint Laurent.

Los incentivos financieros aceleran el fenómeno. La mayoría de las plataformas permiten a los creadores enriquecerse en función de las interacciones, alentando a los influencers a difundir contenidos engañosos o completamente fabricados para obtener clics, visibilidad y dinero.

Según el Instituto para el Diálogo Estratégico (ISD, por sus siglas en inglés), con sede en Londres, varias cuentas de X que publican contenidos de IA sobre la guerra Irán–Estados Unidos–Israel han acumulado más de 1,000 millones de visualizaciones desde el inicio del conflicto.

Otro ejemplo viral: una cuenta de X publicó un vídeo generado por IA que parecía mostrar la torre Burj Khalifa de Dubái derrumbándose en una nube de polvo.

"Diez millones de visualizaciones y ninguna nota de comunidad", comentó, 20 horas después de la publicación de ese clip, el analista de guerra de la información Tal Hagin.

Cuando se añadió una nota de comunidad - un sistema de verificación participativa cuya eficacia es a menudo cuestionada por investigadores-, el vídeo ya había sido visto más de 12 millones de veces.

Los contenidos modificados siguieron proliferando en X incluso después de que la plataforma amenazara con sancionar a los creadores que publicaran vídeos de guerra generados por IA sin indicarlo.

"Lego"

Los memes generados por la IA, que trivializan los conflictos al tiempo que difunden desinformación, ocupan cada vez más espacio, un fenómeno bautizado por el ISD como "Legoificación" de la propaganda de guerra.

Una falsa película iraní generada por IA con personajes de Lego se volvió viral desde la primera semana del conflicto, acusando a Donald Trump de haber atacado Teherán para desviar la atención de su supuesto papel en el escándalo del criminal sexual Jeffrey Epstein.

Videos ultrarrealistas fueron utilizados para representar ficticias victorias militares iraníes, líderes mundiales en situaciones absurdas o el estratégico estrecho de Ormuz reimaginado como una caricaturesca barrera de peaje.

El presidente estadounidense advirtió que la IA era un "arma de desinformación que Irán utiliza muy bien en este conflicto".

"Los edificios y los barcos que se ven en llamas no lo están, es Fake News generada por la IA", escribió en su plataforma Truth Social.

Sin embargo, él mismo ha compartido imágenes y vídeos generados por IA para representarse como rey o como Superman, retratar a sus opositores como criminales o utilizar memes de IA para alimentar teorías de la conspiración y relatos falaces.

"Consideramos que las plataformas tecnológicas no están haciendo actualmente lo suficiente para ayudar a los usuarios a determinar si un contenido es generado por IA o auténtico", estimó en marzo el Consejo de Supervisión de Meta, el órgano creado por Facebook para examinar las decisiones de moderación de contenido.

"Los contenidos falsos pueden ser perjudiciales, al incitar a una mayor violencia y alimentar aún más el conflicto", añadió.

La AFP trabaja en 26 idiomas con el programa de fact-checking de Facebook, especialmente en Asia, América Latina y la Unión Europea.

Meta puso fin a su programa de verificación por terceros en Estados Unidos el año pasado porque, según su director general, Mark Zuckerberg, había generado "demasiada censura". Una afirmación rechazada por los partidarios del programa.

Como alternativa, Zuckerberg indicó que las plataformas de Meta, Facebook e Instagram, utilizarían el modelo de las notas de comunidad, una decisión que podría debilitar aún más las salvaguardas contra la desinformación, según sus críticos.

"Bien real"

Se suponía que las herramientas de detección de IA iban a disipar el ruido de la guerra de la información, pero, a veces, lo hacen más confuso.

En el caso de Netanyahu, partidarios de teorías conspirativas esgrimieron una herramienta de detección de IA que calificó erróneamente su vídeo grabado en un café como "generado por IA en un 96.9 %".

Otras herramientas llegaron a la conclusión contraria. El problema no se limita a los vídeos. Las redes sociales están repletas de imágenes satelitales fabricadas o mapas de calor manipulados, empleados para sembrar dudas sobre las pruebas del conflicto, según los investigadores.

Los relatos falsos ya no se limitan a fabricar contenido, sino que también califican de invenciones reportajes completamente reales, subraya NewsGuard: "Cuando todo puede ser falso, resulta fácil creer que cualquier cosa lo es", analiza Sofia Rubinson, miembro de este observatorio de la desinformación.

Usuarios de redes sociales acusaron falsamente a grandes medios de comunicación, como el New York Times, de haber publicado imágenes del conflicto generadas por IA, entre ellas una que mostraba una enorme multitud en Teherán celebrando el nombramiento del nuevo guía supremo, Mojtaba Jamenei.

Cuando informaciones verídicas pero comprometedoras son descartadas como generadas por IA, los investigadores lo denominan "el dividendo del mentiroso".

En estas circunstancias, "resulta más fácil negar las atrocidades", advirtió un informe de Tech Policy Press. "Eso es lo que buscan los malintencionados: que la gente piense que todo puede estar manipulado para que no puedan confiar en nada", insiste Hannah Covington, directora sénior de contenidos educativos en el News Literacy Project.

Imágenes falsas de hechos reales contaminan aún más el panorama informativo.

Tras un ataque mortífero contra una escuela en la ciudad de Minab, el 28 de febrero, una cuenta oficial iraní en X publicó una foto que mostraba la mochila de un niño manchada de sangre y polvo.

La AFP determinó que era muy probable que la imagen hubiera sido generada por IA.

Pero pocos internautas parecieron perturbados por el uso de una imagen manipulada para ilustrar la muerte de escolares reales, señal de una resignación creciente ante una era en la que la pregunta "¿Es real?" se ha vuelto cada vez más difícil de responder.

"Probablemente modificada por IA, pero el significado es real", escribió un usuario de Reddit.

TEMAS -

AFP es una importante agencia de información mundial que ofrece una cobertura rápida, contrastada y completa.