Las dudas sobre la autenticidad de Benjamin Netanyahu , primer ministro de Israel, se dispararon en redes sociales, luego de que circulara un video en el que supuestamente aparecía con seis dedos. El clip sí era real, pero ese detalle bastó para que surgieran versiones sin sustento que afirmaron que el líder israelí había muerto en un ataque iraní y que un doble creado con inteligencia artificial ocupaba su lugar. Los mensajes se viralizaron con rapidez y en plataformas como X, usuarios cuestionaron si Netanyahu seguía con vida y asociaron el supuesto “dedo extra” con errores típicos de la IA; uno de esos comentarios acumuló millones de visualizaciones. Especialistas en investigación digital explicaron que todo se debió a una sombra en la mano, pero la aclaración se perdió entre la avalancha de publicaciones. El episodio mostró un cambio clave: incluso cuando el contenido era auténtico, la sospecha se impuso . Los generadores de imágenes con inteligencia artificial ya corrigieron fallas evidentes como las manos deformes, pero el efecto ahora resultó distinto, ya que cualquier detalle extraño bastó para sembrar duda sobre la veracidad del material.
La desinformación ya rebasó la capacidad de verificaciónDías después, el propio Netanyahu publicó otro video desde una cafetería como prueba de vida, donde mostró sus manos de forma intencional; sin embargo, lejos de frenar las teorías, el material detonó nuevas sospechas. Usuarios señalaron que la taza de café no se vaciaba o que no se derramaba pese al movimiento, lo que interpretaron como señales de manipulación. Un tercer video, en el que apareció junto al embajador estadounidense en Israel, Mike Huckabee, tampoco logró cerrar el tema. Algunos usuarios analizaron detalles como la forma de sus orejas para intentar demostrar que no se trataba de la misma persona, lo que prolongó la narrativa sin evidencia. Lo ocurrido con Netanyahu no fue un caso aislado, sino parte de un fenómeno más amplio en el contexto de la guerra en Medio Oriente. Desde el inicio del conflicto, la red global de AFP produjo cientos de verificaciones sobre contenido falso, y una proporción relevante incluyó material creado con inteligencia artificial, un nivel que no se había visto en crisis previas. A diferencia de otros conflictos, la escala y el realismo de estos contenidos marcaron la diferencia. Herramientas más avanzadas, accesibles y de bajo costo eliminaron muchas de las señales que antes permitían detectar manipulación, lo que elevó la dificultad para distinguir entre lo real y lo fabricado. Especialistas advirtieron que el problema ya no radicó solo en que la gente creyera información falsa, sino en que comenzó a desconfiar de todo. Este fenómeno generó una crisis de confianza en la que imágenes y videos auténticos se pusieron en duda, lo que algunos investigadores describieron como un entorno dominado por “ruido digital”. En paralelo, el volumen de contenido falso superó la capacidad de verificación. Incluso medios consolidados enfrentaron errores, mientras que materiales desmentidos volvieron a circular una y otra vez, en un patrón que investigadores describieron como desinformación “zombie”.
Algoritmos, dinero y guerra amplificaron el problema Cuando todo parece falso, la verdad pierde pesoLas plataformas digitales jugaron un papel clave en la expansión de este fenómeno, ya que los algoritmos priorizaron contenidos con más interacción, muchos de ellos impulsados por el sensacionalismo o la indignación. A esto se sumaron incentivos económicos, ya que varios creadores obtuvieron ingresos a partir de vistas, lo que favoreció la difusión de material engañoso. . De acuerdo con el Instituto para el Diálogo Estratégico, cuentas que publicaron contenido generado con IA sobre el conflicto acumularon más de mil millones de visualizaciones. En algunos casos, videos falsos alcanzaron millones de reproducciones antes de que se agregaran advertencias o notas de verificación. El fenómeno también incluyó contenidos virales como videos que mostraron escenarios inexistentes, desde edificios colapsando hasta supuestas victorias militares. Incluso cuando se identificaron como falsos, muchos siguieron circulando, lo que reforzó la confusión. El uso de inteligencia artificial no solo sirvió para crear contenido engañoso, sino también para desacreditar información real. Investigadores identificaron un fenómeno en el que hechos verídicos se descartaron como si fueran falsos, lo que facilitó negar eventos comprobados. En este contexto, la pregunta dejó de ser solo qué es falso y pasó a ser qué se puede creer. Expertos advirtieron que esta dinámica favoreció a quienes buscan desinformar, ya que sembrar duda generalizada debilitó la confianza en cualquier evidencia.
Incluso herramientas diseñadas para detectar contenido generado con IA mostraron limitaciones. En el caso de Netanyahu, algunas señalaron de forma errónea que su video era artificial, mientras que otras concluyeron lo contrario, lo que aumentó la confusión. El resultado dejó un escenario complejo, donde imágenes manipuladas convivieron con hechos reales y donde muchos usuarios asumieron que todo podía estar alterado. En ese entorno, la desinformación no solo engañó, sino que erosionó la capacidad de distinguir la realidad. Con infromación de AFP.
]]>