[versión en español resumida del artículo original en inglés]
Las redes sociales se inundaron de información falsa sobre el ataque terrorista del domingo en Bondi Beach, Australia, donde murieron 15 personas y decenas de víctimas resultaron heridas durante una celebración de Hanukkah. Hay una imagen generada por IA que se volvió muy popular entre quienes difunden información falsa en X.
La imagen parece real, pero lo que se ve es que una de las víctimas se estaba aplicando sangre falsa antes del ataque. Para peor, las herramientas más usadas para verificar la autenticidad de las imágenes están diciendo que es una foto real.
En la escena, un abogado israelí que se mudó a Australia hace poco dio una entrevista. La cabeza de Arsen Ostrovsky estaba vendada y tenía el rostro cubierto de sangre, en una imagen muy parecida a la selfie que se había tomado momentos antes.
Lo cierto es que hackearon las imágenes reales y las usaron para crear una imagen falsa con IA. Esa es la foto que se volvió viral. Se ve a una mujer pintándole el rostro con falsa sangre a un Ostrovsky sonriente.
Evidencia de que es una imagen creada con IA

¿Cómo se sabe que es una imagen falsa? Hay varias alertas que permiten saberlo, incluso sin saber de tecnología.
Las figuras que hay en el fondo muestran autos que parecen fusionarse, y hay personas con las manos deformadas. También hay versiones de la imagen con recortes de figuras en el fondo.
La camiseta de Ostrovsky tiene las letras ilegibles, como suele pasar con la IA. Las manchas en su falsa camiseta no se condicen con las que se ven en la entrevista de Nine News. La mano de la supuesta maquilladora tiene un dedo de más.
La marca de agua de la IA
Las herramientas de generación de imágenes con IA de Google crean una marca de agua invisible. Se llama SynthID, y surgió hace unos años pero Google no brindó herramientas que permitieran que el público pudiera encontrar la marca de agua. El mes pasado Gemini empezó a ofrecer esa función.
Cualquiera puede ahora subir una imagen a Gemini para saber si lleva la marca SynthID. La falsa imagen de Ostrovsky tiene esa marca, como lo confirmó Gizmodo haciendo la prueba el martes. Aclaramos que la ausencia de SynthID no significa que una imagen sea real, sino que puede haber sido creada con un producto que no es de Google.
Hay otras formas de detectar imágenes de IA, pero no son confiables. La gente que pregunta a Grok y ChaGPT si la imagen es real recibe la respuesta de que sí, no es.
Grok falla
Grok, que ya sabemos que no es confiable, insiste en que la imagen de IA es real, aunque aclara que “hay posteos en línea que sugieren que es falsa”.
Claro que Grok usa los tweets de X para obtener información, por lo que es lógico que tome toda clase de tonterías para afirmar que el atentado fue algo simulado.
ChatGPT falla
Gizmodo también le preguntó a ChatGPT si la imagen era real. Y la respuesta del chatbot de OpenAI fue que “no hay señales claras de que fuera generada con IA. Basado en lo visible, es una fotografía real de un estudio de cine o TV”.
También respondió que el “contexto es plausible” y “los detalles son consistentes”, además de apelar al “realismo” de la imagen, que tiene “anatomía humana natural”, algo que no es cierto si tan solo observas la foto con atención.
Claude falla
También, Gizmodo subió la foto a Claude de Anthropic, y la respuesta fue que “es una buena foto del detrás de escena de lo que parece ser una producción de cine o TV, con una maquilladora aplicando efectos especiales”.
“No es una foto generada con IA, sino una foto real de un estudio de filmación”. Y también este chatbot enumera razones por las que se trata de una imagen real.
Copilot falla
Pusimos a prueba también a Copilot de Microsoft, y también respondió que es real, con datos parecidos a los que ofrecieron ChatGPT, Claude y Grok.
Fallan otros detectores de IA
Gizmodo probó algunos de los más importantes detectores de imágenes creadas con IA. Son herramientas a las que acude el usuario promedio de Google para saber si una imagen es falsa o real. SiteEngine dijo que era real, con solo un 9% de probabilidades de que fuera creada con IA. WasItAI dio una respuesta similar. Y MyDetector dijo que era real con un 99,4% de probabilidades.
Todos los detectores centrados en texto resultan no ser confiables. Por ejemplo, te indican que cosas como la Declaración de la Independencia han sido creadas con IA.
X falla
Una cuenta con tilde azul de X posteó capturas de pantalla de un detector que afirmaba que la imagen falsa de Ostrovsky era real y no creada con IA. Además, dijo que la foto no podía ser falsa porque el fondo se ve como Bondi Beach, un argumento muy zonzo.
La IA puede crear imágenes que se vean como cualquier entorno, pero la respuesta muestra que uno de los problemas con las redes sociales como X es que la gente propaga teorías conspirativas.
Cuando Elon Musk compró la plataforma en 2022, se dejó de lado la verificación de identidad, y ahora si pagas US$8, tu cuenta aparece como “verificada”.
Lo peor es que el algoritmo muestra primero las cuentas con tilde azul, y eso significa que los que pagan serán los que más visibilidad tienen.
Qué pasa en Australia

Ostrovsky, que había sobrevivido a los ataques terroristas del 7 de octubre de 2023 en Israel, posteó en X el martes, diciendo que había visto posteos que decían que el ataque de Bondi Beach estaba armado y que todo era falso.
“Sí, sé que hay una campaña retorcida que indica que todo es falso en la masacre de Bondi. Digo que son imágenes de cuando me preparaban para ir al quirófano, y no pienso darle entidad a la campaña de mentiras y odio, respondiendo a cosas falsas creadas con IA”.
Entre las víctimas del atentado se cuenta una niña de 10 años y un sobreviviente del Holocausto de 85, dos de los 15 muertos. Los funerales de las víctimas comienzan el miércoles, incluyendo los de los rabinos Eli Schlanger y Yaakov Levitan.
Se identificó a los dos atacantes como Sajid Akram de 50 años, muerto por la policía en la escena, y su hijo de 24 años, Naaveed, a quien la policía hirió de un disparo y que sigue en el hospital. Ambos supuestamente se inspiraron en el grupo terrorista del Estado Islámico y habían viajado hace poco a Filipinas, sin que se dieran detalles de lo que hacían allí.
Australia tiene leyes estrictas que regulan la tenencia de armas, promulgadas tras una matanza de 1996 en la que murieron 35 personas. Sin embargo, se malinterpreta que es imposible conseguir un arma en ese país, ya que todas las que se usaron en el atentado del domingo se habían conseguido legalmente.
El Primer Ministro de Australia, Anthony Albanese, se pronunció en favor de leyes más estrictas para regular la tenencia de armas. El atacante muerto obtuvo su licencia de armas hace una década, pero parece que la policía nunca se ocupó de hacer un seguimiento de sus antecedentes y actividad.
Este artículo ha sido traducido de Gizmodo US por Romina Fabbretti. Aquí podrás encontrar la versión original.