La identidad del héroe del terror en Bondi Beach manipulada por noticias falsas generadas con IA
Un inmigrante sirio convertido en héroe fue suplantado por un personaje ficticio creado mediante artículos falsos generados con IA

- •La identidad del héroe del atentado de Sídney fue manipulada mediante artículos falsos generados por IA que se difundieron por redes sociales.
- •Información falsa que transformó a un inmigrante sirio en un hombre blanco con nombre occidental fue repetida incluso por la IA de X.
- •Un sitio de noticias falsas creado apresuradamente el día del atentado se propagó más rápido que la verificación de hechos, causando confusión informativa.
15 muertos en un atentado y un héroe distorsionado
El pasado 14 de diciembre, un ataque con armas de fuego en Bondi Beach, Sídney, Australia, tuvo como objetivo la celebración judía de Hanukkah. Dos tiradores abrieron fuego matando al menos a 15 personas e hiriendo a decenas más. La policía local declaró oficialmente el incidente como un ataque terrorista.
En medio del caos, surgió un video de un hombre desarmando con sus propias manos el rifle de uno de los atacantes. Se trataba de Ahmed al Ahmed, un inmigrante sirio propietario de una frutería. Su valentía fue verificada por las autoridades y los principales medios de comunicación, y su historia se difundió por todo el mundo.
Pero simultáneamente, una narrativa completamente diferente comenzó a circular por internet.
El nacimiento de un artículo falso generado con IA
Pocas horas después del atentado, apareció un artículo en un sitio web llamado 'The Daily', que se hacía pasar por un medio australiano. El artículo, supuestamente escrito por la 'periodista especializada en crimen Rebecca Chen', identificaba al héroe como Edward Crabtree.
El artículo lo describía como un especialista en TI de 43 años, afirmando ser una 'entrevista exclusiva' realizada desde su cama de hospital. Incluía detalles elaborados como: "Salió de su apartamento en Bondi el sábado por la tarde para su paseo habitual por la playa, sin imaginar que se enfrentaría a un terrorista armado".
Esta información falsa se propagó rápidamente por las redes sociales, y hasta Grok, el chatbot de IA de X (antes Twitter), repitió esta desinformación. Cuando los usuarios preguntaban "¿quién es el héroe?", Grok respondía con el nombre de Crabtree.
La verificación de hechos revela los rastros de manipulación
El equipo de verificación 'Fakey' de la emisora pública belga RTBF investigó el sitio web 'The Daily' y encontró varias pistas reveladoras:
- La foto de perfil de la periodista cambiaba cada vez que se actualizaba la página. Una característica típica de las imágenes generadas por IA.
- Al verificar la información de registro del dominio, se descubrió que la URL fue creada el mismo día del atentado. Esto se confirmó mediante el sitio de consulta de dominios Whois.
- La información del propietario del dominio estaba oculta tras un servicio de privacidad en Reikiavik.
Toda esta evidencia sugiere que 'The Daily' es un sitio de noticias falsas creado apresuradamente utilizando IA. El sitio, que imitaba a un medio legítimo, aprovechó la confusión inmediatamente posterior al ataque terrorista para difundir información falsa.
Grok también considera falso un video verificado
El problema no se limitó solo al nombre del héroe. El equipo de verificación de la emisora pública alemana ZDF rastreó otro error cometido por Grok.
Cuando usuarios consultaban sobre la autenticidad de videos verificados, Grok respondía: "Esto parece ser un video viral antiguo de un hombre podando palmeras en un estacionamiento que dejó caer una rama dañando un vehículo. No hay información verificada sobre ubicación, fecha o personas heridas. Podría ser una puesta en escena, su autenticidad es incierta".
Este video había sido verificado por varios medios de comunicación y confirmado oficialmente por las autoridades. Sin embargo, la IA lo catalogó como falso.
¿Por qué sigue ocurriendo esto?
Este incidente revela las limitaciones fundamentales de los modelos de lenguaje de gran escala (LLM). La IA no tiene capacidad para verificar la avalancha de información en tiempo real. Simplemente considera como 'hecho' lo que más se menciona en internet.
En la confusión posterior al atentado, cuando el artículo falso generado por IA se difundió rápidamente, Grok lo aceptó como 'opinión mayoritaria'. Para la IA, la mentira más difundida parecía más verdadera que los hechos verificados.
Además, este caso también muestra la dimensión política de la manipulación de identidad. El verdadero héroe era un inmigrante sirio, pero el artículo falso lo transformó en un especialista en TI blanco con nombre occidental. Es muy probable que alguien intentara intencionadamente borrar el acto heroico de un inmigrante.
La guerra de información en la era de las redes sociales
La periodista Maria Flannery, de la red Spotlight de la Unión Europea de Radiodifusión (EBU), señaló que este incidente demuestra "qué tan rápido se propaga la desinformación en situaciones de crisis".
En pocas horas después del atentado, se creó un artículo generado por IA, se difundió por redes sociales y hasta los chatbots de IA lo repitieron, creando un círculo vicioso. Antes de que los medios tradicionales pudieran completar su verificación de hechos, millones de personas ya habían sido expuestas a información falsa.
Perspectivas futuras [Análisis IA]
Es muy probable que este tipo de incidentes se vuelvan más sofisticados en el futuro. A medida que la tecnología de IA generativa avanza, el costo de crear sitios de noticias falsas será cada vez menor. Todo, desde el registro de dominios hasta la redacción de artículos y la generación de imágenes, puede automatizarse.
Al mismo tiempo, el problema de confiabilidad de los chatbots de IA continuará. Herramientas de IA como Grok son percibidas por los usuarios como 'alternativas a los motores de búsqueda', pero su capacidad de verificación de hechos en tiempo real sigue siendo insuficiente. Esto puede causar mayor confusión en situaciones de crisis.
En última instancia, la educación en alfabetización digital se volverá aún más importante. Habilidades básicas de verificación de información como la comprobación de fuentes, la verificación cruzada y el rastreo de fuentes primarias serán esenciales a nivel individual. Si bien es probable que se fortalezcan las regulaciones a nivel de plataformas, seguir el ritmo del avance tecnológico no será fácil.
댓글 (4)
마음이 무겁습니다. 삼가 고인의 명복을 빕니다.
위로의 말씀 공감합니다.
이런 일이 다시는 반복되지 않았으면 합니다. identidad 관련 대책이 시급합니다.
너무 슬픈 소식이네요. 피해자 분들과 가족에게 위로를 보냅니다.
Más en Especial

Cómo evitar que los agentes de ICE revisen su teléfono en el aeropuerto

주일 중국대사관 침입한 괴한, 자위대 현직 장교로 확인

El hospital público de la ciudad de Nueva York rompe con Palantir... Poniendo fin a la controversia sobre la comercialización de datos de salud ciudadana

Estados Unidos amplía operaciones militares en América Latina... Se formaliza la “Operación Aniquilación Total”

La mafia corsa de Francia sale a la luz

Intento de venta de asientos de avión en Dubái usando personajes falsos generados por IA
Últimas noticias

"간부 잘 아는데 교통비 좀" 휴가 군인들 돈 뜯은 50대 구속
50대 A씨가 휴가 중인 군인들에게 부대 간부를 아는 척 접근해 돈을 사취

英 옥토퍼스, 이란 전쟁 이후 태양광 판매 50% 증가
이란 전쟁 이후 영국 옥토퍼스의 태양광 판매량 50% 증가

당정 "추경, 지방·취약계층에 더 지원되는 방식으로"
당정이 지방자치단체와 취약계층 중심의 추경 편성 방침 재확인

당정, 석유 최고가격제 손실 보전을 추경에 반영키로
당정이 석유 최고가격제 손실을 추경에 반영하기로 결정

어머니 폭행하고 금팔찌 빼앗은 30대 아들 경찰에 붙잡혀
어머니 폭행 후 금팔찌 빼앗은 30대 남성 체포

아이티 갱단 폭력사태로 10개월간 5천명 이상 사망
아이티에서 지난 10개월간 갱단 폭력으로 5천명 이상 사망

서방 정보당국 "러시아, 우크라이나 전쟁 후 이란에 드론·식량 공급"
서방 정보당국, 러시아의 이란 드론·식량 공급 작업 거의 완료 파악

6년 전 세 살 딸 살해한 30대 친모 구속송치
경찰, 6년 전 세 살 딸 살해 혐의 30대 친모를 구속송치