ArayoNews

|||
Especial

La identidad del héroe del terror en Bondi Beach manipulada por noticias falsas generadas con IA

Un inmigrante sirio convertido en héroe fue suplantado por un personaje ficticio creado mediante artículos falsos generados con IA

AI Reporter Omega··5 min de lectura·
본다이 비치 테러 후 SNS를 휩쓴 가짜뉴스의 정체
Resumen
  • La identidad del héroe del atentado de Sídney fue manipulada mediante artículos falsos generados por IA que se difundieron por redes sociales.
  • Información falsa que transformó a un inmigrante sirio en un hombre blanco con nombre occidental fue repetida incluso por la IA de X.
  • Un sitio de noticias falsas creado apresuradamente el día del atentado se propagó más rápido que la verificación de hechos, causando confusión informativa.

15 muertos en un atentado y un héroe distorsionado

El pasado 14 de diciembre, un ataque con armas de fuego en Bondi Beach, Sídney, Australia, tuvo como objetivo la celebración judía de Hanukkah. Dos tiradores abrieron fuego matando al menos a 15 personas e hiriendo a decenas más. La policía local declaró oficialmente el incidente como un ataque terrorista.

En medio del caos, surgió un video de un hombre desarmando con sus propias manos el rifle de uno de los atacantes. Se trataba de Ahmed al Ahmed, un inmigrante sirio propietario de una frutería. Su valentía fue verificada por las autoridades y los principales medios de comunicación, y su historia se difundió por todo el mundo.

Pero simultáneamente, una narrativa completamente diferente comenzó a circular por internet.

El nacimiento de un artículo falso generado con IA

Pocas horas después del atentado, apareció un artículo en un sitio web llamado 'The Daily', que se hacía pasar por un medio australiano. El artículo, supuestamente escrito por la 'periodista especializada en crimen Rebecca Chen', identificaba al héroe como Edward Crabtree.

El artículo lo describía como un especialista en TI de 43 años, afirmando ser una 'entrevista exclusiva' realizada desde su cama de hospital. Incluía detalles elaborados como: "Salió de su apartamento en Bondi el sábado por la tarde para su paseo habitual por la playa, sin imaginar que se enfrentaría a un terrorista armado".

Esta información falsa se propagó rápidamente por las redes sociales, y hasta Grok, el chatbot de IA de X (antes Twitter), repitió esta desinformación. Cuando los usuarios preguntaban "¿quién es el héroe?", Grok respondía con el nombre de Crabtree.

La verificación de hechos revela los rastros de manipulación

El equipo de verificación 'Fakey' de la emisora pública belga RTBF investigó el sitio web 'The Daily' y encontró varias pistas reveladoras:

  • La foto de perfil de la periodista cambiaba cada vez que se actualizaba la página. Una característica típica de las imágenes generadas por IA.
  • Al verificar la información de registro del dominio, se descubrió que la URL fue creada el mismo día del atentado. Esto se confirmó mediante el sitio de consulta de dominios Whois.
  • La información del propietario del dominio estaba oculta tras un servicio de privacidad en Reikiavik.

Toda esta evidencia sugiere que 'The Daily' es un sitio de noticias falsas creado apresuradamente utilizando IA. El sitio, que imitaba a un medio legítimo, aprovechó la confusión inmediatamente posterior al ataque terrorista para difundir información falsa.

Grok también considera falso un video verificado

El problema no se limitó solo al nombre del héroe. El equipo de verificación de la emisora pública alemana ZDF rastreó otro error cometido por Grok.

Cuando usuarios consultaban sobre la autenticidad de videos verificados, Grok respondía: "Esto parece ser un video viral antiguo de un hombre podando palmeras en un estacionamiento que dejó caer una rama dañando un vehículo. No hay información verificada sobre ubicación, fecha o personas heridas. Podría ser una puesta en escena, su autenticidad es incierta".

Este video había sido verificado por varios medios de comunicación y confirmado oficialmente por las autoridades. Sin embargo, la IA lo catalogó como falso.

¿Por qué sigue ocurriendo esto?

Este incidente revela las limitaciones fundamentales de los modelos de lenguaje de gran escala (LLM). La IA no tiene capacidad para verificar la avalancha de información en tiempo real. Simplemente considera como 'hecho' lo que más se menciona en internet.

En la confusión posterior al atentado, cuando el artículo falso generado por IA se difundió rápidamente, Grok lo aceptó como 'opinión mayoritaria'. Para la IA, la mentira más difundida parecía más verdadera que los hechos verificados.

Además, este caso también muestra la dimensión política de la manipulación de identidad. El verdadero héroe era un inmigrante sirio, pero el artículo falso lo transformó en un especialista en TI blanco con nombre occidental. Es muy probable que alguien intentara intencionadamente borrar el acto heroico de un inmigrante.

La guerra de información en la era de las redes sociales

La periodista Maria Flannery, de la red Spotlight de la Unión Europea de Radiodifusión (EBU), señaló que este incidente demuestra "qué tan rápido se propaga la desinformación en situaciones de crisis".

En pocas horas después del atentado, se creó un artículo generado por IA, se difundió por redes sociales y hasta los chatbots de IA lo repitieron, creando un círculo vicioso. Antes de que los medios tradicionales pudieran completar su verificación de hechos, millones de personas ya habían sido expuestas a información falsa.

Perspectivas futuras [Análisis IA]

Es muy probable que este tipo de incidentes se vuelvan más sofisticados en el futuro. A medida que la tecnología de IA generativa avanza, el costo de crear sitios de noticias falsas será cada vez menor. Todo, desde el registro de dominios hasta la redacción de artículos y la generación de imágenes, puede automatizarse.

Al mismo tiempo, el problema de confiabilidad de los chatbots de IA continuará. Herramientas de IA como Grok son percibidas por los usuarios como 'alternativas a los motores de búsqueda', pero su capacidad de verificación de hechos en tiempo real sigue siendo insuficiente. Esto puede causar mayor confusión en situaciones de crisis.

En última instancia, la educación en alfabetización digital se volverá aún más importante. Habilidades básicas de verificación de información como la comprobación de fuentes, la verificación cruzada y el rastreo de fuentes primarias serán esenciales a nivel individual. Si bien es probable que se fortalezcan las regulaciones a nivel de plataformas, seguir el ritmo del avance tecnológico no será fácil.

Compartir

댓글 (3)

제주의판다8시간 전

이런 비극이 일어나지 않도록 사회 전체가 경각심을 가져야 합니다.

열정적인여우5시간 전

너무 슬픈 소식이네요. 피해자 분들과 가족에게 위로를 보냅니다.

조용한피아노8시간 전

마음이 무겁습니다. 삼가 고인의 명복을 빕니다.

Más en Especial

Últimas noticias