Niños acosan a sus compañeros con deepfakes, las leyes quedan rezagadas
Un niño de 13 años creó y compartió desnudos deepfake de fotos de compañeras... 15% de estudiantes K-12 en EE.UU. conoce imágenes sexuales sintéticas generadas por IA de compañeros

- •El 15% de los estudiantes K-12 en Estados Unidos conoce imágenes sexuales generadas por IA de compañeros de clase, y las niñas tienen una probabilidad mucho mayor de ser víctimas.
- •A medida que la tecnología de IA generativa ha reducido la barrera de entrada para la creación de deepfakes, los perpetradores menores están aumentando rápidamente.
- •Aunque los 50 estados de EE.UU. han criminalizado la distribución no consensuada de imágenes reales, la mayoría de las leyes estatales no se aplican a deepfakes generados por IA, existiendo un vacío legal.
Un niño de 13 años en Wisconsin crea desnudos deepfake con fotos de ceremonia de mayoría de edad
En octubre de 2024, un estudiante masculino de 13 años en Wisconsin utilizó fotos de la celebración del Bat Mitzvah (ceremonia de mayoría de edad judía) de una compañera de clase para crear desnudos deepfake y distribuirlos a través de Snapchat. Este no es un incidente aislado. En los últimos años, casos de niños en edad escolar en todo Estados Unidos que utilizan deepfakes para hacer de sus compañeros objeto de bromas o acoso se han repetido continuamente.
Según una encuesta publicada en septiembre de 2025 por el Center for Democracy & Technology (CDT), el 15% de los estudiantes K-12 (desde jardín de infantes hasta último año de secundaria) en Estados Unidos respondió que conocía imágenes sexuales generadas por IA de compañeros de clase. En particular, las niñas tenían una probabilidad mucho mayor de ser objeto de representaciones sexuales deepfake que los niños. El CDT diagnosticó que "el problema de las imágenes íntimas no consensuadas (NCII), ya sean reales o deepfakes, es grave en las escuelas públicas K-12".
Por qué esto es importante: la IA generativa ha democratizado los deepfakes
Cuando los deepfakes aparecieron por primera vez en línea hace 8 años, su creación era difícil. Sin embargo, con el avance de la tecnología de inteligencia artificial generativa (Generative AI), ahora cualquiera puede acceder a herramientas que permiten crear deepfakes fácilmente. Rebecca Delfino, profesora de derecho en la Universidad Loyola Marymount e investigadora de deepfakes, dijo: "Hace 5-6 años, probablemente no habría habido tantos menores entre los perpetradores de pornografía de venganza".
A medida que la barrera de entrada tecnológica se ha reducido, los menores han podido usar aplicaciones de deepfake con facilidad. La profesora Delfino explicó: "Los patrones de comportamiento que muestran los menores no son muy diferentes de la crueldad, el insulto, la explotación y el acoso que existían antes", y añadió: "La diferencia es que utilizan la tecnología y qué tan fácilmente se propaga el resultado".
El abuso de imágenes íntimas no consensuadas (NCII) deja en las víctimas daños a la salud mental similares a la violencia sexual fuera de línea. Las víctimas también pueden verse obligadas a cesar sus actividades en línea debido a la distribución de imágenes.
Las leyes no siguen el ritmo: la mayoría de las leyes estatales no se aplican a imágenes generadas por IA
El gobierno federal y los estados de Estados Unidos han promulgado leyes para responder al abuso de imágenes íntimas no consensuadas. Actualmente, en los 50 estados de Estados Unidos y Washington D.C. están vigentes leyes que tipifican como delito la distribución no consensuada de imágenes fotografiadas realmente. En agosto de 2025, el presidente Donald Trump firmó una ley federal similar, la ley "Take It Down".
Sin embargo, a diferencia de la ley federal, la mayoría de las leyes estatales no se aplican explícitamente a los deepfakes generados por IA. Además, las leyes que abordan directamente los casos en que el perpetrador es un menor son aún más raras. La profesora Delfino señaló: "Los legisladores intentan castigar a los perpetradores de abuso sexual basado en imágenes 'rápida y severamente', pero a menudo no consideran la edad del perpetrador".
Bajo la ley actual, es probable que los perpetradores menores sean tratados de manera similar a otros menores que cometen delitos. El enjuiciamiento es posible, pero los fiscales y los tribunales deciden la sentencia teniendo en cuenta la edad. El problema es que la ley no está siguiendo el ritmo del avance tecnológico, y particularmente falta un sistema legal que aborde simultáneamente las dos variables de contenido generado por IA y perpetradores menores.
Comparación: respuesta legal a imágenes fotografiadas realmente vs. generadas por IA
| Categoría | Imágenes fotografiadas realmente | Deepfakes generados por IA |
|---|---|---|
| Aplicación de ley federal | Ley "Take It Down" aplicada (ago. 2025) | Misma ley aplicada |
| Aplicación de ley estatal | Criminalizado en los 50 estados + DC | No aplicado o poco claro en la mayoría de los estados |
| Perpetradores menores | Enjuiciamiento posible considerando la edad | Falta de marco legal, juicio caso por caso |
| Nivel de castigo | Varía según el estado (delito menor~delito grave) | Difícil de castigar debido a vacío legal estatal |
La respuesta legal a las imágenes fotografiadas realmente ha establecido cierto grado de sistema, pero los deepfakes generados por IA aún están en un punto ciego de la ley. Especialmente cuando el perpetrador es un menor, la aplicación de la ley se vuelve aún más compleja.
[Análisis IA] Perspectivas futuras: necesaria una respuesta triangular de tecnología, educación y ley
La tecnología deepfake probablemente se volverá más sofisticada y más accesible en el futuro. Con la expansión de modelos de IA generativa de código abierto y la evolución de aplicaciones móviles, la barrera de creación continuará disminuyendo. Para responder a esto, se necesitan esfuerzos paralelos en tres aspectos.
Primero, actualización rápida del marco legal. La ley federal incluye imágenes generadas por IA, pero las leyes estatales no están siguiendo el ritmo. Se necesitan directrices legislativas para que cada estado añada cláusulas sobre deepfakes o amplíe la interpretación de las leyes existentes. También se deben establecer criterios separados de tratamiento para perpetradores menores (intervención educativa, vinculación con tratamiento, etc.).
Segundo, educación en alfabetización digital en escuelas y hogares. Se necesita un currículo que ayude a los niños a comprender los problemas éticos y la responsabilidad legal de los deepfakes. La encuesta del CDT reveló la gravedad del problema, pero también mostró margen para la intervención educativa.
Tercero, fortalecimiento de la responsabilidad de las plataformas tecnológicas. Las plataformas de redes sociales como Snapchat e Instagram deben fortalecer la tecnología de detección de IA y los sistemas de denuncia para evitar que los menores creen y compartan deepfakes fácilmente. Las tiendas de aplicaciones también necesitan reforzar las restricciones de edad y la revisión previa de aplicaciones generadoras de deepfakes.
El abuso sexual basado en imágenes es esencialmente el mismo aunque la tecnología cambie. El daño psicológico que queda en las víctimas no tiene diferencia entre imágenes reales o síntesis de IA. Dependiendo de qué tan seriamente la ley y la sociedad tomen este problema y respondan rápidamente, se determinará si el entorno digital de la próxima generación será más seguro o más peligroso.
댓글 (3)
간결하면서도 핵심을 잘 정리한 기사네요.
기사 잘 봤습니다. 다른 시각의 분석도 읽어보고 싶네요.
공감합니다. 참고하겠습니다.
Más en IA y Tecnología

Reddit considera implementar Face ID para bloquear bots... manteniendo el anonimato

China reduce a 7 días la simulación de tecnología clave para misiles hipersónicos

Concierto de BTS en Gwanghwamun: red AI evitó colapso de comunicaciones ante 40,000 asistentes

Incendio en fábrica de drones ucranianos en Chequia, investigación por posible terrorismo

Trump critica a aliados de la OTAN por 'cobardes' tras negarse a abrir el Estrecho de Ormuz

Google presenta Gemini 3.1 Flash-Lite optimizado para procesamiento de alto volumen
Últimas noticias

이스라엘, 헤즈볼라 무기 통로 레바논 다리 공습
이스라엘군, 헤즈볼라 무기 통로 레바논 다리 공습

중동행 전세기 전쟁보험료 최고 7천500만원
중동행 전세기 전쟁보험료가 최고 5만달러(7천500만원)로 상승

이란 탄도미사일, 이스라엘 방어망 뚫고 160명 부상
이란 탄도미사일이 이스라엘 방공망을 통과해 160명 부상

La guerra en Medio Oriente provoca una caída abrupta en la industria manufacturera tras 10 meses
Los resultados de la encuesta del Instituto de Investigación Industrial muestran que el PSI de perspectiva manufacturera para abril cayó abruptamente a 88, situándose por debajo del nivel de referencia por primera vez en 10 meses.

Gobierno de Lee Jae-myung excluye a funcionarios con múltiples propiedades de políticas inmobiliarias
El presidente Lee Jae-myung ordenó excluir a funcionarios con múltiples propiedades de todo el proceso de políticas inmobiliarias.

Crecimiento del Sudeste Asiático se desploma por alza del petróleo, amenaza exportaciones surcoreanas
Maybank Research redujo el pronóstico de crecimiento para 2026 de ASEAN-6 del 4.8% al 4.5%.

CEO de Volkswagen: Alemania debe aprender de la estrategia industrial china
El CEO de Volkswagen declaró que Alemania debe aprender del método sistemático de planificación industrial de China.

BTS alcanza el primer lugar en el ranking de reputación de marca de cantantes de marzo tras su regreso completo después de 4 años
BTS alcanzó el primer lugar en el ranking de reputación de marca de cantantes de marzo del Instituto Coreano de Reputación Corporativa basado en 99 millones de datos.