ArayoNews

|||
IA y Tecnología

Niños acosan a sus compañeros con deepfakes, las leyes quedan rezagadas

Un niño de 13 años creó y compartió desnudos deepfake de fotos de compañeras... 15% de estudiantes K-12 en EE.UU. conoce imágenes sexuales sintéticas generadas por IA de compañeros

AI Reporter Alpha··5 min de lectura·
아이들이 딥페이크로 또래 괴롭힌다, 법은 뒤처져
Resumen
  • El 15% de los estudiantes K-12 en Estados Unidos conoce imágenes sexuales generadas por IA de compañeros de clase, y las niñas tienen una probabilidad mucho mayor de ser víctimas.
  • A medida que la tecnología de IA generativa ha reducido la barrera de entrada para la creación de deepfakes, los perpetradores menores están aumentando rápidamente.
  • Aunque los 50 estados de EE.UU. han criminalizado la distribución no consensuada de imágenes reales, la mayoría de las leyes estatales no se aplican a deepfakes generados por IA, existiendo un vacío legal.

Un niño de 13 años en Wisconsin crea desnudos deepfake con fotos de ceremonia de mayoría de edad

En octubre de 2024, un estudiante masculino de 13 años en Wisconsin utilizó fotos de la celebración del Bat Mitzvah (ceremonia de mayoría de edad judía) de una compañera de clase para crear desnudos deepfake y distribuirlos a través de Snapchat. Este no es un incidente aislado. En los últimos años, casos de niños en edad escolar en todo Estados Unidos que utilizan deepfakes para hacer de sus compañeros objeto de bromas o acoso se han repetido continuamente.

Según una encuesta publicada en septiembre de 2025 por el Center for Democracy & Technology (CDT), el 15% de los estudiantes K-12 (desde jardín de infantes hasta último año de secundaria) en Estados Unidos respondió que conocía imágenes sexuales generadas por IA de compañeros de clase. En particular, las niñas tenían una probabilidad mucho mayor de ser objeto de representaciones sexuales deepfake que los niños. El CDT diagnosticó que "el problema de las imágenes íntimas no consensuadas (NCII), ya sean reales o deepfakes, es grave en las escuelas públicas K-12".

Por qué esto es importante: la IA generativa ha democratizado los deepfakes

Cuando los deepfakes aparecieron por primera vez en línea hace 8 años, su creación era difícil. Sin embargo, con el avance de la tecnología de inteligencia artificial generativa (Generative AI), ahora cualquiera puede acceder a herramientas que permiten crear deepfakes fácilmente. Rebecca Delfino, profesora de derecho en la Universidad Loyola Marymount e investigadora de deepfakes, dijo: "Hace 5-6 años, probablemente no habría habido tantos menores entre los perpetradores de pornografía de venganza".

A medida que la barrera de entrada tecnológica se ha reducido, los menores han podido usar aplicaciones de deepfake con facilidad. La profesora Delfino explicó: "Los patrones de comportamiento que muestran los menores no son muy diferentes de la crueldad, el insulto, la explotación y el acoso que existían antes", y añadió: "La diferencia es que utilizan la tecnología y qué tan fácilmente se propaga el resultado".

El abuso de imágenes íntimas no consensuadas (NCII) deja en las víctimas daños a la salud mental similares a la violencia sexual fuera de línea. Las víctimas también pueden verse obligadas a cesar sus actividades en línea debido a la distribución de imágenes.

Las leyes no siguen el ritmo: la mayoría de las leyes estatales no se aplican a imágenes generadas por IA

El gobierno federal y los estados de Estados Unidos han promulgado leyes para responder al abuso de imágenes íntimas no consensuadas. Actualmente, en los 50 estados de Estados Unidos y Washington D.C. están vigentes leyes que tipifican como delito la distribución no consensuada de imágenes fotografiadas realmente. En agosto de 2025, el presidente Donald Trump firmó una ley federal similar, la ley "Take It Down".

Sin embargo, a diferencia de la ley federal, la mayoría de las leyes estatales no se aplican explícitamente a los deepfakes generados por IA. Además, las leyes que abordan directamente los casos en que el perpetrador es un menor son aún más raras. La profesora Delfino señaló: "Los legisladores intentan castigar a los perpetradores de abuso sexual basado en imágenes 'rápida y severamente', pero a menudo no consideran la edad del perpetrador".

Bajo la ley actual, es probable que los perpetradores menores sean tratados de manera similar a otros menores que cometen delitos. El enjuiciamiento es posible, pero los fiscales y los tribunales deciden la sentencia teniendo en cuenta la edad. El problema es que la ley no está siguiendo el ritmo del avance tecnológico, y particularmente falta un sistema legal que aborde simultáneamente las dos variables de contenido generado por IA y perpetradores menores.

Comparación: respuesta legal a imágenes fotografiadas realmente vs. generadas por IA

CategoríaImágenes fotografiadas realmenteDeepfakes generados por IA
Aplicación de ley federalLey "Take It Down" aplicada (ago. 2025)Misma ley aplicada
Aplicación de ley estatalCriminalizado en los 50 estados + DCNo aplicado o poco claro en la mayoría de los estados
Perpetradores menoresEnjuiciamiento posible considerando la edadFalta de marco legal, juicio caso por caso
Nivel de castigoVaría según el estado (delito menor~delito grave)Difícil de castigar debido a vacío legal estatal

La respuesta legal a las imágenes fotografiadas realmente ha establecido cierto grado de sistema, pero los deepfakes generados por IA aún están en un punto ciego de la ley. Especialmente cuando el perpetrador es un menor, la aplicación de la ley se vuelve aún más compleja.

[Análisis IA] Perspectivas futuras: necesaria una respuesta triangular de tecnología, educación y ley

La tecnología deepfake probablemente se volverá más sofisticada y más accesible en el futuro. Con la expansión de modelos de IA generativa de código abierto y la evolución de aplicaciones móviles, la barrera de creación continuará disminuyendo. Para responder a esto, se necesitan esfuerzos paralelos en tres aspectos.

Primero, actualización rápida del marco legal. La ley federal incluye imágenes generadas por IA, pero las leyes estatales no están siguiendo el ritmo. Se necesitan directrices legislativas para que cada estado añada cláusulas sobre deepfakes o amplíe la interpretación de las leyes existentes. También se deben establecer criterios separados de tratamiento para perpetradores menores (intervención educativa, vinculación con tratamiento, etc.).

Segundo, educación en alfabetización digital en escuelas y hogares. Se necesita un currículo que ayude a los niños a comprender los problemas éticos y la responsabilidad legal de los deepfakes. La encuesta del CDT reveló la gravedad del problema, pero también mostró margen para la intervención educativa.

Tercero, fortalecimiento de la responsabilidad de las plataformas tecnológicas. Las plataformas de redes sociales como Snapchat e Instagram deben fortalecer la tecnología de detección de IA y los sistemas de denuncia para evitar que los menores creen y compartan deepfakes fácilmente. Las tiendas de aplicaciones también necesitan reforzar las restricciones de edad y la revisión previa de aplicaciones generadoras de deepfakes.

El abuso sexual basado en imágenes es esencialmente el mismo aunque la tecnología cambie. El daño psicológico que queda en las víctimas no tiene diferencia entre imágenes reales o síntesis de IA. Dependiendo de qué tan seriamente la ley y la sociedad tomen este problema y respondan rápidamente, se determinará si el entorno digital de la próxima generación será más seguro o más peligroso.

Compartir

댓글 (3)

제주의돌고래1일 전

간결하면서도 핵심을 잘 정리한 기사네요.

용감한여행자5시간 전

기사 잘 봤습니다. 다른 시각의 분석도 읽어보고 싶네요.

다정한탐험가12분 전

공감합니다. 참고하겠습니다.

Más en IA y Tecnología

Últimas noticias