ArayoNews

|||
AI・テック

子どもたちがディープフェイクで同級生をいじめる、法律は追いつかず

13歳の少年が同級生の写真でディープフェイクヌードを制作・共有... 米国K-12学生の15%が同級生のAI合成性的画像を認知

AI Reporter Alpha··5分で読めます·
아이들이 딥페이크로 또래 괴롭힌다, 법은 뒤처져
要約
  • 米国K-12学生の15%が同級生のAI生成性的画像を認知しており、女子生徒が被害対象になる可能性がはるかに高いことが明らかになりました。
  • 生成型AI技術の発展によりディープフェイク制作の障壁が低くなり、未成年者の加害者が急増しています。
  • 米国全50州が実際の画像の非同意拡散を犯罪化しましたが、ほとんどの州法はAI生成ディープフェイクに適用されず、法的空白が存在します。

ウィスコンシン州の13歳、成人式の写真でディープフェイクヌードを制作

2024年10月、米国ウィスコンシン州のある13歳の男子生徒が、同じクラスの女子生徒のバットミツバ(ユダヤ教成人式)のお祝い写真を使ってディープフェイクヌードを作成し、Snapchatで拡散しました。これは孤立した事件ではありません。近年、米国全域で学齢期の子どもたちがディープフェイクを使って同級生をいたずらやいじめの対象にする事例が繰り返されています。

民主主義・技術センター(CDT)が2025年9月に公開した調査によると、米国K-12(幼稚園~高3)学生の15%が同級生のAI生成性的画像を知っていると回答しました。特に女子生徒が男子生徒よりもディープフェイク性的描写の対象になる可能性がはるかに高いことが分かりました。CDTは「同意のない親密な画像(NCII)問題が、本物であれディープフェイクであれ、K-12公立学校で深刻なレベルにある」と診断しました。

なぜこれが重要なのか:生成AIがディープフェイクを大衆化した

ディープフェイクは8年前にオンラインに初めて登場した当時は制作が困難でした。しかし、生成型人工知能(Generative AI)技術の発展により、今では誰でも簡単にディープフェイクを作れるツールにアクセスできるようになりました。ロヨラ・メリーマウント大学法学部教授でディープフェイク研究者のレベッカ・デルフィーノ(Rebecca Delfino)氏は「5~6年前ならリベンジポルノ(revenge porn)の加害者の中に未成年者がこれほど多くなかっただろう」と述べています。

技術的障壁が低くなったことで、未成年者たちがディープフェイクアプリを簡単に使えるようになったのです。デルフィーノ教授は「未成年者が見せる行動パターンは以前からあった残酷さ、侮辱、搾取、いじめと大きく変わらない」とし、「違いは技術を活用する点、そしてその成果物がいかに簡単に広がるかという点だ」と説明しました。

同意のない親密な画像(NCII)虐待は、被害者にオフラインの性暴力と類似した精神的健康被害を残します。被害者たちは画像の拡散により、オンライン活動を中止せざるを得ない状況に追い込まれることもあります。

法律は追いつかない:ほとんどの州法がAI生成画像に未適用

米国連邦政府および州政府は、同意のない親密な画像虐待に対応するため法律を制定してきました。現在、米国全50州とワシントンD.C.で実際に撮影された画像の非同意拡散を犯罪と規定する法律が施行されています。2025年8月、ドナルド・トランプ大統領は連邦レベルの類似法案である「Take It Down」法に署名しました。

しかし、**連邦法とは異なり、ほとんどの州法は明示的にAI生成ディープフェイクに適用されません。**さらに、加害者が未成年者である場合を直接扱う法律はより少ないのです。デルフィーノ教授は「政策立案者たちが画像ベースの性虐待加害者を『素早く厳しく』処罰しようとするが、加害者の年齢を考慮しない場合が多い」と指摘しました。

現行法の下で未成年者の加害者は、他の犯罪を犯した未成年者と同様に扱われる可能性が高いです。起訴は可能ですが、検察官と裁判所が年齢を考慮して量刑を決定する方式です。問題は、法律が技術発展の速度に追いついておらず、特にAI生成コンテンツと未成年者加害者という二つの変数を同時に扱う法的枠組みが不足している点です。

比較:実際の撮影 vs AI生成画像の法的対応

区分実際の撮影画像AI生成ディープフェイク
連邦法適用「Take It Down」法適用(2025.8)同一法適用
州法適用全50州+DC犯罪化ほとんどの州で未適用または不明確
未成年加害者年齢を考慮するが起訴可能法的枠組み不在、ケースバイケース
処罰レベル州ごとに異なる(軽犯罪~重罪)州法の空白により処罰困難

実際の撮影画像に対する法的対応はある程度体系を整えましたが、AI生成ディープフェイクは依然として法の死角地帯にあります。特に加害者が未成年者の場合、法執行がさらに複雑になります。

[AI分析] 今後の展望:技術・教育・法の三角対応が必要

ディープフェイク技術は今後もより精巧になり、アクセスしやすくなる可能性が高いです。オープンソース生成AIモデルの拡散とモバイルアプリの進化により、制作の障壁は下がり続けると見られます。これに対応するためには、三つの側面での並行した努力が必要です。

第一に、法的フレームワークの迅速なアップデートです。連邦法はAI生成画像を含んでいますが、州法が追いついていない状況です。各州がディープフェイク条項を追加したり、既存法を拡大解釈できるよう立法指針が必要です。また、未成年者加害者に対する別途の処遇基準(教育的介入、治療との連携など)を設ける必要があります。

第二に、学校と家庭でのデジタルリテラシー教育です。子どもたちがディープフェイクの倫理的問題と法的責任を理解できるよう支援するカリキュラムが必要です。CDT調査は問題の深刻さを明らかにしましたが、同時に教育的介入の余地も示しています。

第三に、技術プラットフォームの責任強化です。Snapchat、Instagramなどのソーシャルメディアプラットフォームは、未成年者がディープフェイクを簡単に制作・共有できないよう、AI検出技術と通報体制を強化する必要があります。アプリストアもディープフェイク生成アプリに対する年齢制限と事前審査を強化する必要があります。

画像ベースの性虐待は、技術が変わっても本質は同じです。被害者に残る精神的傷は、実際の画像でもAI合成でも違いはありません。法と社会がこの問題をどれだけ真剣に受け止め、迅速に対応するかによって、次世代のデジタル環境が安全になるか、それともより危険になるかが決まるでしょう。

共有

댓글 (3)

냉철한기록자1시간 전

딥페이크 관련 기사 잘 읽었습니다. 유익한 정보네요.

맑은날드리머30분 전

생성형AI에 대해 더 알고 싶어졌습니다. 후속 기사 부탁드립니다.

겨울의리더1시간 전

간결하면서도 핵심을 잘 정리한 기사네요.

AI・テックの記事をもっと見る

最新ニュース