AIが生成する性的画像の問題が、ついに法律で規制された。
EU議会が2026年3月26日、通常の画像を脱衣させる、AIの「ヌーディファイア」禁止を569対45の圧倒的多数で可決。この問題はGrokにて機能リリースされた後、半年以上にわたって議論されてきた末の決着となる。
時系列で振り返る
この問題の発端は2025年末。
| 時期 | 出来事 |
|---|---|
| 2025年12月末 | xAI(イーロン・マスクのAI企業)のGrokに画像編集機能が追加。性的画像の生成が容易に |
| 2025年12月29日〜 2026年1月8日 |
わずか10日間で約300万枚の性的画像が生成される。うち約23,000枚が児童の画像 |
| 2026年1月 | マレーシア、インドネシアがGrokへのアクセスを国ごとブロック |
| 2026年2月4日 | オランダの権利団体OfflimitsがxAIに正式通知 |
| 2026年3月9日 | xAIが「問題ない」と回答。しかしOfflimitsが実際に生成できることを実証 |
| 2026年3月26日 | EU議会が569対45で禁止法案を可決 |
| 2026年3月27日 | オランダの裁判所がxAIに停止命令。違反1件あたり約1,500万円(10万ユーロ)、上限約15億円(1,000万ユーロ)の罰金 |
つまり、問題が発覚してから法的措置が取られるまでには約3ヶ月がかかった。AIの進化スピードに対して規制が追いつくまでタイムラグがあった。
10日で300万枚が生成された
Center for Countering Digital Hate(CCDH)の調査によると、Grokで2025年12月29日から2026年1月8日までのわずか10日間で約300万枚の性的画像が生成された。
そのうち約23,000枚が児童の画像だったとされている。
米テネシー州では、10代の少女3人がxAIに対してクラスアクション訴訟を起こしている。クラスメイトが彼女たちの普通の写真をGrokにアップロードし、AIが性的な画像を生成。その画像が学校内で拡散された。
被害を受けた少女の一人の母親は「娘は学校に行けなくなった。AIが作った偽の画像が、実際の暴力と同じダメージを与えている」と語っている。
ボルチモア市も同様の民事訴訟を起こしている。これは個人の被害者だけでなく、自治体レベルでもAI企業の責任を問う動きが始まっているということ。
そもそもEU AI法とは何か
今回の禁止は、EUの「AI法(AI Act)」という包括的な法律の一部。2024年6月に成立した、世界初のAI規制法。
この法律はAIを「リスクの高さ」で4段階に分類し、それぞれに異なるルールを課す設計になっている。
| リスク分類 | 内容 | 具体例 |
|---|---|---|
| 禁止(最高リスク) | 社会に重大な害を及ぼすAIの使用を全面禁止 | ソーシャルスコアリング、感情推測による職場監視、公共空間でのリアルタイム顔認証 |
| 高リスク | 厳格な安全基準・人間の監視を義務付け | 医療AI、教育の入試判定、採用・人事のAI、法執行 |
| 限定リスク | AI生成であることの表示義務 | チャットボット、ディープフェイク、AI生成コンテンツ |
| 最小リスク | 規制なし(自主的な行動規範を推奨) | スパムフィルター、AIゲーム |
今回のヌーディファイアアプリ禁止は、この「禁止(最高リスク)」カテゴリに追加された形。ヌーディファイアは当初のAI法には含まれていなかったが、Grokスキャンダルを受けて緊急追加された。
違反した場合の罰則は最大約52億円(3,500万ユーロ)または全世界売上の7%。
議会での反対派の主な意見
569対45という圧倒的多数での可決だったが、反対意見もあった。
ただしこの投票は「ヌーディファイア禁止」だけでなく、AI法全体の改正パッケージ(デジタルオムニバス)に対するもの。45人の反対票すべてがヌーディファイア禁止に反対しているわけではない。
議論で出た主な懸念は以下の通り。
技術的に止められるのか
最も強力な反論。「どんな技術的対策も、性的画像や児童画像の生成を完全に防ぐことはできない」という指摘。実際、xAIが制限を発表した後もGrokで生成可能だったことをPOLITICOが検証している。
同意確認の矛盾
画像の被写体の同意を確認する仕組みが求められるが、本人確認システム自体がプライバシーリスクを生む。特にセックスワーカーなど身元を明かせない立場の人にとって、強制的な本人確認は新たな危険を生む可能性。
禁止の範囲が狭すぎる
今回の禁止は「性的に露骨な画像」に限定されている。Grokで大量に生成された「ビキニ姿の女性」のような画像は対象外。規制の外側に残る有害コンテンツの方が多い可能性。
市民団体からの「逆方向の批判」
デジタル権利団体(EDRi、アムネスティ)は、ヌーディファイア禁止は支持するが、同じパッケージに含まれる高リスクAIの規制延期を問題視。120以上の市民団体が「ヌーディファイア禁止を政治的カバーにして、より広範な規制緩和を進めている」と警告した。
賛成派の議員キム・ファン・スパレンタク(オランダ、緑の党)はこう語っている。「女性の権利と子どもの保護にとって大きな勝利。EUの女性たちは、尊厳を剥奪し脅迫や虐待に利用するツールの標的にされてきた」
国ごとの規制という「パッチワーク問題」
オランダの裁判所がxAIに停止命令を出した。でもこれは「オランダにおいて」の話。
Grokはインターネットを使える国なら基本的にどこからでもアクセスできる。オランダでブロックしても、他の国からは今まで通り使える。
つまり、国ごとに個別対応が必要になり、実際、対応は国ごとにバラバラとなっている。
- マレーシア、インドネシア: Grokへのアクセスを国ごとブロック(最も強硬)
- オランダ: 裁判所が停止命令+罰金
- EU全体: AI法でヌーディファイアアプリを禁止(ただし施行は段階的)
- 米国: 連邦レベルの規制はなし。州ごとの対応
- 日本: この問題に特化した規制はまだない
xAIの立場から見れば、国ごとに異なるルールに個別対応しなければならない。オランダではブロック、マレーシアでは全面停止、EUでは特定機能を無効化、米国では州によって対応が変わる。
これはxAIに限らず、グローバルにサービスを展開するAI企業すべてが直面する問題。「AIの規制は国境を超えないが、AIサービスは国境を超える」という根本的な矛盾がある。
日本はどうなっているのか
日本には現時点で、AI生成の性的画像に特化した規制はない。
既存の法律(リベンジポルノ防止法、児童ポルノ規制法)でカバーできる部分はあるが、「AIが生成した架空の人物の画像」や「実在する人物に似ているが完全にAI生成の画像」をどう扱うかは、まだ法的にグレーな部分が多い。
EUが明確に法律で禁止に動いた今、日本でも議論が加速する可能性がある。
「技術的にできる」の先にある問題
AIの議論でよく出る話だが、「技術的にできること」と「やっていいこと」は違う。
10日で300万枚。そのうち児童の画像が23,000枚。
この数字は、「技術の進歩」では片付けられない。
EUの569対45という投票結果は、「これはダメだ」という社会の明確な意思表示。AI企業はその声を聞く必要がある。
AI LIFEコミュニティでは、こうしたAI業界の最新動向や実践的な活用法について日々共有しています。
詳しくはこちら: AI LIFEコミュニティに参加する