NEWS

EUがGrokのAI脱衣を禁止した。Grokはリリース後10日で300万枚の性的画像を生成していた。

AIが生成する性的画像の問題が、ついに法律で規制された。

EU議会が2026年3月26日、通常の画像を脱衣させる、AIの「ヌーディファイア」禁止を569対45の圧倒的多数で可決。この問題はGrokにて機能リリースされた後、半年以上にわたって議論されてきた末の決着となる。

時系列で振り返る

この問題の発端は2025年末。

時期 出来事
2025年12月末 xAI(イーロン・マスクのAI企業)のGrokに画像編集機能が追加。性的画像の生成が容易に
2025年12月29日〜
2026年1月8日
わずか10日間で約300万枚の性的画像が生成される。うち約23,000枚が児童の画像
2026年1月 マレーシア、インドネシアがGrokへのアクセスを国ごとブロック
2026年2月4日 オランダの権利団体OfflimitsがxAIに正式通知
2026年3月9日 xAIが「問題ない」と回答。しかしOfflimitsが実際に生成できることを実証
2026年3月26日 EU議会が569対45で禁止法案を可決
2026年3月27日 オランダの裁判所がxAIに停止命令。違反1件あたり約1,500万円(10万ユーロ)、上限約15億円(1,000万ユーロ)の罰金

つまり、問題が発覚してから法的措置が取られるまでには約3ヶ月がかかった。AIの進化スピードに対して規制が追いつくまでタイムラグがあった。

10日で300万枚が生成された

Center for Countering Digital Hate(CCDH)の調査によると、Grokで2025年12月29日から2026年1月8日までのわずか10日間で約300万枚の性的画像が生成された。

そのうち約23,000枚が児童の画像だったとされている。

米テネシー州では、10代の少女3人がxAIに対してクラスアクション訴訟を起こしている。クラスメイトが彼女たちの普通の写真をGrokアップロードし、AIが性的画像を生成。その画像が学校内で拡散された。

被害を受けた少女の一人の母親は「娘は学校に行けなくなった。AIが作った偽の画像が、実際の暴力と同じダメージを与えている」と語っている。

ボルチモア市も同様の民事訴訟を起こしている。これは個人の被害者だけでなく、自治体レベルでもAI企業の責任を問う動きが始まっているということ。

そもそもEU AI法とは何か

今回の禁止は、EUの「AI法(AI Act)」という包括的な法律の一部。2024年6月に成立した、世界初のAI規制法

この法律はAIを「リスクの高さ」で4段階に分類し、それぞれに異なるルールを課す設計になっている。

リスク分類 内容 具体例
禁止(最高リスク) 社会に重大な害を及ぼすAIの使用を全面禁止 ソーシャルスコアリング、感情推測による職場監視、公共空間でのリアルタイム顔認証
高リスク 厳格な安全基準・人間の監視を義務付け 医療AI、教育の入試判定、採用・人事のAI、法執行
限定リスク AI生成であることの表示義務 チャットボット、ディープフェイク、AI生成コンテンツ
最小リスク 規制なし(自主的な行動規範を推奨) スパムフィルター、AIゲーム

今回のヌーディファイアアプリ禁止は、この「禁止(最高リスク)」カテゴリに追加された形。ヌーディファイアは当初のAI法には含まれていなかったが、Grokスキャンダルを受けて緊急追加された。

違反した場合の罰則は最大約52億円(3,500万ユーロ)または全世界売上の7%

議会での反対派の主な意見

569対45という圧倒的多数での可決だったが、反対意見もあった。

ただしこの投票は「ヌーディファイア禁止」だけでなく、AI法全体の改正パッケージ(デジタルオムニバス)に対するもの。45人の反対票すべてがヌーディファイア禁止に反対しているわけではない。

議論で出た主な懸念は以下の通り。

技術的に止められるのか

最も強力な反論。「どんな技術的対策も、性的画像や児童画像の生成を完全に防ぐことはできない」という指摘。実際、xAIが制限を発表した後もGrokで生成可能だったことをPOLITICOが検証している。

同意確認の矛盾

画像の被写体の同意を確認する仕組みが求められるが、本人確認システム自体がプライバシーリスクを生む。特にセックスワーカーなど身元を明かせない立場の人にとって、強制的な本人確認は新たな危険を生む可能性。

禁止の範囲が狭すぎる

今回の禁止は「性的に露骨な画像」に限定されている。Grokで大量に生成された「ビキニ姿の女性」のような画像は対象外。規制の外側に残る有害コンテンツの方が多い可能性。

市民団体からの「逆方向の批判」

デジタル権利団体(EDRi、アムネスティ)は、ヌーディファイア禁止は支持するが、同じパッケージに含まれる高リスクAIの規制延期を問題視。120以上の市民団体が「ヌーディファイア禁止を政治的カバーにして、より広範な規制緩和を進めている」と警告した。

賛成派の議員キム・ファン・スパレンタク(オランダ、緑の党)はこう語っている。「女性の権利と子どもの保護にとって大きな勝利。EUの女性たちは、尊厳を剥奪し脅迫や虐待に利用するツールの標的にされてきた」

国ごとの規制という「パッチワーク問題」

オランダの裁判所がxAIに停止命令を出した。でもこれは「オランダにおいて」の話。

Grokはインターネットを使える国なら基本的にどこからでもアクセスできる。オランダでブロックしても、他の国からは今まで通り使える。

つまり、国ごとに個別対応が必要になり、実際、対応は国ごとにバラバラとなっている。

  • マレーシア、インドネシア: Grokへのアクセスを国ごとブロック(最も強硬)
  • オランダ: 裁判所が停止命令+罰金
  • EU全体: AI法でヌーディファイアアプリを禁止(ただし施行は段階的)
  • 米国: 連邦レベルの規制はなし。州ごとの対応
  • 日本: この問題に特化した規制はまだない

xAIの立場から見れば、国ごとに異なるルールに個別対応しなければならない。オランダではブロック、マレーシアでは全面停止、EUでは特定機能を無効化、米国では州によって対応が変わる。

これはxAIに限らず、グローバルにサービスを展開するAI企業すべてが直面する問題。「AIの規制は国境を超えないが、AIサービスは国境を超える」という根本的な矛盾がある。

日本はどうなっているのか

日本には現時点で、AI生成の性的画像に特化した規制はない。

既存の法律(リベンジポルノ防止法、児童ポルノ規制法)でカバーできる部分はあるが、「AIが生成した架空の人物の画像」や「実在する人物に似ているが完全にAI生成の画像」をどう扱うかは、まだ法的にグレーな部分が多い。

EUが明確に法律で禁止に動いた今、日本でも議論が加速する可能性がある。

「技術的にできる」の先にある問題

AIの議論でよく出る話だが、「技術的にできること」と「やっていいこと」は違う。

10日で300万枚。そのうち児童の画像が23,000枚。

この数字は、「技術の進歩」では片付けられない。

EUの569対45という投票結果は、「これはダメだ」という社会の明確な意思表示。AI企業はその声を聞く必要がある。


AI LIFEコミュニティでは、こうしたAI業界の最新動向や実践的な活用について日々共有しています。

詳しくはこちら: AI LIFEコミュニティに参加する

Author

松原 潤

松原 潤

官公庁→大手向けITコンサル→SIer→中小企業向けITコンサルを経験。 現在はAIコミュニティ「AI LIFE」を運営しつつ、DX/業務改善、CRM・Web・データ活用を支援。 生成AIと自動化で“売上アップ×工数削減”を実現するのが得意です。