2026年3月、スウェーデンの新聞社が調査報道を発表した。
MetaのRay-Ban AIスマートグラスで撮影された映像を、ケニア・ナイロビのデータ作業員が見ていた。
しかも、その中にはバスルームから出てくる映像、着替え中の映像、さらにプライベートな映像が含まれていた。
(参考:Meta sends private AI glasses footage to Kenya with few safeguards | The Decoder)
「AIの裏側にいる人間」の話をしたい。
何が起きたのか
作業員はMetaの下請け企業Samaに所属している。仕事は、AIの学習データにラベルを付けること。「これは人物」「これは風景」「これは不適切なコンテンツ」と分類する作業だ。
その中に、スマートグラスのユーザーが日常生活で撮影した映像が含まれていた。
前提として、これはユーザーがAI機能を有効にしている場合に起きる話だ。
MetaのRay-Banスマートグラスには「Hey Meta」というAIアシスタント機能がある。2025年4月のプライバシーポリシー更新で、このAIカメラ機能はデフォルトでオンになった。ユーザーがAI機能を使うと、その映像や音声がMetaのサーバーに送られ、AIの改善のために利用される。つまり、AI機能を有効にした時点で、自分の映像が学習データとして処理される可能性に同意したことになる。
ただし「学習データに使われる」ことと「ケニアの作業員が生映像を見る」ことは、ユーザーの想像の中では全然違うだろう。
匿名化ツールは存在する。でも、照明条件によっては顔や体がはっきり見えてしまうという。
(参考:Kenyan workers say Meta Ray-Ban AI glasses expose intimate moments | TechCabal)
作業員の環境
ナイロビの作業員たちは厳格なNDA(秘密保持契約)を結ばされている。オフィスにはカメラが設置され、質問をすると職を失うリスクがある。
見たくないものを見せられ、それについて誰にも話せない。
これは新しい問題ではない。以前からMetaのコンテンツモデレーター(不適切投稿のチェック担当者)がPTSDを発症するケースが報告されてきた。今回はそれがスマートグラスの映像に拡大した形だ。
(参考:Meta Ray-Bans send ‘sensitive’ videos to human data annotators | 9to5Mac)
これはMetaだけの問題ではない
ここが一番伝えたいことだ。
AIが賢くなるためには、裏側で人間がデータを整理している。ChatGPTも、Claudeも、画像生成AIも例外ではない。どこかの国の誰かが、膨大なデータにラベルを貼っている。
AIの「知能」は、人間の手作業の上に成り立っている。
データラベリングの市場は急速に拡大していて、その多くがアフリカや東南アジアの低賃金労働者によって支えられている。時給は数ドル程度のケースも珍しくない。
ウェアラブルAIのプライバシー問題
もう一つの論点がある。
スマートグラスは、かけているだけで常に映像を記録できる。周囲の人はカメラの存在に気づかないこともある。
Googleが2013年にGoogle Glassを発売したとき、プライバシーの懸念から大きな反発があった。「Glasshole(グラスホール)」という言葉まで生まれた。
Glassholeは「Glass + asshole」の造語だ。スマートグラスをかけて周囲を撮影し、相手の同意なく記録する人を指す蔑称として広まった。サンフランシスコのバーではGoogle Glass着用者の入店が禁止され、Google自身も「Don’t be a Glasshole(グラスホールになるな)」というエチケットガイドを出さざるを得なかった。
あれから13年。MetaのRay-Banスマートグラスは、外見がほぼ普通のサングラスだ。カメラの存在がさらに見えにくくなっている。
そしてその映像が、海を越えて別の国の作業員のモニターに映っている。ユーザー本人はそれを知らない。
GDPRとの衝突。第三者が訴えたらどうなるのか
EUのGDPR(一般データ保護規則)の観点からも、これは大きな問題だ。
EU圏内のユーザーが撮影した映像が、EU外のケニアで処理されている。しかも映像に映り込んだ第三者は、自分のデータが処理されていることを知らない。同意もしていない。
では、映り込んだ第三者が「自分のデータが勝手に処理されている」と訴えたらどうなるのか。
GDPRの第82条には、データ処理によって損害を受けた個人は賠償を請求できると明記されている。つまり、法的にはスマートグラスに映り込んだだけの人でも訴える権利がある。
現状の結論としては、2026年3月時点でスマートグラスの映像処理に対するGDPR執行事例はまだない。ただし、その周辺では動きが出ている。
プライバシー団体NOYBは2025年5月にMetaに対して警告書を送付している。イタリアとアイルランドのデータ保護当局は2021年の時点でRay-Banスマートグラスへの懸念を表明していた。そしてMetaは2023年、EU市民のデータを米国に転送していた件で12億ユーロ(約2,000億円)の制裁金を科されている。
ケニアはEUの「十分性認定」を受けていない国だ。つまり、EU市民のデータをケニアで処理すること自体が、GDPRの越境データ移転ルールに抵触する可能性がある。
まだ判例はない。でも法的な道具は揃っている。誰かが訴えれば、Metaの年間売上の最大4%が制裁金になり得る。
今後の対策はどうなっていくのか
では、この問題はどう解決されていくのか。いくつかの方向性が見えている。
「処理したら捨てる」モデルへの転換
一番シンプルな解決策がこれだ。
ユーザーのデータはAIの応答生成にだけ使い、処理が終わったら破棄する。学習データとして蓄積しない。
実際にこの方向に動いている企業もある。AnthropicのClaudeは、ユーザーの入力データをモデルのトレーニングに使用しないことを明言している。OpenAIもAPI経由のデータはデフォルトでトレーニングに使わない方針に変更した。
この「使ったら捨てる」モデルが標準になれば、そもそもデータラベリングのために人間が生データを見る必要がなくなる。
オンデバイス処理の拡大
もう一つの方向は、データを外部に送らないことだ。
Appleが「Apple Intelligence」で推進しているように、AI処理をデバイス上で完結させる。データがサーバーに送られなければ、ケニアの作業員に見られることもない。
ただし、現時点ではデバイス上で動かせるモデルの性能には限界がある。高性能な処理にはクラウドが必要で、完全なオンデバイス化はまだ先の話だ。
規制による外圧
EUのAI Act(AI規制法)は2025年から段階的に施行が始まっている。高リスクAIシステムにはデータの透明性やトレーサビリティが求められる。GDPRとの合わせ技で、「ユーザーデータを第三国で人間が閲覧する」行為への法的圧力は今後さらに強まるだろう。
技術的な解決と規制の両面から、「人間がユーザーの生データを見る」時代は終わりに向かっている。ただし、今はまだその過渡期にいる。
AIを使う側として知っておくべきこと
自分がAIに質問を投げるとき、プロンプトを書くとき、写真を送るとき。そのデータが学習に使われ、誰かがラベルを付ける可能性がある。
AIサービスのプライバシーポリシーには「データを学習に利用する場合があります」と書かれていることが多い。でも、その先に人間の目があることまで想像している人は少ないだろう。
AIは魔法じゃない。裏側には必ず人間がいる。
今回のMetaの件は、それを改めて思い出させてくれる出来事だった。
AI LIFEコミュニティでは、AIの活用法だけでなく、AIの倫理やプライバシーについても日々議論しています。
AIを使う側としての「知っておくべきこと」に関心のある方は、ぜひご参加ください。