NEWS

年内に東京でロボタクシーに乗れるかもしれない。Uber×日産×Wayveが実証開始へ

サムネイル

(※サムネイル画像はイメージです。)

年内に、東京の道をロボタクシーが走り始めるかもしれない。

3月11日、Uber、日産、英国AIスタートアップのWayveが3社提携を発表した。2026年後半に東京でロボタクシーの実証実験を開始するという内容だ。

Uberにとって日本初の自動運転パートナーシップ。Wayveにとってはアジア初の都市。東京が選ばれたこと自体が、結構大きな意味を持っている。
(参考:Uber, Wayve, and Nissan plan to launch a robotaxi service in Tokyo this year – TechCrunch

そもそも「自動運転」ってどうやって動いているのか

ロボタクシーと聞くと「すごい」で終わりがちだけど、そもそも車が自分で走るってどういうことなのか。ここをちゃんと理解しておくと、今回のニュースの面白さがよく分かる。

自動運転の車がやっていることは、大きく分けると3つだけ。

「周りを見る」「今どこにいるか把握する」「どう動くか判断する」。

人間がやっていることと同じだ。目で周りを見て、自分の位置を把握して、ハンドルを切るかブレーキを踏むか判断する。自動運転はこれを機械とAIでやっている。

現在の主流:Waymoの方式をわかりやすく解説

現在、商用ロボタクシーで最も実績があるのはGoogleグループのWaymoだ。サンフランシスコやフェニックスですでに無人タクシーを運行している。

Waymoの車には、4種類のセンサーが載っている。それぞれ何をしているのか、一つずつ見ていこう。

① LiDAR(ライダー):レーザーで周囲の形を測るセンサー

車の屋根の上でクルクル回っている装置がこれ。

仕組みはシンプルで、レーザー光を360度に飛ばして、跳ね返ってくる時間で距離を測る。これを毎秒何百万回も繰り返すことで、周囲の3D形状をリアルタイムに把握できる。

コウモリが超音波で周りの形を把握するのと似ている。コウモリは音、LiDARはレーザー光を使う。数百メートル先の障害物まで検知できて、暗闇でも雨でも正確に動く。

ただし、高い。1台のLiDARだけで数十万〜数百万円する。これが自動運転車のコストを押し上げている大きな要因になっている。

② HDマップ(高精度3D地図):センチメートル単位の超詳細な地図

普段使うGoogleマップは、道の名前や方向がわかる程度の地図だ。

HDマップはこれとはまったく別物。道路の幅、カーブの角度、車線の数、信号機の高さ、ガードレールの位置まで、センチメートル単位で記録されている。いわば、道路の「完璧な設計図」。

自動運転車は走行中、このHDマップと今LiDARで見ている景色を照らし合わせている。「地図ではここにガードレールがあるはず。実際にもある。OK、予定通り」という感じで、常に答え合わせをしながら走っている。

このおかげで精度は高い。でも裏を返せば、HDマップがない場所では走れない。新しい道路ができたり、工事で車線が変わったりすると、地図と現実がズレて混乱する。

このHDマップ、作るだけでも膨大なコストがかかる。1キロメートルあたりの作成コストは最大1,000ドル(約15万円)とも言われている。

世界的にはHERE Technologies(オランダ)とTomTom(オランダ)が2大プロバイダーだ。専用の計測車両に大量のセンサーを積んで道路を走り回り、3Dデータを収集する。衛星データやクラウドソーシングも組み合わせて、地図を常に更新し続けている。

日本ではダイナミックマップ基盤という会社が中心になっている。トヨタ、日産、ホンダなど国内自動車メーカー10社が出資して設立した会社で、国内の高速道路を中心にHDマップを整備している。全世界で150万キロ以上のカバレッジを持つ。

自動車メーカーは、これらの会社から車1台あたり年間ライセンス料を払って地図データを使う形が一般的。買い切りではなく、サブスクリプション型。地図は常に更新が必要だから、継続的にお金がかかる仕組みになっている。

③ カメラ+レーダー:目と耳の役割

カメラは人間の「目」にあたる。信号の色、歩行者の姿、道路標識を認識する。

レーダーは「電波」を飛ばして、前の車との距離や相対速度を測る。
LiDARが「レーザー光」を使うのに対し、レーダーは「電波(ラジオ波)」を使う。まったく別の物理原理で動くセンサーだ。

レーダーの一番の強みは天候に左右されにくいこと。雨でも霧でも、電波は通り抜ける。カメラは逆光で見えなくなるし、LiDARも豪雨だと精度が落ちる。でもレーダーは安定して動く。

そのかわり、レーダーは「何かがある」ことはわかるけど、「それが人なのか車なのかポールなのか」の判別は苦手。LiDARは形まで精密にわかる。カメラは色や文字が読める。それぞれ得意分野が違うから、全部重ねて使う。

コストも大きく違う。LiDARは1台数十万円するのに対し、レーダーは1台1〜2万円程度。すでに普通の車のADAS(衝突回避システム)にも広く搭載されている。

LiDAR、HDマップ、カメラ、レーダー。この4つを全部重ねて使うのがWaymo方式の特徴。1つのセンサーが見逃しても、別のセンサーがカバーする。だから安全性が高い。

④ ルールベースの判断:人間がプログラムした「こうしなさい」

最後のピースは、判断の仕方だ。

Waymo方式では、エンジニアが大量のルールを書いている。「赤信号では止まる」「歩行者が横断歩道に立ったら減速する」「前の車との車間距離は○メートル以上保つ」。

こうしたルールを何千、何万と積み上げて、あらゆる場面に対応しようとしている。

Waymo方式の限界

このアプローチはとても精度が高い。でも決定的な弱点がある。

HDマップを作るのに膨大な時間とコストがかかること。

専用の計測車両で走り回って、道路の3Dデータを収集する必要がある。しかも道路は変わる。工事、新しい建物、標識の変更。そのたびに地図を更新しなければならない。

Waymoが何年もかけてまだ数都市にしか展開できていないのは、この地図作成が最大のボトルネックになっている。

Wayveはまったく違う。「運転そのもの」を学ばせた

では、東京のロボタクシーに使われるWayveの技術はどう違うのか。

一番わかりやすいのは、人間が運転を覚えるプロセスとの比較だ。

さっき説明したWaymoの方式を人間に例えると、「完璧な地図を暗記してから走る」ようなもの。走る道のカーブの角度、信号の位置、車線の幅まで全部覚えて、その通りに走る。だから正確だけど、覚えていない道に出ると途端に止まってしまう。

Wayveの方式はまったく違う。「運転そのもの」を学ばせている。

人間がどうやって運転を覚えるか思い出してほしい。教習所で何度もハンドルを切って、ブレーキを踏んで、周りの車や歩行者の動きを見て、体で覚えていく。

一度「運転できる人」になれば、初めて行く街でも走れる。道を暗記しているからじゃない。「道路ってこういうものだ」「歩行者がこう動いたらこうする」という運転の本質を理解しているからだ。

Wayveはこれと同じことをAIでやっている。

具体的には、大量の人間の運転映像(カメラで撮った実際の走行動画)をAIに見せて学習させる。「この場面ではハンドルを右に切った」「ここではブレーキを踏んだ」。何百万時間分の運転データから、AIが「運転とは何か」を自分で学び取る。

なぜLiDARやレーダーが不要になるのか

ここで疑問が出ると思う。「運転を学習で覚えるのはわかった。でもなぜ高精度なセンサーがいらなくなるの?」

ポイントは、WayveのAIは「カメラ映像から奥行きや距離を推定する能力」も同時に学習していること。

人間は目が2つあることで立体的に見えるけど、実はそれだけじゃない。経験から「あの車はだいたい50メートル先だな」「この歩行者は近づいてきているな」と判断できる。大きさの変化、動きのパターン、道路の遠近感。こうした手がかりから距離を推定している。

WayveのAIも同じだ。複数のカメラの映像を同時に処理して、それぞれのカメラの位置と角度の情報を使いながら、2Dの映像から3Dの空間を復元する。LiDARが物理的にレーザーで測っていた距離を、AIが映像から計算で出せるようになった。

HDマップが不要になる理由はさっき説明した通り。「道を暗記する」のではなく「運転を理解する」から。

だからWayveの車のコストはWaymo方式の10分の1以下に抑えられる。高額なLiDARもいらない。事前に作り込んだHDマップもいらない。

ただし、東京のプロトタイプにはLiDARもレーダーも載っている

ここは正直に書いておくと、東京で走る実証車両にはカメラだけでなく、レーダーとフロント向きのLiDARも搭載されている

理由は安全性の冗長化だ。実証実験の段階では、万が一のバックアップとして複数のセンサーを積んでおく。カメラのAIが出した判断を、レーダーやLiDARのデータと照合して検証する役割もある。

Wayveは将来の量産車では「カメラ+レーダー」が最適な組み合わせだと明言している。レーダーは安価で天候に強く、カメラの弱点を補完する。LiDARは量産段階では外す方向。

行ったことのない街でも走れる。地図を覚えているのではなく「運転ができる」から。人間と同じだ。

この2つの方式の違いを整理するとこうなる。

主流方式(Waymo等) Wayve方式
主要センサー LiDAR+カメラ+レーダー カメラ+レーダー(量産時)
地図 HDマップ必須 HDマップ不要
判断方式 人間が書いたルール+AI AIが運転データから自分で学習
新しい都市への展開 地図作成が必要(数ヶ月〜) そのまま走れる
センサーコスト 高い(LiDAR搭載) 従来の10%以下

実際にWayveは、2025年半ばまでに世界90都市で事前の地図なしの自動運転デモに成功している。東京でもロンドンでも、同じAIがそのまま走れる。

ちなみにTeslaのFSD(Full Self-Driving)も「カメラだけ・HDマップなし」という考え方では近い。ただしTeslaは個人所有の車に搭載する形で、ロボタクシーサービスとして第三者にAI技術を提供する形態はWayveが先行している。

なぜ東京が選ばれたのか

東京の道路は、自動運転にとって世界でも最難関クラスだ。

狭い路地、入り組んだ交差点、自転車と歩行者が混在する環境。一方通行も多いし、路上駐車も日常的にある。サンフランシスコやフェニックスの整然とした道路とは根本的に違う。

じゃあなぜ、わざわざこんな難しい場所を選んだのか。技術的な自信の表明だけではない。もっと切実なビジネス上の理由がある。

日本のタクシー業界が深刻な人手不足に陥っている

日本のタクシー運転手は現在約22万人。4年間で約20%減少した。平均年齢は全国で60.7歳、東京でも58歳。運転手の30%以上が65歳以上だ。

2024年にはタクシー会社の倒産が過去最多の82社を記録した。主な原因は運転手不足と燃料費の高騰。コロナ禍で東京だけで1万人以上のドライバーが離職し、そのまま戻ってきていない。

ロボタクシーは「技術のデモ」ではなく、「社会課題の解決策」として求められている。これが東京が選ばれた最大の理由だと思う。UberのCEO、Dara Khosrowshahiも「日本はドライバー不足への対応が求められる重要な市場」と明言している。

日産のホームグラウンドであること

日産の本社は横浜にある。ロボタクシーに使われるのは日産リーフ。自社のホーム市場で、自社の車両を使って実証するのは、日産にとっても自然な選択だ。

日産は2027年度にAI技術を活用した次世代ProPILOTの投入も計画していて、今回の実証で得られるデータはその開発にも直結する。

Wayveはすでに東京でテストしている

Wayveは2025年4月に横浜に開発拠点を設置している。東京の銀座エリアなどですでに自動運転テストを実施済みで、赤信号、横断歩道、合流といった場面での対応を確認している。

日本での走行データを学習に取り込んだ結果、わずか3ヶ月で性能が275%向上したという報告もある。しかも使ったのは全体の2%程度の日本データだけ。

HDマップ方式だったら、東京の複雑な道路を全部マッピングするだけで途方もない時間がかかる。でもWayveの方式なら、AIがリアルタイムに周囲の状況を理解して判断するから、事前の地図整備が不要。東京のような複雑な環境こそ、この「地図に頼らないAI」の真価が問われる場所だ。

いつから、どんな体験ができるのか

具体的に何が変わるのか、分かっていることをまとめる。

  • 時期:2026年後半(関係当局との協議が前提)
  • 車両:日産リーフベースのEV。Wayve AIドライバー+NVIDIA DRIVE Hyperion搭載
  • 呼び方:Uberアプリから配車。普段のUberと同じ操作で呼べる
  • 安全要員:初期段階では訓練されたセーフティオペレーターが同乗
  • 車内体験:直感的な車内ディスプレイやコミュニケーションシステムを日産が開発中

つまり、年内にUberアプリを開いて「ロボタクシーに乗る」という体験ができる可能性がある。

完全無人ではない。安全要員が同乗するから、見た目は「運転手がいるのにハンドルに手を触れていないタクシー」という感じになるはず。でも、AIが運転判断をして、人間はそれを見守っているだけという状態は、乗ってみたらかなりインパクトがあると思う。

Wayveは世界10都市以上での展開を計画していて、ロンドンでも同様のパイロットが進行中。東京はアジアで最初の都市になる。
(参考:Wayve, Uber and Nissan Announce Collaboration on Robotaxis – Uber Investor Relations

AIが「画面の外」に出てきている

ここ数年、AIの話題といえばChatGPTやClaude、画像生成といった「画面の中」の話が中心だった。

でも2026年に入って、AIが現実世界に出てくるスピードが明らかに上がっている。NVIDIAのJensen Huangが自動運転車でサンフランシスコを走ったニュースもあったし、今度は東京の話だ。

「自動運転タクシーはまだ先の話」と思っていた人も多いと思う。でも、年内に東京の道を走り始める。

技術のアプローチも、HDマップに頼る従来方式から、AIが自分で判断するエンドツーエンド方式へと変わりつつある。これは自動運転に限った話じゃなくて、AI全般の流れとして「ルールを人間が書く」から「AIが自分で学ぶ」への転換が、あらゆる分野で起きている。

東京でロボタクシーに乗れる日が来たら、まず乗ってみたい。その体験を記事にできるのが楽しみだ。


AI LIFEコミュニティでは、自動運転やAIエージェントなど、AIが現実世界に広がっていく最新動向を共有しています。
AI LIFEコミュニティに参加する

Author

松原 潤

松原 潤

官公庁→大手向けITコンサル→SIer→中小企業向けITコンサルを経験。 現在はAIコミュニティ「AI LIFE」を運営しつつ、DX/業務改善、CRM・Web・データ活用を支援。 生成AIと自動化で“売上アップ×工数削減”を実現するのが得意です。