OpenAIが約1兆円で買収した、元Apple主席デザイナー Jony Iveのスタートアップ「io」。ついに最初のAIデバイスが2026年末に発売される、との観測が複数メディアで出てきた。
スペックが面白く、このデバイスには画面がない。
手のひらサイズで、音声と触覚(バイブ・タップ)で操作する。Sam Altmanは公式に「ポストiPhoneを作る」と言っており、Jony IveにとってもApple退社後、最大のプロダクトになる。
単なる新ガジェットの話ではない。スマホを軸に成り立っている今のAI体験(ChatGPTアプリ、Claudeアプリ)の構図そのものを揺らす可能性がある。広告、SaaS、デバイス業界を巻き込んで、AI業界の権力構造を作り直す動きだ。
「画面がない」と聞くと、正直ピンと来ない人も多いと思う。でも、こう考えるとイメージしやすい。
自分専用の秘書が、常に横を歩いている感覚。
「〇〇さんからメッセージ届きましたよ」「最新ニュース教えて?」と聞いたら「こんなニュースがあります」。人と話すのに画面は要らない。それと同じことを、AIとの間で成立させるデバイスだ。
「io」とは何か、今どこまで来ているか

まず現状を整理する。
- 2024年:OpenAIがJony Iveのスタートアップを約1兆円で買収
- 2025年〜2026年初頭:開発が進行。外部公開は限定的
- 2026年4月時点:複数の海外メディアで「年末発売」の観測
Sam Altmanと Jony Iveは、買収時点から「スマホとは別のAI体験を作る」と公言していた。2年近く表に出さずに仕込んできて、いよいよ出る段階に来ている。

噂されているスペック詳細
現時点で報じられている仕様はこう。
- サイズ:手のひらに収まる。ポケットに入る小型デバイス
- ディスプレイ:なし
- 入出力:音声、触覚(バイブ・タップ)
- センサー:カメラ、マイクで環境を理解する
- 接続:常時オンラインでChatGPTと通信
- 価格:未公表。Humane AI Pin(約700ドル)以上と推定
Humane AI PinやRabbit R1を知っている人は、「また同じ流れ?」と思うかもしれない。ただ、Jony Iveが設計しているという一点だけで、意味合いは違ってくる。
なぜ「画面なし」なのか
ここが一番面白い。
iPhone登場以降、人類は1日のうち何時間も画面を見ている。通知、SNS、動画、ニュース。生活の大半が「画面の中」に吸い込まれてきた。

ioの設計思想は、この「画面を見続ける体験」から人間を引き剥がすこと。
AIとの対話は、画面を見るより音声の方が自然だ。文字を読み上げる必要もない。触覚フィードバックで「今聞いているよ」「返答が来たよ」を伝えれば十分、というコンセプトになっている。
これはJony Iveがずっと言ってきた「テクノロジーは存在を消すべき」という思想と一致する。iPhoneが人を画面に縛ったことへの、本人なりの答えとも読める。
画面がないと、ニュース・動画・メッセージ・ゲームはどうなるのか
冒頭に書いた「自分専用の秘書が横にいる感覚」を、もう少し具体的に広げてみる。
ニュースを読むとき。動画を見るとき。メッセージが届いたとき。ゲームをするとき。これら全部、今のスマホは画面ありきで成り立っている。画面がないioで、これらが一体どう扱われるのか。
ポイントは「全部ioでやる」前提ではないこと。
秘書が横にいても、映画を見せてくれるわけじゃない。ゲームの相手になってくれるわけでもない。でも、耳から入る情報処理や、言葉でやり取りすることは圧倒的に得意だ。ioもまったく同じ考え方で作られている。
現時点で読み取れる範囲で、1つずつ整理してみる。
ニュース:音声で「読み上げ」と「要約」
ニュース閲覧は、画面で記事を読む体験ではなくなる。
- 「今日のニュースを聞かせて」と話しかけると、ChatGPTが主要トピックを音声で要約してくれる
- 気になる話題で「もっと詳しく」と返すと、深掘りした内容を読み上げる
- 記事URLを共有された場合は、内容をAIが要約して読み上げる
イメージとしては、ラジオやPodcastに近い。ただし、自分の関心に合わせてリアルタイムで内容を組み替えてくれる、AI版ラジオという感じだ。
「ながら聴き」がベース。歩いている時、運転中、家事の最中、散歩中。画面を見ない時間にニュースを取りに行ける。
動画:基本「見ない」前提のデバイス
ここはストレートに言うと、ioは動画視聴のためのデバイスではない。
YouTubeやNetflixを楽しみたいときは、これまで通りスマホ・タブレット・テレビを使う。ioは映像コンテンツの再生に対応する設計ではない。
ただし、動画に関連する用途は2つある。
- 動画の音声要約:YouTube動画のURLを共有して「内容を要約して」と頼むと、音声で要約を返す
- カメラで撮ったものの解説:目の前のものを写して「これ何?」と聞くと、AIが説明する
映像エンタメはスマホやテレビ、AI対話・情報処理はio、という棲み分け。「全部1台で」を捨てている割り切りが、ioの設計思想の核心と言える。
メッセージ:触覚通知+音声読み上げ+音声返信
メッセージ受信は、3段階で処理される。
- 到着通知:振動またはタップ音で「届いた」を知らせる
- 内容の確認:「何のメッセージ?」と聞くと、誰から・何が届いたかを音声で読み上げる
- 返信:音声で「〇〇って返して」と言うと、AIが文章化して送信する
イメージは、車のハンズフリー通話を一段階高度化したもの。さらにAIが内容を要約してから読み上げてくれるので、長文メッセージも30秒で内容把握できる。
ただし、画像付きメッセージや絵文字スタンプ中心のやり取りは、ioだけでは完結しない。LINE・Instagram・SNSのようなビジュアル前提のコミュニケーションはスマホで開く必要がある。
ゲーム:基本「対象外」、ただし音声ゲームの可能性は残る
これも素直に言うと、画面ゲームはioでは遊べない。スマホゲームやNintendo Switch、PS5の代替にはならない。
ただし、新しいジャンルが生まれる可能性はある。
- 音声RPG:AIが物語を進行し、プレイヤーは音声で選択・行動を返す
- クイズ・推理ゲーム:AIが問題を出し、音声で回答を返す
- 言語学習ゲーム:AIと会話しながらレベルアップしていく
1990年代のテキストアドベンチャーが、AI時代に音声で復活する、という想像もできる。とはいえ「ゲーム機の代替」を目指したデバイスではない。
結論:ioは「やる仕事」を絞り込んだAI専用機
ここまで整理すると、ioが何のためのデバイスかが見えてくる。
ioは『スマホの代替』ではなく、『AIとの対話と情報処理』に絞り込んだ専用デバイス。
具体的に、ioの守備範囲はこのあたりだ。
| 用途 | io対応 | 代替が必要なら |
|---|---|---|
| AIとの対話・質問 | ◎ 主用途 | — |
| ニュース・情報取得 | ◯ 音声要約 | — |
| メッセージ送受信(テキスト) | ◯ 音声で完結 | — |
| 音声メモ・記録・要約 | ◎ 主用途 | — |
| 翻訳・通訳 | ◎ リアルタイム | — |
| 動画視聴 | × 非対応 | スマホ・タブレット |
| SNS・写真共有 | × 部分的 | スマホ |
| 画面ゲーム | × 非対応 | スマホ・ゲーム機 |
| 動画通話 | × 非対応(音声通話のみ) | スマホ・PC |
つまりioは、スマホを置き換えるデバイスではない。スマホと並べて持ち、AI対話と音声処理だけを担うサブデバイスとして使う形になる。
『今までスマホで5分かけて開いて、検索して、結果を読んで、答えを得ていた』を、ioで『話しかけて、聞く』の30秒に圧縮する。
これがioが成立するなら、解いている課題だ。動画もゲームも、もとから狙っていない。
先行事例は「ほぼ全滅」している
忘れてはいけないのは、画面なしAIデバイスの先行事例は、ほぼ失敗しているという事実だ。

- Humane AI Pin:2024年発売、2025年に事業終了・HPに吸収
- Rabbit R1:発売直後に話題、定着せずにフェードアウト
失敗の共通点はシンプルだ。
- レスポンスが遅い
- バッテリーが持たない
- できることが限定的で、結局スマホを開く
OpenAI×Jony Iveがこれを乗り越えられるかは、正直まだ読めない。ただ、AIモデルの性能とレスポンス速度はHumaneの頃と比べて別物になっている。常時ChatGPT-5.4クラスのモデルが即答できるなら、実用性の壁は相当低くなる。
業界への影響——どこが揺れるか
仮にこのデバイスが一定の成功を収めた場合、業界地図がどう動くか。現時点で読める範囲で並べてみる。
| プレーヤー | 受ける影響 |
|---|---|
| Apple | iPhone事業の長期脅威。Siri刷新の遅れが効いてくる |
| Pixel・AndroidのAI体験で正面対抗 | |
| Microsoft | Copilot+ PCで別軸の戦い |
| Samsung | Galaxyの新形態で対応 |
| 広告業界 | 画面がないと既存の広告モデルが成立しない |
| SaaS業界 | UI依存のサービスは音声向けに再設計が必要 |
Apple視点で見ると特に厳しい。2026年に入ってSiriの中身をGeminiに置き換えた件も、内製AIの遅れを認めた動きだ。そこにOpenAI×Jony Iveが正面から出てくる。
日本市場へはいつ来るか
日本での発売時期は現時点で不明。米国先行、日本は半年〜1年後というパターンになりそうだ。
日本で普及するかどうかは、次の3点にかかってくる。
- 日本語音声認識:方言・固有名詞・早口に耐えられるか
- キャリア取り扱い:ドコモ・au・ソフトバンクが扱うか、並行輸入になるか
- 法人向けユースケース:現場作業・接客・営業で「画面を見ない」価値が成立するか
特に3番目は、日本のホワイトカラー業務で刺さりやすいかもしれない。手が塞がる現場作業、対面接客、移動中の営業活動。画面を見なくていいことそのものが価値になるシーンは意外と多い。
経営者・DX担当が考えておくべきこと
ここから先は中長期の話だ。「io」が売れるかどうかよりも、「画面を見ないAI体験」が一般化した時、自社の働き方がどう変わるか、を想像しておく価値がある。
具体的に考えるべきポイント。
- PCとスマホの2台体制はどう変わるか:第3のデバイスが入ると、業務フローが再設計される
- 営業・接客・現場作業での活用:手が塞がる業務との相性は良い
- 機密情報の扱い:常時マイクONが前提のデバイスは、会議室での使用ルールを整える必要がある
「スマホ前提のAI戦略」を組んでいる会社は、中長期で見直し材料を抱えることになる。
まだ誰も正解を知らない
io が成功するかは、正直読めない。Jony Iveのデザイン力が効くのか、Humane や Rabbit と同じ運命を辿るのか。
ただ、OpenAIが本気でハードに参入するという事実だけは確定している。そしてそれは、AI業界のパワーバランスを組み替える動きだ。
経営者として見ておくべきは、「このデバイスが当たるか」ではなく「画面前提のAI体験が、いつ変わり始めるか」の時間軸だと思う。2026年末はその起点になる可能性が高い。
AI LIFEでは、こうした業界構造の変化を経営者・実務者の視点で整理して共有している。デバイスが変わる時代にどう備えるか、といった議論も出ている。興味があれば覗いてみてください。
(参考:AI LIFEとは)