Googleがやってくれた。
世界3位のオープンモデル「Gemma 4」を、完全無料で公開。商用利用も改変も自由。
これ、地味に見えてかなり大きい話だと思う。
そもそもGemmaって何? Geminiとの違い
まず「Gemma」と「Gemini」の違いを整理しておきたい。
Geminiは、GoogleがChatGPTの対抗として作ったAIサービス。ブラウザやアプリから使う、いわゆる「クラウドAI」。Googleのサーバー上で動いていて、ユーザーはAPIやアプリ経由でアクセスする。
一方のGemmaは、Geminiと同じ技術をベースにした「手元で動かせるAI」。自分のパソコンや自社のサーバーにインストールして、ネットに繋がなくても使える。
つまり、Gemini=Googleのクラウドで動く高性能AI、Gemma=同じ技術を小型化して手元で動かせるオープンソースAI、という関係。
(参考:Google Blog: Gemma 4)
Gemma 4のスペック
基本スペックを整理する。
- モデルサイズ: 5B / 8B / 26B / 31B の4種類
- コンテキスト長: 最大256Kトークン(日本語で約12万文字相当)
- マルチモーダル対応(テキストだけでなく画像も理解できる)
- 140以上の言語をサポート(日本語含む)
- ライセンス: Apache 2.0(商用利用、改変、再配布すべてOK)
ちなみに「5B」「31B」というのはパラメータ数のこと。5B=50億パラメータ、31B=310億パラメータ。数字が大きいほど賢いけど、その分動かすのに必要なマシンパワーも大きくなる。
用途や予算に合わせて4サイズから選べるのがありがたい。
主要AIモデルとの性能比較
「世界3位って言われてもピンとこない」と思うので、主要なAIモデルと比較してみる。
| モデル名 | 開発元 | パラメータ数 | 料金 | ライセンス | MMLU Pro(総合知識) | AIME 2026(数学) | LiveCodeBench(コーディング) |
|---|---|---|---|---|---|---|---|
| GPT-5.4 | OpenAI | 非公開 | 有料 | クローズド | 92.0 | 100 | 95.1 |
| Claude Sonnet 4.5 | Anthropic | 非公開 | 有料 | クローズド | 89.1 | 87.0 | 93.0 |
| GPT-4o | OpenAI | 非公開 | 有料 | クローズド | 88.7 | – | 90.2 |
| Llama 4 Maverick | Meta | 4,000億 | 無料 | 制限付きオープン | 88.0 | – | – |
| Gemma 4 31B | 310億 | 無料 | Apache 2.0 | 85.2 | 89.2 | 80.0 | |
| Gemma 4 26B | 260億(実稼働38億) | 無料 | Apache 2.0 | 82.6 | 88.3 | 77.1 | |
| Gemma 4 E4B(≒5B) | 45億 | 無料 | Apache 2.0 | 69.4 | – | 52.0 | |
| Gemma 4 E2B(≒3B) | 23億 | 無料 | Apache 2.0 | 60.0 | – | 44.0 |
注目してほしいのは、Gemma 4 31Bの数学スコア(AIME 2026: 89.2)がClaude Sonnet 4.5(87.0)を上回っているということ。310億パラメータという比較的小さな無料モデルで、有料の大型モデルに匹敵する精度が出ている。
26Bモデルも面白い。260億パラメータのうち実際に動くのは38億パラメータだけ(MoEという仕組み)。軽いのに賢い。数学スコアは88.3で31Bとほぼ変わらない。
一番小さいE2B(23億パラメータ)でもMMLU Pro 60.0。スマホで動くサイズでここまで出るのは正直驚き。
もちろんGPT-5.4のような最新の有料モデルには及ばない部分もある。でも「無料でここまで出る」というのが衝撃的。
「Llama 4に負けてるのでは?」という疑問について
表を見ると、Llama 4 MaverickのMMLU Proが88.0で、Gemma 4 31Bの85.2を上回っている。これだけ見ると「結局Googleはオープンソースでも一番賢いものを作れなかったのでは?」と思うかもしれない。
でも、ここで注目してほしいのはモデルのサイズ。
Llama 4 Maverickは4,000億パラメータ。Gemma 4 31Bは310億パラメータ。約13倍の差がある。
Maverickは巨大なサーバーが何台も必要。個人や中小企業が手元で動かすのは現実的ではない。一方、Gemma 4 31Bはノートパソコンでも動かせる。
つまり「同じ土俵の勝負」ではない。
実際、Arena AIリーダーボード(ユーザーが実際に使って評価するランキング)では、Gemma 4 31Bはオープンモデル中ではなく全モデル(有料含む)の中でグローバル3位にランクインしている。31Bという小さなサイズで、自分の20倍以上のモデルを押しのけてこの順位。
Googleの狙いは「一番賢いモデルを作ること」ではなく、「手元で動かせるサイズで、最も賢いモデルを作ること」。そこでは明確に勝っている。
(参考:Gemma 4 vs Llama 4 vs Mistral Small 4: Full Comparison)
MetaのLlama 4 Maverickはもうひとつ注意点がある。「制限付きオープン」であること。月間7億ユーザーを超えるサービスで使う場合は別途許可が必要で、モデルの出力で競合モデルを学習させることも禁止されている。
「完全に自由に使える高性能AI」という点では、Gemma 4のApache 2.0が頭ひとつ抜けている。
Apache 2.0ライセンスの意味
「ライセンスの話」と聞くと眠くなるかもしれないけど、ここが一番大事なポイント。
Apache 2.0というのは、ソフトウェアの世界で最も自由度の高いライセンスのひとつ。「好きに使っていいよ。お金を稼いでもいいよ。改造してもいいよ」という意味。
前バージョンのGemma 3まではGoogle独自のライセンスだった。商用利用に制限があって、企業が本番環境に採用しにくかった。
Apache 2.0になったことで、誰でも、何にでも、自由に使える。
(参考:Google Open Source Blog)
Googleはなぜ「無料」にしたのか
ここが気になるところ。世界3位の性能のAIを、なぜタダで配るのか。
Googleの戦略は「二刀流」だと思っている。
Gemini(クラウド)で直接課金して稼ぐ。Gemma(オープンソース)で開発者のエコシステムを広げる。
具体的にリターンを得るポイントは3つ。
- Google Cloudへの誘導: たとえば、ある企業がGemma 4で社内チャットボットの試作品を作ったとする。「これいけるな」となったら、次は大量のユーザーに対応できる本番環境が必要になる。そのとき「Gemmaと同じ技術のGeminiがGoogle Cloudですぐ動きますよ」と言われたら、移行のハードルはかなり低い。開発で使ったコードやノウハウがそのまま活かせるから。入口は無料、本格運用は有料。
- Google系の技術者を増やす: すでに4億回以上ダウンロードされ、10万以上の派生モデル(Gemmaをベースに改造したモデル)が生まれている。Gemmaを使い慣れた開発者は、自然とGoogleの技術体系に詳しくなる。結果的に「AIを導入するならGoogle系で」という選択肢が広がっていく。
- MetaのLlamaへの対抗: Metaが積極的にオープンソースAIを公開している。Googleが何もしなければ、開発者がMeta陣営に流れてしまう。Apache 2.0化はその危機感の表れ。
つまり、Gemmaは「入口」であり「お試し版」。無料で開発者を集めて、Google Cloudやその他の有料サービスで回収する戦略。
実はこれ、Googleが昔からずっとやってきたパターンそのもの。
- Gmail: メールを無料で提供 → Google Workspace(企業向け有料版)で回収
- Android: OSを無料で配布 → Google PlayやGoogle広告で回収
- Google Maps API: 最初は無料で開放 → 開発者が依存した頃に有料化
- Google Workspace(旧G Suite): 個人は無料で使える → 企業が使い始めたら有料プランに誘導
「まず無料で市場を取って、依存度が上がったところで別のポイントで課金する」。Googleはこのやり方で20年以上成功し続けている。
Gemmaもまさにこの延長線上にある。AIの世界でも同じ勝ちパターンを再現しようとしているのが見える。
(参考:Gemma 4 and Gemini: Two Paths Shaping Google’s AI Strategy)
5Bモデルが地味に熱い
個人的に注目しているのは、最小の5Bモデル。
5Bは「50億パラメータ」のこと。31Bの約6分の1のサイズ。その分、動かすのに必要なスペックがぐっと下がる。
一般的なノートパソコンのGPU1枚で動く。高額なサーバーがいらない。メモリも1.5GB程度で済む。
なぜ熱いかというと、「ネットに繋がなくてもAIが使える」という世界が現実になるから。
たとえばこんなユースケースが考えられる。
- 医療アプリ: 検査結果や保険証をスマホで撮影して、その場でデータを読み取る。患者の個人情報がネット上に出ない
- 現場作業: 電波が届かない工場や建設現場で、設備マニュアルの写真を読み取って手順を案内する
- 社内ツール: 社外秘の書類をAIに要約・翻訳させたいけど、ChatGPTに送るのはセキュリティ的にNG。5Bなら自社サーバー内で完結する
- スマホアプリ: Googleは既にAndroidの開発者プレビューにGemma 4を組み込んでいる。スマホ単体でAI機能を持つアプリが増えていくはず
今はChatGPTやGeminiのようなクラウドAIが主流だけど、「AIを使うのにAPI料金を毎月払い続ける」以外の選択肢が確実に増えてきている。
(参考:Google Developers Blog: Gemma 4 on the Edge)
オープン vs クローズドの構図
今、AI業界は2つの陣営に分かれつつある。
オープン陣営: MetaのLlama、GoogleのGemma。モデルを無料公開して、開発者コミュニティで勝負する。
クローズド陣営: OpenAI、Anthropic。モデルは非公開で、API課金で収益を上げる。
MetaとGoogleがオープンソースで競い合うことで、無料で使えるモデルの性能がどんどん上がっている。
これはAIを使いたい企業や個人にとっては本当にありがたい話。高性能なAIモデルを、自分のサーバーで、自分のデータを外に出さずに動かせる時代が着実に来ている。
(参考:Revolution in AI)
まとめ
Gemma 4のApache 2.0公開は、単に「Googleが新しいモデルを出した」という話ではない。
世界トップクラスの性能を持つAIモデルが、完全に自由に使える形で公開された。
商用利用も改変も再配布も自由。140以上の言語対応。最大256Kコンテキスト。マルチモーダル。
そしてその裏には、Google CloudやGeminiへの誘導という明確な戦略がある。
オープンソースAIの競争が、また一段階進んだ。
AI LIFEコミュニティでは、オープンソースAIの最新動向や活用方法について日々共有しています。
詳しくはこちら: AI LIFEコミュニティに参加する