NEWS

中国AIの「コスト破壊」が始まった。MiniMax M2.5が示す「性能同等・価格20分の1」の現実

中国のAIスタートアップMiniMaxが出したM2.5というモデルが、静かにとんでもないことになっている。

SWE-Bench(コーディングベンチマーク)でClaude Opus 4.6に0.6ポイント差まで迫り、多言語ベンチマークのMulti-SWE-Benchでは逆転して1位。
APIの価格はClaude Opusの約20分の1。しかもオープンソース。

「性能は同等、コストは20分の1」。これが現実になった。

MiniMax M2.5の衝撃的なコスパ

具体的な数字を比較する。

MiniMax M2.5 Claude Opus 4.6 Codex(OpenAI) Gemini 2.5 Pro
入力コスト(100万トークン) $0.15 $5.00 $0.25 $1.25
出力コスト(100万トークン) $1.20 $25.00 $2.00 $10.00
SWE-Bench Verified 80.2% 80.8% 78.0% 63.8〜73.1%
Multi-SWE-Bench 51.3%(1位) 50.3%
推論速度 50〜100トークン/秒 約33トークン/秒 高速

1つのSWE-Benchタスクにかかるコストは、M2.5が約0.15ドル、Claude Opusが約3ドル。20倍の差がある。
(参考:MiniMax M2.5 – MiniMax

なぜこんなに安いのか。他のモデルとの構造の違い

M2.5は230億パラメータのMoE(Mixture of Experts)アーキテクチャを採用している。
推論時に実際に使われるのは100億パラメータだけ。全体の約43%。

「専門家」を複数用意しておいて、タスクに応じて必要な専門家だけを動かす。
使わないパラメータには計算リソースを割かない。これが低コスト・高速推論の秘密。

他の主要モデルと比較すると、この設計思想の違いがよくわかる。

モデル アーキテクチャ 総パラメータ 推論時の稼働パラメータ 推論速度
MiniMax M2.5 MoE 230億 100億(約43%) 50〜100トークン/秒
Claude Opus 4.6 Dense(全結合型) 非公開 全パラメータ 約33トークン/秒
GPT-5.4 MoE 非公開(推定1兆超) 非公開 非公開
Qwen 3.5 MoE 非公開 非公開 高速(MoEの恩恵)
Gemini 2.5 Pro MoE 非公開 非公開 高速

Claude OpusはDense(全結合型)アーキテクチャ。推論のたびに全パラメータが動く。精度は高いが、その分コストもかかる。

一方、GPT-5.4やQwen 3.5、Gemini 2.5 ProもMoEを採用しているが、M2.5ほどコストを下げてはいない。
M2.5が特異なのは、MoEの効率化を極限まで突き詰めて、コストを最優先に設計している点。

Lightning版では100トークン/秒を実現している。Claude Opusの約3倍の速度。
MiniMaxの公式メッセージは「Intelligence too cheap to meter(計量する必要がないほど安い知能)」

OpenRouterでトークン処理量が世界1位。ただし注意点がある

3月第1週、M2.5の週間トークン処理量は1.87兆トークンでOpenRouter上の全モデル中1位になった。

2位はQwen 3.5(Alibaba)、3位はDeepSeek V3。上位3モデルのうち3つとも中国製。

中国全体のAIモデル週間トークン処理量は4.19兆トークンで、アメリカの3.63兆トークンを2週連続で上回った。
3月第2週にはさらに伸びて4.69兆トークン。OpenRouterでの中国製モデルのシェアは61%に達している。

ただし、ここは冷静に見る必要がある。

これはあくまでOpenRouterというAPIアグリゲーター上での数字。
OpenRouterはコスパ重視のユーザーが多いプラットフォームで、安い中国モデルに利用が集中しやすい構造がある。

Claude OpusやGPT-5.4は自社API経由で直接使われていることが多く、OpenRouterの数字には含まれない。
企業向けの利用や、Microsoft Azure・Amazon Bedrock経由のトラフィックも別。

つまり「AI全体で中国がアメリカを抜いた」とは言い切れない。
ただ、コスパで選ぶ開発者層において中国AIが圧倒的に支持されているという事実は、確かに読み取れる。
(参考:China’s AI models top US with 4.69 trillion weekly tokens – CGTN

385人の会社が業界を揺らしている

MiniMaxの社員数は385人。
CEOのYan Junjieは36歳。元SenseTimeのVP。2021年12月、ChatGPTが登場する前に会社を立ち上げた。

2026年1月に香港でIPO。初日に株価が109%上昇し、時価総額は約137億ドルに。AI LLM企業として過去最大のIPOだった。

社内ではM2.5を使って日常業務の30%を自動処理し、新規コードの80%がAI生成だという。自分たちの製品を自分たちで使い倒している。
(参考:MiniMax doubles in Hong Kong debut – CNBC

MiniMaxだけじゃない。中国AIは一斉に動いている

2月だけで中国から4つのフロンティアモデルが同時に出てきた。

  • MiniMax M2.5:コーディング最強クラス、コスト破壊
  • Kimi K2.5(Moonshot AI):金融推論でClaude Opusを上回る
  • Qwen 3.5(Alibaba):99万トークンのコンテキスト、コーディングでOpus超え
  • GLM-5(Zhipu AI):744億パラメータ、中国製チップ(Huawei Ascend)で動作

全部MoEアーキテクチャ。全部オープンソースまたはオープンウェイト。

中国勢は「性能で差をつける」ではなく「コストで圧倒する」戦略に完全に振り切っている。

AIのコモディティ化が始まった

これは「中国AIすごい」で終わる話じゃない。

AIモデルの性能差がなくなり始めている。差がつくのはコストと速度。

SWE-Benchのスコアが80%前後で各社横並びになった今、ユーザーが選ぶ基準は「どれが安くて速いか」に移っている。M2.5がOpenRouterで最も使われているモデルになった事実が、それを証明している。

JPモルガンは中国のトークン消費量が2030年までに370倍になると予測している。年間成長率330%。

日本企業がAIプラットフォームを選ぶ基準も変わらざるを得ない。「最も賢いモデル」ではなく「目的に対して最もコスパがいいモデル」を選ぶ時代が来ている。

ちなみに、自分も実際にM2.5をVS Codeの拡張機能「Cline」に設定して、コーディングで使ってみることにした。Youtubeにてレビュー動画を公開する予定。
コスト20分の1のAIが、実際の開発現場でどこまで通用するのか。気になる方はお楽しみに。


AI LIFEコミュニティでは、AIモデルの最新動向やコスト比較について情報を共有しています。
AI LIFEコミュニティに参加する

Author

松原 潤

松原 潤

官公庁→大手向けITコンサル→SIer→中小企業向けITコンサルを経験。 現在はAIコミュニティ「AI LIFE」を運営しつつ、DX/業務改善、CRM・Web・データ活用を支援。 生成AIと自動化で“売上アップ×工数削減”を実現するのが得意です。