2026年4月2日、GoogleがGemma 4をリリースした。「またGoogleのオープンモデルか」と思うかもしれないが、今回は本気度が違う。
前世代のGemma 3は性能は良かったが、独自ライセンスに利用制限があり、商用利用に二の足を踏む開発者が多かった。結果、ライセンスがクリアなQwen(Alibaba)やLlama(Meta)にシェアを奪われた。
Gemma 4はApache 2.0に切り替えた。制限なし。完全に自由。そしてベンチマークは前世代を桁違いに上回った。
Gemma 4 の全モデルラインナップ
| モデル | パラメータ | コンテキスト | 入力 | 対象デバイス |
|---|---|---|---|---|
| E2B | 実効2B | 128K | テキスト・画像・音声 | スマホ・Raspberry Pi |
| E4B | 実効4B | 128K | テキスト・画像・音声 | スマホ・ノートPC |
| 26B MoE | 26B(MoE、実効4B) | 256K | テキスト・画像 | デスクトップ・GPU |
| 31B Dense | 31B | 256K | テキスト・画像 | ワークステーション |
2つの層に分かれている。エッジ層(E2B/E4B)はスマホやRaspberry Piで動く超軽量モデル。ワークステーション層(26B/31B)はデスクトップGPU向けの高性能モデル。
前世代から何が変わったのか
1. ライセンスがApache 2.0に ― これが最大の変化
Gemma 3までは独自ライセンスだった。利用制限、MAU制限、Googleが規約を変更できる条項——「オープン」と言いつつ実質的に縛りがあった。VentureBeatは「ライセンス変更がベンチマークより重要かもしれない」と書いている。
Gemma 4はApache 2.0。Qwen 3.5と同じライセンスだ。制限なし。商用利用完全フリー。改変・再配布自由。これでようやくGemmaは「本当のオープンモデル」になった。
2. ベンチマークが別次元 ― 数学4倍、コーディング20倍
| ベンチマーク | Gemma 3 | Gemma 4 | 倍率 |
|---|---|---|---|
| 競技数学 | 20.8% | 89.2% | 4.3倍 |
| Codeforces ELO | 110 | 2150 | 19.5倍 |
| Arena AI Text | - | オープンモデル3位 | - |
競技数学が20.8%→89.2%。Qwen 3.5-27Bの48.7%をほぼ2倍に引き離した。Codeforcesは110→2150で「エキスパート級」の競技プログラマーレベルに到達。これは「改善」ではなく「世代交代」だ。
3. 4倍高速、バッテリー消費60%削減
同じタスクが前世代の4倍速く処理できる。バッテリー消費は60%削減。E2Bモデルはメモリ1.5GBで動作し、Raspberry Pi 5で133トークン/秒のプリフィル速度を達成。スマホのバックグラウンドで常時動かしても実用的だ。
4. 音声入力にネイティブ対応(E2B/E4B)
小型モデル(E2B/E4B)はテキスト・画像に加えて音声入力にもネイティブ対応している。外部の音声認識エンジン不要で、デバイス上でリアルタイムに音声を理解する。
5. 関数呼び出し(Function Calling)がネイティブ対応
全モデルで関数呼び出しと構造化JSON出力がネイティブサポートされた。これはAIエージェント構築に直結する機能だ。外部ツールのAPIを自律的に叩き、複数ステップの計画を立てて実行できる。
ゲーム開発者にとって何が変わるか
NPCにAIを組み込むのが現実的になった
Gemma 4 E2Bは2Bパラメータ、メモリ1.5GBで動く。これはゲーム実行中のバックグラウンドで動かせるサイズだ。
考えられるユースケース:
- 会話するNPC:プレイヤーの質問に自然言語で応答する。台本に縛られない自由な会話
- 音声コマンド:「右の敵を攻撃して」とマイクに話すと、AIが解釈してゲーム内アクションに変換
- 適応型AI:プレイヤーの行動パターンを学習し、戦略を変える敵AI
- ゲーム内ヘルプ:「この武器の使い方は?」に音声で答えるAIアシスタント
これらがクラウド接続なし、デバイス上だけで動く。オフラインゲームでもAI NPCが成立する。
Apache 2.0 = ゲームに組み込んでも完全無料
前のGemmaは独自ライセンスで「ゲームに組み込んでいいのか?」が不透明だった。Apache 2.0なら完全に自由。商用ゲームに組み込んでも、改変しても、再配布しても問題ない。
Qwen 3.5 / Llama 4 との比較 ― どれを使うべきか
| Gemma 4 | Qwen 3.5 | Llama 4 | |
|---|---|---|---|
| ライセンス | Apache 2.0 | Apache 2.0 | Llama License |
| 数学 | 89.2% | 48.7% | - |
| コーディング | ELO 2150 | 高い | - |
| 音声入力 | ○(E2B/E4B) | Omniのみ | × |
| 最小モデル | E2B(1.5GB) | 0.8B | Scout |
| エッジ最適化 | Raspberry Pi対応 | △ | △ |
| モデルサイズの幅 | 2B〜31B | 0.8B〜397B | Scout〜Behemoth |
| NVIDIA最適化 | RTX AI Garage対応 | ○ | ○ |
使い分けの結論:
- スマホ/エッジデバイスでAIを動かしたい → Gemma 4 E2B/E4B(音声対応+超軽量)
- 大規模モデルで総合力が欲しい → Qwen 3.5(モデルサイズの選択肢が最も広い)
- 数学・コーディングに特化 → Gemma 4 31B(ベンチマーク最強クラス)
- ゲームに組み込みたい → Gemma 4(Apache 2.0+エッジ最適化+音声対応の組み合わせが唯一)
筆者の本音:「オープンAI競争」がついにGoogleを本気にさせた
筆者(uc)がGemma 4で一番感心したのは、性能よりもライセンスの変更だ。
GoogleはGemma 1〜3まで、独自ライセンスで「オープン風」を演出しながら実質的にコントロールを手放さなかった。QwenがApache 2.0で性能もライセンスも両方勝ってしまい、LlamaがMeta独自ライセンスでも巨大なコミュニティを築いた。Googleは「本当にオープンにしないと負ける」と気づいたのだろう。
ゲーム開発者的に面白いのは、E2Bが1.5GBで音声入力まで対応することだ。ゲーム内のNPCがプレイヤーの声を聞いて、自分で考えて、自然に応答する——それがクラウドなしで動く。1年前は夢物語だったが、もう手の届くところにある。
まとめ
- Gemma 4が2026年4月2日にリリース。4モデル(E2B / E4B / 26B MoE / 31B Dense)
- Apache 2.0に変更。完全商用フリー。Googleがついに「本当のオープン」になった
- 数学スコア4.3倍(20.8%→89.2%)、Codeforces ELO 19.5倍(110→2150)
- 4倍高速、バッテリー60%削減。E2BはRaspberry Piで133トークン/秒
- 音声入力ネイティブ対応(E2B/E4B)、関数呼び出しネイティブ対応
- ゲーム開発ではNPC AI、音声コマンド、適応型敵AIに活用可能
参考ソース
- Gemma 4: Byte for byte, the most capable open models ― Google Blog
- Bring state-of-the-art agentic skills to the edge with Gemma 4 ― Google Developers Blog
- Welcome Gemma 4: Frontier multimodal intelligence on device ― Hugging Face
- Google releases Gemma 4 under Apache 2.0 — and that license change may matter more than benchmarks ― VentureBeat
- Gemma 4 vs Qwen 3.5 vs Llama 4: Updated Benchmarks ― ai.rs
- From RTX to Spark: NVIDIA Accelerates Gemma 4 ― NVIDIA Blog
- Google's Gemma 4 models bring complex reasoning to low-power devices ― SiliconANGLE
- Gemma 4: The new standard for local agentic intelligence on Android ― Android Developers Blog


コメント