Gemma 4が昨日出た ― Apache 2.0、数学スコア4倍、スマホで動くAIエージェント。Googleが本気で"オープン"になった

AI
結論:Gemma 4はGoogleが出した「本気のオープンモデル」だ。Apache 2.0ライセンスで完全商用フリー、数学スコアは前世代の4倍超え、2BモデルはスマホでリアルタイムAIエージェントとして動く。ゲーム開発者にとって「NPCにAIを入れる」が現実的になった。

2026年4月2日、GoogleがGemma 4をリリースした。「またGoogleのオープンモデルか」と思うかもしれないが、今回は本気度が違う

前世代のGemma 3は性能は良かったが、独自ライセンスに利用制限があり、商用利用に二の足を踏む開発者が多かった。結果、ライセンスがクリアなQwen(Alibaba)やLlama(Meta)にシェアを奪われた。

Gemma 4はApache 2.0に切り替えた。制限なし。完全に自由。そしてベンチマークは前世代を桁違いに上回った。

Gemma 4 の全モデルラインナップ

モデルパラメータコンテキスト入力対象デバイス
E2B実効2B128Kテキスト・画像・音声スマホ・Raspberry Pi
E4B実効4B128Kテキスト・画像・音声スマホ・ノートPC
26B MoE26B(MoE、実効4B)256Kテキスト・画像デスクトップ・GPU
31B Dense31B256Kテキスト・画像ワークステーション

2つの層に分かれている。エッジ層(E2B/E4B)はスマホやRaspberry Piで動く超軽量モデル。ワークステーション層(26B/31B)はデスクトップGPU向けの高性能モデル。

前世代から何が変わったのか

1. ライセンスがApache 2.0に ― これが最大の変化

Gemma 3までは独自ライセンスだった。利用制限、MAU制限、Googleが規約を変更できる条項——「オープン」と言いつつ実質的に縛りがあった。VentureBeatは「ライセンス変更がベンチマークより重要かもしれない」と書いている。

Gemma 4はApache 2.0。Qwen 3.5と同じライセンスだ。制限なし。商用利用完全フリー。改変・再配布自由。これでようやくGemmaは「本当のオープンモデル」になった。

2. ベンチマークが別次元 ― 数学4倍、コーディング20倍

ベンチマークGemma 3Gemma 4倍率
競技数学20.8%89.2%4.3倍
Codeforces ELO110215019.5倍
Arena AI Text-オープンモデル3位-

競技数学が20.8%→89.2%。Qwen 3.5-27Bの48.7%をほぼ2倍に引き離した。Codeforcesは110→2150で「エキスパート級」の競技プログラマーレベルに到達。これは「改善」ではなく「世代交代」だ。

3. 4倍高速、バッテリー消費60%削減

同じタスクが前世代の4倍速く処理できる。バッテリー消費は60%削減。E2Bモデルはメモリ1.5GBで動作し、Raspberry Pi 5で133トークン/秒のプリフィル速度を達成。スマホのバックグラウンドで常時動かしても実用的だ。

4. 音声入力にネイティブ対応(E2B/E4B)

小型モデル(E2B/E4B)はテキスト・画像に加えて音声入力にもネイティブ対応している。外部の音声認識エンジン不要で、デバイス上でリアルタイムに音声を理解する。

5. 関数呼び出し(Function Calling)がネイティブ対応

全モデルで関数呼び出しと構造化JSON出力がネイティブサポートされた。これはAIエージェント構築に直結する機能だ。外部ツールのAPIを自律的に叩き、複数ステップの計画を立てて実行できる。

ゲーム開発者にとって何が変わるか

NPCにAIを組み込むのが現実的になった

Gemma 4 E2Bは2Bパラメータ、メモリ1.5GBで動く。これはゲーム実行中のバックグラウンドで動かせるサイズだ。

考えられるユースケース:

  • 会話するNPC:プレイヤーの質問に自然言語で応答する。台本に縛られない自由な会話
  • 音声コマンド:「右の敵を攻撃して」とマイクに話すと、AIが解釈してゲーム内アクションに変換
  • 適応型AI:プレイヤーの行動パターンを学習し、戦略を変える敵AI
  • ゲーム内ヘルプ:「この武器の使い方は?」に音声で答えるAIアシスタント

これらがクラウド接続なし、デバイス上だけで動く。オフラインゲームでもAI NPCが成立する。

Apache 2.0 = ゲームに組み込んでも完全無料

前のGemmaは独自ライセンスで「ゲームに組み込んでいいのか?」が不透明だった。Apache 2.0なら完全に自由。商用ゲームに組み込んでも、改変しても、再配布しても問題ない。

Qwen 3.5 / Llama 4 との比較 ― どれを使うべきか

Gemma 4Qwen 3.5Llama 4
ライセンスApache 2.0Apache 2.0Llama License
数学89.2%48.7%-
コーディングELO 2150高い-
音声入力○(E2B/E4B)Omniのみ×
最小モデルE2B(1.5GB)0.8BScout
エッジ最適化Raspberry Pi対応
モデルサイズの幅2B〜31B0.8B〜397BScout〜Behemoth
NVIDIA最適化RTX AI Garage対応

使い分けの結論:

  • スマホ/エッジデバイスでAIを動かしたい → Gemma 4 E2B/E4B(音声対応+超軽量)
  • 大規模モデルで総合力が欲しい → Qwen 3.5(モデルサイズの選択肢が最も広い)
  • 数学・コーディングに特化 → Gemma 4 31B(ベンチマーク最強クラス)
  • ゲームに組み込みたい → Gemma 4(Apache 2.0+エッジ最適化+音声対応の組み合わせが唯一)

筆者の本音:「オープンAI競争」がついにGoogleを本気にさせた

筆者(uc)がGemma 4で一番感心したのは、性能よりもライセンスの変更だ。

GoogleはGemma 1〜3まで、独自ライセンスで「オープン風」を演出しながら実質的にコントロールを手放さなかった。QwenがApache 2.0で性能もライセンスも両方勝ってしまい、LlamaがMeta独自ライセンスでも巨大なコミュニティを築いた。Googleは「本当にオープンにしないと負ける」と気づいたのだろう。

ゲーム開発者的に面白いのは、E2Bが1.5GBで音声入力まで対応することだ。ゲーム内のNPCがプレイヤーの声を聞いて、自分で考えて、自然に応答する——それがクラウドなしで動く。1年前は夢物語だったが、もう手の届くところにある。

まとめ

  • Gemma 4が2026年4月2日にリリース。4モデル(E2B / E4B / 26B MoE / 31B Dense)
  • Apache 2.0に変更。完全商用フリー。Googleがついに「本当のオープン」になった
  • 数学スコア4.3倍(20.8%→89.2%)、Codeforces ELO 19.5倍(110→2150)
  • 4倍高速、バッテリー60%削減。E2BはRaspberry Piで133トークン/秒
  • 音声入力ネイティブ対応(E2B/E4B)、関数呼び出しネイティブ対応
  • ゲーム開発ではNPC AI、音声コマンド、適応型敵AIに活用可能

参考ソース

コメント

タイトルとURLをコピーしました