Gemma 4
Apache 2.0 Open Source

Gemma 4 オープンモデル

Google DeepMind が提供する最も高性能なオープンソース AI モデルファミリー。テキスト・画像・動画・音声を横断するマルチモーダル理解、最大 256K のコンテキスト、そして Apache 2.0 ライセンス。

モデルバリエーション

エッジデバイスからワークステーション級の性能まで、用途別に設計された 4 つのバリエーション。すべて Apache 2.0 ライセンスで提供されます。

Dense

Gemma 4 E2B

2B パラメータ · 128K コンテキスト

オンデバイスおよびエッジでの利用に最適化された超軽量モデル。コンパクトなサイズでも高い性能を発揮し、モバイルや IoT アプリケーションに適しています。

Dense

Gemma 4 E4B

4B パラメータ · 128K コンテキスト

品質とサイズのバランスに優れたモデル。リソースは限られつつも高品質な出力が求められる、ノートパソコンやデスクトップでの利用に最適です。

Mixture of Experts(128 エキスパート)

Gemma 4 26B A4B

総パラメータ 26B / アクティブパラメータ 4B · 256K コンテキスト

128 個のエキスパートを持ち、推論ごとに 4B パラメータのみを活性化するスパース MoE アーキテクチャ。小型モデル並みの計算コストで、大規模モデルに匹敵する品質を実現します。

Dense

Gemma 4 31B

31B パラメータ · 256K コンテキスト

全ベンチマークで最先端の性能を発揮するフラッグシップ Dense モデル。最高品質と推論の深さを優先する用途に最適な選択肢です。

機能

Gemma 4 はマルチモーダル理解、長いコンテキスト、エージェンティック機能を備え、オープンソース AI の新たな基準を打ち立てます。

🎨

マルチモーダル理解

単一のモデルでテキスト、画像、動画、音声をネイティブに処理します。別々のパイプラインを用意することなく、ドキュメントの理解、チャート分析、シーンの説明、音声の書き起こしが可能です。

📄

長いコンテキストウィンドウ

最大 256K トークンのコンテキストにより、コードベース全体、長大なドキュメント、長時間の会話を一貫性や重要な詳細を失うことなく処理できます。

🤖

エージェンティック機能

組み込みの関数呼び出しと構造化 JSON 出力により、自律的なツール利用、複数ステップのプランニング、外部 API やサービスとの連携を実現します。

💻

コード生成

LiveCodeBench v6 で 80% を達成。コード生成、デバッグ、リファクタリング、複数ファイルにまたがるコード理解など、幅広いタスクで高い性能を発揮します。

🌍

多言語サポート

140 以上の言語で学習され、主要な世界言語で高品質な性能を発揮します。真にグローバルなデプロイと言語横断的な理解を可能にします。

🧠

高度な推論

AIME 2026 で 89.2%、GPQA Diamond で 84.3% を達成。強力な数学的推論、科学的分析、複雑な問題解決能力を示しています。

ベンチマーク結果

Gemma 4 は主要な学術・業界ベンチマークで競争力のある性能を発揮し、はるかに大規模なプロプライエタリモデルに匹敵します。

89.2%

AIME 2026

American Invitational Mathematics Examination。競技レベルの数学問題で高度な数学的推論と問題解決能力を評価します。

80.0%

LiveCodeBench v6

複数のプログラミング言語と難易度にわたり、コード生成、理解、デバッグを評価するリアルタイムコーディングベンチマークです。

84.3%

GPQA Diamond

物理学、化学、生物学にまたがる大学院レベルの質問応答。深い科学知識と多段階の分析的推論を評価します。

85.2%

MMMLU

Massive Multitask Multilingual Language Understanding。140 以上の言語と数十の学術分野にわたる幅広い知識と推論能力を評価します。

Gemma 4 オープンモデル

Google DeepMind が提供する最も高性能なオープンソース AI モデルファミリー。テキスト・画像・動画・音声を横断するマルチモーダル理解、最大 256K のコンテキスト、そして Apache 2.0 ライセンス。