Gemma 4

Ollama で Gemma 4 を実行

Ollama は、自分のハードウェアで Gemma 4 を実行する最速かつ最もシンプルな方法です。1 つのコマンドで任意の Gemma 4 モデルバリエーションをダウンロードしてチャットを開始できます。Python 環境、複雑なセットアップ、GPU の設定は一切不要です。

Ollama はハードウェア(CPU、GPU、メモリ)を自動検出し、最高の性能が得られるようにモデル設定を最適化します。macOS、Linux、Windows に対応し、アプリケーションへの統合を容易にする OpenAI 互換 API を提供します。

ステップ 1:Ollama をインストール

macOS

ollama.com からダウンロードするか、Homebrew でインストールします:

# Homebrew
brew install ollama

# Or download from https://ollama.com/download/mac

Linux

1 行のインストールスクリプト:

curl -fsSL https://ollama.com/install.sh | sh

Windows

ollama.com からインストーラをダウンロードするか、winget を使用します:

# winget
winget install Ollama.Ollama

# Or download from https://ollama.com/download/windows

インストールを確認:

ollama --version

ステップ 2:Gemma 4 モデルを選ぶ

すべての Gemma 4 バリエーションが Ollama ライブラリで利用可能です。ハードウェアとニーズに基づいて選びましょう:

gemma4:e2b
約 1.5 GBVRAM: 2 GB

エッジデバイスと基本的なタスク向けの超軽量モデル

gemma4:e4b
約 3 GBVRAM: 4 GB

品質とリソース使用量の最適なバランス

gemma4:26b
約 15 GBVRAM: 16 GB

MoE アーキテクチャ — 小型モデル並みのコストで大規模モデルの品質

gemma4:31b
約 18 GBVRAM: 24 GB

最高品質 — フラッグシップ Dense モデル

ステップ 3:Gemma 4 を実行

インタラクティブなチャットセッションを開始:

# Start interactive chat with Gemma 4 E4B
ollama run gemma4:e4b

# Or the flagship 31B model
ollama run gemma4:31b

単一のプロンプトを実行:

ollama run gemma4:e4b "Explain quantum computing in simple terms"

画像と一緒に使用(マルチモーダル):

# In the interactive chat, use /image to add images
ollama run gemma4:e4b
>>> /image photo.jpg What do you see in this image?

Ollama API の使用

Ollama は localhost:11434 で OpenAI 互換の REST API を提供しており、Gemma 4 をアプリケーションに簡単に統合できます:

チャット補完:

curl http://localhost:11434/v1/chat/completions \
  -H "Content-Type: application/json" \
  -d '{
    "model": "gemma4:e4b",
    "messages": [
      {"role": "user", "content": "Hello, Gemma 4!"}
    ]
  }'

テキスト生成:

curl http://localhost:11434/api/generate \
  -d '{
    "model": "gemma4:e4b",
    "prompt": "Write a Python function to sort a list"
  }'

高度な設定

カスタム Modelfile

温度、コンテキスト長、システムプロンプトなどのモデルパラメータを調整するカスタム Modelfile を作成します:

FROM gemma4:e4b

PARAMETER temperature 0.7
PARAMETER num_ctx 32768

SYSTEM """
You are a helpful coding assistant. Always provide code examples.
"""

GPU の設定

Ollama は GPU を自動検出しますが、GPU レイヤーのオフロードを制御できます:

# Set number of GPU layers
OLLAMA_NUM_GPU=35 ollama run gemma4:31b

# CPU only mode
OLLAMA_NUM_GPU=0 ollama run gemma4:e4b

コンテキスト長

より長い会話に対応するため、デフォルトのコンテキストウィンドウを増やします:

ollama run gemma4:e4b --num-ctx 65536

トラブルシューティング

モデルのダウンロードが遅い

Ollama は ollama.com の CDN からダウンロードします。遅い場合はインターネット接続を確認するか、VPN を試してください。大規模モデル(26B、31B)は帯域幅によっては 10〜30 分かかる場合があります。

メモリ不足エラー

より小さいモデルバリエーションか量子化バージョンを試してください。31B モデルの代わりに 'ollama run gemma4:e4b' を使用します。RAM が限られているシステムでは、実行前に他のアプリケーションを閉じてください。

推論速度が遅い

Ollama が GPU を使用していることを確認してください:'ollama ps' で確認できます。Mac では Ollama が Metal GPU アクセラレーションを自動使用します。Linux/Windows では NVIDIA または AMD の GPU ドライバーが適切にインストールされていることを確認してください。

API 接続が拒否される

Ollama サービスが実行されていることを確認してください:'ollama serve'。デフォルトの API エンドポイントは http://localhost:11434 です。別のマシンからアクセスする場合はファイアウォール設定を確認してください。

Ollama + Gemma 4 よくある質問

Ollama で実行するのに最適な Gemma 4 モデルは?

ほとんどのユーザーには gemma4:e4b が品質と性能の最適なバランスを提供します。16GB 以上の VRAM を持つ GPU があれば、gemma4:26b が効率的な MoE 推論でフラッグシップに近い品質を提供します。gemma4:31b モデルは 24GB 以上の VRAM が必要ですが、最高性能を発揮します。

GPU なしで Ollama の Gemma 4 を実行できますか?

はい。Ollama はすべての Gemma 4 バリエーションで CPU のみの推論をサポートしています。E2B と E4B モデルは CPU でも十分速く動作します。より大きなモデルは GPU アクセラレーションなしでは大幅に遅くなりますが、動作はします。

Ollama で Gemma 4 を更新するには?

'ollama pull gemma4:e4b'(またはお好みのバリエーション)を実行すると、最新バージョンがダウンロードされます。すでに以前のバージョンがインストールされている場合、Ollama は差分のみをダウンロードします。

Ollama の Gemma 4 を他のツールと一緒に使えますか?

はい。Ollama の OpenAI 互換 API は LangChain、LlamaIndex、Open WebUI、Continue.dev など、ほとんどの AI ツールやフレームワークで動作します。http://localhost:11434 を指定するだけです。

Ollama は Gemma 4 のマルチモーダル機能をサポートしていますか?

はい。Ollama は Gemma 4 のマルチモーダル機能をサポートしています。インタラクティブチャットの /image コマンドまたは API の image パラメータを使用して、画像をモデルに渡すことができます。

Ollama で Gemma 4 はどれくらいのディスク容量を必要としますか?

バリエーションによります:E2B(約 1.5GB)、E4B(約 3GB)、26B MoE(約 15GB)、31B Dense(約 18GB)。これらはデフォルトの量子化での値です。モデルは macOS/Linux では ~/.ollama/models に保存されます。

ollamaGuide.faq.items.6.q

ollamaGuide.faq.items.6.a

ollamaGuide.faq.items.7.q

ollamaGuide.faq.items.7.a

ollamaGuide.faq.items.8.q

ollamaGuide.faq.items.8.a

ollamaGuide.faq.items.9.q

ollamaGuide.faq.items.9.a

Gemma 4 を実行する準備はできましたか?

Ollama をインストールして、数分で Gemma 4 とのチャットを始めましょう。または他のデプロイオプションを確認してください。