Gemma 4

Gemma 4 mit KoboldCpp betreiben

KoboldCpp ist eine benutzerfreundliche, plattformübergreifende Inferenz-Engine auf Basis von llama.cpp mit integrierter Weboberfläche. Es ist einer der einfachsten Wege, Gemma 4 GGUF-Modelle lokal auszuführen — besonders beliebt in Communitys für kreatives Schreiben, Rollenspiel und interaktive Fiction.

Anders als Kommandozeilen-Tools bietet KoboldCpp einen grafischen Launcher und eine browserbasierte Chat-UI von Haus aus. Es unterstützt CPU, CUDA (NVIDIA), ROCm (AMD), Vulkan und Metal (Apple) Beschleunigung und läuft so auf praktisch jeder Hardware.

Schritt 1: KoboldCpp herunterladen

Holen Sie sich die neueste Version von GitHub:

koboldcppPage.install.windows.title

koboldcppPage.install.windows.desc

koboldcppPage.install.mac.title

koboldcppPage.install.mac.desc

koboldcppPage.install.linux.title

koboldcppPage.install.linux.desc

Schritt 2: Gemma 4 GGUF-Dateien beziehen

koboldcppPage.download.subtitle

koboldcppPage.download.items.0.name

koboldcppPage.download.items.0.size

koboldcppPage.download.items.0.desc

koboldcppPage.download.items.1.name

koboldcppPage.download.items.1.size

koboldcppPage.download.items.1.desc

koboldcppPage.download.items.2.name

koboldcppPage.download.items.2.size

koboldcppPage.download.items.2.desc

koboldcppPage.download.items.3.name

koboldcppPage.download.items.3.size

koboldcppPage.download.items.3.desc

Schritt 3: KoboldCpp starten

GUI-Launcher

Doppelklicken Sie auf KoboldCpp, um den Launcher zu öffnen. Wählen Sie Ihre GGUF-Datei, konfigurieren Sie die GPU-Layer und klicken Sie auf Launch.

Kommandozeile

Oder starten Sie aus dem Terminal mit mehr Kontrolle:

koboldcpp --model gemma-4-e4b-it-Q4_K_M.gguf --gpulayers 33 --contextsize 4096

Empfohlene Einstellungen

koboldcppPage.settings.items.0.title

Beginnen Sie mit 4096. Erhöhen Sie für längere Konversationen. Höhere Werte verbrauchen mehr RAM.

koboldcppPage.settings.items.1.title

Auf das Maximum stellen, das Ihre GPU bewältigen kann. Mehr Layer = schnellere Inferenz. 0 = nur CPU.

koboldcppPage.settings.items.2.title

Für CPU-Inferenz. Lassen Sie einen Kern für den Systemoverhead frei.

koboldcppPage.settings.items.3.title

Der Standardwert funktioniert gut. Erhöhen Sie für schnelleres Prompt-Processing, wenn RAM übrig ist.

API-Integration

KoboldCpp stellt sowohl die Kobold-API als auch eine OpenAI-kompatible API bereit. Verwendung mit SillyTavern, Agnaistic oder jedem kompatiblen Frontend:

koboldcppPage.api.generate.title

curl http://localhost:5001/api/v1/generate \
  -H "Content-Type: application/json" \
  -d '{
    "prompt": "Write a Python function to sort a list",
    "max_length": 200,
    "temperature": 0.7
  }'

koboldcppPage.api.check.title

curl http://localhost:5001/api/v1/model

KoboldCpp + Gemma 4 FAQ

Was ist KoboldCpp?

KoboldCpp ist eine quelloffene, plattformübergreifende Inferenz-Engine mit integrierter Web-UI. Sie basiert auf llama.cpp und unterstützt GGUF-Modelle. Beliebt für kreatives Schreiben, Rollenspiel und lokalen KI-Chat.

Welches Gemma 4 Modell funktioniert am besten mit KoboldCpp?

Für die meisten Nutzer bietet gemma-4-e4b-it-Q4_K_M.gguf (~3GB) die beste Balance. Wenn Sie eine GPU mit 24GB+ VRAM haben, liefert das 31B Q4 Modell Flaggschiff-Qualität.

Kann ich KoboldCpp mit SillyTavern verwenden?

Ja. KoboldCpp ist eines der beliebtesten Backends für SillyTavern. Verbinden Sie sich über die Kobold-API unter localhost:5001 oder den OpenAI-kompatiblen Endpunkt.

KoboldCpp vs Ollama — welches sollte ich nutzen?

Ollama ist einfacher für schnelles Setup und API-first-Nutzung. KoboldCpp glänzt mit seiner integrierten UI, erweiterten Sampler-Einstellungen und Kompatibilität mit Chat-Frontends wie SillyTavern. Wählen Sie nach Ihrem Workflow.

Unterstützt KoboldCpp Gemma 4 Multimodal?

KoboldCpp konzentriert sich primär auf Textgenerierung. Für multimodale Funktionen (Bild-/Video-/Audio-Eingabe) verwenden Sie stattdessen Ollama oder vLLM.

Wie erreiche ich schnellere Inferenz?

Maximieren Sie das GPU-Layer-Offloading. Verwenden Sie ein quantisiertes Modell (Q4_K_M oder Q5_K_M). Aktivieren Sie CUDA/Metal/Vulkan im Launcher. Reduzieren Sie die Kontextgröße, wenn nicht benötigt.

koboldcppPage.faq.items.6.q

koboldcppPage.faq.items.6.a

koboldcppPage.faq.items.7.q

koboldcppPage.faq.items.7.a

koboldcppPage.faq.items.8.q

koboldcppPage.faq.items.8.a

koboldcppPage.faq.items.9.q

koboldcppPage.faq.items.9.a

Mit KoboldCpp durchstarten

Laden Sie KoboldCpp herunter, holen Sie eine Gemma 4 GGUF-Datei und beginnen Sie in wenigen Minuten zu chatten.