Google Gemma 4: Kostenlose KI auf dem eigenen Rechner – so nutzt du sie

von | 06.04.2026 | KI

Google hat mit Gemma 4 eine komplette Familie von KI-Modellen veröffentlicht, die kostenlos, quelloffen und lokal auf dem eigenen Computer laufen.

Unter der freizügigen Apache-2.0-Lizenz darf jeder die Modelle herunterladen, nutzen und sogar kommerziell einsetzen – ohne API-Kosten, ohne Cloud-Zwang, ohne dass persönliche Daten das eigene Gerät verlassen. Was steckt dahinter, für wen lohnt sich das – und wie richtet man Gemma 4 konkret ein?

Was ist Gemma 4 – und warum ist es besonders?

Gemma 4 basiert auf derselben Forschung wie Googles kommerzielles Spitzenmodell Gemini 3. Nur wird diese Technologie hier als Open-Source-Modell freigegeben – eine bemerkenswerte Entscheidung von Google.

Die Modelle verstehen nicht nur Text, sondern auch Bilder und (bei den kleineren Varianten) sogar Audio. Sie beherrschen über 140 Sprachen, können eigenständig Code schreiben und verfügen über ein Kontextfenster von bis zu 256.000 Tokens. Zum Vergleich: Das entspricht ungefähr einem ganzen Buch, das die KI auf einmal „lesen“ und verarbeiten kann.

Vier Varianten stehen zur Wahl: Die kompakten Modelle E2B und E4B sind für Smartphones und Laptops optimiert. Die größeren Versionen mit 26 Milliarden (Mixture-of-Experts) und 31 Milliarden Parametern (Dense) richten sich an leistungsfähigere Rechner. Das 31B-Modell belegt aktuell Platz 3 auf der Arena-AI-Bestenliste – und schlägt dort Modelle, die zwanzigmal so groß sind.

Der Leistungssprung gegenüber dem Vorgänger Gemma 3 ist erheblich: Bei Coding-Benchmarks stieg die Bewertung von 110 auf 2.150 ELO, bei Mathematik-Tests (AIME 2026) erreicht Gemma 4 knapp 90 Prozent. Das ist kein kleines Versions-Update – das ist eine andere Liga.

Gemma 4 in blauer Schrift auf schwarzem Hintergrund
Entdecken Sie Gemma 4 – Innovation in neuem Licht!

Für wen ist Gemma 4 interessant?

Gemma 4 richtet sich an verschiedene Zielgruppen:

Datenschutzbewusste Nutzer: Wer sensible Dokumente verarbeiten will – Verträge, Patientendaten, interne Firmenunterlagen – kann das mit Gemma 4 komplett offline tun. Nichts verlässt den eigenen Rechner, keine Daten landen auf fremden Servern.

Entwickler und Bastler: Gemma 4 unterstützt nativ sogenanntes Function Calling – die KI kann also eigenständig Werkzeuge aufrufen und Aufgaben automatisieren. Wer eigene KI-Agenten oder Automatisierungen bauen will, bekommt hier ein leistungsfähiges Fundament ohne laufende Kosten.

Kostenbewusste Anwender: Jeder, der monatliche Abo-Kosten für KI-Dienste sparen möchte und einen halbwegs aktuellen Rechner besitzt, kann Gemma 4 als lokale Alternative einsetzen. Für viele Alltagsaufgaben – Texte zusammenfassen, E-Mails formulieren, Bilder analysieren – reicht das Modell völlig aus.

Unternehmen: Firmen können Gemma 4 auf eigener Infrastruktur betreiben und sogar für ihre Zwecke anpassen (Fine-Tuning), ohne Lizenzgebühren zu zahlen.

Was kann Gemma 4 konkret?

Die Einsatzmöglichkeiten sind breit gefächert: Texte generieren und zusammenfassen, Code schreiben und debuggen, Bilder und Dokumente analysieren (OCR, Handschrifterkennung, Diagramme verstehen), Fragen beantworten, übersetzen – und dank Function Calling auch eigenständig Werkzeuge nutzen, etwa Dateien lesen oder Web-Anfragen ausführen. Die kleineren Modelle E2B und E4B verstehen zusätzlich Spracheingaben.

Fairerweise: Für besonders anspruchsvolle Aufgaben – komplexe Analysen, kreatives Schreiben auf hohem Niveau, differenzierte Argumentationen – sind die großen Cloud-Modelle wie Claude, GPT-4 oder Gemini weiterhin überlegen. Aber die Lücke wird kleiner. Und für den allergrößten Teil der täglichen KI-Nutzung liefert Gemma 4 beeindruckende Ergebnisse.

Bär mit Mikrofon und der Zahl vier
Lass die Show beginnen mit Gemma 4!

So richtest du Gemma 4 ein: Drei Wege

Weg 1: Ollama (einfachster lokaler Weg)

Ollama ist ein kostenloses Tool, das KI-Modelle lokal zum Laufen bringt – ohne Konfigurationsaufwand.

  1. Ollama herunterladen unter ollama.com (verfügbar für Windows, Mac und Linux).
  2. Terminal öffnen (auf dem Mac: Terminal-App, unter Windows: PowerShell oder Eingabeaufforderung).
  3. Modell starten mit dem Befehl: ollama run gemma4
  4. Chatten. Gemma 4 läuft jetzt lokal auf deinem Rechner.

Die Standard-Variante E4B benötigt rund 10 GB Download und läuft auf den meisten aktuellen Rechnern mit 16 GB RAM. Wer mehr Leistung will: ollama run gemma4:26b (18 GB) oder ollama run gemma4:31b (20 GB) – dafür sollte eine dedizierte Grafikkarte mit mindestens 16 GB VRAM vorhanden sein.

Weg 2: LM Studio (mit grafischer Oberfläche)

Wer lieber eine App mit Benutzeroberfläche nutzt statt ein Terminal: LM Studio bietet genau das. Die kostenlose Software unter lmstudio.ai bietet eine Chat-Oberfläche ähnlich wie ChatGPT – nur eben komplett lokal. Einfach LM Studio installieren, nach „Gemma 4″ suchen, das gewünschte Modell herunterladen und loschatten.

Weg 3: Google AI Studio (ohne Installation)

Wer Gemma 4 erst einmal ohne Installation ausprobieren will, kann das direkt im Browser tun: In Google AI Studio stehen die 31B- und 26B-Varianten zum Testen bereit. Hier läuft das Modell allerdings in Googles Cloud – der Datenschutz-Vorteil entfällt dabei.

Das große Bild: Warum das wichtig ist

Google, Meta, Mistral – die großen Tech-Unternehmen überbieten sich gerade gegenseitig mit kostenlosen Open-Source-Modellen. Das demokratisiert Künstliche Intelligenz auf eine Art, die vor einem Jahr noch undenkbar war. KI wird damit unabhängig von einzelnen Anbietern, günstiger und datenschutzfreundlicher.

Gemma 4 ist dabei ein besonderer Meilenstein: Ein Modell, das auf einem normalen Laptop läuft und trotzdem Ergebnisse liefert, die vor Kurzem nur mit teuren Cloud-Diensten möglich waren. Das heißt nicht, dass Cloud-KI überflüssig wird – aber die Wahl liegt zunehmend bei dir.

Und genau das ist die eigentliche Nachricht: Nicht das Modell selbst, sondern die Tatsache, dass leistungsfähige KI jetzt für jeden zugänglich ist – kostenlos, offen und auf dem eigenen Rechner.