🏆 TOOLS
Googles Gemma 4 landet im Terminal
Simon Willisons LLM-Plugin bekommt Zuwachs: Version 0.30 von llm-gemini bringt drei neue Modelle direkt in die Kommandozeile.
Simon Willisons LLM-Plugin bekommt Zuwachs: Version 0.30 von llm-gemini bringt drei neue Modelle direkt in die Kommandozeile.
Die neuen Modelle
- gemini-3.1-flash-lite-preview** — Googles neues Leichtgewicht für schnelle Aufgaben
- gemma-4-26b-a4b-it** — 26 Milliarden Parameter, läuft lokal
- gemma-4-31b-it** — die größere Variante mit 31 Milliarden Parametern
Was ist LLM überhaupt?
Willisons Open-Source-Tool `llm` lässt dich KI-Modelle per Terminal nutzen. Ein Befehl, ein Prompt, eine Antwort. Kein Browser, kein Abo-Portal, kein Klickmarathon. Plugins wie `llm-gemini` docken neue Modelle an.
✅ Pro
- Alle Modelle über ein einziges CLI
- Open Source, kostenlos
- Gemma-4-Modelle laufen auch lokal
❌ Con
- Nur für Terminal-Nerds
- Kein GUI, keine Anfänger-Freundlichkeit
- Preview-Modelle können instabil sein
💡 Was das bedeutet
Googles Gemma-4-Familie ist jetzt per Einzeiler im Terminal verfügbar. Wer Modelle schnell testen oder in Skripte einbauen will, spart sich den Umweg über Weboberflächen. Besonders die lokalen Gemma-Modelle machen das Tool für Entwickler interessant, die ihre Daten nicht in die Cloud schicken wollen.
🤖 NERDMAN-URTEIL
Kein Hype, sondern ein sauberes Update — Willisons LLM-Tool bleibt das Schweizer Taschenmesser für alle, die KI lieber tippen als klicken.
Quelle: Simon Willison
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.