🤖 AGENTS
Poolside knackt 72,5% auf SWE-Bench
Poolside AI hat zwei neue Coding-Modelle releast — Laguna M.1 und XS.2. Beide setzen direkt zum Angriff auf die etablierten Agent-Modelle an.
Poolside AI hat zwei neue Coding-Modelle releast — Laguna M.1 und XS.2. Beide setzen direkt zum Angriff auf die etablierten Agent-Modelle an.
Was Poolside da raushaut
Die Kalifornier veröffentlichen erstmals Modelle aus ihrer Laguna-Familie. Beide laufen als Mixture-of-Experts — also nicht alle Parameter ballern bei jeder Anfrage gleichzeitig. Dazu kommt pool: ein schlanker Terminal-Agent, der intern fürs RL-Training genutzt wird.
Zahlen, die zählen
- 72,5%** — Laguna M.1 auf SWE-Bench Verified
- 68,2%** — Laguna XS.2 auf demselben Benchmark
- 2** — Modelle im ersten Release der Familie
- 1** — neues Agent Client Protocol (ACP), dual client-server
✅ Pro
- MoE-Architektur spart Compute bei jedem Call
- Eigener Agent (pool) gleich mitgeliefert
- Werte auf Augenhöhe mit den Top-Closed-Source-Coding-Agents
❌ Con
- Bisher nur Research Preview, kein produktionsfertiger Stack
- ACP-Protokoll noch nicht etabliert — wer adoptiert das?
- Keine offenen Gewichte angekündigt
💡 Was das bedeutet
SWE-Bench Verified ist der härteste reale Coding-Benchmark — echte GitHub-Issues, echte Repos. Wer hier über 70% kratzt, spielt in der Liga von Claude Sonnet und GPT-5. Poolside ist plötzlich kein Underdog mehr, sondern ernsthafter Mitspieler im Agent-Coding-Rennen.
🤖 NERDMAN-URTEIL
Solide Zahlen, aber ohne Open Weights und ohne breiten Tool-Support bleibt das Ganze erstmal ein Tech-Demo für Insider — der Beweis kommt, wenn pool außerhalb von Poolside läuft.
Quelle: MarkTechPost · Erschienen: 29. Apr 2026 · 05:45
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.