Open-Source-Agent schlägt alle beim Coden
Together AI hat DeepSWE veröffentlicht — einen vollständig quelloffenen Coding-Agenten, der per Reinforcement Learning trainiert wurde. Und der mischt die Bestenlisten auf.
Was DeepSWE Anders Macht
Die meisten Top-Coding-Agenten sind proprietär. Closed Source, closed Weights, closed Trainingsdaten. DeepSWE geht den anderen Weg: Alles offen. Modell, Trainingsmethode, Daten.
Der Trick: Statt den Agenten klassisch zu fine-tunen, haben die Together-AI-Forscher auf RL-Scaling gesetzt. Mehr Rechenpower beim Reinforcement Learning, bessere Ergebnisse. Klingt simpel. Ist es auch — wenn man die GPUs hat.
Die Eckdaten
- Ansatz:** Reinforcement Learning, skaliert über Compute
- Lizenz:** Vollständig Open Source — Weights, Code, Methodik
- Status:** State-of-the-Art auf Coding-Benchmarks
- Entwickler:** Together AI
Warum Das Wichtig Ist
Die großen Labs — OpenAI, Anthropic, Google — dominieren bei Coding-Agenten. Ihre Modelle sind gut, aber geschlossen. DeepSWE zeigt: Open Source kann mithalten. Nicht irgendwann. Jetzt.
Das verschiebt die Machtverhältnisse. Wer einen SOTA-Coding-Agenten will, muss nicht mehr bei den üblichen Verdächtigen einkaufen. Er kann ihn selbst hosten, selbst anpassen, selbst verbessern.