Claude lässt seine Agenten jetzt träumen
Anthropic gibt seinen KI-Agenten ein Gedächtnis. Mit dem neuen Feature "Dreaming" sollen sie aus ihren eigenen Fehlern lernen.
Was konkret passiert ist
Claude Managed Agents bekommt drei neue Funktionen in die öffentliche Beta. Die wichtigste: "Dreaming". Ein Hintergrundprozess analysiert abgeschlossene Agenten-Sitzungen, räumt das Agenten-Gedächtnis auf und zieht neue Erkenntnisse für zukünftige Aufgaben.
- Dreaming:** Asynchrone Auswertung vergangener Sessions
- Outcomes:** Klare Erfolgs- und Fehlschlag-Definitionen für den Agenten
- Multiagent Orchestration:** Mehrere Agenten arbeiten zusammen
So funktioniert das "Träumen"
Der Agent arbeitet eine Aufgabe ab. Danach startet der "Dreaming"-Prozess. Er durchsucht den Session-Verlauf, entfernt doppelte oder veraltete Informationen aus dem Langzeitgedächtnis und destilliert allgemeine Lessons Learned. Diese fließen in zukünftige Arbeiten ein.
Wir bauen Werkzeuge, die Agenten helfen, über Zeit hinweg zu lernen.— Anthropic
Vergleich: Claude Agents vs. OpenAI Assistants API
Gedächtnis & Lernen
- Claude mit Dreaming:** Langzeitgedächtnis, lernt aus Fehlern
- OpenAI Assistants:** Session-basiert, kein übergreifendes Lernen
- Preis:** Beide nutzen Pay-per-Use-Modell
- Orchestrierung:** Claude unterstützt Multi-Agenten, OpenAI (noch) nicht
💡 Was das bedeutet
Agenten werden damit weniger dumm. Statt bei jedem neuen Chat das Rad neu zu erfinden, behalten sie Erkenntnisse. Das ist ein Schritt weg von der Einmal-KI hin zu einem persistenten, lernenden digitalen Mitarbeiter.