Simon Willisons CLI-Tool für Large Language Models bekommt ein Alpha-Update. Der spannendste Brocken: OpenAIs Reasoning-Modelle laufen jetzt über den neuen ...
Open Source schlägt zurück. Arcee AI hat Trinity Large Thinking veröffentlicht — ein Open-Weight-Reasoning-Modell unter Apache 2.0, gebaut für autonome Agenten und Tool Use.
Open-Weight, Apache 2.0, gebaut für Agenten: Arcee AI wirft mit Trinity Large Thinking ein Reasoning-Modell auf den Markt, das proprietären Platzhirschen Konkurrenz machen soll.
OpenAI bringt o1-mini raus — ein kleineres Reasoning-Modell, das weniger kostet und trotzdem denken kann.
Together AI schaltet DeepSeek-V4 Pro frei. Mit 512K Kontext, steuerbaren Reasoning-Modi und Caching-Preisen zielt das Modell direkt auf Code-Agents und Dokumenten-Workloads.
Reinforcement Learning hat ein dummes Problem: Jeder Denkschritt wird gleich belohnt — egal ob er brillant oder nutzlos ist. Alibabas Qwen-Team hat einen Algorithmus gebaut, der ...
Die schlauen Denker-KIs können rechnen, coden, argumentieren. Aber simplen Anweisungen folgen? Fehlanzeige.
Ein neues Retrieval-System schmeißt Embeddings über Bord. PageIndex findet relevante Dokument-Stellen nicht durch Ähnlichkeit, sondern durch Reasoning.
Forscher haben Large Language Models beim Denken in den Kopf geschaut — buchstäblich. Ergebnis: Wenn ein Modell rechnet, sieht sein Gehirn komplett anders aus als wenn es Fakten ...
Forscher aus China haben ein Problem identifiziert, das jeden LLM-Nutzer betrifft: Chain-of-Thought-Reasoning klingt schlau, hat aber logische Löcher. Ihre Lösung heißt TDA-RC.
Moonshot AI hat Kimi K2 veröffentlicht — ein Open-Source-Modell mit einer Billion Parametern. Spezialisiert auf agentic Reasoning und Code. Together AI hostet es ab sofort ...
Reasoning ist das Buzzword 2025 — und diesmal steckt was dahinter. Sebastian Raschka, einer der anerkanntesten ML-Forscher überhaupt, hat den kompletten Stand der Technik ...
Die Franzosen schicken Medium 3.5 ins Rennen. Coding, Reasoning, lange Tasks — alles in einem Paket.
Apple Research stellt LaDiR vor — einen neuen Reasoning-Ansatz, der das größte Problem heutiger Sprachmodelle angreift: Einmal geschriebene Tokens können nicht mehr korrigiert ...
Forscher haben einem Latent-Reasoning-Modell ins Gehirn geschaut. Mit PCA und Logit Lens zeigt sich: Die erste Hauptkomponente der Hidden States korreliert stark mit dem Ende der ...
Forscher haben eine Theorie, warum man großen Sprachmodellen beim Nachdenken zusehen kann — direkt an ihren internen Wahrscheinlichkeiten.
Google droppt eine neue Open-Model-Familie: Gemma 4. Multimodal, mit Reasoning, frei verfügbar.
DeepMind bringt seine bisher stärksten Open-Weight-Modelle. Gemma 4 soll bei Reasoning und Agenten-Workflows die Konkurrenz alt aussehen lassen — und jeder kann es nutzen.
Open-Source-Reasoning zum Turbo-Preis: Together AI hat einen neuen Inference-Engine vorgestellt, der DeepSeek-R1-0528 auf NVIDIA Blackwell-GPUs auf Höchstgeschwindigkeit bringt.
Ein neues Paper auf arXiv schlägt ein Framework vor, das die Länge von KI-Antworten auf Token-Ebene vorhersagt. Klingt nerdig — könnte aber Inferenz-Kosten massiv drücken.