So werden LLMs endlich schlauer
Reasoning ist das Buzzword 2025 — und diesmal steckt was dahinter. Sebastian Raschka, einer der anerkanntesten ML-Forscher überhaupt, hat den kompletten Stand der Technik zusammengetragen. Seine Analyse: Es gibt nicht den einen Trick, sondern gleich vier Hebel.
Inference-Time Compute hochdrehen, Reinforcement Learning, Supervised Fine-Tuning und Distillation. Das sind die vier Strategien, mit denen Labore weltweit ihre Modelle zum Denken bringen wollen. Raschka ordnet jede einzelne ein — mit Stärken, Schwächen und den neuesten Papers. Keine Marketing-Slides, sondern echte Substanz.
Der Clou: Die Methoden lassen sich kombinieren. Wer nur auf einen Ansatz setzt, verschenkt Potenzial. Die besten Reasoning-Modelle von 2025 werden vermutlich alle vier Techniken gleichzeitig nutzen. Das erklärt auch, warum OpenAI, Anthropic und DeepSeek so unterschiedliche Wege gehen — und trotzdem alle besser werden.
Für Entwickler heißt das konkret: Reasoning ist kein Feature, das man einmal einbaut und fertig. Es ist ein Stack. Wer Agents baut, muss verstehen, welche Reasoning-Strategie für welchen Use Case taugt. Raschkas Überblick ist dafür der beste Einstieg, den es gerade gibt.