🏆 TOOLS
KI-Videos fallen durch Physik-Prüfung
Ein neuer Benchmark stellt Sora, Veo und Co. eine miese Note aus. WorldReasonBench testet nicht Pixel, sondern ob die Modelle Physik kapieren. Spoiler: tun sie nicht.
Ein neuer Benchmark stellt Sora, Veo und Co. eine miese Note aus. WorldReasonBench testet nicht Pixel, sondern ob die Modelle Physik kapieren. Spoiler: tun sie nicht.
Was WorldReasonBench anders macht
Bisherige Benchmarks bewerten, wie hübsch ein KI-Video aussieht. Dieser hier fragt: Fällt der Ball richtig? Bleibt der Schatten konsistent? Macht die Szene überhaupt Sinn?
Damit wird zum ersten Mal hart geprüft, ob Videogeneratoren die Welt verstehen — oder nur fotorealistisch raten.
Das Ranking
- Platz 1:** Seedance 2.0 (ByteDance)
- Platz 2:** Veo 3.1 (Google)
- Platz 3:** Sora 2 (OpenAI)
- Abgeschlagen:** alle Open-Source-Modelle
✅ Pro
- Endlich ein Benchmark, der über "sieht hübsch aus" hinausgeht
- Klare Hierarchie zwischen den Top-Modellen
- Macht das Weltmodell-Versprechen messbar
❌ Con
- Logisches Schlussfolgern: alle Modelle scheitern
- Open Source kommt auf rund die Hälfte der Punkte
- Vom echten Weltmodell weiter entfernt als gedacht
💡 Was das bedeutet
Wer Videogeneratoren für Simulation, Robotik oder Training nutzen will, hat ein Problem. Schöne Bilder reichen nicht, wenn die Physik dahinter Müll ist. Der Hype um "Weltmodelle" ist genau das — Hype.
🤖 NERDMAN-URTEIL
Sora und Veo malen wie Profis, denken aber wie Kleinkinder — wer Physik will, soll weiter Unity nutzen.
Quelle: The Decoder
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.