🔥 HOT NEWS
OpenAI bringt drei neue Sprach-Modelle
OpenAI dreht beim Voice-Game auf. Drei neue Audio-Modelle sollen Live-Gespräche auf GPT-5-Niveau bringen.
OpenAI dreht beim Voice-Game auf. Drei neue Audio-Modelle sollen Live-Gespräche auf GPT-5-Niveau bringen.
Was konkret passiert ist
OpenAI hat GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper vorgestellt. Die Modelle schlussfolgern in Echtzeit, übersetzen live und transkribieren parallel. Das Top-Modell soll im Gespräch so smart sein wie GPT-5.
Die Zahlen
- 3** — neue Audio-Modelle auf einen Schlag
- 70+** — unterstützte Sprachen bei der Live-Übersetzung
- GPT-5-Niveau** — Reasoning-Level von Realtime-2 laut OpenAI
- Live** — keine spürbare Latenz beim Sprechen
Die drei Modelle im Überblick
- GPT-Realtime-2:** Das Flaggschiff. Reasoning in Echtzeit, denkt mit beim Reden.
- GPT-Realtime-Translate:** Dolmetscher in 70+ Sprachen, ohne Pause.
- GPT-Realtime-Whisper:** Live-Transkription, parallel zum Gespräch.
💡 Was das bedeutet
Voice war bisher die Schwachstelle: schnell, aber dumm. Wenn Realtime-2 wirklich auf GPT-5-Level argumentiert, kippt das Spielfeld. Call-Center, Übersetzer-Apps und Sprach-Assistenten müssen sich neu sortieren — und zwar jetzt.
🤖 NERDMAN-URTEIL
Wenn das Marketing hält, ist das der erste Voice-Layer, mit dem man wirklich arbeiten kann — und nicht nur das Wetter abfragt.
Quelle: The Decoder
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.