ChatGPT kann jetzt sehen, hören und reden
OpenAI rollt neue Voice- und Image-Features für ChatGPT aus. Ab sofort kann der Chatbot Bilder analysieren und per Sprache antworten — direkt in der App.
Was sich ändert
Drei neue Modalitäten auf einen Schlag:
- Voice:** Echte Sprachkonversation mit ChatGPT, kein Text-to-Speech-Hack
- Vision:** Fotos zeigen, ChatGPT analysiert was es sieht
- Kombination:** Beides zusammen — zeigen UND drüber reden
Das Interface wird damit radikal einfacher. Kein Tippen mehr nötig. Handy raus, Kamera drauf, fragen.
Warum das wichtig ist
OpenAI baut ChatGPT vom Text-Tool zum digitalen Assistenten um. Wer sehen und hören kann, braucht keine Tastatur mehr. Das senkt die Einstiegshürde massiv — auch für Leute, die mit Prompts nichts anfangen können.
Die Konkurrenz schaut zu
Google hat mit Gemini ähnliche Features angekündigt, aber OpenAI liefert zuerst direkt ans Endprodukt. Nicht als Demo, nicht als API — als Feature für alle Nutzer.
Der Rollout passiert schrittweise. Nicht jeder bekommt alles sofort. Klassisches OpenAI-Playbook: Hype aufbauen, langsam ausrollen.