🔥 HOT NEWS
OpenAI bringt GPT-4 — jetzt auch mit Bildern
OpenAI hat GPT-4 vorgestellt. Das neue Flaggschiff-Modell versteht erstmals Text UND Bilder — und liefert bei akademischen Tests Ergebnisse auf menschlichem Niveau.
OpenAI hat GPT-4 vorgestellt. Das neue Flaggschiff-Modell versteht erstmals Text UND Bilder — und liefert bei akademischen Tests Ergebnisse auf menschlichem Niveau.
Was das Ding kann
GPT-4 ist multimodal. Heißt: Du kannst dem Modell ein Foto schicken und es analysiert, was drauf ist. Textausgabe bleibt, Bildeingabe ist neu.
- Typ:** Large Multimodal Model
- Input:** Text und Bilder
- Output:** Text
- Benchmark-Level:** menschliche Leistung bei professionellen und akademischen Tests
Was OpenAI selbst zugibt
Interessant ist, was OpenAI zwischen den Zeilen sagt. Das Modell sei "in vielen realen Szenarien weniger fähig als Menschen". Kein falsches Versprechen, kein AGI-Geschwätz — das verdient Respekt.
Die Einordnung
GPT-4 ist ein klarer Schritt nach vorn beim Scaling von Deep Learning. Aber: Benchmarks sind nicht die echte Welt. Wer jetzt glaubt, sein Job sei morgen weg, hat die Fußnoten nicht gelesen.
🤖 NERDMAN-URTEIL
Solides Upgrade, ehrliche Kommunikation — OpenAI liefert Technik statt heiße Luft, und genau so sollte das laufen.
Quelle: OpenAI News
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.