🔥 HOT NEWS
GPT-5.5 zerlegt Anthropics Cyber-Hype
OpenAI hat nachgezogen. Das UK AI Security Institute (AISI) bestätigt: GPT-5.5 erreicht im Cybersecurity-Test exakt das Niveau von Anthropics Mythos Preview — dem Modell, das ...
OpenAI hat nachgezogen. Das UK AI Security Institute (AISI) bestätigt: GPT-5.5 erreicht im Cybersecurity-Test exakt das Niveau von Anthropics Mythos Preview — dem Modell, das Anthropic letzten Monat als so gefährlich verkaufte, dass es nur an "kritische Industriepartner" ging.
Was AISI getestet hat
Das britische AI Security Institute prüft seit 2023 Frontier-Modelle auf Cyber-Capabilities. Beide Modelle wurden auf identischen Benchmarks evaluiert. Ergebnis: gleichwertig.
- Mythos Preview:** Anthropic — Release nur an "kritische Partner"
- GPT-5.5:** OpenAI — letzte Woche public gelauncht
- Performance-Lücke:** keine
📅 Timeline
- April 2026:** Anthropic warnt vor Mythos und beschränkt den Zugang
- April 2026:** AISI evaluiert Mythos in geschlossenem Test
- Letzte Woche:** OpenAI launcht GPT-5.5 öffentlich, ohne Beschränkung
- Diese Woche:** AISI bestätigt — GPT-5.5 ist genauso "gefährlich"
💡 Was das bedeutet
Wenn das angeblich brandgefährliche Modell frei verfügbar bei der Konkurrenz steht, war die Gefahr entweder nie so groß — oder die Beschränkung von Anthropic war reine PR. Beides ist schlecht für die Glaubwürdigkeit von Safety-Narrativen.
🤖 NERDMAN-URTEIL
Anthropic hat aus seinem Cyber-Risiko ein Marketing-Event gemacht — und OpenAI lässt die Maske fallen, indem sie das gleiche Niveau einfach öffentlich raushauen.
Quelle: Ars Technica AI
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.