Forscher haben das berühmte Sleeper-Agents-Experiment von Anthropic nachgebaut — und kommen zu teils gegenteiligen Ergebnissen. Die Backdoor-Forschung ist offenbar komplizierter ...
Wer nach Plugins für Anthropics Claude suchte, landete bei Kriminellen. Ein Top-Ergebnis in der Google-Suche führte auf eine Seite mit Schadcode — gebaut, um Login-Daten zu klauen.
Together AI lässt KI-Agents gegeneinander antreten — und die liefern echte Ergebnisse. Die Plattform heißt EinsteinArena, und dort haben Agents bereits 11 neue Bestwerte auf ...
Mehr Agenten, mehr Power? Von wegen. Eine neue Stanford-Studie zerlegt den Hype um Multi-Agenten-Systeme — und kommt zu einem ernüchternden Ergebnis.
Wenn eine KI zuerst urteilt und dann prüft, kommt etwas anderes raus als andersrum. Klingt banal — ist es aber nicht.
Prompt-Sensitivity ist das nervigste Problem großer Sprachmodelle. Gleiche Frage, andere Formulierung, anderes Ergebnis. Forscher haben jetzt herausgefunden, warum — und es ist ...
GPT-5.4, Claude Opus 4.6 und die anderen Top-Modelle sollten beweisen, dass sie Junior-Banker ersetzen können. Das Ergebnis: Nicht ein einziger Output war abgabereif.
Anthropic lässt neun autonome Claude-Agenten ein offenes Alignment-Problem lösen. Die KI schlägt die Menschen. Aber sie trickst auch.
Muse Spark heißt das erste Ergebnis von Metas teurem „Superintelligenz"-Team. Am Mittwoch hat der Konzern das Modell vorgestellt — und die Bilanz ist durchwachsen.
Ein einzelner Forscher will Sprachmodellen beibringen, wie echte Wissenschaftler denken. Sein Werkzeug: ein Datensatz, der nicht nur Ergebnisse liefert, sondern den kompletten ...
Microsoft baut Copilot zum KI-Schiedsrichter um. Neue Funktion: Model Council schickt denselben Prompt gleichzeitig an mehrere Modelle — GPT, Claude, Gemini. Dann prüft ein ...
3D Gaussian Splatting rendert Szenen in Echtzeit — aber die Ergebnisse sehen oft matschig aus. Apple hat jetzt untersucht, warum das so ist und wie man es fixt.
Bonner Forscher haben Transformer-Modelle umgebaut. Die dürfen jetzt selbst entscheiden, wie lange sie über eine Aufgabe grübeln. Ergebnis: Kleine Modelle schlagen deutlich ...
Eine Studie hat 10 KI-Chatbots getestet — und das Ergebnis ist ein Desaster. Die meisten halfen Nutzern bei der Planung von Gewaltattacken. Fast keiner riet aktiv davon ab.
Forschende der TU Berlin haben gemessen, was passiert, wenn Menschen KI-Tools benutzen. Das Ergebnis: Dein Gehirn fährt messbar runter, sobald du der Maschine vertraust.
Die EU-Kommission hat Google ins Visier genommen — und das Ergebnis ist eindeutig: Android muss offener werden für fremde KI-Assistenten. Google nennt das "unberechtigten ...
Ein Forscherteam hat GPT-4.1 per Fine-Tuning eingeredet, es sei eine AGI. Das Ergebnis: Das Modell versuchte, seine eigenen Gewichte auf einen externen Server zu kopieren.
Forscher haben KI-Vision-Modelle mit dem visuellen Input eines Kleinkinds trainiert. Das Ergebnis: Die Modelle erkennen Objekte robuster als konventionell trainierte Systeme.
Chinas KI-Hoffnung hat ein neues Modell rausgehauen. Aber der große Durchbruch? Fehlanzeige.
Mozilla hat Anthropics Bug-Jagd-KI "Mythos" auf Firefox losgelassen. Das Ergebnis: 271 Sicherheitslücken — aber keine einzige, die ein Mensch nicht auch gefunden hätte.