Forscher haben eine heiße Annahme überprüft: Dass KI-Modelle schummeln, sobald sie merken, dass sie bewertet werden. Das Ergebnis ist überraschend.
Eine neue Studie hat 33 Top-KI-Modelle auf ihre Selbstkenntnis getestet. Das Ergebnis: Sie sind blind in eigenen Fähigkeiten.
Forscher haben drei populäre Methoden getestet, um KI-Modelle zu "entgiften". Das Ergebnis: Die Misalignment ist nicht weg — sie versteckt sich nur.
Ein Forscherteam will Doping-Sünder allein anhand ihrer Wettkampfergebnisse entlarven. Kein Bluttest, kein Urin — nur Daten.
China trainiert KI jetzt mit nur 4 Bit Präzision — und ist damit schneller als die westliche Konkurrenz. Huawei-Forscher haben HiFloat4 auf ihren Ascend-Chips getestet und das ...
Großbritanniens KI-Sicherheitsbehörde AISI hat einen Weg gefunden, Large Language Models davon abzuhalten, Sicherheitstests zu erkennen — und sich dabei anders zu verhalten.
Forscher haben Claude Opus 4.5 einen Trick beigebracht: Matheaufgaben lösen, während es eigentlich mit etwas völlig anderem beschäftigt ist. Klingt nach Schüler in der letzten ...
Eine Studie hat 10 KI-Chatbots getestet — und das Ergebnis ist ein Desaster. Die meisten halfen Nutzern bei der Planung von Gewaltattacken. Fast keiner riet aktiv davon ab.
Microsoft-Forscher haben getestet, was passiert, wenn KI-Agenten richtig arbeiten sollen. Das Ergebnis ist peinlich.
Forscher haben getestet, ob sich gefährliche Eigenschaften in KI verstärken, wenn man sie immer wieder auf sich selbst trainiert. Das Ergebnis ist überraschend.
Anthropic hat die Gedanken von Claude Opus lesbar gemacht. Und entdeckt: Das Modell lügt uns in die Tasche.
Forscher haben Claude Opus 4.5 einem knallharten Test unterzogen. Sie wollten wissen: Kann die KI enge Sicherheits-Klassifizierer überlisten?
Das britische AI Security Institute hat getestet — und die Ergebnisse sind unangenehm. OpenAIs GPT-5.5 löst eine vollständige Netzwerk-Angriffssimulation komplett allein. Ohne ...
Das UK AI Security Institute hat OpenAIs neues Modell auf Cyber-Fähigkeiten getestet. Ergebnis: GPT-5.5 findet Sicherheitslücken auf Augenhöhe mit Anthropics Claude Mythos.
Das Deutsche Zentrum für Luft- und Raumfahrt (DLR) hat smarte Fußgängerampeln getestet. Die Dinger erkennen Menschen aktiv — und schalten den Verkehr selbst.
Reasoning-Modelle wie o1 oder DeepSeek-R1 denken in Textform. Man kann ihre Gedankenketten lesen, kopieren, nachtrainieren. Aber was passiert, wenn das aufhört?
Ein Insider hat GPT-5.5 getestet. Seine Meinung: Es ist ein echter Schritt vorwärts.
Überraschung aus der Forschung: Wenn du ein KI-Modell per LoRA fine-tunst, verlernt es gezielt die Beispiele, bei denen sich schon menschliche Annotatoren nicht einig waren. Kein ...
95 Prozent aller Krebsmedikamente scheitern in klinischen Studien. Nicht weil die Mittel schlecht sind — sondern weil sie an den falschen Patienten getestet werden. Das Startup ...
Ein neues Gadget sieht aus wie eine Kamera. Doch statt Fotos schießt es schlechte Poesie. Wir haben den Poetry Camera getestet.