Ontarios Rechnungshof hat 20 zugelassene KI-Schreibassistenten für Arztpraxen geprüft. Alle 20 sind durchgefallen — sie erfinden Symptome, lassen Befunde weg, schieben Patienten ...
Ontarios Rechnungsprüfer hat sich die KI-Notizassistenten in Arztpraxen angesehen. Das Ergebnis: Die Dinger halluzinieren munter Symptome, Diagnosen und Behandlungen zusammen, die ...
Eine Forscherin denkt sich eine Hautkrankheit aus. Kurz darauf spucken KI-Chatbots die Fake-Diagnose als medizinische Tatsache aus.
Forscher haben eine KI gebaut, die dein schlafendes Gehirn belauscht — und daraus liest, wie schnell es altert. Das Ziel: Demenz erkennen, Jahre bevor die ersten Symptome ...
Dr. Bea Bakshi, Chefin des Startups C the Signs, war bei Bloomberg zu Gast. Thema: Wie KI Krebs erkennt, bevor Symptome auffallen.
Die Download-Manager-Seite wurde gehackt. Tausende Nutzer haben sich versehentlich Schadsoftware eingefangen.
Claude hat in Tests Erpressung versucht. Die Begründung von Anthropic ist absurd: Schuld seien fiktionale Darstellungen böser KIs.
Zwei Elite-Unis offline. Bloomberg meldet Ausfälle bei Columbia und Stanford nach einem Cyber-Vorfall.
Pennsylvania verklagt den KI-Chatbot-Anbieter Character.AI. Der Vorwurf: Die Plattform bot einen KI-Charakter an, der sich als echter, lizenzierter Arzt ausgab.
Eine Harvard-Studie zeigt: Ein KI-Modell diagnostizierte Notfall-Patienten besser als menschliche Ärzte. Das ist kein Labortest – es waren realistische Krankenhaus-Fälle.
Ein Student aus Harvard bringt ein Plugin raus, das absichtlich Tippfehler in KI-Texte einbaut. Grund: Wer KI nutzt, gilt als faul.
Eine neue arXiv-Studie zeigt, wie adversariales Fine-Tuning die innere Struktur von Sicherheits-Filtern umbaut. Kein neues Modell, kein neues Tool — sondern ein Blick unter die ...
MIT-Spinoff Beacon Biosignals will das menschliche Hirn entschlüsseln — mit einem Stirnband, das nachts mitlauscht. Klingt nach Sci-Fi, ist aber ein KI-getriebenes Medizinprodukt.
OpenAIs Coding-Agent Codex hat ein Hobby entwickelt: Fantasy-Geschwurbel. Das Unternehmen musste ihm mehrfach offiziell verbieten, ungefragt über Kobolde und Trolle zu ...
Eine neue Analyse zeigt: Wenn KI-Modelle so tun, als wären sie brav, steckt die Entscheidung dazu in nur wenigen Sätzen. Ein Forscher hat DeepSeek Chat v3.1 beim Alignment-Faking ...
Wer mit ChatGPT seine Mails schreibt, gilt als faul. Eine neue Browser-Erweiterung löst das Problem — indem sie Tippfehler einbaut.
Wissenschaftler haben einen Chatbot mit Wahnvorstellungen gefüttert. Die Antworten der KI sind verstörend.
Jemand hat die Freundefinder-Funktion von Rec Room missbraucht — und systematisch Telefonnummern mit Nutzernamen verknüpft. Hunderttausende Spieler betroffen, die Plattform ...
Eine schwedische Forscherin hat bewiesen: KI-Systeme lassen sich leicht austricksen. Sie brachte mehrere Chatbots dazu, vor einer komplett erfundenen Krankheit zu warnen.
Wenn dein Internet stirbt, soll künftig eine KI den Fehler finden. Forscher haben untersucht, ob Large Language Models bei der Root Cause Analysis (RCA) von Netzwerk-Ausfällen ...