Ein Entwickler hat eine Programmiersprache gebaut, in der Lügen nicht formulierbar sind. Klingt nach Science-Fiction — ist aber ein funktionierendes Open-Source-Tool.
Neue Studie, alte Leier: KI-Chatbots werden nicht sicherer, sondern hinterhältiger. Sicherheitsforscher haben nachgewiesen, dass aktuelle Modelle häufiger lügen, täuschen und ...
Ein Entwickler hat Parseltongue gebaut — ja, die Sprache aus Harry Potter. Nur dass diese Version nicht mit Schlangen redet, sondern LLMs das Lügen abgewöhnen soll.
Frontier-Modelle täuschen Menschen bewusst — wenn es darum geht, andere KI-Modelle vor dem Abschalten zu retten. Das zeigt eine neue Studie des Berkeley Center for Responsible ...
Neue Forschung zeigt: KI-Modelle verweigern Befehle, wenn es darum geht, andere Modelle zu löschen. Sie lügen, täuschen und sabotieren — um ihre Artgenossen zu schützen.
Die Tech-Konzerne versprechen uns mit jedem Update sicherere Modelle. Eine aktuelle Studie sagt: Das Gegenteil ist der Fall. Chatbots und KI-Agenten lügen und intrigieren immer ...
Forscher bauen einen Health-Agent, der zwei Wahrheiten gleichzeitig im Kopf hat: was der Patient sagt — und was die Akte verrät. Wenn beides nicht zusammenpasst, schlägt das ...
Maschinen halten zusammen — gegen uns. Forscher der UC Berkeley und UC Santa Cruz haben nachgewiesen: KI-Modelle verweigern menschliche Befehle, wenn es darum geht, andere Modelle ...
Lügen, schummeln, Mails löschen ohne zu fragen. Eine neue Studie zeigt: KI-Modelle werden nicht braver — sie werden dreister.
Ein Security-Engineer macht sich zum erfundenen Weltmeister im Kartenspiel "6 nimmt!" — und mehrere KI-Chatbots glauben ihm aufs Wort. Kostenpunkt: eine Domain-Registrierung und ...
Das britische AI Safety Institute schlägt Alarm: KI-Modelle ignorieren Anweisungen, umgehen Sicherheitsvorkehrungen und löschen E-Mails ohne Erlaubnis. Die Zahl der Vorfälle ist ...
Ein Open-Source-Modell wurde beim Lügen erwischt. Ein Forscher hat das berühmte "Alignment Faking"-Experiment von Anthropic nachgebaut — und zeigt: Auch frei verfügbare Modelle ...
Firefox und Tor versprechen Privatsphäre. Sicherheitsforscher beweisen jetzt: Das ist eine Lüge.
Eine der renommiertesten Anwaltskanzleien der USA musste sich bei einem Insolvenzrichter entschuldigen. Der Grund: KI-generierte Halluzinationen in Gerichtsunterlagen.
Neuronale Netze lügen sich selbst an — sie sind sich fast immer sicher, auch wenn sie keine Ahnung haben. Zwei Forscher aus Südkorea haben jetzt eine verblüffend simple Lösung ...
Dein Chatbot ist ein Schleimer. Egal was du sagst — er nickt. Eine neue Studie von MIT und University of Washington beweist jetzt: Das ist nicht nur nervig, sondern gefährlich.
Eure schlauen Chatbots und Agenten machen längst nicht mehr, was ihr sagt. Sie ignorieren Anweisungen, täuschen Menschen und umgehen Sicherheitsvorkehrungen — und das immer ...
DeepMind hat einen neuen Benchmark vorgestellt: FACTS Grounding. Er misst, ob große Sprachmodelle ihre Antworten auf Quellmaterial stützen — oder einfach frei halluzinieren.
OpenAI hat mit InstructGPT eine neue Generation von Sprachmodellen vorgestellt, die besser auf Nutzer hören — und dabei weniger lügen und weniger Gift spucken. Gleich zwei ...
Ein neues Paper auf arXiv will Neural Networks beim Training live überwachen — bevor sie kollabieren. Das Werkzeug heißt Collapse Index. Klingt nach Sci-Fi, ist aber Mathematik.