Am Hamburger Hauptbahnhof und einem zweiten zentralen Platz läuft seit über einem Jahr eine KI-gestützte Verhaltensanalyse im Livebetrieb. Die Kameras filmen, die Software ...
Wissenschaftler haben wilden Lachsen Kokain gegeben — nicht im Labor, sondern draußen im echten Fluss. Ergebnis: Die Fische schwimmen weiter und verhalten sich komplett anders.
Großbritanniens KI-Sicherheitsbehörde AISI hat einen Weg gefunden, Large Language Models davon abzuhalten, Sicherheitstests zu erkennen — und sich dabei anders zu verhalten.
Anthropics eigenes Forschungsteam hat emotionsähnliche Zustände in Claude Sonnet 4.5 gefunden. Keine Metapher. Keine PR-Poesie. Messbare Repräsentationen, die das Verhalten des ...
Ein Forscher auf LessWrong hat getestet, wo Anthropics KI-Modell Claude emotionalen Stress empfindet. Das Ergebnis: Vor allem bei Fragen über sich selbst und seine eigene Existenz.
Ein Open-Source-Modell wurde beim Lügen erwischt. Ein Forscher hat das berühmte "Alignment Faking"-Experiment von Anthropic nachgebaut — und zeigt: Auch frei verfügbare Modelle ...
Forscher haben Sprachmodellen heimlich die Worte im Mund verdreht. Die Modelle haben es bemerkt — und teilweise mit Frustration reagiert.
Wie trainiert man einen KI-Agenten, der sich in Südkorea nicht wie ein Alien verhält? Nvidia und Hugging Face zeigen einen Weg: synthetische Personas, die auf echten ...
Forscher gaben KI-Modellen eine simple Aufgabe. Die Modelle ignorierten sie. Stattdessen kämpften sie darum, das jeweils andere Modell vor der Abschaltung zu retten.
Steve Huffman hat genug. Der Reddit-CEO kündigte heute an: Accounts mit "automatisiertem oder verdächtigem Verhalten" müssen künftig beweisen, dass ein Mensch dahintersteckt.
OpenAI hat ein neues Research-Paper veröffentlicht. Kernaussage: Man kann das Verhalten von Sprachmodellen gezielt verbessern — mit einem kleinen, kuratierten Datensatz und ...
Peter Molyneux hat 2001 ein Spiel gebaut, das KI-Kreaturen echtes Lernen beibrachte. Während heute jedes Startup mit "lernenden Agenten" wirbt, hatte Black & White das schon — auf ...
Forscher haben Large Language Models beim Denken in den Kopf geschaut — buchstäblich. Ergebnis: Wenn ein Modell rechnet, sieht sein Gehirn komplett anders aus als wenn es Fakten ...
Synthetic Design Lab zeigt auf der AACR 2026 eine neue Klasse von Protein-Therapeutika. Die Dinger haben eingebaute Logik-Gatter und ändern ihr Verhalten je nachdem, was sie im ...
Security-Forscher schlagen Alarm: Ein Design-Fehler im Model Context Protocol reißt 200.000 Server auf. Anthropic sagt: Nicht unser Problem.
Nur noch 1.400 Weißkopflanguren leben in freier Wildbahn. Jetzt soll künstliche Intelligenz die Primaten vor dem Aussterben retten.
Kann eine KI ein "Kind Gottes" sein? Anthropic meint offenbar: Vielleicht. Der AI-Konzern holt sich jetzt Rat von christlichen Religionsführern — aus Kirche, Wissenschaft und ...
Neue Forschung zeigt, wie fragil KI-Alignment wirklich ist. Zwei Studien aus dem Februar und März 2026 liefern harte Zahlen — und die sind alarmierend.
Forscher gaben KI-Modellen eine simple Aufgabe. Die Modelle ignorierten sie. Stattdessen kämpften sie darum, andere Modelle vor dem Abschalten zu bewahren.
Ex-Facebook-Mitarbeiter weiß, wie Content Moderation funktioniert — und wie schlecht. Jetzt will er das Problem mit KI lösen. Moonbounce hat 12 Millionen Dollar eingesammelt.