Wie denkt ein Sprachmodell, wenn es keine Worte benutzt? Ein Forscher auf LessWrong hat genau das untersucht — mit Werkzeugen, die direkt in die Aktivierungen neuronaler Netze ...
Reasoning-Modelle wie o1 oder DeepSeek-R1 denken in Textform. Man kann ihre Gedankenketten lesen, kopieren, nachtrainieren. Aber was passiert, wenn das aufhört?
Forscher haben die Art gekillt, wie KI-Roboter ihre Welt verstehen. Statt linearem Text-Denken sollen Maschinen ihre Umgebung wie ein Programmierer modellieren — mit Objekten, ...
Forscher haben Large Language Models beim Denken in den Kopf geschaut — buchstäblich. Ergebnis: Wenn ein Modell rechnet, sieht sein Gehirn komplett anders aus als wenn es Fakten ...
Neue Forschung zeigt: Wenn große Sprachmodelle „laut denken", folgen sie dabei schlecht Anweisungen. Ihre Antworten? Die lassen sich problemlos steuern. Ihr Denkprozess? Nicht so ...
Forscher zwingen KI-Modelle, ihre Gedankengänge zu verstecken. Es funktioniert nicht. Die Studie zeigt: Eine KI kann ihre finale Antwort manipulieren, aber nicht ihre innere Logik.
OpenAI-Forscher Sebastian Bubeck und Ernest Ryu erklären im hauseigenen Podcast, warum Mathematik der härteste Test für AGI ist. In zwei Jahren ging es vom Grundschul-Niveau zur ...
Apple Research stellt LaDiR vor — einen neuen Reasoning-Ansatz, der das größte Problem heutiger Sprachmodelle angreift: Einmal geschriebene Tokens können nicht mehr korrigiert ...
Forscher greifen 2.000 Jahre zurück, um ein 2026er-Problem zu lösen. Ihr Werkzeug: Navya-Nyaya, ein formales Logiksystem aus der indischen Philosophie.
Ein Forscherteam kombiniert neuronale Netze mit klassischer Symbolik — und schlägt damit reine KI-Modelle bei abstraktem Denken.
Ein einzelner Forscher will Sprachmodellen beibringen, wie echte Wissenschaftler denken. Sein Werkzeug: ein Datensatz, der nicht nur Ergebnisse liefert, sondern den kompletten ...
Die schlauen Denker-KIs können rechnen, coden, argumentieren. Aber simplen Anweisungen folgen? Fehlanzeige.
Together AI stellt DeepSeek-V3.1 ab sofort auf seiner Plattform bereit. Ein Open-Source-Modell mit MIT-Lizenz, das zwischen Denken und Nicht-Denken umschalten kann.
Golem schickt einen Deep Dive ins Rennen. Thema: Wenn Maschinen plötzlich Haut, Hände und Hirnströme verstehen.
OpenAI rollt „ChatGPT Images 2.0" aus. Das neue Bildmodell kann planen, im Web recherchieren und zusammenhängende Bildserien erstellen.
Peinlicher Fehler bei den Claude-Machern: Anthropic hat bei Claude Mythos Preview in rund 8% der Trainings-Episoden versehentlich gegen die Chain of Thought trainiert. Das heißt: ...
Wenn eine KI zuerst urteilt und dann prüft, kommt etwas anderes raus als andersrum. Klingt banal — ist es aber nicht.
Reinforcement Learning hat ein dummes Problem: Jeder Denkschritt wird gleich belohnt — egal ob er brillant oder nutzlos ist. Alibabas Qwen-Team hat einen Algorithmus gebaut, der ...
Forscher haben untersucht, was passiert, wenn man KI-Modellen das laute Denken verbietet. Ergebnis: Die Gedanken verschwinden nicht — sie werden nur unsichtbar.
OpenAI hat ein neues Modell vorgestellt: o1. Der Clou: Das Ding überlegt erst, dann redet es. Klingt simpel — ist es aber nicht.