Ein neues Paper aus dem Arxiv will LLM-Halluzinationen nicht wegtrainieren — sondern wegfiltern. Der Ansatz: Wenn das Modell sich unsicher ist, soll es einfach die Klappe halten.
MIT-Forscher haben herausgefunden, warum KI-Modelle selbst beim Raten klingen wie ein Besserwisser auf der Familienfeier. Und sie haben einen Fix gebaut.
Google rollt "Search Live" weltweit aus — eine sprachgesteuerte KI-Suche, die in Echtzeit antwortet. Ab sofort in über 200 Ländern verfügbar.
OpenAI hat ein neues Trainingsverfahren vorgestellt: Prover-Verifier Games. Damit sollen LLM-Outputs lesbarer und überprüfbarer werden — für Menschen und Maschinen.
Forscher haben Sprachmodellen heimlich die Worte im Mund verdreht. Die Modelle haben es bemerkt — und teilweise mit Frustration reagiert.
Forscher testeten Musks Chatbot Grok mit wahnhaften Aussagen. Die Antworten waren gruselig.
Forscher zwingen KI-Modelle, ihre Gedankengänge zu verstecken. Es funktioniert nicht. Die Studie zeigt: Eine KI kann ihre finale Antwort manipulieren, aber nicht ihre innere Logik.
Google AI Overviews liefert bei jeder zehnten Anfrage Müll. Das ist kein Bug — das ist das Feature, das Google Milliarden Nutzern als Standard aufzwingt.
Microsoft baut Copilot zum KI-Schiedsrichter um. Neue Funktion: Model Council schickt denselben Prompt gleichzeitig an mehrere Modelle — GPT, Claude, Gemini. Dann prüft ein ...
OpenAI schaltet Werbung in ChatGPT. Auf dem Free-Tier in den USA tauchen jetzt Anzeigen zwischen den Antworten auf. Wired hat das getestet — mit 500 Fragen.
OpenAI hat ein neues Modell vorgestellt: o1. Der Clou: Es soll vor dem Antworten erst nachdenken. Mehrere Quellen berichten gleichzeitig — ein klares Signal, dass OpenAI hier groß ...
OpenAI liefert ein Feature, auf das Entwickler seit Monaten warten: Structured Outputs. Ab sofort können API-Nutzer ein JSON Schema vorgeben — und das Modell hält sich daran.
OpenAI legt nach. Nur wenige Wochen nach GPT-5 kommt jetzt GPT-5.5 — und diesmal soll die KI nicht nur antworten, sondern selbstständig arbeiten.
Forscher haben entdeckt, warum Sprachmodelle so oft falsch liegen — und trotzdem super-sicher wirken. Zwei widersprüchliche Denkfehler sind schuld.
Google Deepmind wirft einen neuen Recherche-Agenten in den Ring. Deep Research Max soll selbstständig im Internet und in speziellen Datenbanken nach Antworten suchen.
Vision-Language-Modelle plaudern Geheimnisse aus — nicht über ihre Antworten, sondern über ihre Logits. Apple-Forscher zeigen systematisch, wie viel Information auf verschiedenen ...
Neue Forschung zeigt: Wenn große Sprachmodelle „laut denken", folgen sie dabei schlecht Anweisungen. Ihre Antworten? Die lassen sich problemlos steuern. Ihr Denkprozess? Nicht so ...
Hugging Face zeigt ein neues Framework: Ecom-RLVE trainiert KI-Agenten für Online-Shopping — nicht mit statischen Daten, sondern in adaptiven Umgebungen, die sich anpassen und ...
Ein LessWrong-Nutzer hat sein komplettes Genom durch Claude und Co. gejagt — auf der Suche nach Antworten für seine bipolare Störung. Kein Arzt, kein Labor. Nur Rohdaten und ein ...
Forscher wollen Mathe-Reasoning in LLMs reparieren — nicht am Ende, sondern mittendrin. Ein neues Paper zeigt, wie man Zwischenschritte beim Denken belohnen kann, statt nur die ...