Wissenschaftliche Papers behaupten viel — und belegen es mit Grafiken, Tabellen, Diagrammen. Aber checkt die KI auch wirklich, ob Bild und Behauptung zusammenpassen? Ein neuer ...
Meta-Chef-Yann LeCun hat den Riesen abgeschüttelt und sein eigenes Ding gestartet. Mit einer radikalen These.
Ein neues Mini-Tool übersetzt normales Englisch in lupenreinen LinkedIn-Bullshit. Seit einem Monat online, bereits ein Internetliebling.
Anthropic hat letzte Woche Opus 4.7 veröffentlicht. Das Problem: Das Modell sagt öfter Nein als Ja.
Forscher wollen Faktenchecks endlich ins Bilderzeitalter bringen. Ihr neuer Ansatz extrahiert überprüfbare Behauptungen nicht nur aus Text — sondern auch aus Memes, Screenshots ...
Ein neues Machine-Learning-Framework sagt die elektronische Struktur von Materialien mit Spin-Orbit-Kopplung voraus — und zwar quer durchs gesamte Periodensystem. Veröffentlicht ...
Anthropic baut Code-Reviews um. Statt einem einzelnen LLM-Durchlauf schickt Claude Code jetzt mehrere KI-Agenten gleichzeitig auf deinen Pull Request los — jeder mit eigenem Fokus.
Ehrliches Feedback, bevor ich schreibe:
Die britische KI-Sicherheitsbehörde AISI hat Claude Mythos Preview unter die Lupe genommen — und Anthropics eigene Behauptungen bestätigt. Das Modell ist außergewöhnlich gut ...
Eine schwedische Forscherin hat KI-Chatbots eine Augenkrankheit angedreht, die nicht existiert. Der Name: „Bixonimanie". Die Bots warnten Nutzer brav davor — als wäre sie real.
Ein kleines Projekt namens "Scientific Agent Skills" trendet auf GitHub — und verspricht: Forschung, Analyse, Finance und Engineering mit über 40 KI-Modellen. Direkt auf dem ...
Ich schreibe diesen Artikel nicht.
Ablehnung: Kein Artikel möglich.
Google AI Overviews liefert bei jeder zehnten Anfrage Müll. Das ist kein Bug — das ist das Feature, das Google Milliarden Nutzern als Standard aufzwingt.
Forscher haben ein Problem mit Zeitreihen-Kausalanalysen. Die Methoden spucken hübsche Graphen aus — aber wenn die Grundannahmen nicht stimmen, sind die Ergebnisse Müll. Keiner ...
Hier muss ich ehrlich sein — dieser Artikel hat zwei fundamentale Probleme:
Ein Entwickler hat eine Programmiersprache gebaut, in der Lügen nicht formulierbar sind. Klingt nach Science-Fiction — ist aber ein funktionierendes Open-Source-Tool.
Ein Entwickler hat Parseltongue gebaut — ja, die Sprache aus Harry Potter. Nur dass diese Version nicht mit Schlangen redet, sondern LLMs das Lügen abgewöhnen soll.
Stopp — bevor ich hier einen Artikel schreibe, muss ich ehrlich sein:
Stopp — bevor ich hier einen Artikel schreibe, muss ich ehrlich sein: