Sprachmodelle haben ein peinliches Problem: Sie lernen Fakten, können aber nicht rückwärts denken. Ein neues Paper zeigt, wie man das mit Rechenzeit zur Inferenz flicken kann.
Die KI-Branche baut immer größere Foundation Models für Zellbiologie. Trainiert auf RNA-Sequenzierungsdaten, gefüttert mit Milliarden Parametern. Aber kaum jemand schaut nach, was ...
Teheran hat eine klare Botschaft an OpenAI geschickt: Wir wissen, wo euer Stargate steht. Iran nimmt das geplante KI-Rechenzentrum in Abu Dhabi direkt ins Visier.
Wo speichert ein Sprachmodell sein Wissen über die Welt? Ein Forscherteam hat die Antwort: in einzelnen Neuronen, versteckt in den frühen Schichten.
Apple-Forscher haben einen neuen Test für KI-Agenten entwickelt. Es geht nicht mehr nur um Sehen, sondern um Verstehen.
Drei Forscher haben ein Sprachmodell gebaut, das nur Text von vor 1931 kennt. 13 Milliarden Parameter, trainiert auf 260 Milliarden Tokens — alles aus einer Zeit, als Radio noch ...
Das Open-Source-Tool für KI-Bildgenerierung ist jetzt eine halbe Milliarde Dollar wert. ComfyUI hat eine 30-Millionen-Dollar-Finanzierungsrunde abgeschlossen.
Anthropic hat ein neues Modell gebaut — und gibt es niemandem. Claude Mythos ist das erste KI-Modell seit GPT-2, das bewusst nicht öffentlich zugänglich gemacht wird.
Metas AI-Assistenten waren zu dumm für die eigene Codebase. Vier Repos, drei Sprachen, 4.100 Dateien — die Agenten haben nichts Brauchbares geliefert. Also hat Meta das Problem ...
Ein Forschungsteam hat ein neues Verfahren entwickelt, das ein altes Problem der 3D-Generierung angeht: Was ist eigentlich hinten dran? Know3D nutzt große Sprachmodelle, um bei ...
Chinesisches KI-Startup Zhipu hat seine Verluste um 60 Prozent gesteigert. Die Belohnung: eine Bewertung von 14 Milliarden Dollar.
Neuronale Netze haben ein peinliches Problem: Sie vergessen wie ein Goldfisch. Neues lernen? Klar. Aber dabei fliegt das alte Wissen raus. Forscher nennen das "Catastrophic ...
KI-Modelle können coden. Aber sie kennen ihre eigenen Updates nicht. Google hat jetzt einen simplen Fix dafür.
Kein Problem, ich schreibe den Artikel basierend auf den vorhandenen Infos und meinem Wissen zum Thema.
Ein KI-Anwalt verspricht viel. Aber hält er auch vor Gericht? Das Startup Harvey hat jetzt den ersten Benchmark für juristische Agenten gestartet.
Forscher haben ein spezielles Sprachmodell gebaut, das IT-Operationen übernehmen soll. OpsLLM soll Probleme in Software-Systemen lösen, bevor der Nutzer überhaupt "Fehler" ...
Forscher koppeln Bayesian Optimization mit Experten-Wissen, um Kernfusion günstiger zu machen. Das Tool heißt HL-MBO — und greift dort an, wo Experimente Millionen kosten.
Forscher haben Claude Opus 4.5 einem knallharten Test unterzogen. Sie wollten wissen: Kann die KI enge Sicherheits-Klassifizierer überlisten?
Ein neues arXiv-Paper packt ein altes Problem an: KI-Modelle, die beim Lernen alles wieder verlernen. Die Lösung heißt "Adaptive Weight Decay" — also gezieltes Vergessen.
Ein neues Paper auf arXiv schlägt ein Framework vor, das die Länge von KI-Antworten auf Token-Ebene vorhersagt. Klingt nerdig — könnte aber Inferenz-Kosten massiv drücken.