Physical Intelligence hat π0.7 vorgestellt — ein Roboter-Modell, das gelernte Fähigkeiten eigenständig neu zusammenwürfelt. Wie ein Sprachmodell, nur mit Greifarmen statt ...
Forscher haben eine neue Methode vorgestellt, die große Sprachmodelle kleiner macht — ohne sie neu trainieren zu müssen. Das Paper heißt "SoLA" und kombiniert zwei Tricks: Soft ...
Ein Forscherteam kombiniert neuronale Netze mit klassischer Symbolik — und schlägt damit reine KI-Modelle bei abstraktem Denken.
Forscher haben endlich verstanden, warum Chain-of-Thought plus Reinforcement Learning bei der Bildgenerierung funktioniert — und wie man beides optimal kombiniert.
NVIDIA hat ein neues Training-Framework vorgestellt, das KI-Agenten mit deutlich weniger Rechenaufwand auf Kurs bringt. PivotRL kombiniert Supervised Fine-Tuning mit Reinforcement ...
Forscher haben ein KI-Modell gebaut, das aus Hirnströmen gesprochene Laute erkennt. Klingt nach Science-Fiction, ist aber erstmal nur ein Paper.
Forscher präsentieren DyMRL: ein System, das multimodale Wissensgraphen nutzt, um reale Ereignisse vorherzusagen. Klingt wild. Ist erstmal nur ein Paper.
OpenAI hat ein Forschungspaper veröffentlicht, das Large Language Models mit evolutionären Algorithmen kombiniert. Kein neues Produkt, kein Launch — reine Forschung.
NVIDIA stellt GR00T N1.7 auf Hugging Face — ein Open-Weight-Modell, das Humanoide Roboter sehen, verstehen und handeln lässt. Kein Closed-Source-Geheimnis, sondern frei verfügbar.
Eine neue Cybercrime-Plattform namens ATHR automatisiert Voice-Phishing komplett. Kriminelle mieten KI-Stimmen, die Opfer anrufen und Logins abgreifen — im Akkord.
Audio war immer das Stiefkind der multimodalen KI. Bilder verstehen? Kein Problem. Aber Sprache, Musik und Umgebungsgeräusche gleichzeitig verarbeiten? Daran scheitern die meisten ...
Unitree hat seinen zweibeinigen Roboter H1 auf die Sprintbahn geschickt. Unter Laborbedingungen erreicht die Maschine Zeiten, die nah an Usain Bolts Weltrekord rankommen.
DeepMind liefert ab: Gemini Robotics-ER 1.6 ist da. Ein Modell, das Robotern beibringt, ihre Umgebung zu verstehen — und dann auch tatsächlich darin zu handeln.
Forscher lassen einen KI-Agenten eigenständig durch komplexe Physik-Simulationen navigieren. Statt monatelang im Labor zu sitzen oder teure Supercomputer-Rechnungen zu bezahlen, ...
Coachella 2026 läuft, und die Social-Media-Feeds sind voll mit perfekt gestylten Figuren in Glitzer-Outfits. Nur: Einige dieser "Influencer" waren nie dort. Sie existieren nicht ...
Ein einziges Bild rein, ein sprechender Avatar raus. Das chinesische Forschungsmodell LPM 1.0 generiert in Echtzeit Videos mit Mimik, Lippensync und emotionalen Reaktionen — aus ...
Apple-Rechner galten lange als sicher. Jetzt missbrauchen Angreifer Apples eigenen Script Editor, um den Datenklauer „Atomic Stealer" auf Macs zu schleusen — ganz ohne Terminal.
Ein neues Paper will Large Language Models auf Graphen-Daten trainieren, ohne tausende Labels zu brauchen. Der Trick: Ein Graph Neural Network spielt den Lehrer.
Ein Roboter soll blinden Menschen nicht nur den Weg zeigen — sondern ihnen erzählen, was um sie herum passiert. Kein Fell, kein Futter, dafür KI im Kopf.
NVIDIA stellt AITune vor — ein Open-Source-Toolkit, das automatisch das schnellste Inference-Backend für jedes PyTorch-Modell findet. Schluss mit dem manuellen Rumgefrickel.