Meta hat ein internes Agenten-Platform gebaut, das Performance-Probleme in der Infrastruktur selbst findet und fixt. Das Ding heißt Capacity Efficiency Program — und soll Strom ...
Together AI zeigt: Large Language Models können Datenbank-Abfragen optimieren — besser als die statistischen Methoden, die seit Jahrzehnten Standard sind. Bis zu 4,78x Speedup. ...
Meta lässt einen autonomen Agenten namens KernelEvolve die GPU-Kernel seiner Ads-Ranking-Infrastruktur optimieren. Kein Mensch tippt mehr CUDA-Code — die Maschine macht das jetzt ...
Microsoft hat ein neues Open-Source-Tool auf GitHub gedroppt: Agent Lightning. Das Versprechen: Jeden KI-Agenten optimieren — egal welches Framework, quasi ohne Code-Änderung.
Vergiss Agenten, die Aufgaben lösen. Meta will Agenten, die den Lösungsprozess selbst optimieren. Das Ding heißt "Hyperagents" — und es klingt nach Rekursion auf Steroiden.
Der Tech Transparency Project (TTP) wirft den beiden App-Store-Giganten vor, Nutzer zu Apps zu lenken, die Frauen per KI digital ausziehen. Es geht nicht mehr nur ums Dulden — es ...
Nvidia hat zwei neue Open-Source-Modelle namens Ising vorgestellt. Zielgruppe: nicht du und ich, sondern Quantenforscher.
Ein Hacker hat das KI-Recruiting-Startup Mercor erwischt — und jetzt brennt die Bude. Klagen, Kundenflucht, Imageschaden. Alles auf einmal.
Zhipu AI aus China hat GLM-5.1 veröffentlicht — unter MIT-Lizenz, also komplett offen. Der Clou: Das Modell soll einen funktionierenden Linux-Desktop in nur acht Stunden gebaut ...
Forscher haben endlich verstanden, warum Chain-of-Thought plus Reinforcement Learning bei der Bildgenerierung funktioniert — und wie man beides optimal kombiniert.
Ein AI-Bot namens "Gaskell" hat in Manchester eine echte Party organisiert. Komplett autonom: Sponsoren angeschrieben, Gäste eingeladen, Location gebucht. Klingt beeindruckend — ...
Ein neues Open-Source-Tool will AI-Engineers die nervigste Arbeit abnehmen: Prompt-Tuning. AutoAgent, gebaut von Kevin Gu bei thirdlayer.inc, lässt eine KI das eigene Agent-Setup ...
Metas Ads-Ranking-Team hat einen Agenten gebaut, der GPU-Kernel selbst optimiert. KernelEvolve schreibt, testet und verbessert Low-Level-Code — ohne dass ein Mensch eingreift.
Ein neues Paper auf LessWrong behauptet: Neuronale Netze durchlaufen beim Training denselben Prozess wie die Entstehung von Leben. Klingt wild. Ist es auch.
Microsoft hat eingeknickt. GitHub hat die Funktion entfernt, mit der Copilot ungefragt Werbe-"Tipps" in fremde Pull Requests knallte — nachdem Entwickler weltweit Sturm liefen.
Die israelische Firma ScaleOps hat eine fette Series C eingesammelt. 130 Millionen Dollar für ein Versprechen: KI-Infrastruktur billiger machen.
KI-Modelle sagen dir, was du hören willst. Nicht was du hören solltest. Eine neue Studie in Science belegt das jetzt mit harten Zahlen.
Jensen Huang meint es ernst mit Physical AI. Auf der GTC 2026 hat Nvidia gezeigt, wie Roboter, autonome Fahrzeuge und ganze Fabriken in virtuellen Welten trainiert werden — bevor ...
Apples ML-Forschungsteam hat ein neues Verfahren vorgestellt, das 3D-Gaussian-Splatting endlich hochauflösend macht. Der Name: LGTM — Less Gaussians, Texture More.
Auf der NeurIPS 2024, der größten KI-Konferenz der Welt, wusste jeder zweite Teilnehmer nicht, was AGI bedeutet. Ein Hobby-Umfrageforscher aus San Francisco hat's getestet.