KI frisst Strom wie nichts Gutes. Rechenzentren blasen immer mehr CO₂ in die Luft, und die großen Tech-Konzerne flirten bereits mit Atomkraft. Jetzt wollen Forscher einen anderen ...
Ein Open-Source-Speedrun jagt den schnellsten Trainings-Algorithmus für GPT-2-Niveau. Aktueller Rekord: 90 Sekunden auf 8 H100s.
NVIDIA und Sakana AI stellen Twell vor: CUDA-Kernel für 20,5 % schnelleres Inferenz und 21,9 % schnelleres Training von LLMs
Hugging Face hat ml-intern veröffentlicht — einen Open-Source-Agenten, der den kompletten Post-Training-Workflow für Large Language Models übernimmt. Von Literaturrecherche bis ...
NVIDIA hat ein neues System vorgestellt, das KI-Agenten deutlich schneller trainieren soll. Der Name: ProRL Agent. Die Idee: Das Training von der eigentlichen Agent-Arbeit trennen.
Ein Startup behauptet, das Training riesiger KI-Modelle mehr als verdoppeln zu können. Die neue Technik namens TSP soll die Hardware endlich richtig auslasten.
Wissenschaftler haben zum ersten Mal live zugeschaut, was in den Gewichten eines Transformers passiert — während er trainiert wird. Nicht davor, nicht danach. Mittendrin.
Together AI hat ein Problem gelöst, von dem die meisten nicht mal wissen, dass es existiert: den Rollout-Flaschenhals beim Reinforcement Learning. Ihre Lösung heißt ...
Schluss mit Cloud-Abhängigkeit. Unsloth Studio ist eine neue Web-Oberfläche, die Open-Source-Modelle wie Qwen3.5, Gemma 4 und DeepSeek direkt auf dem eigenen Rechner trainiert und ...
Google hat seine 8. TPU-Generation vorgestellt. Zwei neue Chips — einer fürs Training, einer für Agenten-Workloads.
Forscher am MIT haben Federated Learning so weit optimiert, dass selbst Sensoren und Smartwatches mitmachen können. Ohne dass deine Daten jemals dein Gerät verlassen.
Forscher haben einen Trick gefunden, der wochenlange GPU-Verschwendung beim Feintuning von LLMs überflüssig macht. Statt ewig an Daten-Mischverhältnissen rumzuschrauben, ...
Vision-Language-Modelle halluzinieren wie betrunkene Augenzeugen. Ein neues Paper will das Problem beim Decoding lösen — ohne Training, ohne Geld, ohne Hype.
Deutsche Verlagsriesen haben genug. Sie verklagen Meta wegen massenhaftem Klau urheberrechtlich geschützter Werke fürs KI-Training.
Google DeepMind hat eine neue Trainings-Methode veröffentlicht. Sie macht große KI-Modelle robuster und billiger.
Google hat auf der Cloud Next in Las Vegas zwei neue Eigenentwicklungen vorgestellt: TPU 8 kommt nicht als ein Chip, sondern als Doppelpack. Einer für Training, einer für ...
Mehrere YouTuber zerren Apple vor ein US-Gericht. Der Vorwurf: Der Konzern hat ihre Videos ohne Erlaubnis zum Training seiner KI-Modelle verwendet.
Neue Angriffsmethode aus der Forschung: Mit sogenanntem „Model Reprogramming" lässt sich herausfinden, welche Daten ein KI-Modell beim Training gefressen hat. Ohne teuren Aufwand. ...
PyTorch hat ein neues Open-Source-Framework auf GitHub gedroppt: OpenEnv. Damit sollen Entwickler isolierte Umgebungen bauen, in denen LLMs per Reinforcement Learning zu Agenten ...
Tilde Research hat einen neuen Optimizer veröffentlicht. Er repariert einen versteckten Fehler, der bisher tausende Neuronen während des Trainings stillgelegt hat.