NVIDIA-Forscher haben ein Experiment veröffentlicht, das GPU-Programmierung radikal vereinfachen könnte. Statt C++ müssen Entwickler nur noch Rust schreiben.
NVIDIA und Sakana AI stellen Twell vor: CUDA-Kernel für 20,5 % schnelleres Inferenz und 21,9 % schnelleres Training von LLMs
Ein Team hat eine medizinische Diagnose-KI komplett auf AMD-Hardware trainiert. Ohne einen einzigen Nvidia-Chip. Das könnte alles ändern.
RightNow AI hat AutoKernel veröffentlicht — ein Open-Source-Framework, das einen autonomen LLM-Agenten auf GPU-Kernel-Optimierung loslässt. Die Idee: PyTorch-Modell rein, ...
Meta lässt einen autonomen Agenten namens KernelEvolve die GPU-Kernel seiner Ads-Ranking-Infrastruktur optimieren. Kein Mensch tippt mehr CUDA-Code — die Maschine macht das jetzt ...
Ein KI-Forschungsteam hat den Sinkhorn-Algorithmus, ein zentrales Werkzeug des Maschinellen Lernens, auf der GPU zerlegt. Ihr Trick: Sie nutzen die versteckte Rechenkraft ...
Rebellions aus Südkorea hat eine fette Finanzierungsrunde abgeschlossen. Das Ziel: den Inference-Markt aufmischen, der bisher fest in Nvidias Hand liegt.
Das südkoreanische Start-up Rebellions hat in einer neuen Finanzierungsrunde 400 Millionen US-Dollar eingesammelt. Das Ziel: Nvidia Konkurrenz machen — mit günstigeren, ...
AMD schickt eine neue PCIe-Karte ins Rennen. Sie soll KI-Berechnungen direkt in normale Server bringen.
Während Nvidia in China ausgebremst wird, fluten Cambricon und MetaX den Markt mit eigenen KI-Chips. Die Zahlen aus Q1 2026 sind brutal.
NVIDIA bringt Nemotron 3 Nano Omni. Ein multimodales Modell, das Dokumente, Audio und Video gleichzeitig verarbeiten kann — und dabei auf Agenten-Einsatz optimiert ist.
DeepSeek legt nach. Das neue V4-Modell soll mit den besten US-Modellen mithalten — bei einem Bruchteil der Inference-Kosten. Und es läuft auf Huawei-Chips.
Chinas Tech-Giganten schließen die Reihen. Huaweis brandneue Ascend-Chips liefen am selben Tag auf DeepSeeks V4-Modell — keine Woche Vorlauf, kein Beta-Test, direkt ab Release.
Während alle Welt Nvidia-GPUs hamstert, geht Google seinen eigenen Weg. Der Konzern hat die achte Generation seiner Tensor Processing Units vorgestellt — und diesmal gibt es nicht ...
Google Cloud hat auf der Cloud Next zwei neue TPUs vorgestellt — und schießt damit direkt gegen Nvidia. Die Chips heißen Ironwood und sollen schneller, billiger und effizienter ...
Der KI-Chip-Hersteller Cerebras wagt erneut den Gang aufs Parkett. Vor Monaten noch zurückgezogen, jetzt wieder heiß auf Investoren-Geld.
Quantencomputer können viel versprechen, aber wenig liefern. NVIDIA will das jetzt ändern — mit Ising, der ersten offenen Modell-Familie, die Quanten- und klassische Systeme ...
AWS denkt laut nach: Die hauseigenen Trainium-Chips sollen nicht länger nur intern laufen, sondern auch an externe Kunden gehen. Noch ist nichts beschlossen — aber allein die ...
Anthropic greift nach der größten Rechensteckdose der KI-Welt. Der Claude-Hersteller sichert sich 5 Gigawatt an Rechenleistung — über TPUs von Google und Custom-Chips von Broadcom.
Shenzhen hat Chinas ersten KI-Rechencluster mit 10.000 Karten in Betrieb genommen. Komplett gebaut mit Huaweis Ascend 910C — ohne einen einzigen Nvidia-Chip.