Together AI macht DeepSeek-R1 absurd schnell
Open-Source-Reasoning zum Turbo-Preis: Together AI hat einen neuen Inference-Engine vorgestellt, der DeepSeek-R1-0528 auf NVIDIA Blackwell-GPUs auf Höchstgeschwindigkeit bringt.
Die Hardware macht den Unterschied
Together AI setzt auf NVIDIAs HGX B200 — die neueste Blackwell-Generation. Damit wollen sie zur schnellsten Plattform für Open-Source-Reasoning-Modelle werden. Kein kleiner Anspruch.
- Modell:** DeepSeek-R1-0528 (das stärkste Open-Source-Reasoning-Modell)
- Hardware:** NVIDIA HGX B200 (Blackwell)
- Fokus:** Inference-Speed bei voller Modellqualität
- Zielgruppe:** Entwickler, die R1 in Produktion fahren wollen
Warum das wichtig ist
DeepSeek-R1 ist ein Monster. 671 Milliarden Parameter, Mixture-of-Experts-Architektur. Das Ding in Echtzeit laufen zu lassen, ist kein Spaß. Together AI verspricht jetzt Top-Speeds — und zwar nicht auf irgendeiner Demo-Instanz, sondern skalierbar für echte Workloads.
Das ist der entscheidende Punkt: Open-Source-Modelle sind nur so gut wie die Infrastruktur, auf der sie laufen. Wer R1 lokal auf seiner Gaming-GPU quält, bekommt ein ganz anderes Erlebnis als auf Blackwell-Clustern.
Der Markt wird enger
Together AI positioniert sich direkt gegen Fireplaces, Groq und alle anderen Inference-Anbieter. Der Kampf um die schnellste API für Open-Source-Modelle ist in vollem Gang. Und mit Blackwell-Support haben sie ein starkes Argument.