🧠 FOUNDER
DeepWisdom-Chef: „Maximale Power ist nicht das Ziel"
Chinas KI-Szene baut nicht die größten Modelle — sondern die sparsamsten. Das sagt der Gründer von DeepWisdom im Interview mit Golem.
Chinas KI-Szene baut nicht die größten Modelle — sondern die sparsamsten. Das sagt der Gründer von DeepWisdom im Interview mit Golem.
Die These
Das US-Embargo zwingt chinesische Firmen, mit weniger Chips auszukommen. Aber laut dem DeepWisdom-Gründer ist das nur die halbe Wahrheit. Effizienz sei kein Notfall-Plan, sondern Strategie.
Die theoretisch maximale Leistung eines Modells? Interessiert in China kaum jemanden. Was zählt: Kosten pro Inference, Geschwindigkeit im Einsatz, Praxistauglichkeit.
Warum das Sinn ergibt
- Hardware-Mangel:** Kein Zugang zu Nvidias H100/B200 — also muss Software kompensieren
- Markt-Druck:** Chinas KI-Markt ist brutal kompetitiv, Preise fallen seit Monaten
- DeepSeek-Effekt:** Seit DeepSeek R1 mit Minimalbudget Frontier-Niveau erreichte, ist Effizienz das neue Prestige
💡 Was das bedeutet
Während OpenAI und Google Milliarden in immer größere Cluster pumpen, optimiert China den Output pro Dollar. Das ist kein Cope — das ist ein anderes Spielfeld. Wenn Effizienz gewinnt, haben die Embargo-geschädigten Firmen plötzlich einen strukturellen Vorteil.
✅ Pro
- Ressourcensparende Modelle = niedrigere Kosten = breiterer Zugang
- Erzwungene Innovation durch Beschränkung — historisch oft der stärkere Treiber
- Passt zum Trend: Kleine, spezialisierte Modelle schlagen Generalist-Monster
❌ Con
- Ohne Top-Hardware bleibt die Ceiling niedriger bei Training neuer Architekturen
- „Effizienz aus Überzeugung" klingt nach PR — das Embargo lässt keine andere Wahl
- DeepWisdom ist kein Tier-1-Player, die Aussagen haben begrenztes Gewicht
🤖 NERDMAN-URTEIL
Wer mit weniger Chips bessere Ergebnisse liefern muss, erfindet entweder Ausreden — oder eine bessere Methode, und China liefert gerade beides gleichzeitig.
Quelle: Golem KI
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.