Chipmunk macht Bild-KI doppelt so schnell
Together AI hat ein neues Verfahren vorgestellt, das Diffusion Transformers ohne zusätzliches Training beschleunigt. Der Name: Chipmunk. Der Trick: dynamische, spaltenweise Sparse Deltas.
Was Das Ding Macht
Diffusion Transformers sind die Architektur hinter modernen Bildgeneratoren wie FLUX oder Stable Diffusion 3. Problem: Sie sind langsam. Jedes Bild braucht dutzende Inferenz-Schritte, und jeder Schritt ist rechenintensiv.
Chipmunk nutzt eine simple Beobachtung: Zwischen aufeinanderfolgenden Diffusion-Schritten ändern sich die meisten Gewichte kaum. Statt jedes Mal die volle Berechnung durchzuführen, berechnet Chipmunk nur die Differenz — und die ist dünn besetzt.
- Methode:** Column-Sparse Deltas zwischen Diffusion-Schritten
- Training nötig:** Nein — funktioniert auf bestehenden Modellen
- Quelle:** Together AI Research
Warum Das Interessant Ist
Training-free heißt: Kein teures Finetuning, kein neues Modell. Du nimmst deinen bestehenden Diffusion Transformer und machst ihn schneller. Das senkt Inferenzkosten — und davon profitiert jeder, der Bilder generiert.
Der Haken
Ein Paper ist kein Produkt. Together AI zeigt Benchmark-Ergebnisse, aber noch keine fertige Integration in bestehende Pipelines. Bis das in ComfyUI oder der Together-API landet, fließt noch Wasser den Rhein runter.