🏆 TOOLS
LTX-2 macht Audio und Video gleichzeitig
Lightricks haut sein neues Audio-Video-Modell als Open Source raus. DiT-basiert, mit synchronisiertem Sound, frei auf GitHub.
Lightricks haut sein neues Audio-Video-Modell als Open Source raus. DiT-basiert, mit synchronisiertem Sound, frei auf GitHub.
Was LTX-2 kann
- Synchronisiert:** Audio und Video aus einem Modell, kein Nachvertonen nötig
- Architektur:** DiT (Diffusion Transformer) — gleiche Familie wie Sora
- Modi:** Mehrere Performance-Stufen für unterschiedliche Hardware
- Zugang:** Open Source auf GitHub plus API-Variante
- Tooling:** Inference-Package und LoRA-Trainer offiziell mitgeliefert
✅ Pro
- Komplett offen, eigene LoRAs trainierbar
- Audio-Video aus einem Guss statt Pipeline-Gefrickel
- Quick-Start mit `uv sync` — keine Dependency-Hölle
❌ Con
- Lightricks ist kein Top-Lab wie OpenAI oder Google
- Keine Benchmark-Zahlen im Release
- Hardware-Anforderungen für die High-Fidelity-Modi unklar
💡 Was das bedeutet
Wer KI-Videos mit Ton bauen will, musste bisher zwei Modelle koppeln — Video hier, Audio dort, Sync per Hand. LTX-2 macht das in einem Rutsch und legt die Gewichte offen. Für Indie-Creator und Agenturen ist das die kürzere Strecke vom Prompt zum fertigen Clip.
🤖 NERDMAN-URTEIL
Kein Sora-Killer, aber das erste offene Modell, das Audio und Video ehrlich in einem Schritt rausdrückt — und allein das ist ein dicker Pluspunkt.
Quelle: Lightricks/LTX-2 auf GitHub
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.