🧪 EXPERIMENTAL
SadTalker macht Fotos zum sprechenden Kopf
Ein Foto rein, Audio drauf, fertig ist das Talking-Head-Video. Das Tool SadTalker aus dem Tencent AI Lab trendet aktuell auf GitHub — obwohl das Paper schon von 2023 ist.
Ein Foto rein, Audio drauf, fertig ist das Talking-Head-Video. Das Tool SadTalker aus dem Tencent AI Lab trendet aktuell auf GitHub — obwohl das Paper schon von 2023 ist.
Was das Ding macht
SadTalker nimmt ein einzelnes Portraitbild und eine Audiodatei. Daraus berechnet das Modell 3D-Bewegungskoeffizienten und animiert Lippen, Kopf und Mimik passend zum Sound. Output: ein Video, in dem die Person auf dem Foto spricht.
- Input:** 1 Bild + 1 Audio
- Output:** Talking-Head-Video
- Lizenz:** Frisch auf Apache 2.0 umgestellt — jetzt auch kommerziell nutzbar
- Basis:** CVPR-2023-Paper von Xi'an Jiaotong University, Tencent AI Lab und Ant Group
✅ Pro
- Open Source und kommerziell frei
- Läuft lokal, keine Cloud nötig
- Funktioniert mit jedem Portrait
❌ Con
- Technologie ist zwei Jahre alt
- Neuere Modelle (HeyGen, Hedra, Sora) liefern bessere Lippen-Sync
- Mimik wirkt oft hölzern, Uncanny Valley garantiert
💡 Was das bedeutet
Talking-Head-Generierung ist 2026 kein Hexenwerk mehr. SadTalker ist ein solides Open-Source-Werkzeug für Bastler, Forscher und alle, die keine 30$/Monat für HeyGen zahlen wollen. Für Production-Qualität reicht es nicht — für Deepfake-Schabernack und Prototypen schon.
🤖 NERDMAN-URTEIL
Cool für die Bastelkiste, aber wer hier ernsthaft Content baut, nimmt was Aktuelles — SadTalker ist Stand 2023, und das sieht man.
Quelle: OpenTalker/SadTalker auf GitHub
War dieser Artikel hilfreich?
Dein Feedback hilft uns, bessere Artikel zu liefern.