Falscher Schatten verrät jedes Deepfake
Deepfakes fluten das Netz. Forensiker halten dagegen — mit Methoden, die teilweise absurd simpel sind.
Die billigen Tricks der Fälscher
KI-generierte Gesichter sehen auf den ersten Blick perfekt aus. Doch wer genau hinschaut, findet Fehler. Ein Interview bei Sonnenschein — aber der Schatten fällt in die falsche Richtung? Fake.
- Schatten & Licht:** Stimmen Reflexionen und Schattenwurf physikalisch zusammen?
- Ohren & Zähne:** KI-Modelle scheitern oft an symmetrischen Details
- Blinzeln:** Frühe Deepfakes vergaßen das Blinzeln komplett
- Hintergrund:** Verzerrte Kanten und schwimmende Texturen im Umfeld
Hightech schlägt zurück
Forensiker setzen längst nicht nur auf das menschliche Auge. Spezialisierte Software analysiert Pixelmuster, Kompressionsartefakte und Metadaten. Neuronale Netze erkennen Fälschungen, die kein Mensch mehr sehen kann.
💡 Was das bedeutet
Vor Gericht wird genau das zum Problem. Wenn ein Algorithmus sagt "Fake", reicht das vielen Richtern nicht. Die Tools sind oft Black Boxes — ihre Ergebnisse schwer nachvollziehbar und damit juristisch angreifbar.
✅ Pro
- Forensiker finden Fehler, die dem Auge entgehen
- Einfache Checks wie Schattenanalyse funktionieren sofort
- Software wird immer besser
❌ Con
- KI-Fälschungen werden gleichzeitig besser
- Gerichtstauglichkeit der Tools ist ungeklärt
- Kein einheitlicher Standard für Deepfake-Beweis
Wo der Schaden entsteht
Auf Pornoseiten zerstören Deepfakes Existenzen. In der Politik manipulieren sie Wahlen. Und auf Social Media teilen Millionen die Fakes weiter, ohne eine Sekunde nachzudenken. Die Forensiker kommen fast immer zu spät.