Deutsche Polizei verdoppelt Gesichtserkennung — mit Rassismus-Problem
Das BKA-Gesichtserkennungssystem läuft heiß. Mehr als doppelt so viele Abfragen wie im Vorjahr haben Kriminalämter über die INPOL-Datei laufen lassen. Das Problem: Das System hat einen nachgewiesenen Bias gegen Asylsuchende.
Die Zahlen
- 2×** — so oft wie im Vorjahr wurde das System genutzt
- INPOL** — die zentrale Polizeidatenbank mit Gesichtsbildern
- BKA** — betreibt das Erkennungssystem für alle Landespolizeien
Wie das System funktioniert
Die Polizei speist ein Foto ein, das System gleicht es gegen die INPOL-Datenbank ab und spuckt sogenannte Treffer aus. Klingt harmlos. Ist es nicht.
Denn die Datenbank enthält überproportional viele Fotos von Asylsuchenden. Wer einen Asylantrag stellt, wird erkennungsdienstlich behandelt — Fingerabdrücke, Fotos, alles landet im System.
Was das bedeutet
✅ Pro
- Aufklärung von Straftaten wird schneller
- Identifizierung bei schweren Verbrechen möglich
❌ Con
- Systematischer Bias gegen Asylsuchende
- Mehr Daten = mehr Fehlalarme bei bestimmten Gruppen
- Keine öffentliche Debatte über den massiven Ausbau
- KI-Systeme reproduzieren strukturelle Diskriminierung
Der stille Ausbau
Die Verdopplung der Abfragen passierte ohne große Ankündigung. Kein Parlamentsbeschluss, keine öffentliche Debatte. Die Polizeibehörden haben einfach gemacht. Während die EU mit dem AI Act Gesichtserkennung im öffentlichen Raum regulieren will, baut Deutschland das System intern massiv aus.
💡 Was das bedeutet
Wenn ein KI-System systematisch eine Bevölkerungsgruppe häufiger als „Treffer" markiert, ist das kein technisches Detail. Das ist institutionalisierte Diskriminierung per Algorithmus. Und je öfter das System genutzt wird, desto größer wird das Problem.