Polizei verdoppelt Gesichtserkennung — mit eingebautem Rassismus
Das BKA-Gesichtserkennungssystem läuft heiß. Mehr als doppelt so viele Abfragen wie im Vorjahr haben Deutschlands Kriminalämter durch die INPOL-Datenbank gejagt.
Die Zahlen sprechen für sich
- 2×** — so stark stieg die Nutzung des Gesichtserkennungssystems gegenüber dem Vorjahr
- Mehr Treffer** — das System spuckt immer häufiger angebliche Übereinstimmungen aus
- Bias bestätigt** — Asylsuchende werden überproportional erfasst und erkannt
Wie das System funktioniert
Die Polizeibehörden speisen Bilder in das BKA-System ein. Die Software gleicht sie gegen die INPOL-Datei ab — eine der größten Polizeidatenbanken Deutschlands. Bei einem sogenannten Treffer wird eine Person als potenziell identifiziert markiert.
Das Problem: In der Datenbank sind Asylsuchende massiv überrepräsentiert. Wer einen Asylantrag stellt, wird erkennungsdienstlich behandelt. Fingerabdrücke, Fotos — alles landet im System.
💡 Was das bedeutet
Mehr Abfragen plus schiefe Datengrundlage ergibt systematische Diskriminierung per Algorithmus. Menschen, die Schutz suchen, werden automatisch häufiger als Verdächtige ausgespuckt. Nicht weil sie krimineller sind — sondern weil ihre Gesichter schlicht öfter in der Datenbank liegen.
✅ Pro
- Gesichtserkennung kann bei schweren Straftaten helfen
- Schnellere Ermittlungen bei klarer Beweislage
❌ Con
- Massiver Bias gegen Asylsuchende eingebaut
- Keine öffentliche Kontrolle über Trefferquoten
- Verdoppelung der Nutzung ohne öffentliche Debatte
- EU AI Act klassifiziert biometrische Überwachung als Hochrisiko