Pressemitteilung

Gesichtserkennung im „Sicherheitspaket“: Koalition bricht ihr Versprechen im Schnellverfahren

Das „Sicherheitspaket“ der Ampelregierung ist blinder Aktionismus, der keine einzige Straftat verhindern wird. Die technologischen Verfahren, die die Bundesregierung einführen will, sind fehleranfällig und diskriminierend und gefährden die Grundrechte.

Foto von Odalv auf Unsplash

Ansprechpersonen:

Kilian Vieth-Ditlmann
Leiter des Policy- & Advocacy-Teams
Pia Sombetzki
Policy & Advocacy Managerin

Berlin, 10. September 2024 – Am Donnerstag, dem 12. September, wird im Bundestag in erster Lesung über zwei Gesetze des so genannten „Sicherheitspakets“ der Ampelregierung beraten. Das Paket enthält mehrere Gesetzesänderungen zu innerer Sicherheit und zur Terrorismusbekämpfung. Die geforderten Befugnisse für Polizei, Sicherheitsbehörden und das Bundesamt für Migration und Flüchtlinge würden Grundrechte auch von unbeteiligten Menschen einschränken, insbesondere durch biometrische Abgleiche mit Bildern und Videos aus dem Internet.

Matthias Spielkamp, Geschäftsführer von AlgorithmWatch kritisiert: „Die Bundesregierung versucht nun im Schnellverfahren, die ersten Grundlagen für flächendeckende biometrische Überwachung in Deutschland zu schaffen und bricht damit den Koalitionsvertrag. Seit Jahren warnen wir davor, dass unter dem Deckmantel eines falschen Sicherheitsversprechens Grundrechte für alle abgebaut werden. Der Aktionismus der Ampel läuft hier in die völlig falsche Richtung. Die Idee der Ampel, KI-Systeme einzusetzen, um Gesichtsbilder mit Bildern und Videos aus dem Internet abzugleichen, sind unter der gerade verabschiedeten KI-Verordnung sogar verboten. Die Ergebnisse wären mehr Arbeit für die Polizei, weniger Grundrechte und mehr Diskriminierung für alle – und keine einzige Straftat würde dadurch verhindert.“

Matthias Spielkamp ergänzt: „Es ist schäbig, dass die Bundesregierung die aktuelle Stimmungslage ausnutzt, um Technologien einzuführen, deren Verbot sie gerade erst unterstützt hat. Wir stehen alle noch unter dem Schock der Morde von Solingen. Aber gerade weil die Situation sehr emotional ist, besteht die Gefahr, nun über das Ziel hinaus zu schießen. Die Bundesregierung macht genau das. Dass KI-gestützte Datenanalysen und biometrische Erkennung von öffentlichen Bildern und Videos für mehr Sicherheit sorgen, ist ein falsches Versprechen. Wir unterstützen wirksame und verhältnismäßige Polizeiarbeit, die Verbrechen tatsächlich verhindert und dabei Menschen- und Grundrechte schützt – statt unwirksame technologische Maßnahmen, die mehr Schaden anrichten, als Probleme zu lösen.“

Im Koalitionsvertrag der Bundesregierung heißt es: „Biometrische Erkennung im öffentlichen Raum sowie automatisierte staatliche Scoring Systeme durch KI sind europarechtlich auszuschließen.“ Artikel 5 der Europäischen KI-Verordnung verbietet Verfahren der biometrischen Fernerkennung zu Strafverfolgungszwecken. Nur sehr eng gefasste Ausnahmen sollen den Einsatz der Systeme erlauben, und dann auch nur unter bestimmten Bedingungen. Datenbanken anzulegen, die ungezielt Gesichtsbilder aus dem Internet auslesen, ist verboten. Die Verbote treten jedoch erst im Februar 2025 in Kraft und gelten dann zunächst nicht rückwirkend. Zusätzlich sollen Grundlagen für die automatisierte Datenanalyse geschaffen werden, also etwa die Datenanalyse zur Vorhersage von Verbrechen (dem sogenannten „Predictive Policing“), zur Strafverfolgung oder zur Erstellung von Persönlichkeitsprofilen. Diese Verfahren sind ebenfalls fehleranfällig und diskriminierend und gefährden die Grundrechte.

Zusammen mit dem Bündnis „Gesichtserkennung stoppen“ hat AlgorithmWatch eine Brief-Aktion gestartet, um Abgeordnete dazu aufzufordern, sich klar für ein ausnahmsloses Verbot biometrischer Fernerkennung im öffentlichen Raum auszusprechen: https://gesichtserkennung-stoppen.de/action.html#was-kann-ich-tun

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu biometrischen Erkennungssystemen.