Kampagne: Gesichtserkennung stoppen
Factsheet zum Sicherheitspaket: Biometrische Fernidentifizierung
Biometrische Erkennung im öffentlichen Raum bedeutet Massenüberwachung und gefährdet Grundrechte. Dieses Factsheet des Bündnisses Gesichtserkennung Stoppen bietet eine faktenbasierte Einordnung der Behauptungen und hilft bei der Bewertung des Sicherheitspakets.
Die Gesetzesentwürfe zum sogenannten Sicherheitspaket sehen biometrische Erkennung im öffentlichen Raum und im Internet vor. Würden sie umgesetzt, würde das zu Massenüberwachung führen und wäre ein Verstoß gegen die Grundrechte.
Dieses Factsheet ordnet Aspekte des Sicherheitspakets ein und hilft bei der Bewertung. Es soll helfen, Populismus und verfassungswidrigen Vorschlägen entgegenzuwirken und Scheinlösungen zu verhindern.
Behauptung: „Biometrische Überwachung erhöht die öffentliche Sicherheit.“
Falsch. Im Fall der Morde von Solingen ist es nahezu ausgeschlossen, dass die Tat verhindert worden wäre, wenn die Polizei bereits die Befugnisse hätte, die nun mit dem Sicherheitspaket geschaffen werden sollen. Höchstens lassen sich gefilmte Täter*innen nachträglich leichter identifizieren.
Diesem Scheingewinn an Sicherheit steht gegenüber, dass biometrische Fernidentifizierungssysteme eine undifferenzierte Massenüberwachung ermöglichen, die mit Grundrechten in Konflikt steht. Sie verletzen das Recht auf Privatsphäre und informationelle Selbstbestimmung von allen - nicht nur von Täter*innen.
In der Sachverständigenanhörung im Bundestag warnte Sarah Lincoln, Anwältin der Gesellschaft für Freiheitsrechte (GFF), vor übereilten Maßnahmen, die das Land nicht sicherer machen werden. Denn mehr Sicherheit wird nicht durch populistische Maßnahmen erreicht, sondern durch Bildung, Prävention und psychosoziale Unterstützung. Kostspielige und grundrechtsfeindliche Überwachungstechnologien können von den eigentlichen Problemen ablenken.
Prof. Dr. Katrin Höffler von der Universität Leipzig warnt im Verfassungsblog, dass Gesetzes- und Diskursverschiebungen sogar Radikalisierung verstärken können. In einigen Bereichen besitzen die Regelungen reinen Symbolcharakter und werden die Sicherheitsbehörden mit neuen Aufgaben belasten, die sie davon abhalten, ihren eigentlich wichtigen Tätigkeiten nachzugehen. Für mehr echte Sicherheit müssen wir auf Maßnahmen setzen, die Grundrechte achten.
Behauptung: „Die vorgeschlagenen Maßnahmen sind verhältnismäßig angesichts der Bedrohungslage.“
Falsch. Es ist nachvollziehbar, dass Menschen sich mehr Sicherheit wünschen, wenn sie verunsichert sind. Doch zum einen müssen wir davon ausgehen, dass die vorgeschlagenen Regelungen diese zusätzliche Sicherheit nicht schaffen – siehe oben. Zum anderen müssen Gesetze immer den Grundsatz der Verhältnismäßigkeit wahren. Alle Fotos, Videos und Stimmaufnahmen, die im Internet zur Verfügung stehen, biometrisch mit denen von Tatverdächtigen oder gesuchten Personen zu vergleichen, greift in die Grundrechte aller Menschen unterschiedslos ein, ist daher unverhältnismäßig und beschädigt auch die Demokratie als Ganzes.
Denn Bundeskriminalamt und Bundespolizei sollen diese Befugnis nicht nur zur Bekämpfung von Terrorismus, sondern auch als neues Standardinstrument erhalten. Das Bundesamt für Migration und Flüchtlinge sogar ohne Anfangsverdacht einer Straftat, nur um die Identität von Personen festzustellen.
Dr. Stephan Schindler von der Universität Kassel betont, dass potenziell alle Internetnutzer*innen betroffen seien. Die allermeisten hätten dafür aber keinen Anlass geliefert. Auch Sarah Lincoln bestätigt, dass „überwiegend Grundrechte von Millionen, wenn nicht Milliarden von unbeteiligten Personen betroffen wären, die keinen Anlass für polizeiliche Überwachung gegeben haben.“
Behauptung: „Der Einsatz ist mit Grundrechten vereinbar.“
Falsch. Biometrische Systeme zur Gesichts- und Stimmerkennung im öffentlichen Raum einzusetzen, kann nicht auf grundrechtskonforme Weise geschehen, sondern ist unvereinbar mit zentralen demokratisch garantierten Freiheiten. Prof. Dr. Dennis-Kenji Kipker (Universität Bremen) warnt vor einem „sicherheitsbehördlichen Daten-Supergau“ und der Annäherung an den „gläsernen Bürger“.
Solche Maßnahmen können „zu Einschüchterungseffekten führen“ (Schindler, Universität Kassel), die Menschen davon abhalten, ihre Grundrechte wahrzunehmen, etwa indem sie öffentlich ihre Meinung äußern oder an Demonstrationen teilnehmen. Denn auch nachträgliche biometrische Fernidentifikation ermöglicht es zum Beispiel, umfassende Personenprofile zu erstellen.
Gerade erst hat das Bundesverfassungsgericht entschieden, dass das BKA-Gesetz in Teilen verfassungswidrig ist, da die Speicherung von Daten nicht klar geregelt und in der bisherigen Form teilweise unverhältnismäßig ist. Die Regierung muss das Gesetz bis Juli 2025 überarbeiten.
Die im Sicherheitspaket geplanten Maßnahmen würden aber weit über die Regelungen des BKA-Gesetzes hinausgehen. Statt nun sehenden Auges ein verfassungs- und europarechtswidriges Gesetzespaket in aller Eile durch das Parlament zu drücken, kann die Regierungskoalition die Frist des Bundesverfassungsgerichts zur Korrektur des BKA-Gesetz nutzen und zeigen, dass Sicherheitspolitik nicht aktionistisch und von rechten Scharfmacher*innen getrieben sein muss, sondern auch besonnen und innerhalb der Grenzen der Grundrechte betrieben werden kann.
Behauptung: „Wir müssen jetzt Handlungsfähigkeit zeigen, angesichts rechtsextremer Wahlerfolge.“
Falsch. Die Aushandlung von Freiheit und Sicherheit ist zu wichtig für Schnellschüsse. Statt sich von der AfD jagen zu lassen, gilt es besonnen zu handeln. Gute Politik braucht Zeit für Beratung mit Expert*innen und politische Aushandlungsprozesse.
Es gibt keinen Grund, warum Grundrechte im Hauruckverfahren eingeschränkt werden müssen. In den Worten der Bundesbeauftragten für Datenschutz und Informationsfreiheit, Louisa Specht-Riemenschneider: „Es hilft niemandem, wenn Sie heute ein Gesetz machen, was morgen in Karlsruhe kassiert wird.“ Auch Prof. Dr. Clemens Arzt von der Hochschule für Wirtschaft und Recht Berlin spricht von „Ignoranz in einem ohnehin schon überstürzten Gesetzgebungsverfahren“.
Behauptung: „Missbrauch kann durch gute Regulierung und Technik verhindert werden.“
Falsch. Selbst gut gemeinte Gesetze können Missbrauch nicht verhindern. Die Geschichte zeigt, dass einmal geschaffene Überwachungsinfrastrukturen oft zweckentfremdet werden, besonders in Krisenzeiten.
Denn wenn Menschen im öffentlichen Raum jederzeit identifiziert und überwacht werden können, kann nachvollzogen werden, wer sich wann, wo und mit wem bewegt. Biometrische Fernidentifizierungssysteme schaffen daher ein gefährliches Instrument, das von einer zukünftigen, möglicherweise extremistischen Regierung zur gezielten Verfolgung kritischer Stimmen genutzt werden kann. Louisa Specht-Riemenschneider mahnt, dass alle vorgesehenen Eingriffsnormen zur Gesichtserkennung zu unscharfe Tatbestandsmerkmale aufweisen.
Für bereits benachteiligte Gruppen, Minderheiten und politische Dissident*innen zeigen sich die Nachteile typischerweise in verstärkter Form. Es ist daher hochproblematisch, dass, wie Prof. Dr.-Ing. Christoph Sorge von der Universität des Saarlandes kritisiert, „eine auch nur ansatzweise konkretisierte technische Konzeption“ fehlt und daher, besonders im Bereich der Biometrie, die Vorschläge kaum im Detail zu überprüfen seien. Es sind also sehr weitreichende Eingriffe vorgesehen, ohne dass die Bürger wissen, worauf sie sich einstellen müssten.
Behauptung: „Biometrische Systeme sind objektiv und reduzieren menschliche Vorurteile.“
Falsch. Studien zeigen, dass Gesichtserkennungssysteme diskriminierend wirken können. Sie erkennen beispielsweise Menschen dunkler Hautfarbe oder Frauen weniger gut, was zu einer höheren Anzahl an falschen „Treffern“ bei diesen Gruppen führt. Grund dafür ist, dass die Daten, mit denen die Systeme trainiert wurden, nicht repräsentativ sind. Dies kann im erhebliche Auswirkungen haben – etwa, wenn Menschen mit dunkler Hautfarbe ständig kontrolliert und verdächtigt werden.
Umso problematischer, dass diskriminierende Algorithmen nicht durch klare Vorgaben eingeschränkt werden, wie Prof. Dr. jur. Dennis-Kenji Kipker feststellt. Doch das Problem ist nicht nur Diskriminierung durch Bias in den Trainingsdaten. Auch wenn die Systeme auf technischer Ebene akkurat funktionieren würden und der Bias „beseitigt“ werden könnte, können sie im öffentlichen Raum nicht in grundrechtskompatibler Weise benutzt werden.
Behauptung: „Die geplanten Maßnahmen sind mit EU-Recht vereinbar.“
Falsch. Die geplante Überwachungsstruktur ist technisch nur möglich, wenn riesige Datenbanken mit biometrischen Merkmalen angelegt werden, also Gesicht, Stimme, Bewegungsmuster und andere. Sei es, um den eingesetzten Algorithmus zu testen, oder um später damit Abgleiche durchzuführen.
Diese Regelungen sind auch „nicht mit der KI-Verordnung in Einklang zu bringen“, so Specht-Riemenschneider. Artikel 5 der KI-Verordnung der EU, die gerade erst in Kraft getreten ist, verbietet explizit und ausnahmslos „das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.
Anders als mit einer solchen Datenbank lassen sich die riesigen Datenmengen im Internet aber technisch nicht sinnvoll erfassen. Die KI-Verordnung verbietet sie genau deshalb, weil sie massiv die Grundrechte einschränken, insbesondere das Recht auf Privatsphäre, auf freie Meinungsäußerung und Versammlungsfreiheit. Prof. Dr. Christoph Sorge von der Universität des Saarlandes schließt ebenfalls: „Die Normen werden daher sehr wahrscheinlich die Anforderungen des Unionsrechts nicht erfüllen“.
Dies ist eine leicht geänderte Fassung des Texts, der zusammen mit D64 und dem Bündnis Gesichtserkennung stoppen geschrieben wurde.
Mehr Informationen zu unserer Kampagnenarbeit im Bündnis Gesichtserkennung stoppen findest du hier: