Biometrische Erkennungssysteme beobachten und verfolgen Menschen mithilfe ihrer biologischen Merkmale und verarbeiten die daraus resultierenden Daten. Diese messbaren biologischen Merkmale können die Gesichtszüge, der Gang, die Stimme oder die Iris sein. Die Erkennungssysteme kommen am Arbeitsplatz, bei Prüfungen („Proctoring“), bei der Strafverfolgung oder im öffentlich zugänglichen Raum (zum Beispiel in Supermärkten, an Bahnhöfen oder auf öffentlichen Plätzen) zum Einsatz.
Wenn im öffentlichen Raum die Gesichter von Gefilmten mit Bildern aus einer Datenbank abgeglichen werden, identifizieren KI-Systeme Individuen aus einer Masse heraus. Polizeibehörden, die solche Systeme einsetzen, wissen meistens nicht, ob eine bestimmte gesuchte Person tatsächlich vor Ort ist. Grundsätzlich werden dabei nicht nur biometrische Daten einzelner verdächtiger Personen abgeglichen, sondern die aller Personen, die vor Ort sind oder waren – also auch die Daten von strafrechtlich völlig unbeteiligten Personen.
Maßnahmen beim polizeilichen und juristischen Verfolgen von Straftaten und generell beim Schutz der öffentlichen Sicherheit müssen aber verhältnismäßig sein. Das Einschränken von Grundrechten ist nur zu rechtfertigen, wenn eine gesetzliche Grundlage dafür besteht und damit ein übergeordnetes Ziel im öffentlichen Interesse verfolgt wird. Der Kern der Grundrechte muss außerdem unberührt bleiben.
Technische Systeme zur Überwachung und biometrischen Identifikation sind grundsätzlich darauf angelegt, Daten von unbegrenzt vielen Menschen zu verarbeiten und mit Datenbanken abzugleichen. Aus diesem Grund läuft ihr Einsatz in öffentlich zugänglichen Räumen auf eine Massenüberwachung hinaus.
Biometrische Erkennungssysteme werden heute im Eilverfahren in ganz Europa und darüber hinaus getestet und eingesetzt. Sie sind in Stadien, Flughäfen, Spielcasinos und Schulen zu finden. Polizeibehörden setzen sie zur Strafverfolgung ein und in mehreren Staaten wurden die Systeme auch während der COVID-19-Pandemie zur Social-Distancing-Kontrolle verwendet.
Der Vorgang des Erkennens kann nicht nur live und vor Ort, sondern auch aus der Ferne und nachträglich erfolgen. Der Abgleich mit den Datenbanken erfolgt dann nicht in Echtzeit, sondern zeitversetzt mittels gespeicherter Videoaufnahmen. Dadurch ist für Überwachte schwer einzuschätzen, wann genau sie tatsächlich überwacht werden. Viele moderne Kameras haben schon eine entsprechende Funktion.
Im Zusammenhang mit biometrischer Erkennung wird oft von „Gesichtserkennung“ gesprochen. Das Wort wird inzwischen als Synonym für „biometrische Fernidentifizierung“ verwendet. Aber was bedeuten „Identifizierung“, „Echtzeit“, „nachträglich“ und „Fern-“ eigentlich?
Identifizierung und Authentifizierung
Biometrische Fernidentifizierung ist zu unterscheiden von der biometrischen Verifizierung. Bei KI-gestützten Verifizierungsverfahren entsperren Personen zum Beispiel ihre Telefone mit ihrem Fingerabdruck. Dabei findet keine massenhafte Datenerfassung und auch kein Abgleich mit einer Datenbank statt. Die Nutzer*innen entscheiden sich selbst für das jeweilige Verfahren und die Daten bleiben auf dem Gerät.
Echtzeit- und nachträgliche Identifizierung
Die biometrische Datenverarbeitung geschieht entweder in „Echtzeit“ (die Datenanalyse erfolgt live, während die Daten erfasst werden) oder „nachträglich“, dabei werden die erfassten Daten irgendwann später ausgewertet. Nur was heißt „später“ eigentlich genau? Nach einer Minute oder nach einem Tag? Da dafür keine brauchbare Definition existiert, kann niemand den Unterschied zur Echtzeit-Analyse erklären.
In manchen Fällen werden die Grundrechte bei einer nachträglichen Verarbeitung besonders gefährdet. Regierungen oder Behörden wie die Polizei können mit sensiblen persönlichen Daten nachverfolgen, wo sich Personen aufgehalten, was sie getan oder auch mit wem sie sich getroffen haben − über Wochen, Monate oder Jahre hinweg. Das könnte zum Beispiel Quellen von Journalist*innen davon abhalten, ihnen wichtige Informationen zu geben, da sie nicht mehr sicher sein können, dabei anonym zu bleiben.
Fernidentifizierung
Worauf bezieht sich die „Ferne“ in „Fernidentifizierung“?
Es wäre ein Fall von Fernidentifizierung, wenn zum Beispiel viele Menschen in einem Flughafen von überall installierten Kameras aufgenommen werden, um ihre biometrischen Daten zu verarbeiten. Der Datenabgleich findet ohne aktive Mitwirkung der aufgezeichneten Menschen fernab des Ortes statt, wo die Daten erhoben wurden. Eine aktive Mitwirkung besteht zum Beispiel, wenn Menschen ihren Finger auf eine Fläche legen, um einen Fingerabdruck erstellen zu lassen. Wie weit ein Ort entfernt sein muss, um als „fern“ zu gelten, ist nicht definiert.
Im Wesentlichen besteht der Unterschied also in dieser räumlichen Entfernung zwischen Datenerhebung und Datenverarbeitung und dem aktiven Einbeziehen der Menschen, deren biometrische Daten erfasst und verarbeitet werden.
Sichere Technik in einer unsicheren Welt?
Sicherheitsbehörden und Anbieter von Sicherheitssystemen preisen Gesichtserkennung als innovative und zuverlässige Methode zur verbesserten Strafverfolgung an. Nur wird das grundsätzlich legitime Bedürfnis nach gesellschaftlicher Sicherheit problematisch, wenn es dazu führt, dass Grundrechte ausgehöhlt werden.
Wenn Menschen im öffentlichen Raum jederzeit identifiziert oder überwacht werden können, verletzt dies nicht nur ihr Recht auf Privatsphäre. Es hat auch eine abschreckende Wirkung: Sie könnten dadurch abgehalten werden, andere Grundrechte wie die Meinungsäußerungs- oder Versammlungsfreiheit wahrzunehmen, also an Demonstrationen teilzunehmen oder bestimmte Lokale aufzusuchen, die zum Beispiel Hinweise auf ihre politische Ausrichtung oder sexuelle Orientierung geben könnten. Da biometrische Merkmale zum Körper gehören, können sie in der Öffentlichkeit nur mit einigem Aufwand ausgeblendet werden. In den USA haben Demonstrierende auf den Universitätsgeländen ihre Gesichter und Körper verhüllt, damit Systeme zur Gesichts- und Gangerkennung keine verwertbaren Daten von ihnen erhalten.
Die Erfahrung lehrt, dass gerade repressive Regierungen auf diesen Effekt setzen, wie es auch jüngst in Argentinien geschehen ist. Dort drohte die Regierung zwei Tage vor einer Großdemonstration, ein Gesichtserkennungssystem einzusetzen, um Menschen zu identifizieren und anschließend ihre Sozialleistungen zu kürzen. Infolgedessen gingen nur einige wenige Menschen auf die Straße. Die Regierung hat also die Bevölkerung erfolgreich eingeschüchtert und sie davon abgehalten, öffentlich gegen ihre Politik zu protestieren.
Solche Folgen biometrischer Massenüberwachung treffen typischerweise besonders stark ohnehin schon benachteiligte Personen und Gruppen sowie politische Aktivist*innen. In Russland verhaftete die Polizei Menschen, die an der Beerdigung des Dissidenten Alexej Nawalny teilgenommen hatten. Die Personen wurden identifiziert, indem eine Gesichtserkennung-Software Aufnahmen der Trauerfeier analysierte, die auf Social Media kursierten oder von Überwachungskameras stammten.
Technologische Diskriminierung
Beim Einsatz von biometrischen Überwachungssystemen werden Grundrechte oft ohne Rechtsgrundlage und unverhältnismäßig eingeschränkt, da die Systeme unsere Freiheit gefährden, ohne wesentlich zu einer größeren Sicherheit beizutragen. Die Systeme funktionieren nämlich nicht im Ansatz so gut, wie es die Anbieter uns weißmachen wollen. Immer wieder halten sie Menschen für gefährlich, die es nicht sind.
In einem Test am Berliner Bahnhof Südkreuz wurde ca. jeder 200. Mensch fälschlich als gesuchte Person eingestuft, was 600 täglichen Falschmeldungen entspricht. Diese ungerechtfertigt verdächtigten Menschen werden unangenehmen Kontrollen ausgesetzt. Die Polizei hätte durch die Fehlalarme dauerhaft einen erheblichen Mehraufwand. Durch diesen zusätzlichen Aufwand würden ihr an anderer Stelle Ressourcen fehlen.
Gesichtserkennungstechnik identifiziert außerdem dunkelhäutige und weibliche Gesichter tendenziell schlechter. Das führt dazu, dass diese Menschen öfter falsch als verdächtig oder gesucht gemeldet werden. Für sie kann das gravierende Folgen haben: ungerechtfertigte Kontrollen oder sogar Festnahmen.
Die Daten, mit denen die Systeme trainiert wurden, sind eine Ursache für diese Diskriminierung von dunkelhäutigen Menschen und Frauen. Wenn die Trainingsdaten nicht repräsentativ sind bzw. überproportional Daten von Weißen Menschen und Männern enthalten, erkennen die Systeme Schwarze Frauen schlechter. Dadurch erhöht sich die Wahrscheinlichkeit von falschen Identifizierungen, wie etliche Fälle zeigen. Aber selbst ein System mit repräsentativen Daten könnte diskriminierend eingesetzt werden.
2018 wurde in Detroit ein Mann fälschlicherweise von einer Gesichtserkennung-Software identifiziert und deswegen von der Polizei des Ladendiebstahls beschuldigt. Die Stadt erklärte sich bereit, dem Mann Schadenersatz zu zahlen, und überprüfte, wie ihre Polizei die Technologie einsetzt. Sie kam zum Schluss, dass keine Verhaftung mehr nur auf der Grundlage der Gesichtserkennung erfolgen darf. Alte Fälle sollten nachgeprüft werden.
Die Polizei in New Orleans hat seit Oktober 2022 15-mal Gesichtserkennungstechnik eingesetzt. Bis auf eine Ausnahme sollten damit Schwarze Verdächtige identifiziert werden. In nur drei Fällen führte der Einsatz der Technik zu Fahndungserfolgen.
Eine hochschwangere Frau wurde in den USA verhaftet, nachdem ein Programm zur Gesichtserkennung sie als verdächtig gemeldet hatte. Alle bisher bekannten Verhaftungen nach solchen Falschmeldungen betrafen Schwarze.
Im Vereinigten Königreich identifizierte ein Supermarkt-Überwachungssystem eine Kundin mit Gesichtserkennung fälschlicherweise als bekannte Ladendiebin. Sie wurde hinausbegleitet und aufgefordert, die Filialen der Supermarkt-Kette in Zukunft nicht mehr zu betreten. Der Anbieter der Technologie räumte später einen Fehler ein. Viele Händler im Vereinten Königreich haben dieses System in ihren Geschäften installiert.
Silkie Carlo von der NGO Big Brother Watch hat viele Polizeieinsätze gefilmt, die mit Gesichtserkennung durchgeführt wurden. Sie hat beobachtet, dass der Einsatz von Gesichtserkennung letztendlich einer digitalen polizeilichen Gegenüberstellung gleicht.
Jetzt oder später? Überwachung durch die Hintertür
Die finale Fassung der KI-Verordnung der EU verbietet biometrische Überwachung im öffentlichen Raum zwar grundsätzlich für den polizeilichen Einsatz und die Strafverfolgung. Sie lässt aber viele Ausnahmen zu und lässt Strafverfolgungs-, Sicherheits- und Migrationsbehörden große Freiräume. Manche Bereiche fallen ganz aus dem Geltungsrahmen der KI-Verordnung: das Militär, die Verteidigung und die nationale Sicherheit. Diese weitreichenden Ausnahmen für die Strafverfolgung und für Sicherheitsbehörden laden europaweit zum Ausbau öffentlicher Überwachung ein.
Im Dezember 2021 hat sich die Regierungskoalition in Deutschland in ihrem Koalitionsvertrag dafür ausgesprochen, „biometrische Erkennung im öffentlichen Raum (...) europarechtlich auszuschließen“. Ihre Position bezieht sich allerdings auf eine Live-Erkennung. Es gibt inzwischen strikte Auflagen für eine biometrische Identifizierung in Echtzeit. Eine biometrische Identifizierung im öffentlichen Raum irgendwann nach der Aufnahme und nicht vor Ort ist dagegen leichter möglich. Schon beim bloßen Verdacht bestimmter Straftaten ist ein Einsatz solcher Systeme zulässig.
Kritiker*innen befürchten, dass eine nachträgliche biometrische Identifizierung, beispielsweise zur Beweisführung oder zur Fahndung, zu einer Art Vorratsdatenspeicherung führen könne. Große Veranstaltungen (wie Olympische Spiele) oder bestimmte Plätze könnten dadurch standardmäßig per Video überwacht werden, um biometrische Daten später auszuwerten und Menschen zu identifizieren.
Allen Risiken zum Trotz: Biometrische Erkennung breitet sich in Europa aus
Die KI-Verordnung räumt den einzelnen EU-Ländern die Möglichkeit ein, die Regeln zu biometrischer Überwachung für sich anzupassen. Da biometrische Überwachung europaweit nicht vollständig verboten wurde, müsste es also auf der nationalen Ebene passieren. Nach ihrer Ankündigung im Koalitionsvertrag könnte die Bundesregierung ein vollständiges Verbot noch durchsetzen.
Deutsche Strafverfolgungsbehörden arbeiten aber bereits daran, ihre Befugnisse auszuweiten, um biometrische Erkennungssysteme einsetzen zu dürfen. Zum Beispiel wollen sie zukünftig im Internet Nutzer*innen mit deren biometrischen Daten nachverfolgen. Das würde das Recht auf Anonymität im Internet sowie den Datenschutz, die Selbstbestimmung und die Unschuldsvermutung gefährden. Die Bundesministerin des Innern Nancy Faeser will solchen Wünschen trotzdem mit Gesetzänderungen nachkommen. Nicht nur ist es zweifelhaft, ob solche rechtsüberschreitenden Maßnahmen überhaupt verfassungskonform sind. Sie sind außerdem nicht mit dem Koalitionsvertrags vereinbar. Darin steht, dass das Recht auf Anonymität im Internet gewahrt bleiben müsse.
Deutsche Behörden operierten beim Einsatz von biometrischen Erkennungstechnologien bereits mehrfach am Rande der Legalität. Die sächsische Polizei setzte an der polnischen Grenze in Görlitz ein Live-Gesichtserkennungssystem ein. Die zuständige Datenschutzbehörde war nicht informiert worden und hält das System für illegal. Um Gesichtserkennungssoftware zu testen, stellte das Bundeskriminalamt 2019 einem Forschungsinstitut einen Datensatz von drei Millionen Bildern zur Verfügung. Die Rechtmäßigkeit ist sehr zweifelhaft.
Derweil will die EU ihre Außengrenzen mit biometrischen Erkennungssystemen „absichern“. Beim Projekt D4FLY werden „2D+thermische Gesichts-, 3D-Gesichts-, Iris- und Somatotyp-Biometrie“ miteinander kombiniert. In Projekten wie iBorderCtrl untersuchen die Regierungen Emotionen und „Mikroexpressionen“ − flüchtige Gesichtsausdrücke, die nur Sekundenbruchteile dauern − um zu beurteilen, ob Reisende vertrauenswürdig sind oder ob sie die (virtuellen) Grenzbeamt*innen belügen. Daraus wird automatisch eine Risikobewertung erstellt, die zu strengeren Sicherheitskontrollen an den EU-Grenzen führen könnte.
Das Problem an solchen Pilotprojekten ist, dass sie oft vorübergehend ohne entsprechende Rechtsgrundlage getestet werden. Erfahrungsgemäß ist es aber nach so einer Testphase wesentlich leichter, die Technologien einzuführen, ohne eine öffentliche Debatte darüber zu führen.
Wegen der Risiken von biometrischen Identifikationssystemen haben verschiedene Städte weltweit (darunter San Francisco, Portland und Nantes) bereits den Einsatz von Erkennungssystemen im öffentlichen Raum verboten. 2021 hat sich auch das UNO-Hochkommissariat für Menschenrechte in einem Bericht dafür ausgesprochen, die Verwendung von biometrischen Erkennungssystemen im öffentlich zugänglichen Raum wesentlich einzuschränken oder zu verbieten. Auch der Europäische Datenschutzausschuss und über 200 Nichtregierungsorganisationen weltweit warnen vor den gesellschaftlichen Folgen dieser Technologie.
Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu biometrischen Erkennungssystemen.