
Gesichtserkennung als trojanisches Pferd: Sieht nach Sicherheit aus, zersetzt aber die Demokratie
Gesichtserkennung ist zu einem Steckenpferd von Sicherheitshardlinern geworden. Ob die Technologie wirklich zu mehr Sicherheit beiträgt, ist mehr als zweifelhaft, aber sicher ist, dass sie Grundrechte gefährdet und verletzt.

Was sind „Gesichtserkennung“ und „biometrische Fernidentifizierung“?
Das Wort „Gesichtserkennung“ wird oft stellvertretend für „biometrische Fernidentifizierung“ verwendet. Dieser Fachbegriff bedeutet, dass körperliche Merkmale (Gesichtszüge, die Stimme oder auch die Iris) und Bewegungsmuster (wie die individuelle Art zu gehen) mit KI analysiert werden, um bestimmte Personen aus einer größeren Masse an Menschen herauszufiltern. Kameras erfassen zum Beispiel biometrische Eigenschaften von einzelnen Personen und gleichen diese Daten mit einer Liste gesuchter Personen ab. Die gefilmten Menschen wissen in den meisten Fällen nicht, dass ihre biometrischen Daten gerade analysiert werden.
Die biometrische Datenverarbeitung geschieht entweder in „Echtzeit“ (die Datenanalyse erfolgt live, während die Daten erfasst werden) oder „nachträglich“, dabei werden die erfassten Daten irgendwann später ausgewertet. Nur was heißt „später“ eigentlich genau? Nach einer Minute oder nach einem Tag? Da dafür keine brauchbare Definition existiert, kann derzeit niemand den Unterschied zur Echtzeit-Analyse erklären.
Besser bestimmbar ist die „Ferne“ in dem Begriff „Fernidentifizierung“. Die Daten werden ohne das Wissen oder die direkte Mitwirkung der Personen mit anderen Daten abgeglichen, und das passiert oft weit entfernt vom Ort der Aufnahme. Eine aktive Mitwirkung bestünde zum Beispiel, wenn Menschen ihren Finger auf eine Fläche legen, um einen Fingerabdruck erstellen zu lassen. Wenn aber zum Beispiel viele Menschen in einem Flughafen von überall installierten Kameras aufgenommen werden, um ihre Körpermerkmale zu erfassen, dann wäre es ein Fall von Fernidentifizierung.
Warum steht Gesichtserkennung in der Kritik?
Abschreckung: Angst, von Grundrechten Gebrauch zu machen
Ein wesentliches Argument gegen einen ausgedehnten Einsatz der Technologie ist der zu befürchtende Abschreckungseffekt, der sich negativ auf die Demokratie auswirken könnte. In manchen Fällen könnten zum Beispiel die Grundrechte bei einer nachträglichen Verarbeitung besonders gefährdet werden. Regierungen oder Behörden wie die Polizei können mit sensiblen persönlichen Daten nachverfolgen, wo sich Personen aufgehalten, was sie getan oder auch mit wem sie sich getroffen haben − über Wochen, Monate oder Jahre hinweg. Das könnte zum Beispiel Quellen von Journalist*innen davon abhalten, ihnen wichtige Informationen zu geben, da sie nicht mehr sicher sein können, dabei anonym zu bleiben.

Wir führen Recherchen durch, um zu zeigen, wo und wie algorithmische Diskriminierung auftreten kann. Hast du Hinweise darauf, dass algorithmische Diskriminierung stattgefunden haben könnte? Dann berichte uns davon.
Wenn Gesichtserkennung alle Gesichter im Internet erfassen soll, wie deutsche Regierungskoalitionen immer wieder fordern, könnte das Menschen davon abhalten, an Demonstrationen teilzunehmen. Fotos davon könnten im Internet veröffentlicht werden, mit denen dann wiederum eine Haussuchung begründet werden könnte. Unabhängig davon ist es völlig unverhältnismäßig, alle Menschen zum Fahndungsgegenstand zu machen, um einzelne zu suchen.
Illegale Datenbanken: Das Ende der Unschuldsvermutung
Wenn Aufnahmen von Gesichtern mit öffentlich zugänglichen Daten aus dem Internet biometrisch abgeglichen werden sollen, muss es dazu eine Datenbank geben, die alle Internet-Bilder von uns enthält: das Familienfoto bei Facebook, das Selfie bei Instagram oder auch das Portrait auf der Website des Arbeitgebers. „Gesichtsdatenbanken” existieren bereits länger bei der Polizei. Das automatisierte „Scraping”, also das Sammeln und Speichern von Internet-Bildern, ist eine neuere Form der KI-gesteuerten Gesichtserkennung. Firmen wie Palantir, Clearview AI und PimEyes verdienen damit Geld, öffentlich einsehbare Bilder aus dem Netz in Datenbanken zu speichern und sie durchsuchbar zu machen. Datenschützer*innen kritisieren diese Geschäftspraxis seit Jahren – allein schon, weil die Abgebildeten nie in die Bildernutzung eingewilligt haben.
Wir würden dabei alle in einer polizeilichen Datenbank aufgeführt werden, ohne dass irgendein Verdacht vorliegen muss. Natürlich müssen Sicherheitsbehörden wirksame Befugnisse haben, um zu ermitteln und Straftaten zu verhindern. Das darf aber nicht dazu führen, die Unschuldsvermutung über Bord zu werfen, eins der Grundprinzipien rechtsstaatlicher Strafverfahren. Und Gesichtsdatenbanken höhlen die Unschuldsvermutung im Kern aus.
Außerdem verbietet die KI-Verordnung der EU, solche KI-gestützten Datenbanken mit Gesichtsbildern zu erstellen. In Ungarn hat sich gezeigt, wie biometrische Überwachungssysteme missbraucht werden können. Präsident Orbán wollte mit Gesichtserkennung die Besucher*innen des CSD in Budapest verfolgen. Alle Teilnehmenden mussten befürchten, später identifiziert zu werden. Das konnte nur mit Protest aus ganz Europa verhindert werden. Dieselbe Gefahr lässt sich direkt auf regierungskritische Personen übertragen.
Die von AlgorithmWatch gestartete WeAct-Petition gegen biometrische Massenüberwachung hat mehr als 50.000 Unterschriften gesammelt. Das ist ein deutliches Zeichen gegen Gesichtserkennung und alle anderen Verfahren, die mithilfe von biometrischen Daten auf Überwachung ausgerichtet sind.

Falscher Alarm: Scheinzusammenhänge und Diskriminierung
Auch das Bundesamt für Migration und Flüchtlinge soll nach dem Wunsch des deutschen Innenministeriums Fotos, die es von Asylsuchenden aufnimmt, mit Daten aus dem Internet abgleichen. Das Risiko von Gesichtserkennungssoftware ist in diesem Fall besonders hoch: Die Asylgesuche von Menschen in Not könnten auf der Grundlage irreführender Bildinformationen abgelehnt werden: wenn sie zur falschen Zeit im falschen Stadtteil unterwegs waren und mit verdächtigen oder gesuchten Personen fotografiert wurden, obwohl zwischen ihnen kein Kontakt bestand.
Dieses Beispiel zeigt, wie problematisch es sein kann, von einer objektiven „Datenanalyse“ zu sprechen. Das Wort suggeriert ein präzises und nachvollziehbares Vorgehen, aber das Gegenteil ist der Fall. Voneinander unabhängige Daten könnten so zusammengeführt werden, dass ein Scheinzusammenhang entsteht. Es wird sehr schwierig sein, einen so entstandenen unbegründeten Verdacht zu widerlegen.
Biometrische Erkennungssysteme funktionieren nicht im Ansatz so gut, wie es deren Anbieter uns weißmachen wollen. Immer wieder halten sie Menschen für gefährlich, die es nicht sind. In einem Test am Berliner Bahnhof Südkreuz wurde ca. jeder 200. Mensch fälschlich als gesuchte Person eingestuft, was 600 täglichen Falschmeldungen entspricht. Diese ungerechtfertigt verdächtigten Menschen werden unangenehmen Kontrollen ausgesetzt. Die Polizei hätte dauerhaft durch die Fehlalarme einen erheblichen Mehraufwand. Bei Frauen und People of Color liegen die Systeme besonders oft daneben. Durch die fehleranfälligen Systeme werden also bestimmte Gruppen diskriminiert, die gesellschaftlich ohnehin schon benachteiligt werden.
Kommt eine KI-Überwachung?
Wenn Kameras im öffentlichen Raum ständig Personen abscannen und ihre individuellen Merkmale analysieren, drohen Folgen, die wir von Überwachungsstaaten kennen: Die Menschen fühlen sich beobachtet und können sich nicht mehr frei und ungezwungen bewegen. In einer gesunden, pluralistischen Demokratie ist es aber wichtig, dass sie öffentlich Meinungen ausdrücken, sich individuell entfalten und politisch engagieren können, ohne negative Folgen fürchten zu müssen. Das garantieren Grundrechte wie das Demonstrationsrecht und das Recht auf freie Meinungsäußerung. Das Recht auf Datenschutz und informationelle Selbstbestimmung garantiert außerdem, dass die persönlichen Daten der Menschen kein Selbstbedienungsladen für andere werden.
Technische Systeme zur Überwachung und biometrischen Identifikation sind grundsätzlich darauf angelegt, Daten von unbegrenzt vielen Menschen zu verarbeiten und mit Datenbanken abzugleichen. Aus diesem Grund läuft ihr Einsatz in öffentlich zugänglichen Räumen auf eine Massenüberwachung hinaus. Öffentliche Orte sind zum Beispiel Parks, Straßen, Einkaufszentren oder Sportstätten, aber auch Plattformen wie Instagram.
Deutschland hat in seiner Geschichte schon zu viele Erfahrungen mit totalitären Regimen gemacht. Deshalb liegt es in seiner Verantwortung, keine Infrastruktur aufzubauen, mit der die ganze Bevölkerung kontrolliert und unterdrückt werden kann. Deshalb fordert AlgorithmWatch, dass Gesichtserkennung im öffentlichen Raum ausnahmslos verboten wird.
Du bist der Meinung, dass Grundrechte dauerhaft geschützt und gestärkt werden müssen? Dann werde Fördermitglied bei AlgorithmWatch!
Ünterstütze mit deiner monatlichen Spende gründlichen Recherchen und wirkungsvolle Kampagnen. So kannst du deinen Teil dazu beitragen, dass wir Entscheidungsträger*innen mit unserer Expertise auf die Pelle rücken!

Mehr Informationen zu deiner Fördermitgliedschaft findest du hier.







