Story

AlgorithmWatch deckt auf: In mindestens zehn EU-Ländern nutzt die Polizei automatisierte Gesichtserkennung

Von Nicolas Kayser-Bril • nkb@algorithmwatch.orgGPG Key

Die Mehrheit der nationalen Polizeibehörden, die an einer Befragung durch AlgorithmWatch teilnahmen, gaben an, Software zur Gesichtserkennung bereits einzusetzen oder ihren Einsatz zu planen. Verschiedene Staaten nutzen die Technologie unterschiedlich, doch fast überall mangelt es an Transparenz.

Polizeibehörden arbeiten schon lange daran, Informationen über von ihnen beobachtete Bevölkerungsgruppen zu sammeln, zu katalogisieren und aufzubewahren. Schon in den 1870er Jahren bereitete der Franzose Alphonse Bertillon den Weg für die polizeiliche Nutzung von Anthropometrie. Er erstellte eine Sammlung aus Zehntausenden Karteikarten mit den Körpermaßen und Fahndungsfotos von Menschen ohne Wohnsitz (denen eine kriminelle Neigung unterstellt wurde). Seine Arbeit bot die Grundlage für die Entwicklung der Biometrie im 20. Jahrhundert.

Aktuelle Projekte gehen weit über Bertillons Vorstellungen hinaus. Automatisierte Gesichtserkennung wird angewandt, um vermisste Kinder zu finden und um gewalttätige Fans im Fußballstadion auszumachen. Im französischen Lyon wurde ein Mann durch eine Überwachungskamera des Autodiebstahls überführt. Sein Gesicht passte zu einem Bild in einer Datenbank. In der Folge wurde er festgenommen und zu eineinhalb Jahren Haft verurteilt.

Von 24 Mitgliedsstaaten der Europäischen Union, die von AlgorithmWatch befragt wurden, nutzt die Polizei in mindestens zehn Staaten Software zur Gesichtserkennung. Acht weitere planen die Einführung in den kommenden Jahren. Nur zwei Länder – Spanien und Belgien – erlauben die Nutzung noch nicht. Zwei nationale Polizeibehörden haben unsere Fragen noch nicht beantwortet.

Einsatzbereit

Im belgischen Kortrijk und im spanischen Marbella setzt die Polizei bereits Technologien zur „Körpererkennung“ ein. Diese Systeme identifizieren Personen anhand ihres Laufstils oder der Kleidung. Beide Systeme können auch Gesichter erkennen, doch ist diese Funktion derzeit ausgeschaltet, solange es noch keine gesetzliche Genehmigung für ihren Einsatz gibt.

Automatisierte Gesichtserkennung wird vor allem in strafrechtlichen Ermittlungen genutzt, wie bei dem Autodiebstahl in Lyon. Auch die Gesichtserkennung in Echtzeit wird immer gebräuchlicher. In mehreren Ländern wird sie in Fußballstadien eingesetzt, um Personen ausfindig zu machen, die als gewalttätige Fans gelistet wurden. In Irland kommt sie routinemäßig zum Einsatz, um Sozialleistungsansprüche zu verifizieren.

Die Technologie wirft datenschutzrechtliche Bedenken auf, die von Organisationen wie Privacy International oder Bits of Freedom umfassend dargestellt worden sind. Automatisierte Gesichtserkennung ermöglicht auch automatisierte Entscheidungen, was weitere Probleme birgt.

Falsch-Positive

Auch wenn Gesichtserkennungssoftware mit 99-prozentiger Richtigkeit ein übereinstimmendes Gesicht erkennen kann, macht die bloße Menge an verfügbaren Gesichtern in den polizeilichen Datenbanken falsche Treffer (Falsch-Positive) unvermeidlich. (Die Fehlerrate von 1% bedeutet: Wenn 10.000 Menschen der Gesichtserkennung ausgesetzt werden, die nicht polizeilich gesucht sind, dann werden 100 von ihnen als gesucht markiert.)

In den Niederlanden greift die Polizei auf eine Datenbank mit Fotos von 1,3 Millionen Menschen zu, von denen viele nie eines Verbrechens angeklagt wurden. Eine Untersuchung der Vice berichtete für 2017, dass 93 Verdächtige mit Gesichtsaufnahmen von Menschen übereinstimmten, die in dieser Datenbank verzeichnet sind.

Wie viele von diesen Übereinstimmungen Falsch-Positive waren, ist nicht bekannt. Ein Test, der 2018 in London durchgeführt wurde, ergab 104 Übereinstimmungen, von denen nur zwei richtig waren. (Ein weiterer in Wales hatte ähnliche Ergebnisse.) In Buenos Aires, Argentinien, führte die automatisierte Gesichtserkennung im städtischen U-Bahn-System in einem Vierteljahr zu 1227 Alarmierungen, von denen 226 korrekt waren. Einige Festnahmen beruhten jedoch auf falschen Daten. Eine Person wurde auf Grundlage eines Gerichtsverfahrens von 2004 festgenommen. Der Fall war eingestellt worden, doch hatte jemand vergessen, den Haftbefehl aufzuheben. Eine andere Person wurde festgenommen, weil ein Tippfehler im Haftbefehl zu einer Übereinstimmung der Ausweisnummern führte.

Blackboxes

Im Fall des Autodiebs von Lyon führte der Verteidigungsanwalt an, dass die Gesichtserkennung als Beweismittel unzulässig sei, weil der Algorithmus, der für den Abgleich genutzt wurde, nicht bekannt war. Sein Antrag wurde abgelehnt. Doch tatsächlich sind alle in Europa eingesetzten Gesichtserkennungssysteme Blackboxes – ihre innere Funktionsweise ist nicht öffentlich bekannt.

Intransparenz unterstützt Missbrauch. Eine im vergangenen Mai veröffentlichte Untersuchung in den USA zeigte, dass manche Polizeibeamte anstelle des Fotos der verdächtigen Person einfach ihnen ähnelnde Gesichter von berühmten Personen – etwa Schauspieler·innen – nutzten, wenn die Software sonst keine Übereinstimmung finden konnte.

Einige Polizeibehörden legten die Namen der Unternehmen offen, von denen sie die Gesichtserkennungssoftware erwerben. Andere – z.B. Finnland oder Kroatien – erachten diese Information als „Verschlusssache“. Die litauische Polizei verweigerte sogar mitzuteilen, ob Gesichtserkennung im Einsatz kam.

Diese Untersuchung durch AlgorithmWatch bietet keine umfassende Analyse. Viele EU-Länder haben mehrere Polizeibehörden, die nach unterschiedlichen Praktiken verfahren. Es wird aber deutlich, dass automatisierte Gesichtserkennung in verschiedenen Kontexten vielseitig eingesetzt wird – und dass es an Transparenz fehlt. Sie zeigt auch, dass ein Verzeichnis aller automatisierten Entscheidungsprozesse dringend benötigt wird.

Maris Männiste, Jose Miguel Calatayud und Eleftherios Chelioudakis haben zur Recherche beigetragen.
Übersetzung: Jennifer Sophia Theodor


Photo by ev on Unsplash
Veröffentlicht: 11. 12. 2019
Kategorie: Story
AlgorithmWatch wird gefördert durch