Wer ist ein „Risiko“? Ab 2023 wird die visumfreie EU-Einreise schwieriger

Die EU-Behörden Frontex und eu-LISA entwickeln gerade das automatische „Risikoprüfungssystem“ ETIAS für die Einreise in die EU. Der Algorithmus, der die Kategorisierung vornimmt, wird zum Teil mit früheren Entscheidungen von Grenzbeamten trainiert.

Foto: Greg Bulla auf Unsplash

Auf Twitter tobt eine hitzige Debatte innerhalb der Anti-Brexit-Fraktion. Das Ende der visumfreien Einreise in die EU steht bevor und damit müssen sich Reisende aus dem Vereinten Königreich darauf einstellen, dass in puncto „Gesundheit und Sicherheit“ neue Vorschriften gelten, nach denen sie überprüft werden. Manche tweeteten hämisch, dass Kneipenschläger, die für den Brexit gestimmt haben, dann wohl zuhause bleiben müssten, andere finden, dass die EU dadurch sicherer werde, und wiederum andere befürchten, dass sie sich deshalb auf das Geheule von Bekannten einstellen müssten.

Länder wie die USA und Australien setzen bereits Systeme wie ESTA und ETA ein, um Einreiseanträge von Menschen aus visumfreien Ländern mit (potenziell fehlerhaften) staatlichen Datensätzen abzugleichen. Anders als diese wird beim Europäischen Reiseinformations- und -genehmigungssystem ETIAS ein Algorithmus eingesetzt. Die Gesetzgeber*innen behaupten, dass dadurch Menschen identifiziert werden könnten, die ein (vage definiertes) Risiko darstellen, indem sie entweder die öffentliche Gesundheit und Sicherheit gefährden würden oder möglicherweise illegal einreisen wollen. ETIAS soll im November 2023 in Kraft treten. Expert*innen der Europäischen Agentur für die Grenz- und Küstenwache Frontex erwarten, dass in Zukunft um fünf Prozent der Reisenden automatisch als Risiko klassifiziert und an der Einreise gehindert werden.

Risikoprüfungen: Gehört eu-LISA die Zukunft?

Forschungseinrichtungen und NGOs wie Access Now setzen sich dafür ein, automatisierte Risikoprüfungssysteme wie ETIAS zu verbieten. Sie wenden dagegen ein, dass die Beurteilung von Personen aufgrund festgelegter Kriterien wie Nationalität oder Bildungsstand das Recht auf Nicht-Diskriminierung und Gleichbehandlung verletze. Es ärgert sie besonders, dass der AI Act-Entwurf in seiner jetzigen Fassung ETIAS und ähnliche Systeme aus seinem Geltungsbereich ausnimmt, wenn Nicht-EU-Bürger*innen überprüft werden. Gleichzeitig werden aber darin strenge Auflagen für den Fall formuliert, dass EU-Bürger*innen vom Einsatz dieser Technologien betroffen sind. 

Wenn es nach dem Grenzschutz geht, sind die mit ETIAS eingeführten Bestimmungen erst der Anfang. Mit eu-LISA schafft die EU ein technisch vorgehendes Pendant zu Frontex. Die Europäische Agentur für das Betriebsmanagement von IT-Großsystemen im Raum der Freiheit, der Sicherheit und des Rechts soll zur Migrationskontrolle und zu Sicherheitsprüfungen eingesetzte Datenbanken mit Daten über Nicht-EU-Bürger*innen miteinander vernetzen. 

Die Agentur veranstaltete nun im Oktober 2022 eine Konferenz in Tallinn, wo sich ihr Hauptsitz befindet. Uku Särekanno, stellvertretender Geschäftsführer bei Frontex, sagte dort, dass KI-Risikoprüfungen und KI-Profiling bei der EU-Grenzkontrolle in Zukunft eine große Rolle spielen könnten. Wenn die EU großen US-amerikanischen Konzernen wie Google gegenüber wettbewerbsfähig bleiben wollte, sei eu-LISA in der besten Position, um entsprechende Technologien zu entwickeln. Särekanno sagte weiter, dass die Agentur wahrscheinlich die einzige Behörde in Europa sei, die über solch eine gewaltige Menge an Daten verfüge, die wissenschaftlich ausgewertet werden könnten. Die Reaktionen des Publikums (darunter Menschen, die sich als „IT-Systemmanager*innen“ vorstellten) fielen gemischt aus. Während manche begeistert waren („Europa schafft damit endlich ein Einsatzfeld für KI!“), waren andere skeptisch („Und noch ein EU-Gremium.“).

Neben der Entwicklung von ETIAS bestehen bereits weitere Pläne. Ein Algorithmus soll „risikobehaftete“ Visumsanträge melden, daneben sollen Tools entwickelt werden, die die Risikokategorien ermitteln. In einem 2020 veröffentlichten eu-LISA-Bericht wird bestätigt, dass die Agentur Forschung dazu betreibt, wie sie Künstliche Intelligenz in ihre IT-System integrieren könnte. Darin wird vorgeschlagen, dass eu-LISA das Speichern von Trainingsdaten verwaltet und die sich daraus ergebende Entwicklung von Strafverfolgungstools übernimmt – in Übereinstimmung mit dem erklärten Ziel der EU, die KI-Entwicklung nach Maßgabe der gemeinsamen europäischen Werte stattfinden zu lassen. 

Folge politischer Entwicklungen

Eu-LISA wurde vor zehn Jahren gegründet, als Verwaltungsinstanz für Eurodac (eine Datenbank, in der die Fingerabdrücke von Asylsuchenden gesammelt wurden) und das Schengener Informationssystem (mit dem Nicht-EU-Bürger*innen überwacht wurden, die als Straftäter bekannt oder verdächtig waren oder Einreiseverboten unterlagen). Seither wächst der Einfluss der Agentur: Sie hat neue Datenbanken eingeführt, in denen Reisende mit Visum und Reisende aus visumfreien Ländern verzeichnet sind. Gleichzeitig arbeitet sie an einem Überwachungssystem für die Ein- und Ausreise aller Nicht-EU-Bürger*innen. Niovi Vavoula, die an der Queen Mary University in London über Migration und Sicherheit doziert, meint, dass eu-LISA systematisch den Eindruck erwecke, dass weiterhin Sicherheitslücken bestünden, um immer neue Systeme einführen zu können.

Niovi Vavoula zufolge ist das Wachstum von eu-LISA nicht durch die Ein- und Ausreisepraxis, sondern rein politisch zu erklären. Die Ausweitung des Mandats von eu-LISA und steigende Ausgaben für privatwirtschaftliche Produkte und Dienstleistungen seien durch den seit 2015 stattfindenden Rechtsruck in der Migrationspolitik der EU zu erklären, der wiederum durch den Druck bedingt sei, mit ähnlichen Initiativen in den USA und Australien Schritt zu halten.

Die Industrie stellt sich vor

Bei der eu-LISA-Konferenz in Tallinn zeigte ein Unternehmen, das seine Riskoprüfungssoftware verkaufen wollte, einen Clip: Ein sorgenfreies junges Paar schlendert durch einen leeren Flughafen, bevor die Gesichter der beiden gescannt werden.  Ein eu-LISA-Vertreter sagte mir, dass er nicht wolle, dass sein Gesicht gescannt wird und seine Daten auf diese Art verwendet werden. Deshalb habe er in den letzten Jahren auch manche Dating-Apps nicht genutzt. Aber er würde bei eu-LISA einen Beitrag dazu leisten, dass die Grenzen für EU-Bürger*innen offen bleiben. Er könne allerdings nicht sagen, warum es ETIAS gibt, da die entsprechende Bestimmung bereits existiert habe, als er zu eu-LISA stieß.

Auf dieselbe Frage antwortete mir ein Entwickler – dessen Athener IT-Unternehmen zu den privatwirtschaftlichen Auftragnehmern von eu-LISA gehört: „Für die meisten hier geht es bei ETIAS nur ums Geld.“ Er erwarte, dass sein Unternehmen weiterhin mit Aufträgen versorgt werde: „Jetzt gerade ist ETIAS eine Lösung, so wie vor zehn Jahren eu-LISA eine Lösung war. In zehn Jahren wird ETIAS zu einem Problem geworden sein und es wird neue Lösungen geben. So läuft es auf dem Gebiet der Sicherheit eben.”

Frontex und seine fünf Prozent 

In Warschau stellt die von Frontex verwaltete Zentraleinheit von ETIAS aktuell Personal ein, um rund um die Uhr alle ETIAS-Anträge überprüfen zu können, die als „potenzielles Risiko“ eingestuft wurden. Frontex unterstützt eu-LISA ebenso dabei, den Meldealgorithmus weiterzuentwickeln. Die fünf Prozent der Anträge, von denen die Behörde erwartet, dass sie als Risiko aussortiert werden, werden automatisch für eine Einzelfallprüfung ausgewählt. 

Jorge Silva Rodrigues, der die ETIAS-Zentraleinheit als Projektverantwortlicher für Frontex aufbaut, erklärt mit einem hypothetischen Beispiel, wie der Algorithmus funktionieren würde: „Wäre ETIAS in der Hochphase der Corona-Pandemie eingesetzt worden, hätten wir in den Anträgen pandemiespezifische Fragen gestellt. Eine Person aus einem Land mit hoher Inzidenz wäre automatisch gemeldet worden.“

Niovi Vavoula ist von diesem Beispiel verblüfft. Sie hatte in der ETIAS-Zentraleinheit letztes Jahr mit Frontex-Angestellten einen Datenschutz-Workshop durchgeführt, da diese Angestellten bald sehr weitreichende Befugnisse haben werden. Dabei hatte sie den Beamten erklärt, dass sie Pandemiedaten nicht verwenden dürfen, um den Algorithmus zu trainieren. Die ETIAS-Bestimmung lasse lediglich die Erhebung „epidemischer Risiken“ zu, die von „pandemischen Risiken“ zu unterscheiden sind. Es sei irritierend, dass ein hochrangiger Beamter wie Rodrigues ein Beispiel gibt, das so keinesfalls anwendbar ist.

Um zu entscheiden, welche Charakteristika als Risikofaktoren eingestuft werden, wird Frontex auf Daten von EU-Mitgliedstaaten zurückgreifen – vor allem auf Daten des Grenzschutzes, d.h. die auf in der Vergangenheit von Grenzschutzbeamten getroffenen Entscheidungen, wann Menschen aus visumfreien Ländern ein Risiko darstellen.

Da die gegenwärtige Grenzschutzpraxis allerdings sehr kontrovers beurteilt wird, wäre es mehr als bedenklich, wenn damit ein Algorithmus trainiert werden soll. Grenzschutzbeamten verschiedener EU-Mitgliedsstaaten wird vorgeworfen, gegen Menschen aus visumfreien Ländern wie Albanien oder Serbien gewalttätig geworden zu sein. Im Frühjahr 2022 wurden polnische und ukrainische Beamte beschuldigt, vor dem Krieg in der Ukraine flüchtende Menschen afrikanischer, nahöstlicher und südasiatischer Herkunft an der Grenze aufgehalten und eingeschüchtert zu haben. Einige Mitgliedstaaten führen noch nicht einmal Buch über die Kriterien, auf deren Basis Menschen aus visumfreien Ländern abgewiesen werden. Für Niovi Vavoula ist das kein gutes Zeichen: “Ich befürchte, dass der Mangel an statistischen Daten dazu führen könnte, dass stattdessen anekdotische Auskünfte von Grenzschutzbeamten ein Bild von den Geschehnissen an der Grenze vermitteln sollen.“

Hat dir diese Story gefallen?

Alle zwei Wochen untersucht „Die automatisierte Gesellschaft“ die Auswirkungen automatisierter Systeme auf die Gesellschaft und die Welt um dich herum. Melde dich jetzt an und verpasse keine Story mehr!

Abonniere jetzt DIE AUTOMATISIERTE GESELLSCHAFT_

Mehr Informationen findest du in unserer Datenschutzerklärung.