Advocacy-Briefing zur Verteidigung der Rechte von Geflüchteten, Asylsuchenden und Migrant*innen im digitalen Zeitalter

Dieses Dokument bietet eine menschenrechtliche Einordnung und Grundsätze, anhand derer die Auswirkungen neuer und bestehender Technologien auf Geflüchtete, Asylsuchende und Migrant*innen analysiert werden können. Zudem enthält es Empfehlungen für Staaten, Unternehmen, internationale Organisationen und Dienstleister*innen.

„A Dream Deterred”. Ein Migrant wird an einem Grenzübergang mit massiver Überwachung konfrontiert und an seine ungewisse Zukunft erinnert. Aktivist*innen setzen sich gegen diese Überwachungssysteme ein.
Eliana Rodgers: „Defending the Rights of Refugees and Migrants in the Digital Age“ via Amnesty International, 2024, CC BY 4.0

Einsatz digitaler Technologien im Asyl- und Migrationskontext

Digitale Technologien sind zu allgegenwärtigen, risikoreichen und oft experimentellen Instrumenten in
der Gestaltung und Umsetzung der Migrations- und Asylpolitik von Staaten und regionalen Organisationen geworden. Von Satellitenbildern, Drohnen und Sensordaten bis hin zu Gesichtserkennung, Iris-Scans und sog. „Lügendetektoren“: Im Grenz- und Migrationskontext wird auf
diverse Technologien vertraut, die höchst fragwürdig sind.

Sowohl direkt als auch indirekt haben digitale Technologien das Potenzial, schwerwiegende Menschenrechtsverletzungen zu verursachen oder zu verstärken. Wenn Staaten Ziele verfolgen, die im Widerspruch zu ihren Menschenrechtsverpflichtungen gegenüber Geflüchteten und Migrant*innen stehen, verschärfen diese Technologien meist Menschenrechtsverletzungen und Leiden. Grenz- und Migrationstechnologien können aber auch an sich problematisch sein, da die Systeme anfällig für Verzerrungen (sog. „Bias“) und Fehler sind. Oft beruhen sie auf einer ausufernden Erhebung, Speicherung und Nutzung von Informationen, wodurch das Recht auf Privatsphäre und Nichtdiskriminierung sowie weitere Menschenrechte gefährdet werden.

Digitale Technologien verstärken repressive Grenzregimes, die Personen aufgrund von Rassifizierung, ethnischer Zugehörigkeit, nationaler Herkunft und Staatsangehörigkeit diskriminieren. Sie bergen die
Gefahr, dass rassistische Vorurteile und Diskriminierung, die in historischen und kolonialen Praktiken der
Ausgrenzung wurzeln, unter dem Deckmantel technologischer Neutralität und Objektivität fortbestehen
und verschleiert werden. Ihr Einsatz kann mitbedingen, dass systemischer Rassismus, Unterdrückung und Gewalt fortbestehen.

In den vergangenen Jahren ist immer wieder zu beobachten, dass Technologien, die für Migrations- und
Grenzmanagementzwecke eingesetzt werden, von bestimmten rechtlichen Vorgaben ausgenommen
werden. So gibt es u. a. Ausnahmeregelungen bei Datenschutz- und Datensicherheitsvorschriften sowie
bei Anforderungen an die öffentliche Rechenschaftspflicht und die Transparenz. Sie stehen im
Zusammenhang mit einer zunehmenden Kriminalisierung von Migration und der Vermischung von
Migrations-, Polizei- und nationaler Sicherheitspolitik
.

Umso dringlicher ist es derzeit, Staaten, Unternehmen und andere Interessengruppen daran zu erinnern, dass jede Entwicklung und Nutzung von neuen Technologien die Menschenrechte achten und schützen muss, einschließlich jener von Geflüchteten, Asylsuchenden und Migrant*innen. Transparenz schafft hier Nachvollziehbarkeit und ist somit ein wichtiger erster Schritt zur Verwirklichung von Rechten, Gerechtigkeit und Rechenschaftspflicht. Letztlich kann Transparenz allein aber keine Rechte schützen, sondern muss von anderen Schutzmaßnahmen begleitet werden. Wenn Technologien schon im Design mit internationalen Menschenrechtsnormen unvereinbar sind, sind Rechtsverletzungen und ihre negativen Auswirkungen im wahrsten Sinne des Wortes vorprogrammiert. Auch Technologieverbote
dürfen dann kein Tabu sein.

Leitprinzipien und Rahmenbedingungen

Staaten haben gemäß der Internationalen Menschenrechtscharta verbindliche Verpflichtungen. Sie müssen die Menschenrechte aller Menschen achten, schützen und verwirklichen. Aber auch internationale Organisationen, Unternehmen und andere nicht staatliche Akteur*innen stehen in der
Verantwortung, die Menschenrechte zu achten.

Im Sinne eines menschenrechtsbasierten Ansatzes sind bei der Beurteilung einer jeden möglicherweise zum Einsatz kommenden Technologie im Bereich Asyl und Migration (ebenso wie in anderen Bereichen)
einige übergeordnete Grundsätze und Rahmenbedingungen zu beachten:

Empfehlungen an Staaten

Verbote

Unter keinen Umständen sollten Staaten die Entwicklung, Herstellung, den Verkauf, die Verwendung, den Export und Import von Technologien zulassen, die Menschenrechte verletzen, irreparable, irreversible Schäden verursachen und/oder inakzeptable Risiken darstellen. In diesen Fällen sollten Staaten lückenlose Technologiebverbote erlassen. Zu diesen Technologien gehören:

Vor dem Einsatz

Zusätzlich zu klaren Verboten von Technologien, die mit Menschenrechten unvereinbar sind, sollten
Staaten vor dem Einsatz eines Technologiesystems einen verlässlichen Rechtsrahmen schaffen:

Während der Einführung

Während des Lebenszyklus von Technologien sollten Staaten:

Empfehlungen an Unternehmen

Unternehmen, die Technologien entwickeln, anbieten oder vermarkten, einschließlich solcher, die Technologien für Asyl, Migration und Grenzkontrolle entwickeln und bereitstellen, sollten:

Empfehlungen an internationale Organisationen (einschließlich Organisationen der UN)

Empfehlungen für andere Dienstleister

Dienstleister, die digitale Technologien in den Bereichen Asyl, Migration, Grenzsicherung und humanitäre Hilfe einsetzen, einschließlich Nichtregierungsorganisationen (NGOs) und gemeinnützige humanitäre Dienstleister, sollten die folgenden Empfehlungen berücksichtigen:

Über dieses Dokument

Dieses Dokument ist gedacht als Advocacy-Ressource für Aktivist*innen, Akteur*innen der Zivilgesellschaft und Communities, die von digitalen Technologien und Überwachung im Asyl- und Migrationskontext betroffen sind. Es bietet eine menschenrechtliche Einordnung und Grundsätze, anhand derer die Auswirkungen neuer und bestehender Technologien auf Geflüchtete, Asylsuchende und Migrant*innen analysiert werden können. Das schließt auch die Berücksichtigung diskriminierender und intersektionaler Folgen der Systeme mit ein. Zudem enthält das Dokument Empfehlungen für Staaten, Unternehmen, internationale Organisationen und Dienstleister*innen, die digitale Technologien und Überwachungssysteme entwickeln und/oder einsetzen.

Dieses Dokument wurde von Amnesty International mit Unterstützung von AlgorithmWatch, Border Violence Monitoring Network (BVMN), EuroMed Rights und Privacy International verfasst. Als Grundlage dienten die rechtlichen und politischen Empfehlungen der Koalition #ProtectNotSurveil zu Migration, Asyl und Grenzüberwachungstechnologien, einschließlich der Entwicklung und Nutzung Künstlicher Intelligenz (KI). Es ist als „lebendiges“ Dokument konzipiert, das regelmäßig aktualisiert wird. Die Übersetzung aus dem Englischen ins Deutsche hat AlgorithmWatch übernommen. Die aufgeführten Empfehlungen sind keineswegs erschöpfend, sondern sollen als Ausgangspunkt für nationale und internationale Advocacy-Arbeit dienen. Der Abschnitt „Quellen“ enthält eine Liste von Publikationen, in denen diese Empfehlungen ursprünglich formuliert wurden.

Abonniere jetzt unseren Community Newsletter!

Ich bin mit der Verarbeitung meiner Daten einverstanden und weiß, dass ich den Newsletter jederzeit abbestellen kann.

Mehr Informationen findest du in unserer Datenschutzerklärung.