Offener Brief mit Amnesty International
Wir fordern Schutz unserer Menschenrechte vor den Risiken von KI-Systemen
Die aktuellen Verhandlungen zur KI-Verordnung nehmen alarmierende Entwicklungen an. Daher fordern wir gemeinsam mit Amnesty International Minister Buschmann und Minister Habeck auf, unsere Menschenrechte mit der KI-Verordnung zu schützen.
Das Bundesministerium für Wirtschaft und Klimaschutz sowie das Bundesmisterium der Justiz verhandeln federführend die künftige EU-Verordnung zu Künstlicher Intelligenz. Im Namen von AlgorithmWatch und Amnesty International möchten wir Ihre Aufmerksamkeit auf einige alarmierende Entwicklungen in den gegenwärtigen Verhandlungen lenken. In diesen wird derzeit die Einführung verschiedener Ausnahmen von der Regulierung diskutiert, die die Verordnung in weiten Teilen wirkungslos machen könnten.
Die KI-Verordnung verfolgt einen risikobasierten Ansatz. Bei diesem werden KI-Systeme in solche mit inakzeptablem Risiko, hohem Risiko oder in geringere Risikostufen eingruppiert. KI-Systeme mit inakzeptablen Risiken sollen verboten, solche mit hohem Risiko durch verschiedene Schutzmaßnahmen reguliert werden.
Die Verordnung hat das Potenzial, wirksame Maßnahmen zum Schutz der Menschen und unserer Grundrechte festzulegen. Dazu ist Folgendes nötig:
- Hochrisiko-KI und deren Einsatz müssen in einer EU-Datenbank registriert werden. Derzeit werden jedoch Ausnahmen von dieser Transparenzpflicht ausgerechnet für diejenigen Bereiche diskutiert, in denen Menschen besonders verletzlich sind, wie etwa beim Einsatz von KI durch Strafverfolgungs- und Migrationsbehörden. Mangels Nachvollziehbarkeit könnte der Einsatz durch diese Behörden nicht überprüft werden. Daher darf es keine Ausnahmen von der Registrierungspflicht geben.
- Die Betreiber*innen von hochriskanten KI-Systemen sollten dazu verpflichtet werden, vor dem Einsatz des Systems eine Grundrechts-Folgenabschätzung (Fundamental Rights Impact Assessment – FRIA) vorzunehmen und diese öffentlich zugänglich zu machen.
- Die EU-Kommission hat eine klar verständliche Definition für Hochrisiko-KI vorgeschlagen. Derzeit wird darüber verhandelt, diese mit Ausnahmeregelungen zu versehen (sogenannter „Article 6 Extra Layer“). Diese Schlupflöcher würden es unverantwortlichen Anbietern ermöglichen, sich der Regulierung zu entziehen. Verantwortlich agierende Anbieter hätten das Nachsehen. Die Mitgliedstaaten sollten daher auf Ausnahmen verzichten und am ursprünglichen Entwurf der EU-Kommission festhalten.
- Das Versprechen des Koalitionsvertrages muss gehalten werden: Biometrische Erkennungssysteme wie Gesichtserkennungstechnologie müssen in öffentlich zugänglichen Räumen sowohl in Echtzeit als auch mit Zeitverzögerung ("post-RBI“) ausgeschlossen werden, da sie unvertretbare Risiken für die Gesellschaft mit sich bringen. Massenüberwachung ist mit den Menschenrechten nicht vereinbar.
- KI für Zwecke der nationalen Sicherheit darf nicht pauschal von der Verordnung ausgenommen werden. Eine solche explizite Ausnahme stellt eine Einladung für Missbrauch dar, denn der Begriff der nationalen Sicherheit ist europaweit nicht klar definiert. Daher sollten sich die Mitgliedsstaaten auch hier dem Entwurf der EU-Kommission anschließen, der keine solche Ausnahme vorsieht.
Wir fordern Sie auf, sich als federführende Minister der Bundesregierung dafür einzusetzen, dass diese wichtige Verordnung nicht durchlöchert wird und zentrale Schutzmaßnahmen wie die Grundrechts-Folgenabschätzung erhalten bleiben. Die in diesem Brief vertretenen Positionen teilen wir mit 150 Organisationen der deutschen und europäischen Zivilgesellschaft.
Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum Artificial Intelligence Act.