Digitalisierung und KI

Kein Wegducken bei der KI-Regulierung

Die Verhandlungen über den europäischen AI Act sind auf der Zielgeraden. In allerletzter Minute haben die beiden federführenden deutschen Ministerien Organisationen der Zivilgesellschaft zu einem Austausch eingeladen. Damit sich dieses Gespräch nicht als Feigenblatt erweist, müssen BMWK und BMJ die Forderungen der NGOs ernst nehmen.

Blog

25. September 2023

#ai #aiact

Von Stephan Röhl - https://www.flickr.com/photos/boellstiftung/8588726539/, CC BY-SA 2.0,

Matthias Spielkamp
Geschäftsführer, Mitgründer und Gesellschafter

Es stimmt: Systeme sogenannter Künstlicher Intelligenz – von Suchmaschinen über Gesichtserkennung bis hin zu ChatGPT – sind komplex. Es ist keine leichte Aufgabe zu entscheiden, was zu tun ist, damit die Rechte der Menschen wirksam geschützt werden und zugleich Forscher:innen und Unternehmen sinnvolle Ideen so weit entwickeln können, dass wir am Ende davon profitieren.

Doch es darf keine Strategie des Gesetzgebers sein, sich hinter dieser Komplexität zu verschanzen und grundlegende Anforderungen an Technologie- Regulierung zu missachten – mit der Begründung, dass es sich bei KI um ein neues Phänomen handele.

Starke Rechenschaftspflichten und große Transparenz waren schon immer ein gutes Mittel, um eine Balance zwischen den Interessen von Regierung und Unternehmen auf der einen, und Bürger:innen auf der anderen Seite herzustellen. Das ist auch bei KI der Fall.

Worauf es ankommt

Die Bundesregierung muss sich daher dafür einsetzen, dass alle, die sogenannte Hochrisiko-KI einsetzen wollen, diese Systeme in der geplanten Transparenzdatenbank eintragen müssen – und zwar auch die Anwender (also etwa ein Produktionsbetrieb), nicht nur die Entwickler der Systeme (also etwa Microsoft). Denn wie hoch das Risiko eines Systems ist, hängt nicht allein von seinen Eigenschaften ab, sondern ebenso davon, wie und wofür es eingesetzt wird. Diese Transparenzpflichten müssen gleichermaßen für private Unternehmen und Behörden gelten.

Dies gilt umso mehr bei KI, die für Migrations- und Grenzkontrollen, in Asylverfahren und der Kriminalitätsbekämpfung eingesetzt wird. Gerade hier sind Schutzbedürftige in ihren Menschenrechten direkt betroffen. Dann zu argumentieren, dass Geheimhaltungsinteressen den Schutz der Menschenrechte aussticht, ist zynisch und spricht dem inflationären Gerede von „europäischen Werten“ Hohn.

Gleiches gilt für den Unwillen, sind endlich vehement dafür einzusetzen, dass biometrische Erkennung an öffentlichen Orten wirksam und ohne Hintertüren verboten wird – genau so, wie es die Ampel-Regierung in ihrem Koalitionsvertrag versprochen hat. Sich hier von den Sicherheitspolitiker:innen die Agenda diktieren zu lassen, würde eine Überwachungs-Infrastruktur ermöglichen, die in einer Demokratie nichts zu suchen hat. Es würde nicht nur zeigen, wie wenig die Versprechen der Regierung wert sind, es wäre auch gefährlich kurzsichtig: Man stelle sich vor, welcher Missbrauch droht, wenn Parteien in Regierungsverantwortung kämen, deren Verständnis von Rechtsstaatlichkeit etwa dem der AfD entspricht.

Die eigenen Versprechen auch einhalten

Gerade beim Thema Menschenrechte und KI haben deutsche Politiker:innen bisher zwar in Sonntagsreden geglänzt, dann aber gegenteilige Haltungen vorangetrieben. Nach allem, was wir wissen, ist es die deutsche Regierung, die, gemeinsam mit Frankreich, Polen und Rumänien, weiterhin blockiert, dass eine sogenannte Menschenrechts-Folgenabschätzung (fundamental rights impact assessment, FRIA) gemacht werden muss, bevor Hochrisiko-Systeme eingesetzt werden. Sowohl Robert Habeck, als auch Marco Buschmann verpassen kaum eine Gelegenheit zu betonen, wie wichtig ihnen Menschenrechte und Rechtsstaatlichkeit sind. Die FRIA-Blockade aufzugeben, ist für die Minister die perfekte Gelegenheit, ihren Worten Taten folgen zu lassen.

Ebenfalls höchste Zeit ist es, dafür zu sorgen, dass wir ein Recht darauf bekommen, erst gar nicht den Auswirkungen von KI-Systemen ausgesetzt zu sein, die nicht den Anforderungen der KI-Verordnung entsprechen. Wer von Hochrisiko-KI betroffen ist, muss zudem ein Recht auf Erklärung und Information darüber haben, welchen Mechanismen er oder sie unterworfen ist. Und um Menschen nicht damit allein zu lassen, sich gegen mitunter global agierende Mega-Unternehmen zu verteidigen, müssen Verbandsklagebefugnisse festgeschrieben werden.

Kontrolle ist besser als Vertrauen in „AI for good“

Natürlich darf der Hype um „generative KI“ nicht fehlen. Er hat die Verhandlungen von Rat und Parlament noch einmal gehörig durcheinandergewirbelt. Das bietet große Chancen, denn bis zur Diskussion über die gigantischen Modelle hinter ChatGPT, Midjourney, Google Bard und anderen haben die Nachhaltigkeitsaspekte von KI ein Schattendasein gefristet. Energie- und Wasserverbrauch, CO2-Ausstoß, aber auch die Arbeitsbedingungen in den KI-Sweatshops zum „Datenreinigen“ sind nun zu Recht in den Fokus gerückt. Das „AI for good“-Versprechen, dass KI die magische Technologie ist, mit der wir alle Herausforderungen der Menschheit bewältigen können, war schon immer plumpes Marketinggeschwätz.

Das bedeutet keineswegs, dass KI-basierte Systeme uns nicht helfen können. Sie tun es bereits seit vielen Jahren, doch das Kosten-Nutzen-Verhältnis realistisch abzuschätzen, kann nur gelingen, wenn die Entwickler und Anbieter der Systeme dazu verpflichtet werden, detaillierte Angaben zu Ressourcenverbrauch und Arbeitsbedingungen der „digitalen Lieferkette“ zu machen. Wir haben dazu konkrete Vorschläge ausgearbeitet, die auch den Ministerien vorliegen und zum Teil auch auf offene Ohren gestoßen sind. Die KI-Verordnung wird für lange Zeit die letzte Gelegenheit sein, die Grundlage dafür zu schaffen, dass wir diese so wichtigen Informationen bekommen.

Spätes Erwachen

Die deutsche Regierung hat in den Verhandlungen zu einem der weltweit wichtigsten Gesetze bisher ein trauriges Bild abgegeben. In vielen Fällen haben die deutschen Vertreter:innen im Rat der Union, in dem die Mitgliedstaaten ihre gemeinsamen Positionen festlegen, keine konkrete Haltung vertreten. Der Grund: Die vielen deutschen Ministerien, die bei Digitalthemen mitreden, konnten sich nicht auf eine gemeinsame Linie einigen. Damit sind wertvolle Gelegenheiten verpasst worden, obwohl zivilgesellschaftliche Organisationen mit viel Sachverstand und immensem Aufwand konkrete Vorschläge ausgearbeitet haben.

Der Kommissionsentwurf zur KI-Verordnung liegt seit April 2021 vor. Zweieinhalb Jahre später laden nun BMWK und BMJ die Zivilgesellschaft das erste Mal zu einer gemeinsamen Konsultation ein – zu einem Zeitpunkt, an dem die ersten Trilog-Treffen bereits vorüber sind. Und das mit vier Tagen Vorlauf und 24 Stunden Anmeldefrist.

„Wir wollen eine neue Kultur der Zusammenarbeit etablieren, die auch aus der Kraft der Zivilgesellschaft heraus gespeist wird.“ Auch das steht im Koalitionsvertrag. Papier ist geduldig, heißt es. Die Verhandler:innen von Kommission, Rat und Parlament sind es nicht. Noch ist Zeit, das Richtige zu tun. Was das ist, haben wir deutlich gemacht und sind froh darüber, die Gelegenheit zu bekommen, es heute erneut tun zu können. Ob die Regierung es beherzigt, liegt in der Verantwortung von Robert Habeck und Marco Buschmann.

Dieser Kommentar ist im Tagesspiegel Background am 11.09.2023 erschienen.