Pressemitteilung

AlgorithmWatch fordert Regulierung von “General Purpose AI” in der KI-Verordnung der EU

Dass große KI-Sprachmodelle das Ende der Menschheit einläuten, ist reine Spekulation. Schäden richten sie allerdings bereits jetzt an. AlgorithmWatch fordert daher die deutsche Bundesregierung und die EU auf, konkrete Vorkehrungen zu treffen, um eine Eskalation zu verhindern.

Matthias Spielkamp
Geschäftsführer, Mitgründer und Gesellschafter

Viele Menschen haben in den vergangenen Monaten entweder selbst Anwendungen wie ChatGPT und Midjourney ausprobiert und waren erstaunt über die Ergebnisse, oder sie haben aus den Medien davon erfahren, in deren Darstellung der Systeme oft ein Schwerpunkt darauf gelegt wird, dass sie „außer Kontrolle“ geraten und die Herrschaft über die Menschheit an sich reißen könnten. Ist die Aufregung über aktuelle Entwicklungen großer generativer Systeme, der sogenannten „KI-Systeme für allgemeine Anwendungen” (General Purpose AI, GPAI), ein Sturm im Wasserglas, oder ist die Sorge berechtigt, dass sie den Fortbestand der Menschheit bedrohen?

AlgorithmWatch ist der Auffassung, dass die Systeme keineswegs banal sind und einen bemerkenswerten Schritt in der Entwicklung von algorithmischen Systemen darstellen. Sie als nichts mehr als „fortgeschrittene Taschenrechner“ zu bezeichnen, soll vermutlich in vielen Fällen dazu dienen, die Systeme zu entmystifizieren. Doch diese Darstellungen tragen dazu bei, die Risiken, die von ihnen ausgehen, zu verkennen und herunterzuspielen. GPAI bergen Gefahren für Grundrechte, nämlich nicht diskriminiert und in unserer Privatsphäre geschützt zu werden. Firmen wie OpenAI schrecken nicht davor zurück, Menschen in Ländern des Globalen Südens auszubeuten, um ihre Modelle zu trainieren, und sie nehmen in Kauf, dass die Systeme enorme Energiemengen verbrauchen. Weil nur wenige Mega-Konzerne in der Lage sind, die Summen zu investieren, die für die Entwicklung generativer KI benötigt werden, droht zudem ein Quasi-Monopol weniger Unternehmen.

Bereits jetzt machen die Systeme es zudem möglich, auf einfachste Art und Weise täuschend echt aussehende, irreführende, manipulative Bilder zu produzieren, gewaltige Mengen an Falschnachrichten sehr schnell und zu extrem geringen Kosten zu erzeugen und Menschen vorzugaukeln, die Systeme hätten Absichten und Intentionen. All das ist dazu geeignet, den Raum öffentlicher Debatten, der die Basis demokratischer Willensbildung ist, zu vergiften und böswillige Akteur*innen zu stärken. Anbieter von Systemen, die das befördern, müssen dafür zur Verantwortung gezogen werden.

Die Warnungen davor, dass GPAI das Ende der Menschheit einläuten, sind im Gegensatz dazu in erster Linie eine politische Strategie. „Diese Horror-Szenarien sollen davon ablenken, dass nun sofort Mechanismen dafür gefunden werden müssen, die konkreten und aktuellen gefährlichen Auswirkungen der Systeme zu adressieren und in den Griff zu bekommen“, sagt daher Matthias Spielkamp, Gründer und Geschäftsführer von AlgorithmWatch. „Stattdessen sollen sie dazu animieren, wertvolle Aufmerksamkeit und Energie auf potenzielle – und nach allem, was wir derzeit wissen, extrem unwahrscheinliche – Risiken zu verwenden, wie eben die Möglichkeit, dass die Systeme sich der Kontrolle von Menschen entziehen.“

Diese Behauptungen gründen in der Ideologie des sogenannten „Longtermismus”, mit dem gerechtfertigt werden soll, über die negativen Auswirkungen auf heutige Generationen hinwegzuschauen. Das ist einer der Gründe, warum AlgorithmWatch den offenen Brief des Future of Life Institutes kritisiert, der ein sechsmonatiges Moratorium für die Entwicklung der Systeme fordert. Die Maßnahmen, die der Brief fordert, sind zudem völlig ungeeignet dafür, konkrete Risiken in den Griff zu bekommen. 

„Unternehmen wie Microsoft, Google oder Meta/Facebook, die zum Teil Milliarden in die Entwicklung von GPAI stecken, zu bitten, die Arbeiten daran kurzzeitig auszusetzen, wird die Welt nicht vor negativen Auswirkungen von GPAI schützen. Es würde stattdessen dazu beitragen, ihre Deutungshoheit darüber, was ein ‘ethisches’ System ist, weiter zu verfestigen”, so Angela Müller, Policy-Chefin von AlgorithmWatch und Leiterin von AlgorithmWatch CH, Zürich. „Das treibt nicht nur die Ideologie von nicht demokratisch legitimierten Privatpersonen, sondern auch ihre ganz konkreten Profitinteressen voran – denn in erster Linie wollen sie damit Geld verdienen”, so Müller. Den Unternehmen hinter den Systemen muss vielmehr klargemacht werden, dass sie die Verantwortung dafür, wie die Systeme genutzt werden, nicht länger abwälzen können. Darum ist jetzt die Politik gefordert.

AlgorithmWatch hat sich daher der Analyse einer Gruppe internationaler Expert*innen (für Details s. unten unter [1]) angeschlossen, die konkrete Vorschläge dazu ausgearbeitet haben, wie die EU mit der geplanten KI-Verordnung auf eine angemessene Art und Weise das Risiko schädlicher Auswirkungen von GPAI verringern kann. Die Mitgliedsstaaten der EU haben sich im EU-Rat im Dezember darauf geeinigt, dass die KI-Verordnung sogenannte „KI-Systeme für allgemeine Anwendungen“ (General Purpose AI, GPAI) spezifisch regulieren sollte; diese GPAI umfassen auch die derzeit so vehement diskutierten Large Language Models (LLM, große Sprachmodelle). Derzeit erarbeitet das EU-Parlament seine Vorschläge dazu, über die anschließend die Mitgliedsstaaten, das Parlament und die Kommission im sogenannten Trilog verhandeln, um sich auf den endgültigen Gesetzestext zu einigen.

Im Einzelnen setzen wir uns dafür ein, dass die europäischen Gesetzgeber – darunter insbesondere auch die deutsche Bundesregierung – im Trilog und das Europäische Parlament in seinen Vorschlägen zur KI-Verordnung die folgenden Empfehlungen umsetzt:

Anmerkung von AlgorithmWatch: Die Definition, auf die sich die Vertreter*innen der EU-Mitgliedsstaaten für die Trilogverhandlungen geeinigt haben, lautet: „KI-System für allgemeine Zwecke: ein KI-System, das – unabhängig davon, wie es in Verkehr gebracht oder in Betrieb genommen wird, auch als Open-Source-Software, vom Anbieter dazu bestimmt ist, allgemein anwendbare Funktionen auszuführen, wie Bild- und Spracherkennung, Audio- und Videoerzeugung, Mustererkennung, Beantwortung von Fragen, Übersetzung und andere; ein KI-System für allgemeine Zwecke kann in einer Vielzahl von Kontexten verwendet und in eine Vielzahl anderer KI-Systeme integriert werden.” (Übersetzt aus dem englischen Original: https://data.consilium.europa.eu/doc/document/ST-14954-2022-INIT/en/pdf)

Anmerkung von AlgorithmWatch: GPAI werden von Firmen oder Behörden, die sie nicht selbst entwickelt haben oder kontrollieren, über Software-Schnittstellen in Produkte und Dienstleistungen integriert, die dann Menschen angeboten oder auf sie angewendet werden. Diese Firmen oder Behörden tragen ebenfalls Verantwortung dafür, wie sie die Systeme einsetzen – aber das darf die entwickelnden Unternehmen nicht aus ihrer Verantwortung entlassen.

[1] Die “Five considerations to guide the regulation of ‘General Purpose AI’ in the EU’s AI Act: Policy guidance from a group of international AI experts” (deutsch: „Fünf Erwägungen zur Regulierung von ‚KI-Systemen für allgemeine Anwendungen‘ in der KI-Verordnung der EU: Politische Leitlinien einer Gruppe internationaler KI-Expert*innen“) wurden erarbeitet von

Die Erwägungen wurden von 55 weiteren Expert*innen sowie neun Organisationen – darunter AlgorithmWatch – mitunterzeichnet. Als PDF (auf Englisch) herunterladen:

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum Artificial Intelligence Act.