Koalitionsvertrag ausgewertet: Viel Überwachung, viel KI, viel Unkonkretes

KI und Nachhaltigkeit, Überwachung und Grundrechte, Big-Tech und Gemeinwohl: Was steht im Koalitionsvertrag – und was nicht? Die AlgorithmWatch-Analyse.

Mockup Koalitionsvertrag
AlgorithmWatch CC BY 4.0

Wir haben uns den Koalitionsvertrag von den Unionsparteien und der SPD im Detail angeschaut. An vielen Stellen klingt der Vertrag generisch und enthält viele vage Ankündigungen. Einige Vorhaben – wie der Aufbau einer großen Gesichts-Datenbank – stehen im Widerspruch zu Verboten auf europäischer Ebene. Im Themenfeld Überwachung finden sich zudem die inhaltlich schwerwiegendsten Problemstellen der Vereinbarungen, die einen erheblichen Eingriff in die Grundrechte darstellen. Immerhin deutet sich beim Umgang mit den großen Social-Media-Plattformen an, dass die künftige Regierung gegenüber Big-Tech-Konzernen und zu erwartenden Forderungen seitens der US-Administration nicht einfach einknicken will. Für eine eigenständige deutsche oder europäische KI-Politik spricht indes nicht viel: „Mach mit, mach’s nach“ scheint an vielen Stellen das Leitbild im Umgang mit dem Themenfeld Künstlicher Intelligenz zu sein. Dabei wäre ein „Mach’s besser“ gerade mit Blick auf ökologische Nachhaltigkeit und Gemeinwohlorientierung die bessere Richtschnur.

„Sicherheitspaket“ war gestern – kommt jetzt das Überwachungsgesamtpaket?

Die Kombination aus „klassischer“ Videoüberwachung im öffentlichen Raum und Einbindung von KI-gestützter biometrischer Identifizierung liest sich im Koalitionsvertrag so, dass “unter bestimmten, eng definierten Voraussetzungen bei schweren Straftaten […] den Strafverfolgungsbehörden eine retrograde biometrische Fernidentifizierung […] ermöglicht” werden soll. Zu diesem Zweck will die Koalition in spe recht pauschal eine “Videoüberwachung an Kriminalitätsschwerpunkten” einführen. Damit ist noch nicht klar, mit welchem Bildmaterial die Aufnahmen von Kameras an vermeintlichen „Kriminalitätsschwerpunkten“ abgeglichen werden. Denn diese Forderung, bereits bekannt aus dem im letzten Jahr gescheiterten Sicherheitspaket, wirft rechtliche Fragen auf - nicht zuletzt, weil die EU KI-Verordnung den Aufbau biometrischer Gesichts-Datenbanken, die zu solch einem nachträglichen biometrischen Abgleich nötig wären, eindeutig untersagt. Die Vorhaben gehen indes noch weiter: Denn Sicherheitsbehörden sollen “unter Berücksichtigung verfassungsrechtlicher Vorgaben und digitaler Souveränität, die automatisierte Datenrecherche und -analyse sowie den nachträglichen biometrischen Abgleich mit öffentlich zugänglichen Internetdaten, auch mittels Künstlicher Intelligenz, vornehmen können”. Das meint übersetzt nichts anderes, als dass Polizei und andere Sicherheitsbehörden Aufnahmen, beispielsweise von Überwachungskameras oder ihren eigenen Drohnen, künftig auch mit Bildmaterial aus dem Netz abgleichen dürfen.

Trotz der im Vertrag formulierten Voraussetzungen würde sich der Spielraum für anlasslose Massenüberwachung weit öffnen. Insbesondere auch der Verweis auf sogenannte Kriminalitätsschwerpunkte, die die Polizei in der Regel eigenständig bestimmt, lässt vermuten, dass die “eng definierten Voraussetzungen” für die nachträgliche biometrische Fernidentifizierung in der Praxis wenig wert wären. Gerade den Unions-geführten Bundesländern waren die Regelungen des Sicherheitspakets zu lasch - und haben es deshalb im Bundesrat scheitern lassen. Es muss daher davon ausgegangen werden, dass ein erneuter Anlauf von Schwarz-Rot eine KI-basierte Überwachungsinfrastruktur in Deutschland erheblich wahrscheinlicher macht. Die Risiken, die davon ausgehen, sind vielfältig: Neben möglicher Einschüchterungseffekte, die Menschen davon abhalten könnten, ihr Recht auf Versammlungsfreiheit wahrzunehmen, können Gesichtserkennungssysteme nachweislich diskriminierend wirken. Beispielsweise, wenn Menschen dunkler Hautfarbe oder Frauen weniger gut erkannt werden, was zu einer höheren Anzahl an falschen „Treffern“ bei dieser Gruppe führen kann.

Diskriminierungsschutz im digitalen Zeitalter

Dabei nimmt sich die künftige Bundesregierung vor, den Schutz vor Diskriminierung laut Koalitionsvertrag zu stärken und zu verbessern. Die Vorgängerregierung war mit der Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) in der letzten Legislaturperiode gescheitert. Um dem ebenso formulierten Anspruch gerecht zu werden, Grundrechte auch im digitalen Raum zu schützen, bräuchte es allerdings mehr als nur ein paar kosmetische Änderungen am AGG. Der Anwendungsbereich des AGG müsste dahingehend erweitert werden, dass algorithmische Diskriminierung explizit erfasst wird. Denn für Betroffene ist es egal, ob sie die Wohnung oder den Kredit wegen einer menschlichen oder maschinellen Entscheidung nicht bekommen. Wehren können sie sich bisher in letzterem Fall allerdings kaum. Erweitert werden muss zudem die Liste der „geschützten Merkmale“, in der festgelegt ist, anhand welcher Kriterien Diskriminierung untersagt ist. Fälle algorithmischer Diskriminierung zeigen immer wieder, dass auch der soziale Status (bspw. „alleinerziehend“) oder der Wohnort (“Viertel mit niedrigen Einkommen”) zu Benachteiligungen von Bürger*innen führen.

Neben der Ausweitung des Anwendungsbereichs und der Liste der geschützten Merkmale, bräuchte es vor allem ein Verbandsklagerecht. Mit einem solchen Verbandsklagerecht können Menschen, die von algorithmischer Diskriminierung betroffen sind, ihre Interessen auch von Verbänden – beispielsweise Mieter*innen-Vereinen oder Antidiskriminierungsstellen – vertreten lassen. Das ist insofern wichtig, als der Gang vor Gericht für viele Einzelpersonen eine finanziell und organisatorisch schwer zu überwindende Hürde darstellt und gerade auch in Fällen von algorithmischer Diskriminierung ein eindeutiges allgemeines Interesse besteht, benachteiligende KI-Systeme abzustellen. Mit einem Schadensersatz für einzelne Personen ist es bei Systemen, die auf alle Betroffene bestimmter Gruppen gleich wirken, nicht getan.

Nicht zuletzt braucht es auch eine gut ausgestattete Antidiskriminierungsstelle des Bundes, die Fälle algorithmischer Diskriminierung effektiv nachverfolgen kann – aber im Koalitionsvertrag leider ebenfalls nicht vorgesehen ist.

Massive Investitionen in den KI-Sektor, Kosten von KI für die Gesellschaft bleiben allerdings weitestgehend ausgeklammert

Laut Koalitionsvertrag soll Deutschland „KI-Nation“ werden. Die Rede ist unter anderem von „massiven Investitionen in die Cloud- und KI-Infrastruktur und in die Verbindung von KI und Robotik“. Dieser Zielrichtung, die Digitalwirtschaft in diesem Bereich zu fördern, sollen sich auch die erst in den letzten Jahren verabschiedeten Digitalrechtsakte, wie zum Beispiel der EU AI-Act, beugen und angepasst werden. In Bezug darauf sprechen die Koalitionäre davon, im “Zuge der technischen und rechtlichen Spezifizierungen des AI-Acts Belastungen für die Wirtschaft ab[zubauen]” und die nationale Umsetzung „innovationsfreundlich und bürokratiearm“ zu gestalten. Auf diese Weise wollen die Koalitionäre wohl in Zeiten einer angespannten geopolitischen Lage, europäische und insbesondere deutsche Unternehmen zu stärken. Ob sich die Annahme, dass sich dadurch Abhängigkeiten von unter anderem dominierenden US-Techkonzernen abbauen lassen, bewahrheiten wird, ist allerdings abzuwarten. Die Risiken, die Regelwerke wie der EU AI Act eindämmen sollten, drohen durch diesen Ansatz aus dem Auge verloren zu gehen. Statt gerade erst gewonnene Errungenschaften für den Grundrechtsschutz abzubauen, braucht es klare Regeln, auf die sich Unternehmen einstellen können – denn neue Abhängigkeiten von europäischen Lösungen, die nicht grundrechtsschonender sind als die alten, stellen keinen echten Innovationsfortschritt dar.

Auch bezüglich der auf EU-Ebene noch zur Debatte stehenden KI-bezogenen Haftungsregeln, hätte man sich aus Deutschland ein klares Signal dafür gewünscht. Denn bei diesen geht es um die Frage, wer bei zu erwartenden großen Gewinnen am Ende die Verantwortung für etwaige Schäden übernimmt. Hier sollte der Grundsatz gelten, dass dort, wo Gewinne privatisiert sind, Schäden oder Folgekosten nicht auf die Gesellschaft abgewälzt werden dürfen. Leider wollen die Koalitionäre lediglich „prüfen, ob und gegebenenfalls in welcher Form Haftungsregeln mit Blick auf Künstliche Intelligenz auf europäischer Ebene angepasst werden müssen.“

Dass der Blick auf die Kosten von KI wenig beliebt ist, lässt sich auch daran erkennen, dass diese in gerade einmal einem Satz abgehandelt werden: „Bei der Entwicklung von Schlüsseltechnologien unterstützen wir die ökologische, soziale und ökonomische Nachhaltigkeit sowie AI Safety.“ Dabei gilt es dringend, die politischen Weichen zu stellen, um KI zu einer nachhaltigen Technologie zu machen. Dass wir von nachhaltigen Lösungen noch weit entfernt sind, liegt auch daran, dass dafür nicht die richtigen Anreize geschaffen werden. Statt nach ausgewogenen Ansätzen für den nachhaltigen Einsatz für KI-Systemen zu suchen, denken die Koalitionäre vor allem daran, Deutschland zu einem größeren Rechenzentrum-Standort auszubauen.

Plattformregulierung stringent durchsetzen, Risiken generierter Inhalte für die öffentliche Meinungsbildung bleiben unterschätzt

An mehreren Stellen adressiert der Koalitionsvertrag Probleme, die von Online-Plattformen ausgehen, wie die „gezielte Einflussnahme auf Wahlen sowie inzwischen alltägliche Desinformationen und Fake News“. Die Antwort der Koalitionäre darauf ist im Kern eine strikte Durchsetzung europäischer Plattformregulierung: Online-Plattformen sollen ihren Pflichten hinsichtlich Transparenz und Mitwirkung gegenüber der Aufsicht nachkommen und beim Versagen, diese zu erfüllen, Konsequenzen zu spüren bekommen. Dass die Koalitionäre in Zeiten einer angespannten geopolitischer Lage den europäischen Ansatz, insbesondere auch dominierende US-Plattformen zur Verantwortung zu ziehen, weiterverfolgen wollen, ist ein wichtiges Signal. Dass sich die Koalitionäre für „ein Verbot unlauterer Geschäftspraktiken wie Dark Patterns und süchtig machenden Designs“ einsetzen wollen, ist ebenso positiv zu werten. Ambitionierter wäre es allerdings gewesen, ein klares Bekenntnis zu einem europäischen Digital Fairness Act zu äußern und personalisierte Werbepraktiken zu verbieten. Ebenso „begrüßen“ Union und SPD die Entwicklung offener europäischer Plattformmodelle und setzen sich für den Erhalt des freien, fairen, neutralen und offenen Netzes ein. Was erstmal gut klingt, wird allerdings nicht mit konkreten Maßnahmen hinterlegt. Um konstruktive demokratische Debatten online zu fördern und Abhängigkeiten von den Big-Tech-Plattformen zu reduzieren, braucht es mehr als solche Lippenbekenntnisse.

Was im Koalitionsvertrag gänzlich unbesprochen bleibt, sind die Gefahren für die öffentliche Meinungsbildung und den Zugang zu zuverlässigen Informationen, die von der zunehmenden Integration generativer KI in den Anwendungen dominierender Software-, Suchmaschinen- und Chatbot-Anbieter ausgehen, wie beispielsweise Google, Microsoft, OpenAI und Meta. AlgorithmWatch hat in mehreren Studien aufzeigen können, dass auch von solchen Anwendungen Risiken für die Demokratie ausgehen, etwa indem Nutzer*innen falschen oder fehlleitenden Informationen zu Wahlen ausgesetzt werden.

Mehr KI in der Verwaltung, fehlendes Augenmerk für Transparenz und Risikokontrolle

Mit dem angekündigten Digitalministerium soll mehr KI in die öffentliche Verwaltung einziehen und Prozesse dabei automatisiert, beschleunigt und effizienter gestaltet werden. Gegen den Wunsch, Angebote und Prozesse für Bürger*innen zu verbessern, kann wohl niemand etwas einwenden. Zusammen mit dem Bündnis F5 haben wir vor der Wahl eine Blaupause für ein eigenständiges Digitalministerium vorgelegt, um zu zeigen, wie es ein Motor für gemeinwohlorientierte Digitalisierung werden kann. Gleichzeitig zeigen viele Fälle aus europäischen Nachbarländern immer wieder, welche konkreten Gefahren entstehen können, wenn der Staat KI-Systeme einsetzt. Gründliche Prüfungen auf Risiken dürfen bei allen Rufen nach Modernisierung nicht hinten angestellt werden: Es braucht Transparenz- und Kontrollmechanismen, wie verpflichtende Grundrechtefolgeabschätzungen und ein verbindliches KI-Transparenzregister für Deutschland, das diesen Namen auch verdient. Zu diesen Voraussetzungen für den erfolgreichen und gerechten Einsatz von KI in der öffentlichen Verwaltung schweigt der Koalitionsvertrag leider. Es wird also auf die erste eigenständige Digitalministerin ankommen, die staatliche KI-Nutzung auf ein vertrauenswürdiges Fundament zu stellen.

Die digitale Zivilgesellschaft muss fester Bestandteil der Regierungsarbeit werden

Die Herausforderungen unserer Zeit verlangen nach breiter, vernetzter Expertise – denn niemand allein hat alle Antworten auf die drängenden Fragen der digitalen Zukunft. Das zeigt auch der vorliegende Koalitionsvertrag, der an vielen Stellen vage bleibt und grundsätzlich wenig Neues präsentiert. Deshalb werden wir von AlgorithmWatch, gemeinsam mit dem Bündnis F5, weiterhin für eine gemeinwohlorientierte, grundrechtsschützende und nachhaltige Digitalpolitik eintreten – kritisch, konstruktiv und konsequent. Wer tragfähige und legitime Digital- und KI-Politik gestalten will, braucht die systematische Einbindung der Zivilgesellschaft als aktive Mitgestalterin. Wir sind bereit, gemeinsam mit dem neuen Digitalministerium die digitale Transformation im Sinne der Gesellschaft mitzugestalten.