Gesetzlicher Schutz vor Grundrechtsverletzungen in Europa und Deutschland: Mängel beim AI Act, Potenziale beim AGG

Das Bündnis F5 hat einen Parlamentarischen Austausch veranstaltet, wo unzulässige Ausnahmen beim AI Act und nötige Anpassungen der Antidiskriminierungsgesetzgebung (AGG) diskutiert wurden. Matthias Spielkamp von AlgorithmWatch erläuterte, inwiefern die Bundesregierung beim AI Act frühere Versprechen bricht und was bei der AGG-Novellierung in puncto algorithmischer Diskriminierung zu beachten ist.

Pia Sombetzki
Policy & Advocacy Managerin

AI Act: Die KI-Verordnung der EU

Matthias Spielkamp von AlgorithmWatch erklärte, wie problematisch die Positionen der deutschen Bundesregierung sind, die sie zuletzt in den EU-Ministerrat zur Bildung einer gemeinsamen Position einbrachte. Sie rückt dabei deutlich von ihren bisherigen Versprechen ab. Die Ausnahmen, die sie nun für Sicherheitsbehörden vorsieht, würden dazu führen, dass durch die Behörden eingesetzte Systeme nicht in die geplante EU-Datenbank eintragen werden müssten. Ähnliches gilt für das Verbot biometrischer Erkennungssysteme. Im Koalitionsvertrag hatte die Bundesregierung noch angekündigt, solche Systeme im öffentlichen Raum europarechtlich ausschließen zu wollen. In der jetzigen Allgemeinen Ausrichtung des EU-Rats sieht das deutlich anders aus.

Das EU-Parlament wird im Frühjahr wie soeben der EU-Rat eine eigene Position entwickeln, mit der es in die Trilogverhandlungen mit dem Rat und der Kommission gehen wird. Um im Sinne der Grundrechte positiv auf das EU-Parlament einwirken zu können, hat Matthias Spielkamp die Bundestag-Abgeordneten auf folgende Schwächen in der jetzigen Allgemeinen Ausrichtung des EU-Rats aufmerksam gemacht:

  1. Definition von KI

Die Definition eines KI-Systems im Entwurf der Allgemeinen Ausrichtung wird im Wesentlichen auf Maschinelles Lernen eingegrenzt. Systeme, die auf von Menschen definierten Regeln beruhen, fielen dann nicht mehr in den Geltungsbereich der Verordnung. Das führt zu Problemen, da

Da die EU-Kommission zuvor eine weiter gefasste Definition vorgeschlagen hatte, ist die Definition des Rats ein Rückschritt.

2. Nachhaltigkeitsaspekte

Der Kommissionsentwurf sieht vor, dass Anbieter auf freiwilliger Basis Selbstverpflichtungen in Bezug auf die ökologische Nachhaltigkeit schaffen und umsetzen. Dieser Ansatz geht nicht weit genug, da bestimmte KI-Systeme, insbesondere große Sprachmodelle, immense Mengen an Ressourcen und Energie benötigen.

Anbieter von KI-Systemen müssten dazu verpflichtet werden, Transparenzindikatoren für den Ressourcenverbrauch zu erstellen: das Design, die Datenverwaltung, das Training und die zugrunde liegenden Infrastrukturen der KI-Systeme müssen darin erfasst werden. Zudem sollten die Anbieter Methoden zur Verringerung dieser Auswirkungen entwickeln und ihr Vorgehen dabei begründen. Sowohl der Kommissionsentwurf als auch die Allgemeine Ausrichtung verpassen es, dafür Vorgaben festzulegen.

3. Rechenschaftspflichten und Rechtsbehelfsmechanismen für Betroffene

Ursprünglich enthielt der Kommissionsentwurf zum KI-Gesetz weder individuelle Rechte für Menschen, die von KI-Systemen betroffen sind, noch Bestimmungen zu Rechtsbehelfen, auf die sie zurückgreifen können, etwa ein Auskunftsrecht bei einem Einsatz von Hochrisikosystemen. Positiv ist, dass der Rat in seiner Allgemeinen Ausrichtung einige notwendige Rechte und Rechtsbehelfsmechanismen aufgenommen hat – sie reichen jedoch bei Weitem noch nicht aus. In der Ratsposition werden Anwender von Emotionserkennungssystemen verpflichtet, natürliche Personen zu informieren, wenn sie solchen Systemen ausgesetzt sind. Das Recht auf Information über den Einsatz von KI-Systemen sollte allerdings nicht auf Emotionserkennungssysteme beschränkt sein. Stattdessen sollte ein generelles Recht auf Information über den Einsatz und die Funktionsweise von KI-Systemen gelten, um sicherzustellen, dass natürliche Personen darüber informiert sind, wenn sie risikoreichen oder anderen regulierten (Art. 52) KI-Systemen ausgesetzt sind.

Außerdem sieht der Ratstext vor, dass eine natürliche oder juristische Person bei der zuständigen Marktaufsichtsbehörde eine Beschwerde wegen Nichteinhaltung des KI-Gesetzes einreichen kann. Ebenfalls aufgenommen werden sollten unseres Erachtens zumindest das Recht, „keinen nicht konformen KI-Systemen ausgesetzt zu sein“, und das Recht auf einen wirksamen Rechtsbehelf gegen die Behörde, bei der die Beschwerde eingereicht wurde.

Da die bisher verhandelten EU-Vorgaben für den Schutz von Betroffenen so lückenhaft sind, forderte Matthias Spielkamp im Rahmen des Parlamentarischen Austauschs, dass die geplante Novellierung des Allgemeinen Gleichbehandlungsgesetzes (AGG) dazu genutzt werden sollte, notwendige Anpassungen zum Schutz vor algorithmischer Diskriminierung umzusetzen.

AGG-Novelle: Algorithmischer Diskriminierung entgegenwirken

Matthias Spielkamp betonte gegenüber den Abgeordneten, dass algorithmische Diskriminierung zunehmend als Problem anerkannt und diskutiert werde, und wies darauf hin, dass der Koalitionsvertrag die Novellierung des Allgemeinen Gleichbehandlungsgesetz vorsehe. Dieses Vorhaben biete die Chance, Schutzlücken hinsichtlich algorithmischer Diskriminierung zu schließen und Betroffenen wirksame Rechtsbehelfe an die Hand zu geben. Er empfahl für die Anpassung der nationalen Antidiskriminierungsgesetzgebung eine Reihe von Maßnahmen für einen ausgedehnten Schutz vor algorthmischer Diskriminierung:

Über die Revision des AGG hinaus sollte die Bundesregierung jetzt etwas unternehmen, um Antidiskriminierungs(beratungs-)stellen darin zu unterstützen, über algorithmische Diskriminierung aufzuklären und für das Thema zu sensibilisieren.


Das Bündnis F5 besteht aus AlgorithmWatch, der Gesellschaft für Freiheitsrechte, der Open Knowledge Foundation Deutschland, Reporter ohne Grenzen (deutsche Sektion) und Wikimedia Deutschland.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.