Stellungnahme zum Abschlussbericht der Enquete-Kommission “Künstliche Intelligenz”

Position

4. November 2020

#publicsector

© DBT/Werner Schüring

Der Abschlussbericht der Enquete-Kommission Künstliche Intelligenz ist eine hilfreiche Bestandsaufnahme, aber leider nicht viel mehr. Konkrete Vorschläge, was zu tun ist, fehlen weitgehend. Dabei liegen bereits zahlreiche Handlungsempfehlungen vor.

Stellungnahme als PDF lesen

Am Mittwoch, den 28. Oktober 2020, hat die vom Deutschen Bundestag eingesetzte Enquete-Kommission Künstliche Intelligenz (KI) ihren Abschlussbericht vorgelegt. Auf mehr als 800 Seiten[1] stellt das Gremium, bestehend aus 19 Mitgliedern des Bundestags und 19 externen Sachverständigen, das Ergebnis seiner zweijährigen Arbeit vor. Angetreten war die Kommission mit dem Ziel, die Potenziale und Risiken von KI für die Gesellschaft als Ganzes zu untersuchen, und konkrete Handlungsempfehlungen für die politischen Entscheidungsträger·innen zu erarbeiten. Zwei Jahre später bietet der Abschlussbericht in erster Linie eine Bestandsaufnahme.

Der Bericht zeigt auf, wie KI-basierte Systeme unsere Gesellschaft beeinflussen, und benennt die Chancen, Risiken und relevanten Handlungsbedarf klar und differenziert. Er macht ferner deutlich, wo der parteiübergreifende Konsens zu KI-relevanten Themen verläuft, und wo die parlamentarischen Konfliktlinien liegen[2]. Der Wert dieser Bestandsaufnahme sollte nicht unterschätzt werden; es ist schon jetzt ein wichtiges Referenzdokument. Andererseits gelingt es der Kommission nicht, konkrete Handlungsempfehlungen zu formulieren. Die Handlungsempfehlungen bleiben vage und oftmals an der Oberfläche. An entscheidenden Stellen fehlen Präzision, Detail und Vorschläge zur Umsetzung. Mut und Gestaltungswille sehen anders aus. Damit bleibt die Enquete-Kommission KI nicht nur hinter den eigenen Zielen und Möglichkeiten zurück, sondern vergibt vor allem eine große Chance, eine am Gemeinwohl ausgerichtete KI-Politik konkret zu gestalten.

Was ist gelungen, wo hätten wir uns mehr erhofft, und wo sollte die parlamentarische Arbeit zu KI zukünftig ansetzen? Im Folgenden legen wir unsere Einschätzung dar und machen konkrete Handlungsvorschläge. Dabei konzentrieren wir uns auf die Projektgruppen (PG) „KI und Staat“, „KI und Medien“ und „KI und Arbeit, Bildung und Forschung“.

Die PG „KI und Staat“ empfiehlt (1) die Nutzung von KI durch Behörden systematisch zu erheben; (2) Transparenz zu schaffen und die Risiken staatlich genutzter KI-Systeme zu klassifizieren; (3) KI-gestützte Entscheidungen stets auf ihre Diskriminierungsfreiheit zu überprüfen; (4) Kompetenzen in der öffentlichen Verwaltung aufzubauen; und (5) Partizipation zu fördern und die Bevölkerung breit und umfänglich zu KI aufzuklären.

Das sind wichtige Handlungsempfehlungen, die wir ausdrücklich unterstützen. Es bleiben aber entscheidende Fragen offen, wie diese Empfehlungen im Detail aussehen und umgesetzt werden sollen: Soll die systematische Erhebung, Risikoklassifizierung und Überprüfung auf Diskriminierungsfreiheit von staatlich genutzten KI-Systemen vor (ex ante) oder nach (ex post) der Inbetriebnahme erfolgen? Welche Informationen sollen konkret erhoben und geprüft werden und nach welchen Kriterien wird Risiko klassifiziert? Welche Kompetenzen braucht es in der öffentlichen Verwaltung und wie kann und soll die Bevölkerung konkret aufgeklärt werden? Und wie sollen Aufsicht und Durchsetzung sichergestellt werden? Wir hätten uns konkrete Antworten auf diese Fragen gewünscht.

Dabei gibt es bereits vielversprechende Ansätze, wie diese Handlungsempfehlungen in der Praxis aussehen können. AlgorithmWatch spricht sich seit langem für die Einrichtung öffentlich zugänglicher Transparenzregister aus, die die Nutzung von automatisierter Entscheidungsfindung (automated decision making/ ADM) und KI-basierten Systemen in der öffentlichen Verwaltung systematisch erfassen. Pilotprojekte in Helsinki, Amsterdam und Nantes zeigen bereits das große Potenzial derartiger Register für das Schaffen von Transparenz gegenüber Bürger·innen. Die Register sollen als Mindestanforderung (1) Informationen über den Verwendungszweck, (2) die zugrundeliegende Modelllogik sowie (3) über die Entwickler·innen der ADM und KI-basierten Systeme bereitstellen. Diese Informationen sollen zudem in einem leicht zu lesenden und standardisierten Format zugänglich sein.

Transparenz alleine reicht aber nicht. Die von uns geforderten Transparenzregister können nur der erste Schritt sein und werden idealerweise in ein effektives Prüfungs- und Kontrollsystem eingebettet. Auf die Frage, wie dieses aussehen sollte, haben wir noch keine abschließenden Antworten. Aber wir haben Fragen gesammelt, die politischen Entscheidungsträger·innen helfen können, ein angemessenes System zu entwickeln[3]. Bei der von der Kommission diskutierten Risikoklassifizierung schlagen wir vor, den möglichen Schaden für den oder die Einzelne·n und die Gesellschaft als Ganzes ins Zentrum zu stellen und sich an nachfolgenden Kriterien zu orientieren: (a) die potenziellen Auswirkungen, die ein KI-basiertes System auf die Lebenschancen und die gesellschaftliche Teilhabe der betroffenen Menschen hat; (b) die Anzahl der Personen, die von einer automatisierten Entscheidung betroffen sind; und (c) ob eine automatisierte Entscheidung auf Korrelation oder Kausalität beruht, wobei korrelationsbasierte Entscheidungen offensichtlich mehr Anlass zu Bedenken geben.

Enttäuscht hat uns, dass sich die PG „KI und Staat“ nicht klar und geschlossen für ein Verbot tödlicher autonomer Waffensysteme, sowie für ein umgehendes Verbot KI-gestützter Gesichtserkennung im öffentlichen Raum, die indifferenter Massenüberwachung den Weg ebnet, ausgesprochen hat. In unserem kürzlich erschienen Automating Society Report 2020 zeigen wir die besorgniserregende Verbreitung biometrischer Gesichtserkennung in Europa auf und die fundamentale Bedrohung, die damit einhergeht.

KI und Medien

Online-Intermediäre, wie Facebook, Twitter und Youtube, verteilen Medieninhalte dank KI-basierter Empfehlungs- und Filtersysteme zunehmend personalisiert und haben einen immer größeren Einfluss auf die politische Meinungsbildung. Problematisch daran ist, dass die Systeme und ihre Anwendung völlig intransparent sind. Die PG kommt daher zu dem Schluss, dass offene Datenschnittstellen zu Intermediären nötig sind, damit Journalist·innen, Wissenschaftler·innen und Marktaufsichtsbehörden ihren Aufgaben – Information der Öffentlichkeit, Forschung und Kontrolle – gerecht werden können. Grundsätzlich teilen wir diese Analyse; gleichwohl hätten wir uns auch hier konkrete Empfehlungen gewünscht. Wie kann und soll eine entsprechende Regulierung aussehen? Im Rahmen unseres Forschungsprojekts “Governing Platforms” haben wir Vorschläge für einen verbesserten Datenzugang zum Zweck gemeinwohlorientierter Forschung entwickelt: Sogenannte “Data Access Frameworks”, d.h. rechtsverbindliche Regeln, die festlegen, wer in welcher Form auf welche Daten zugreifen darf, und wie und durch wen Daten vorab gesammelt und überprüft werden. Denn natürlich muss der gewährte Datenzugang im Einklang mit Datenschutzbestimmungen und dem Schutz der Privatsphäre stehen. Auch braucht es eine unabhängige Aufsichtsbehörde, die sicherstellt, dass die Regeln durchgesetzt und der Zugang gewährt wird. Unsere Empfehlungen für verbindliche Transparenzregeln zur Kontrolle von Online-Intermediären werden mittlerweile von 46 zivilgesellschaftlichen Organisationen und führenden Wissenschaftler·innen unterstützt.

Überrascht hat uns, dass die PG ausschließlich die nationale Ebene in den Blick genommen hat. Gegenwärtig werden auf europäischer Ebene mit dem Digital Services Act (DSA) entscheidende Weichen für die Regulierung von Online-Plattformen gestellt, die unmittelbare Auswirkungen auf nationale Gesetzesvorhaben haben dürften. Eine Stellungnahme zum Verhältnis von DSA, NetzDG und Medienstaatsvertrag wäre wünschenswert gewesen.

KI und Arbeit, Bildung, Forschung

In ihrem Abschlussbericht nimmt die PG „KI und Arbeit, Bildung und Forschung“ nicht nur die Auswirkungen von KI auf den Arbeitsmarkt in den Blick, sondern auch, wie KI-basierte Systeme die Personalverwaltung und die Personalrekrutierung verändern. Die PG stellt fest, dass Beschäftigte und ihre Interessenvertretungen bei der Definition, Zielsetzung und Konfiguration von KI-Systemen ebenso wirksam mitbestimmen sollen, wie bei dem Betrieb, der Evaluation, und der Fortentwicklung der Einsatzbedingungen. Doch wie kann und soll das in der Praxis aussehen? Eine Antwort auf diese Frage bleibt die PG schuldig. Wir möchten daher unseren, gemeinsam mit der TU Braunschweig entwickelten Leitfaden zur Überprüfung essenzieller Eigenschaften KI-basierter Systeme vorstellen. Der Leitfaden umfasst verschiedene Fragen sowie Erläuterungen, wie Antworten einzuordnen sind, und versetzt Beschäftigte und ihre Interessenvertretungen in die Lage, wirksam beurteilen und mitbestimmen zu können.

Eine weitere Forderung der PG ist, beim Einsatz von KI-Anwendungen in Personalfragen sicherzustellen, dass die zugrundeliegenden Daten über eine hohe Qualität verfügen und systembedingte Diskriminierungen ausgeschlossen werden. Vor bzw. beim Einsatz einer KI-Lösung im Personalwesen seien die davon betroffenen Menschen über Einsatz, Zweck und Logik der erhobenen und verwendeten Datenarten zu informieren. Diese Position geht unseres Erachtens nicht weit genug. Die betroffenen Menschen müssen nicht nur informiert werden, sondern gemäß geltendem Arbeitsrecht auch aktiv zustimmen. Dies ist das Ergebnis unseres Forschungsprojekts zu automatisiertem Personalmanagement. Wir empfehlen zudem, gesetzlich klarzustellen, dass Arbeitgeber auch dann Transparenz über die verwendeten Methoden und automatisierten Systeme gewährleisten müssen, wenn die Hersteller der Software keine Auskünfte erteilen wollen.

Stellungnahme als PDF herunterladen:


[1] Einschließlich Sondervoten, Repliken und sonstigen Anlagen
[2] Allein die Sondervoten und Repliken der einzelnen Fraktionen nehmen knapp 100 Seiten des Berichts ein; dies verdeutlicht den parlamentarischen Dissens in vielen Fragen.
[3] Bisher leider nur auf englischer Sprache verfügbar: “Develop effective approaches to audit algorithms” - Herunterladen

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu ADM im öffentlichen Sektor.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.