From evidence to impact: Stiftung Mercator fördert AlgorithmWatch
Die Stiftung Mercator wird AlgorithmWatch in den kommenden vier Jahren (2022-2025) unterstützen, um die Organisation darin zu stärken, sich für eine am Gemeinwohl orientierte Digitalpolitik und Governance von Algorithmen einzusetzen.
Deutschlands organisierte Zivilgesellschaft ist beim Thema Digitalisierung unterentwickelt. Ihr Einfluss entspricht bei weitem nicht der Bedeutung, die dieses Querschnittsthema für die Zukunftsfähigkeit unserer Gesellschaft hat. Oft wird die Umwelt- und Ökologiebewegung als Vorbild genannt, wenn es um die Frage geht, welche Wirkung die Zivilgesellschaft entwickeln kann. Doch sie hat mit WWF, Greenpeace, NABU oder dem BUND Organisationen hervorgebracht, die jede allein über mehr Budget verfügt als vermutlich alle digitalpolitischen Initiativen in Deutschland zusammen.
Es gilt daher, digitalpolitische Akteure so zu fördern, dass sie einen dem Thema angemessenen politischen und gesellschaftlichen Einfluss ausüben können – und so zugleich die Möglichkeit bekommen, sich über eine größere Sichtbarkeit finanziell nachhaltig zu entwickeln. Damit würde die Demokratie dauerhaft gefestigt, denn starke und glaubwürdige zivilgesellschaftliche Stimmen sind Voraussetzung für inklusive Debatten, und damit Voraussetzung für gesellschaftlichen Zusammenhalt und Handlungsfähigkeit.
Künstliche Intelligenz und Automatisierung
Hier spielen KI-basierte Systeme zum automatisierten Entscheiden (automated decision-making systems, ADMS) eine entscheidende Rolle, denn sie durchdringen und beeinflussen unseren Alltag immer stärker. Algorithmen bestimmen mit, welche Inhalte bei Facebook, YouTube, TikTok und Instagram verbreitet oder unterdrückt werden, ob wir einen Kredit bekommen, wer staatliche Unterstützung erhält oder wo die Polizei patrouilliert. So entsteht mitunter eine gefährliche Machtkonzentration in den Händen weniger Unternehmen, aber auch staatlicher Akteure, die diese Systeme entwickeln, was zu einem massiven Verantwortungs- und Rechenschaftsdefizit führen kann.
Das ist deshalb besonders problematisch, weil diese Systeme zunehmend ‘Infrastrukturen der Gesellschaft’ darstellen, wie etwa Biometrie und Spracherkennung: Wenn die zugrundeliegenden Daten, Modelle und Technologien von privaten Unternehmen kontrolliert und entwickelt werden, werden die darauf basierenden algorithmischen Systeme niemals unabhängig von deren Einfluss sein. Die demokratische Öffentlichkeit wird so zunehmend abhängig von privaten Infrastrukturen, was die individuelle Autonomie und gesellschaftliche Souveränität schwächt oder sogar bedroht. Oft erzeugen diese Systeme zudem massive negative Externalitäten, die sich nur schwer demokratisch kontrollieren lassen, z.B. die Aufweichung des Arbeitnehmerschutzes (Uber, Lieferando, Amazon), Gentrifizierung (AirBnB) oder technologischer Lock-In staatlicher Angebote (IBM, Microsoft, Palantir u.a.).
Darüber darf nicht vergessen werden, dass die Entwicklung KI-basierter Systeme gleichzeitig die Chance bietet, gesellschaftliche Ungerechtigkeiten wie Diskriminierung, Sexismus, Rassismus oder andere Arten von ungerechtfertigter Ungleichbehandlung besser zu erkennen und auch zu bekämpfen. Richtig eingesetzt, können algorithmische Systeme den Zugang zu staatlichen Leistungen und ihre Qualität verbessern, Zugang zu Informationen erleichtern und zu mehr Chancengerechtigkeit beitragen. Daraus ergibt sich ein klarer Auftrag.
Autonomie, Grundrechte und Gemeinwohl stärken
Durch den Einsatz algorithmischer Systeme müssen Autonomie, Grundrechte und Gemeinwohl gestärkt werden, nicht geschwächt. Dafür müssen wir Rahmenbedingungen schaffen und eine ‚Governance‘ entwickeln, die die demokratische Kontrolle der Systeme garantiert. Dieses Konzept von Governance verstehen und adressieren wir umfassend:
- Wir stärken die Autonomie einzelner im Umgang mit ADMS, indem wir sie informieren und aufklären und uns dafür einsetzen, dass Betroffene über angemessenen Zugang zu Information und Rechtsmittel verfügen, wenn sie von ADMS-basierten Entscheidungen betroffen sind.
- Wir fördern die Transparenz rund um den Einsatz von ADMS und tragen aktiv zu einer evidenzbasierten gesellschaftlichen Debatte zum Thema bei.
- Wir entwickeln Instrumente, um zu prüfen, ob ADMS gegen demokratische und rechtsstaatliche Grundsätze verstoßen.
- Wir entwickeln konkrete Vorschläge dafür, was Verwaltung und Unternehmen tun sollten, um derartige Systeme verantwortungsvoll einzusetzen.
- Wir entwickeln konkrete Vorschläge dafür, was Gesetzgeber – national, auf EU-Ebene sowie auf internationaler Ebene – unternehmen sollten, um derartige Systeme angemessen zu regulieren.
Auf diese Weise tragen wir zu einer gerechten und inklusiven Gesellschaft bei und maximieren den Nutzen der Systeme für das Gemeinwohl.
Um diese Ziele zu erreichen, unterstützt die Stiftung Mercator von 2022 bis 2025 die Policy- und Advocacy-Arbeit von AlgorithmWatch und die Nachhaltigkeit der Organisation.