Neues Projekt: Algorithmen auf systemische Risiken prüfen
Die Prüfung algorithmischer Systeme ist unbedingt notwendig, wenn Demokratie, Menschenrechte und Rechtstaatlichkeit geschützt werden sollen. Noch ist völlig ungeklärt, wie das geschehen könnte und sollte. Die Alfred Landecker Foundation unterstützt uns darin, dafür Verfahren, Vorschläge und Best Practices zu entwickeln. Wir werden diese Vorschläge in der Praxis erproben und dafür eintreten, dass sie an den richtigen Stellen übernommen werden.
Große Risiken
Die Risiken, die mit dem weitverbreiteten Einsatz komplexer algorithmischer Systeme verbunden sind, beschränken sich nicht auf Social Media-Plattformen. Gerade findet eine Automatisierung der Gesellschaft statt: Algorithmische Systeme werden eingesetzt, um Sozialleistungen oder Jobs zu vergeben, Gemeinden polizeilich zu überwachen oder die Wahrscheinlichkeit zu errechnen, ob verurteilte Straftäter*innen rückfällig werden könnten. Solche Maßnahmen können unsere Demokratie, die Menschenrechte und die Rechtstaatlichkeit gefährden.
Lösungen entwickeln
Auf der Grundlage unserer faktenbasierten Erkenntnisse erarbeiten wir Empfehlungen zu geeigneten Prüfungsverfahren für algorithmische Systeme. Wir werden auch Empfehlungen dazu erarbeiten, wie öffentliche Aufsichtsstellen mit diesen Verfahren wirksam überwachen können, ob Rechenschaftspflichten eingehalten werden.
Dazu werden wir uns insbesondere an diesen Fragen orientieren:
- Welche Voraussetzungen sind notwendig, um Algorithmen überhaupt überprüfen zu können?
- Wie können inklusive und umfassende Prüfungsansätze umgesetzt werden?
- Welche gesetzlichen Rahmenbedingungen sind für die Prüfungsverfahren notwendig, um damit systematisch und effektiv eine größere Transparenz, eine bessere demokratische Kontrolle und klarere Verantwortlichkeiten herbeizuführen?
Advocacy
Bei diesem Projekt wird sich unsere Advocacy-Arbeit auf die Europaebene konzentrieren, ebenso auf die Europäische Union und den Europäischen Rat wie auf nationale Gesetze in europäischen Ländern, insbesondere Deutschland und der Schweiz.
Zwar werden wir durchaus Empfehlungen darüber aussprechen, welche gesetzlichen Rahmenbedingungen noch geschaffen werden müssen, um algorithmische Systeme zu prüfen. Wir werden uns allerdings darauf konzentrieren, auf aktuelle Gesetzgebungsverfahren Einfluss zu nehmen, vor allem auf die Verhandlungen zum Digital Services Act (DSA) und zum Artificial Intelligence Act (AIA).
Außerdem werden wir öffentliche Kampagnen durchführen, um einer breiten Öffentlichkeit die Bedeutung und Wirkung des Projekts vor Augen zu führen, uns mit unserer Community auszutauschen und sie an unserer Arbeit teilhaben zu lassen.
Über unseren Projektpartner
Die Alfred Landecker Foundation finanziert, unterstützt und fördert interdisziplinäre Projekte, die demokratische Werte und Institutionen stärken und die weltweite Vernetzung von Akteuren voranbringen, die sich dafür einsetzen und in ihren Netzwerken Erfahrungen und Wissen austauschen. Da eine offene und demokratische Gesellschaft auf Teilhabe, Verantwortungsbewusstsein und Zivilcourage beruht, sind wir glücklich, dass unser Projekt von solch einer Institution unterstützt wird.