
Was bedeutet es für die Demokratie, wenn Menschen in Politik und Verwaltung zulassen, dass KI ihre Entscheidungen beeinflusst?
AlgorithmWatch hat untersucht, wie sich KI-Tools wie Chatbots auf die Demokratie auswirken könnten.

Dr. Michele Loi ist Senior Scientific Advisor bei AlgorithmWatch und Professor mit Lehrauftrag („professore a contratto“) für den Studiengang KI, Ethik und Recht an der Universität Mailand. Zuvor hat er als Marie-Sklodowska-Curie-Stipendiat am Politecnico di Milano zum Thema Fairness in der KI geforscht. Mit einem Doktortitel in Politischer Theorie der LUISS-Universität und umfangreicher Postdoc-Erfahrung an Institutionen wie der Universität Zürich, der ETH Zürich und der Weltgesundheitsorganisation hat sich Dr. Loi als führender interdisziplinärer Forscher an der Schnittstelle von KI-Ethik, Technologie-Governance und Sozialphilosophie etabliert und mehrere hochkarätige Publikationen veröffentlicht. Sein Forschungsportfolio umfasst die Leitung mehrerer Projekte zur Untersuchung von Algorithmus-Fairness, Datenethik und Technologie-Governance mit über 35 begutachteten Artikeln, 9 Konferenzbeiträgen, 3 Büchern und 7 Buchkapiteln. Seine Publikationen zeugen von spezifischer Expertise in den Bereichen algorithmische Fairness, ethische Implikationen von KI-Systemen und soziale Auswirkungen von Technologie. Das qualifiziert ihn nicht zuletzt, methodische Rahmenwerke für die Analyse der systemischen Risiken von KI-Systemen sowohl aus technischer als auch aus gesellschaftlicher Perspektive zu entwickeln.

AlgorithmWatch hat untersucht, wie sich KI-Tools wie Chatbots auf die Demokratie auswirken könnten.

Wie sollen die Betreiber von großen Plattformen und Suchmaschinen dem Digital Services Act (DSA) zufolge „systemische Risiken“ erkennen? AlgorithmWatch hat eine Methodik entworfen, an der wir uns als zivilgesellschaftliche Watchdog-Organisation orientieren werden, um die gerade stattfindenden Risikobewertungen kritisch zu begleiten.

Wie können wir gewährleisten, dass die öffentliche Verwaltung automatisierte Entscheidungssysteme vertrauenswürdig einsetzt? AlgorithmWatch und AlgorithmWatch Schweiz haben ein Instrument zur Folgenabschätzung (Impact Assessment Tool) erarbeitet, das Behörden verschiedener Verwaltungsebenen für die Analyse spezifischer Systeme verwenden können. Das Dokument ist jetzt auch auf Deutsch verfügbar.

Michele Loi und Matthias Spielkamp analysieren den Regelungsgehalt von 16 Richtliniendokumenten über den Einsatz von KI im öffentlichen Sektor, indem sie deren Anforderungen mit den Kriterien unserer philosophischen Darstellung von Rechenschaftspflicht abgleichen. Sie kommen zu dem Schluss, dass einige Richtlinien zwar auf Prozesse verweisen, die auf eine Prüfung hinauslaufen, die Debatte jedoch von mehr Klarheit über die Art der Berechtigung von Prüfern und die Ziele der Prüfung profitieren würde. Dies diene nicht zuletzt dazu, ethisch sinnvolle Standards zu entwickeln, anhand derer verschiedene Formen der Prüfung bewertet und verglichen werden können.

Ethische Analyse von Michele Loi