#auditing (4 Ergebnisse)

Oliver Marsh
Head of Tech Research

Plattformregulierung

Diskriminierende Anzeigen: KI ist auch keine Lösung

Ein neues System von Meta sollte dafür sorgen, dass auf Facebook und Instagram Wohnungsanzeigen in den USA weniger diskriminierend sind. In einem Compliance-Bericht wird behauptet, dass die KI-Lösung funktioniere, aber dafür fehlen Beweise einer neutralen Instanz.

Risikofalle Social Media: Wie bekommen wir Algorithmen in den Griff?

Da uns personalisierte Empfehlungssysteme beeinflussen können, müssen wir herausfinden, welche Risiken von ihnen ausgehen. Die neue Transparenzregelung des DSA ist dazu ein wichtiger Schritt, dennoch brauchen wir Audits von unabhängigen Forschungsinstanzen.

Neues Projekt: Algorithmen auf systemische Risiken prüfen

Die Prüfung algorithmischer Systeme ist unbedingt notwendig, wenn Demokratie, Menschenrechte und Rechtstaatlichkeit geschützt werden sollen. Noch ist völlig ungeklärt, wie das geschehen könnte und sollte. Die Alfred Landecker Foundation unterstützt uns darin, dafür Verfahren, Vorschläge und Best Practices zu entwickeln. Wir werden diese Vorschläge in der Praxis erproben und dafür eintreten, dass sie an den richtigen Stellen übernommen werden.

Towards accountability in the use of Artificial Intelligence for Public Administrations

Michele Loi und Matthias Spielkamp analysieren den Regelungsgehalt von 16 Richtliniendokumenten über den Einsatz von KI im öffentlichen Sektor, indem sie deren Anforderungen mit den Kriterien unserer philosophischen Darstellung von Rechenschaftspflicht abgleichen. Sie kommen zu dem Schluss, dass einige Richtlinien zwar auf Prozesse verweisen, die auf eine Prüfung hinauslaufen, die Debatte jedoch von mehr Klarheit über die Art der Berechtigung von Prüfern und die Ziele der Prüfung profitieren würde. Dies diene nicht zuletzt dazu, ethisch sinnvolle Standards zu entwickeln, anhand derer verschiedene Formen der Prüfung bewertet und verglichen werden können.