Projekt

Neue Recherche

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

Neues Projekt: Algorithmen auf systemische Risiken prüfen

Die Prüfung algorithmischer Systeme ist unbedingt notwendig, wenn Demokratie, Menschenrechte und Rechtstaatlichkeit geschützt werden sollen. Noch ist völlig ungeklärt, wie das geschehen könnte und sollte. Die Alfred Landecker Foundation unterstützt uns darin, dafür Verfahren, Vorschläge und Best Practices zu entwickeln. Wir werden diese Vorschläge in der Praxis erproben und dafür eintreten, dass sie an den richtigen Stellen übernommen werden.

SustAIn: Der Nachhaltigkeitsindex für Künstliche Intelligenz

Wie nachhaltig ist Künstliche Intelligenz? Wir wissen, dass in der Entwicklung und Anwendung von KI viel Energie benötigt wird, dass Menschen als sogenannte Clickworker unter sehr schlechten Arbeitsbedingungen Trainingsdatensätze für KI-Systeme bearbeiten und diese nicht selten bestehende Diskriminierungsmuster verstärken. Angesichts einer steigenden Zahl an KI-Systemen, braucht es daher dringend eine Diskussion, wie KI nachhaltiger gestaltet werden kann. Hier setzt unser Projekt SustAIn an.

AutoCheck – Welche Diskriminierungsrisiken stecken in automatisierten Entscheidungssystemen?

UNDING

Unding ist eine Plattform, um automatisierte Entscheidungen anzufechten. Nehmen Sie jetzt an der neuen Umfrage zu Problemen mit Online-Formularen teil!

Tracing the Tracers. Überwachung und Analyse von ADM-Systemen, die als Maßnahme gegen die COVID-19-Pandemie eingesetzt werden.

‘Tracing the tracers. Überwachung und Analyse von ADM-Systemen, die als Maßnahme gegen die COVID-19-Pandemie eingesetzt werden’ ist eine Plattform, auf der kontinuierlich über den Einsatz von ADM-Systemen als Reaktion auf die SARS-CoV-2-Pandemie in Europa — und im weltweiten Vergleich — informiert wird.

DataSkop

Erfahren Sie mehr über unsere Plattform für Datenspenden und das Pilot-Projekt zum YouTube-Algorithmus

Digital Autonomy Hub

Automating Society

Das Projekt ‘Automating Society’ ist eine umfassende Bestandsaufnahme und Analyse von Systemen automatisierter Entscheidungsfindung (ADM), die Europa zum Einsatz kommen.

Towards a Monitoring of Instagram

Helfen Sie uns, die Geheimnisse des Instagram-Algorithmus zu lüften

Governing Platforms

In diesem Projekt sollen die negativen Auswirkungen von Intermediären auf den öffentlichen Diskurs identifiziert werden. Unter Einbeziehung der Zivilgesellschaft und anderer Interessengruppen werden wir in einem partizipativen Gestaltungsprozess Vorschläge für innovative Governance-Maßnahmen sowie weitere Instrumente entwickeln, die in die politischen Prozesse der EU und der Mitgliedstaaten einfließen sollen.

AI Ethics Guidelines Global Inventory

AI Ethics Guidelines Global Inventory

OpenSCHUFA

Das Projekt OpenSCHUFA untersucht auf der Grundlage einer groß angelegten Crowdsourcing-Kampagne das Scoring-Verfahren von Deutschlands größter Auskunftei.

Atlas der Automatisierung

Mit dem „Atlas der Automatisierung“ will AlgorithmWatch den Stand Automatisierter Entscheidungssysteme unter teilhaberelevanten Aspekten kartieren.