Projekte

Ob zu Nachhaltigkeit, COVID-19 oder Social Media Plattformen - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und ihr könnt mitmachen!

Neue Recherche

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

Khari Slaughter for AlgorithmWatch
Irem Kurt for AlgorithmWatch, CC BY 4.0

20. April 2023

Automation on the Move

Mit dem Projekt „Automation on the Move“ will AlgorithmWatch einen Beitrag dazu leisten, etwas an der untragbaren Situation von People on the Move zu ändern.

Weiterlesen

20. Januar 2023

Neues Projekt: Algorithmen auf systemische Risiken prüfen

Die Prüfung algorithmischer Systeme ist unbedingt notwendig, wenn Demokratie, Menschenrechte und Rechtstaatlichkeit geschützt werden sollen. Noch ist völlig ungeklärt, wie das geschehen könnte und sollte. Die Alfred Landecker Foundation unterstützt uns darin, dafür Verfahren, Vorschläge und Best Practices zu entwickeln. Wir werden diese Vorschläge in der Praxis erproben und dafür eintreten, dass sie an den richtigen Stellen übernommen werden.

Weiterlesen

Projekt, 1. April 2021

SustAIn: Der Nachhaltigkeitsindex für Künstliche Intelligenz

Wie nachhaltig ist Künstliche Intelligenz? Wir wissen, dass in der Entwicklung und Anwendung von KI viel Energie benötigt wird, dass Menschen als sogenannte Clickworker unter sehr schlechten Arbeitsbedingungen Trainingsdatensätze für KI-Systeme bearbeiten und diese nicht selten bestehende Diskriminierungsmuster verstärken. Angesichts einer steigenden Zahl an KI-Systemen, braucht es daher dringend eine Diskussion, wie KI nachhaltiger gestaltet werden kann. Hier setzt unser Projekt SustAIn an.

Weiterlesen

9. März 2021

AutoCheck – Welche Diskriminierungsrisiken stecken in automatisierten Entscheidungssystemen?

Weiterlesen

25. Februar 2021

UNDING

Unding ist eine Plattform, um automatisierte Entscheidungen anzufechten. Nehmen Sie jetzt an der neuen Umfrage zu Problemen mit Online-Formularen teil!

Weiterlesen

10. Februar 2021

Tracing the Tracers. Überwachung und Analyse von ADM-Systemen, die als Maßnahme gegen die COVID-19-Pandemie eingesetzt werden.

‘Tracing the tracers. Überwachung und Analyse von ADM-Systemen, die als Maßnahme gegen die COVID-19-Pandemie eingesetzt werden’ ist eine Plattform, auf der kontinuierlich über den Einsatz von ADM-Systemen als Reaktion auf die SARS-CoV-2-Pandemie in Europa — und im weltweiten Vergleich — informiert wird.

Weiterlesen

Projekt , 15. September 2020

DataSkop

DataSkop ist eine Plattform für Datenspenden, um algorithmische Entscheidungssysteme zu untersuchen. Mithilfe interaktiver Experimente und Visualisierung entwickeln Nutzer*innen ein Bewusstsein für Datenströme und die Wirkmacht von Algorithmen.

Weiterlesen

1. September 2020

Automating Society

Das Projekt ‘Automating Society’ ist eine umfassende Bestandsaufnahme und Analyse von Systemen automatisierter Entscheidungsfindung (ADM), die Europa zum Einsatz kommen.

Weiterlesen
Seite 1 von 2