Projekte

Ob zu Nachhaltigkeit, COVID-19 oder Social Media Plattformen - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und ihr könnt mitmachen!

Neue Recherche

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

Khari Slaughter for AlgorithmWatch

Automation on the Move

Neues Projekt: Algorithmen auf systemische Risiken prüfen

SustAIn: Der Nachhaltigkeitsindex für Künstliche Intelligenz

AutoCheck – Welche Diskriminierungsrisiken stecken in automatisierten Entscheidungssystemen?

UNDING

Tracing the Tracers. Überwachung und Analyse von ADM-Systemen, die als Maßnahme gegen die COVID-19-Pandemie eingesetzt werden.

DataSkop

Digital Autonomy Hub

Automating Society

Towards a Monitoring of Instagram

Governing Platforms

AI Ethics Guidelines Global Inventory

OpenSCHUFA

Atlas der Automatisierung

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.