Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen.

Publikation

14. Januar 2026

Verantwortungsvolle Nutzung von generativer KI: AlgorithmWatch schlägt diese Richtlinien vor

Ob ChatGPT, Claude oder Gemini, Copilot oder Perplexity – generative KI wirft massive Probleme auf: Viele Ergebnisse sind fehlerhaft und politisch problematisch, der Verbrauch von Energie und Wasser ist enorm. Zugleich sind sie aus dem Alltag nicht mehr wegzudenken. AlgorithmWatch hat eine Richtlinie entwickelt, die dabei hilft, generative KI verantwortungsvoll zu verwenden.

A collage that merges circuit board patterns with textile motifs in a grid-like background of alternating black, grey, and white. Two hand-drawn arms are on each side of the image, positioned as if gently pulling on thin, white strings that cross the image diagonally. The hands appear soft and somewhat translucent, contrasting with the rigid lines of the circuit board patterns behind them. The strings are woven through both the hands and the background, symbolising the connection between traditional weaving and modern technology. The overall colour palette features muted earth tones, including browns, beiges, and grays, creating a sense of both history and continuity between the natural and technological worlds.

27. Oktober 2025

Mehrheit besorgt über Energie- und Wasserverbrauch von Rechenzentren

Mockup einer aufgeschlagene Broschüre des technischen Gutachtens 'Braucht die Polizei eine Datenbank zum biometrischen Abgleich?'.

15. Oktober 2025

Braucht die Polizei eine Datenbank zum biometrischen Abgleich?

Die Illustration zeigt die KI-Liferkette anhand von 5 Stationen. Rohstoff-Abbau, Hardware-Erstellung, Training von Modellen, Systemnutzung und Entsorgung.

6. August 2025

Die Umweltkosten der KI-Lieferkette

MockUp der Publikation Konzept für ein KI-Transparenzregister

13. Mai 2025

Ein verbindliches KI-Transparenzregister für Deutschland

28. März 2025

Automatisierte Polizeiarbeit: Wie Algorithmen in Deutschland Straftaten „voraussehen“ sollen

Gedruckte Broschüre LLM-Report als Mockup

18. Dezember 2024

Große Sprachmodelle in Bezug auf Wahlen nach wie vor unzuverlässig

15. Dezember 2023

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

21. November 2023

SustAIn-Magazin #3 – KI anders denken: Wie wir selber entscheiden, mit welcher KI wir leben wollen

5. Oktober 2023

Große KI-Sprachmodelle im Kontext von Wahlen

21. August 2023

Plattformregulierung: Wie lassen sich systemische Risiken für die Demokratie erkennen?

3. August 2023

Biometrische Überwachung

15. März 2023

Neue Studie zu KI im Personalwesen: Beschäftigten fehlt Kontrolle und Mitbestimmung

13. März 2023

Neue Ausgabe des SustAIn-Magazins: KI und ihre Folgen für die Nachhaltigkeit

2. März 2023

AlgorithmWatch stellt vor: Ein KI-Transparenzregister für die öffentliche Verwaltung

23. Februar 2023

Neue Studie beleuchtet die entscheidende Rolle der Gewerkschaften im Hinblick auf algorithmische Transparenz in der Arbeitswelt

21. Februar 2023

Digital Autonomy Policy Brief #8: Automatisiertes Personalmanagement und Selbstbestimmung

26. Oktober 2022

Digital Autonomy Policy Brief #7: Digitale Selbstbestimmung und Nachhaltigkeit

11. Oktober 2022

Kurzstudie: Nachhaltige KI und digitale Selbstbestimmung

7. September 2022

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

5. Juli 2022

Digital Autonomy Policy Brief #6 zu Online-Plattformen: Unabhängige Forschung braucht Datenzugang

28. Juni 2022

SustAIn-Magazin #1 zu nachhaltiger KI in der Praxis

20. Juni 2022

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

10. Februar 2022

Digital Autonomy Policy Brief #5: Algorithmenbasierte Diskriminierung

27. Januar 2022

Die EU und Datenspenden: Eine gute Idee im Keim erstickt

Seite 1 von 3