AlgorithmWatch ist eine gemeinnützige Nichtregierungsorganisation in Berlin und Zürich. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen.

Umfrage: Ressourcenverbrauch von Rechenzentren

Mehrheit besorgt über Energie- und Wasserverbrauch von Rechenzentren

Die Mehrheit der Menschen macht sich Sorgen über den Energie- und Wasserverbrauch von Rechenzentren, die unter anderem für Entwicklung und Betrieb von Künstlicher Intelligenz benötigt werden. Das zeigt eine repräsentative Umfrage in mehreren europäischen Ländern, an der auch AlgorithmWatch beteiligt war.

Beyond Fossil Fuels, bearbeitet von AlgorithmWatch

Blog

21. Oktober 2025

Job Opening: AlgorithmWatch sucht eine*n Redakteur*in für das Berliner Büro

Praktische Erfahrungen als Redakteur*in im NGO-Umfeld, in Berlin, zeitnah einsatzbereit? Dann bewirb dich!

For Hire Sign
Foto von Clem Onojeghuo auf Unsplash

Kampagne: Gesichtserkennung stoppen

50.000+! Petition gegen biometrische Überwachung an Bundestag übergeben

AlgorithmWatch und Campact übergeben die Petition an Dr. Anna Lührmann - v.l.: Kira Mössinger (Senior Campaigns Managerin AlgorithmWatch), Dr. Anna Lührmann (stv. Vorsitzende Ausschuss für Digitales und Staatsmodernisierung, Bündnis 90/Die Grünen), Matthias Spielkamp (Geschäftsführer AlgorithmWatch), Felix Hoffmann (Campaigner Campact)
Foto von Paul Lovis Wagner / i.A.v. Campact

4. September 2025

Lasst uns sexualisierende Deepfakes gemeinsam stoppen!

Blog

13. Mai 2025

Algorithmische Diskriminierung melden!

Wenn wir online einen Kredit beantragen oder uns um eine Wohnung oder auf einen Job bewerben, verarbeiten Unternehmen unsere Daten immer häufiger mit automatisierten Entscheidungssystemen. Die Entscheidungen solcher Systeme wirken sich auf unser Leben aus. Der Haken an der Sache ist nur, dass die Systeme nicht neutral sind und Vorurteile über Menschen reproduzieren können, die in der Gesellschaft verbreitet sind. Was können wir tun, damit undurchsichtige automatisierte Systeme keine Menschen benachteiligen? Wir müssen algorithmische Diskriminierung sichtbar machen, und du kannst uns dabei helfen!

Kleines Computer-Icon im Pixel-Style

Deine Fördermitgliedschaft

Setz dich mit uns dafür ein, dass Algorithmen und Künstliche Intelligenz Gerechtigkeit, Demokratie und Nachhaltigkeit stärken, statt sie zu schwächen. Werde Fördermitglied bei AlgorithmWatch – schon ab 5 € im Monat.

KI-Newbie oder Tech-Profi? Finde es heraus im KI-Quiz

A black-and-white surrealist collage of a classroom lecture. The center features an oversized computer keyboard with the two keys “A” and “I” highlighted in red. In the foreground, a vintage illustration of a woman in historical attire kneels as she interacts with the keyboard. Behind her, an audience of Cambridge students are seated in rows observing the lecture.
Hanna Barakat & Cambridge Diversity Fund | https://betterimagesofai.org | CC-BY 4.0

Blog

Aktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch. Zum Blog

Eine Reihe von farbenfrohen, fossilartigen Dateneindrücken, die die statische Natur von KI-Modellen widerspiegeln, belastet mit veralteten Kontexten und Vorurteilen.

6. November 2025

Ressourcenverbrauch von KI: Die Nimmersatt-Industrie und ihre Kosten

Zeitungsständer mit deutschen Tageszeitungen in Schwarzweiß-Aufnahme, darunter Die Zeit und Süddeutsche Zeitung

30. Oktober 2025

Gefährden Googles KI-Zusammenfassungen unseren Medienpluralismus? Neue Regeln ermöglichen Untersuchung.

16. September 2025

Webinar zum Thema KI-gestützte Überwachung: Was nach mehr Sicherheit klingt, greift die Demokratie an

Stories

Wie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu unseren Stories

A photographic rendering of a simulated middle-aged white woman against a black background, seen through a refractive glass grid and overlaid with a distorted diagram of a neural network.

31. Oktober 2025

Wie KI-Slop-Farms Identitäten stehlen

Excerpt from Fingerprints by Francis Galton

17. Oktober 2025

Biometrische Fernidentifizierung als kolonialer Bumerang

2. Oktober 2025

Der TikTok-Algorithmus als Sündenbock für die Politik

Positionen

Lesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Unsere Positionen

Grafik mit EU-Flagge und Deutschland-Umriss im Hintergrund, im Vordergrund gestapelte Dokumente in einem Umschlag

9. Oktober 2025

Stellungnahme zur nationalen Durchführung der KI-Verordnung

Foto zeigt das Büro, Stühle und Fenster eines Rechenzentrums.

6. Oktober 2025

Stellungnahme zur nationalen Rechenzentrumsstrategie

Grafik mit einem Geschenk und dem Text '3 Jahre Digital Services Act' vor blauem Hintergrund mit Sternen und einem großen Fragezeichen.

2. Oktober 2025

Der Digital Services Act feiert Geburtstag – Zeit für ein Zwischenfazit

Projekte

Ob Nachhaltigkeit, COVID-19, Social-Media-Plattformen oder Arbeit - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen!
Projekte ansehen

28. August 2025

Just Hiring! So vermeiden wir Diskriminierung durch Algorithmen in Einstellungsverfahren

Mockup eines Smartphones, auf dem die "Demokratie leben!"-Website geöffnet ist

21. Januar 2025

Zukunft D

5. Oktober 2023

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen

Mockup einer aufgeschlagene Broschüre des technischen Gutachtens 'Braucht die Polizei eine Datenbank zum biometrischen Abgleich?'.

15. Oktober 2025

Braucht die Polizei eine Datenbank zum biometrischen Abgleich?

Die Illustration zeigt die KI-Liferkette anhand von 5 Stationen. Rohstoff-Abbau, Hardware-Erstellung, Training von Modellen, Systemnutzung und Entsorgung.

6. August 2025

Die Umweltkosten der KI-Lieferkette

MockUp der Publikation Konzept für ein KI-Transparenzregister

13. Mai 2025

Ein verbindliches KI-Transparenzregister für Deutschland