AlgorithmWatch ist eine gemeinnützige Forschungs- und Advocacy-Organisation mit dem Ziel, Systeme automatisierter Entscheidungsfindung (ADM) und deren Auswirkungen auf die Gesellschaft zu beobachten und zu analysieren.

Was weiß TikTok alles über dich? Finde es heraus!

Unternehmen wie Facebook, Instagram, Google und TikTok wissen oft von den schädlichen Auswirkungen ihrer algorithmischen Systeme und bemühen sich, unabhängige Forschung dazu zu verhindern. Datenspenden wie DataSkop sind bislang eine der wenigen Möglichkeiten, um undurchsichtige Algorithmen zu untersuchen.

Khari Slaughter for AlgorithmWatch, CC BY 4.0

Offener Brief: Jetzt algorithmenbasierte Diskriminierung anerkennen und Schutzlücken schließen!

Das Allgemeine Gleichbehandlungsgesetz (AGG) weist in seiner heutigen Form wesentliche Schutzlücken auf. AlgorithmWatch und 18 weitere zivilgesellschaftliche Organisationen fordern die Bundesregierung auf, diese Lücken zu schließen und die Bevölkerung zukünftig vor algorithmenbasierter Diskriminierung zuverlässig zu schützen.

Photo by John Cameron on Unsplash

Blog

23. Dezember 2022

#jobalert #team

#JobAlert: Wir suchen eine*n Senior Policy & Advocacy Manager*in

Voll- oder Teilzeit mit 32-40 Wochenstunden | Startdatum: März oder April 2023 | Bewerbungsfrist: 31. Januar 2023

© comicsans | Adobe Stock

Blog

5. Januar 2023

#stipendien #team

AlgorithmWatch begrüßt seine ersten Stipendiat*innen

Nach unserer Ankündigung, dass wir Stipendien vergeben, um journalistische Berichte über den Einsatz von automatisierten Entscheidungssystem in Europa zu fördern, haben wir über hundert Bewerbungen erhalten. Wir freuen uns nun sehr darüber, unsere ersten sechs Stipendiat*innen ankündigen zu dürfen, eine illustre Gruppe aus Journalist*innen, Akademikerinnen und einem Menschenrechtsaktivisten.

Blog

11. Januar 2023

#jobs #team

Jetzt bewerben: Wir suchen eine*n PR- & Outreach-Manager*in!

Voll- oder Teilzeit mit 30-40 Wochenstunden | zum nächstmöglichen Zeitpunkt | Bewerbungsfrist: 12. Februar

Foto von Mikhail Nilov | Pexels

Position

6. Dezember 2022

#aiact #deutschland #eu

Risiken Künstlicher Intelligenz: Wie die deutsche Regierung beschloss wegzusehen

Heute treffen sich die Minister*innen der EU-Mitgliedstaaten in Brüssel, um die Version der KI-Verordnung (AI Act) zu verabschieden, auf die sich ihre Regierungen geeinigt haben. In seiner jetzigen Form steht der Entwurf in krassem Gegensatz zum Versprechen der deutschen Regierung, die Grundrechte zu schützen. Stattdessen sieht er weitreichende Ausnahmen für Sicherheitsbehörden vor.

Digital Autonomy Policy Brief #7: Digitale Selbstbestimmung und Nachhaltigkeit

Im Umgang mit digitalen Produkten oder Umgebungen haben Verbraucher*innen kaum eine Chance, selbstbestimmt nachhaltig zu handeln. In diesem Policy Brief zeigen wir, dass wir in der Digitalpolitik mehr Transparenz, Regulierung und Anreize für methodische Innovation brauchen.

Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen

11. Oktober 2022

Kurzstudie: Nachhaltige KI und digitale Selbstbestimmung

Voraussetzungen für einen selbstbestimmten und nachhaltigen Umgang mit KI im Alltag – eine Auftragsarbeit für das Netzwerk CO:DINA

Weiterlesen

Stories

Wie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu unseren Stories

Foto: Greg Bulla auf Unsplash

25. Oktober 2022

Wer ist ein „Risiko“? Ab 2023 wird die visumfreie EU-Einreise schwieriger

Die EU-Behörden Frontex und eu-LISA entwickeln gerade das automatische „Risikoprüfungssystem“ ETIAS für die Einreise in die EU. Der Algorithmus, der die Kategorisierung vornimmt, wird zum Teil mit früheren Entscheidungen von Grenzbeamten trainiert.

Weiterlesen

Positionen

Lesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Unsere Positionen

Photo by Shirley Tittermary on Unsplash

22. Dezember 2022

Gesetzlicher Schutz vor Grundrechtsverletzungen in Europa und Deutschland: Mängel beim AI Act, Potenziale beim AGG

Das Bündnis F5 hat einen Parlamentarischen Austausch veranstaltet, wo unzulässige Ausnahmen beim AI Act und nötige Anpassungen der Antidiskriminierungsgesetzgebung (AGG) diskutiert wurden. Matthias Spielkamp von AlgorithmWatch erläuterte, inwiefern die Bundesregierung beim AI Act frühere Versprechen bricht und was bei der AGG-Novellierung in puncto algorithmischer Diskriminierung zu beachten ist.

Weiterlesen

Blog

Aktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch. Zum Blog

Photo: fauxels | pexels

12. Januar 2023

Jetzt bewerben: Leiter*in für das Projekt „Systemische Risiken von Algorithmen“ gesucht

Teilzeit mit 30-32 Wochenstunden | Start im März oder April 2023 | Bewerbungsfrist: 13. Februar 2023

Weiterlesen

Projekte

Ob Nachhaltigkeit, COVID-19, Social-Media-Plattformen oder Arbeit - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen!
Projekte ansehen

20. Januar 2023

Neues Projekt: Algorithmen auf systemische Risiken prüfen

Die Prüfung algorithmischer Systeme ist unbedingt notwendig, wenn Demokratie, Menschenrechte und Rechtstaatlichkeit geschützt werden sollen. Noch ist völlig ungeklärt, wie das geschehen könnte und sollte. Die Alfred Landecker Foundation unterstützt uns darin, dafür Verfahren, Vorschläge und Best Practices zu entwickeln. Wir werden diese Vorschläge in der Praxis erproben und dafür eintreten, dass sie an den richtigen Stellen übernommen werden.

Weiterlesen