#diskriminierung

Publikation, 20. Juni 2022

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Weiterlesen
Jonas Augustin | Unsplash

Blog, 25. März 2022

Algorithmenbasierte Diskriminierung oder nachhaltige Rechenzentren? Kaum Pläne der Bundesregierung nach 100 Tagen im Amt

Die Ampelregierung ist seit 100 Tagen im Amt – bisher lässt sich nicht erkennen, ob und wie sie auf die Risiken algorithmischer Diskriminierung eingehen will. Auch bei nachhaltiger Digitalisierung zeigt sich dringender Handlungsbedarf, Vorstöße auf Regierungsseite sind aber kaum zu sehen.

Weiterlesen

Position, 23. März 2022

Algorithmenbasierte Diskriminierung – Anpassung des Allgemeinen Gleichbehandlungsgesetzes (AGG) notwendig

Im Koalitionsvertrag haben die Regierungsparteien angekündigt, das AGG evaluieren zu wollen. Diese Gelegenheit muss genutzt werden, um Betroffene besser vor algorithmenbasierter Diskriminierung zu schützen. Deshalb fordern wir in Bezug auf das AGG, ein Verbandsklagerecht einzuführen, mehr Transparenz zu schaffen und die Anwendungsbereiche des Gesetzes auszuweiten.

Weiterlesen
Max Gruber | Better Images of AI | Clickworker 3d-printed | CC-BY 4.0

Publikation, 10. Februar 2022

Algorithmenbasierte Diskriminierung – Warum Antidiskriminierungsgesetze jetzt angepasst werden müssen

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Weiterlesen
Photo: Julia Bornkessel, CC BY 4.0

Blog, 17. Januar 2022

Verbraucherschutz vor Algorithmen – wie wehrt man sich gegen automatisierte Entscheidungen?

Das Projekt Unding unterstützt Menschen, die von automatischen Entscheidungen benachteiligt wurden. Im Interview berichtet Projektmanagerin Anna Lena Schiller, was Betroffene tun können, und wie Verbraucherschutz im digitalen Zeitalter aussieht

Weiterlesen
Photo by Souvik Banerjee on Unsplash

Story, 8. September 2021

LinkedIn: Bewerber·innen aus dem Ausland „nicht geeignet“

LinkedIn stuft Bewerber·innen, die sich für einen Job in einem anderen EU-Land bewerben, zum Teil automatisch als „nicht geeignet“ ein. Das könnte illegal sein. Ich habe sechs nationale und europäische Agenturen darauf aufmerksam gemacht. Keine scheint ein Interesse daran zu haben, geltendes Recht durchzusetzen.

Weiterlesen
Julia Bornkessel, CC BY 4.0

Jessica Wulf im Interview, 6. Mai 2021

“Wir suchen konkrete Beispiele für die Diskriminierung durch Algorithmen in Deutschland.”

Das Projekt AutoCheck geht der Frage nach, welche Diskriminierungsrisiken in automatisierten Entscheidungssystemen (ADMS) stecken. Im Interview berichtet Projektmanagerin Jessica Wulf von der Suche nach Fallbeispielen, und wie das Projekt die Arbeit von Beratungsstellen und Fortbildungen zum Thema unterstützen wird.

Weiterlesen

Projekt, 9. März 2021

AutoCheck – Welche Diskriminierungsrisiken stecken in automatisierten Entscheidungssystemen?

Prozesse automatisierter Entscheidungsfindung (automated decision-making, ADM) begegnen uns in immer mehr Bereichen unseres Lebens – sie beurteilen unsere Kreditwürdigkeit oder legen individualisierte Preise im Onlinehandel fest. Ihr Einsatz führt jedoch nicht unbedingt zu objektiveren oder neutraleren Entscheidungen. ADM-Systeme können auch Ungleichbehandlung und Diskriminierung fortführen oder sogar verstärken. So zeigte eine Studie von AlgorithmWatch, dass auf…

Weiterlesen
Nigel Tadyanehondo | Unsplash

Op-Ed, 10. November 2020

Männer fahren LKW, Frauen erziehen Kinder – diskriminierendes Gendertargeting durch Facebook

Dieser Artikel nimmt Bezug auf die AlgorithmWatch-Story vom 18.10.2020 und wurde zuerst auf Verfassungsblog.de veröffentlicht. Mit freundlicher Genehmigung der Autorin. Facebook spielt Stellenanzeigen in diskriminierender Weise an die Nutzer:innen seiner Plattformen aus. Untersuchungen von AlgorithmWatch zeigen, dass sich Facebook an groben Genderstereotypen zu orientieren scheint, um die Zielgruppe von Anzeigen zu bestimmen – auch wenn…

Weiterlesen
Joshua Hoehne | Unsplash

Story, 18. Oktober 2020

Automatisierte Diskriminierung: Facebook verwendet grobe Stereotypen, um die Anzeigenschaltung zu optimieren

Ein Experiment von AlgorithmWatch zeigt, dass Online-Plattformen die Anzeigenauslieferung in diskriminierender Weise optimieren. Die Nutzung durch Werbetreibende könnte gesetzeswidrig sein.

Weiterlesen
NeONBRAND | Unsplash

Story, 17. Juni 2020

Instagram-Algorithmus: Wer gesehen werden will, muss Haut zeigen

Eine exklusive Untersuchung deckt auf, dass Instagram Bilder priorisiert, die spärlich bekleidete Männer und Frauen zeigen, und so das Verhalten von Content-Erstellern und die Weltsicht von 140 Millionen Europäern prägt – ein blinder Fleck in den EU-Richtlinien.

Weiterlesen
Tim Reckmann| flickr

Story, 17. April 2020

Unsere Untersuchung der Hartz-IV-Algorithmen zeigt: Hier diskriminiert der Mensch und nicht die Maschine

Die Bundesagentur für Arbeit (BA) und die Jobcenter setzen Algorithmen ein, um zu berechnen, wie viel Arbeitslosengeld II – besser bekannt als Hartz IV – ein·e Antragsteller·in bekommt. Anders als in den USA oder in Österreich geschehen, konnten wir in den deutschen Sozialhilfe-Algorithmen keine diskriminierenden Muster nachweisen. Das Problem sind eher Sachbearbeiter·innen und das Gesetz.

Weiterlesen

Story, 21. November 2018

Kreditscoring: Urteil aus Finnland wirft Fragen zur Diskriminierung auf

In einem außerhalb Finnlands wenig bekannten Fall verurteilte das finnische Nichtdiskriminierungs- und Gleichheitstribunal im April dieses Jahres den Finanzdienstleister Svea Ekonomi AB zu einer Geldstrafe von 100.000 Euro, weil er mit seinen statistischen Verfahren einen Mann diskriminiert habe. Die Begründung des Gerichts lässt Fragen offen.

Weiterlesen

Story, 4. Juli 2018

Risikobürger

In den Niederlanden filtert eine Software automatisch potentielle Sozialbetrüger heraus. Wie sie funktioniert, verrät der Staat nicht. Bürgerrechtler klagen dagegen.

Weiterlesen