#diskriminierung (19 results)

Seite 2 von 2
Photo by Souvik Banerjee on Unsplash

Story, 8. September 2021

LinkedIn: Bewerber·innen aus dem Ausland „nicht geeignet“

LinkedIn stuft Bewerber·innen, die sich für einen Job in einem anderen EU-Land bewerben, zum Teil automatisch als „nicht geeignet“ ein. Das könnte illegal sein. Ich habe sechs nationale und europäische Agenturen darauf aufmerksam gemacht. Keine scheint ein Interesse daran zu haben, geltendes Recht durchzusetzen.

Weiterlesen
Julia Bornkessel, CC BY 4.0

Jessica Wulf im Interview, 6. Mai 2021

“Wir suchen konkrete Beispiele für die Diskriminierung durch Algorithmen in Deutschland.”

Das Projekt AutoCheck geht der Frage nach, welche Diskriminierungsrisiken in automatisierten Entscheidungssystemen (ADMS) stecken. Im Interview berichtet Projektmanagerin Jessica Wulf von der Suche nach Fallbeispielen, und wie das Projekt die Arbeit von Beratungsstellen und Fortbildungen zum Thema unterstützen wird.

Weiterlesen

Projekt, 9. März 2021

AutoCheck – Welche Diskriminierungsrisiken stecken in automatisierten Entscheidungssystemen?

Weiterlesen
Nigel Tadyanehondo | Unsplash

Op-Ed, 10. November 2020

Männer fahren LKW, Frauen erziehen Kinder – diskriminierendes Gendertargeting durch Facebook

Weiterlesen
Joshua Hoehne | Unsplash

Story, 18. Oktober 2020

Automatisierte Diskriminierung: Facebook verwendet grobe Stereotypen, um die Anzeigenschaltung zu optimieren

Ein Experiment von AlgorithmWatch zeigt, dass Online-Plattformen die Anzeigenauslieferung in diskriminierender Weise optimieren. Die Nutzung durch Werbetreibende könnte gesetzeswidrig sein.

Weiterlesen
NeONBRAND | Unsplash

Story, 17. Juni 2020

Instagram-Algorithmus: Wer gesehen werden will, muss Haut zeigen

Eine exklusive Untersuchung deckt auf, dass Instagram Bilder priorisiert, die spärlich bekleidete Männer und Frauen zeigen, und so das Verhalten von Content-Erstellern und die Weltsicht von 140 Millionen Europäern prägt – ein blinder Fleck in den EU-Richtlinien.

Weiterlesen
Tim Reckmann| flickr

Story, 17. April 2020

Unsere Untersuchung der Hartz-IV-Algorithmen zeigt: Hier diskriminiert der Mensch und nicht die Maschine

Die Bundesagentur für Arbeit (BA) und die Jobcenter setzen Algorithmen ein, um zu berechnen, wie viel Arbeitslosengeld II – besser bekannt als Hartz IV – ein·e Antragsteller·in bekommt. Anders als in den USA oder in Österreich geschehen, konnten wir in den deutschen Sozialhilfe-Algorithmen keine diskriminierenden Muster nachweisen. Das Problem sind eher Sachbearbeiter·innen und das Gesetz.

Weiterlesen

Story, 21. November 2018

Kreditscoring: Urteil aus Finnland wirft Fragen zur Diskriminierung auf

In einem außerhalb Finnlands wenig bekannten Fall verurteilte das finnische Nichtdiskriminierungs- und Gleichheitstribunal im April dieses Jahres den Finanzdienstleister Svea Ekonomi AB zu einer Geldstrafe von 100.000 Euro, weil er mit seinen statistischen Verfahren einen Mann diskriminiert habe. Die Begründung des Gerichts lässt Fragen offen.

Weiterlesen

Story, 4. Juli 2018

Risikobürger

In den Niederlanden filtert eine Software automatisch potentielle Sozialbetrüger heraus. Wie sie funktioniert, verrät der Staat nicht. Bürgerrechtler klagen dagegen.

Weiterlesen
Seite 2 von 2
Estelle Pannatier
Estelle Pannatier
Policy & Advocacy Managerin, AlgorithmWatch CH
Pia Sombetzki
Policy & Advocacy Managerin