#diskriminierung (16 results)

Seite 1 von 2
Photo by John Cameron on Unsplash

Offener Brief an die Bundesregierung, 17. Januar 2023

Offener Brief: Jetzt algorithmenbasierte Diskriminierung anerkennen und Schutzlücken schließen!

Das Allgemeine Gleichbehandlungsgesetz (AGG) weist in seiner heutigen Form wesentliche Schutzlücken auf. AlgorithmWatch und 20 weitere zivilgesellschaftliche Organisationen fordern die Bundesregierung auf, diese Lücken zu schließen und die Bevölkerung zukünftig vor algorithmenbasierter Diskriminierung zuverlässig zu schützen.

Weiterlesen

Publikation, 7. September 2022

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Weiterlesen

Publikation, 20. Juni 2022

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Weiterlesen
Jonas Augustin | Unsplash

Blog, 25. März 2022

Algorithmenbasierte Diskriminierung oder nachhaltige Rechenzentren? Kaum Pläne der Bundesregierung nach 100 Tagen im Amt

Die Ampelregierung ist seit 100 Tagen im Amt – bisher lässt sich nicht erkennen, ob und wie sie auf die Risiken algorithmischer Diskriminierung eingehen will. Auch bei nachhaltiger Digitalisierung zeigt sich dringender Handlungsbedarf, Vorstöße auf Regierungsseite sind aber kaum zu sehen.

Weiterlesen

Position, 23. März 2022

Algorithmenbasierte Diskriminierung – Anpassung des Allgemeinen Gleichbehandlungsgesetzes (AGG) notwendig

Im Koalitionsvertrag haben die Regierungsparteien angekündigt, das AGG evaluieren zu wollen. Diese Gelegenheit muss genutzt werden, um Betroffene besser vor algorithmenbasierter Diskriminierung zu schützen. Deshalb fordern wir in Bezug auf das AGG, ein Verbandsklagerecht einzuführen, mehr Transparenz zu schaffen und die Anwendungsbereiche des Gesetzes auszuweiten.

Weiterlesen
Max Gruber | Better Images of AI | Clickworker 3d-printed | CC-BY 4.0

Publikation, 10. Februar 2022

Digital Autonomy Policy Brief #5: Algorithmenbasierte Diskriminierung

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Weiterlesen
Photo: Julia Bornkessel, CC BY 4.0

Blog, 17. Januar 2022

Verbraucherschutz vor Algorithmen – wie wehrt man sich gegen automatisierte Entscheidungen?

Das Projekt Unding unterstützt Menschen, die von automatischen Entscheidungen benachteiligt wurden. Im Interview berichtet Projektmanagerin Anna Lena Schiller, was Betroffene tun können, und wie Verbraucherschutz im digitalen Zeitalter aussieht

Weiterlesen
Photo by Souvik Banerjee on Unsplash

Story, 8. September 2021

LinkedIn: Bewerber·innen aus dem Ausland „nicht geeignet“

LinkedIn stuft Bewerber·innen, die sich für einen Job in einem anderen EU-Land bewerben, zum Teil automatisch als „nicht geeignet“ ein. Das könnte illegal sein. Ich habe sechs nationale und europäische Agenturen darauf aufmerksam gemacht. Keine scheint ein Interesse daran zu haben, geltendes Recht durchzusetzen.

Weiterlesen
Julia Bornkessel, CC BY 4.0

Jessica Wulf im Interview, 6. Mai 2021

“Wir suchen konkrete Beispiele für die Diskriminierung durch Algorithmen in Deutschland.”

Das Projekt AutoCheck geht der Frage nach, welche Diskriminierungsrisiken in automatisierten Entscheidungssystemen (ADMS) stecken. Im Interview berichtet Projektmanagerin Jessica Wulf von der Suche nach Fallbeispielen, und wie das Projekt die Arbeit von Beratungsstellen und Fortbildungen zum Thema unterstützen wird.

Weiterlesen

Projekt, 9. März 2021

AutoCheck – Welche Diskriminierungsrisiken stecken in automatisierten Entscheidungssystemen?

Weiterlesen
Seite 1 von 2