#diskriminierung (23 Ergebnisse)

Estelle Pannatier
Estelle Pannatier
Policy & Advocacy Managerin, AlgorithmWatch CH
Pia Sombetzki
Policy & Advocacy Managerin

Was ist algorithmische Diskriminierung?

Diskriminierung durch Algorithmen und Künstliche Intelligenz (KI): Wir geben einen Überblick über das Thema.

Wie und warum Algorithmen diskriminieren

Automatisierte Entscheidungssysteme können diskriminieren. Wir erklären, welche Ursachen das hat, was in solchen Fällen passieren kann und warum die bestehenden Gesetze nicht ausreichend vor algorithmischer Diskriminierung schützen.

EU-Migrationspakt: Die Europäische Gemeinschaft der Überwachung

An den EU-Grenzen und den dortigen Abschiebelagern werden immer mehr Technologien eingesetzt, die die Privatsphäre verletzen. Der neue Migrations- und Asylpakt ermutigen geradezu, die gesellschaftlich bereits am stärksten Ausgegrenzten mit gefährlichen digitalen Systemen noch intensiver zu überwachen - auch Kinder.

Pressemitteilung

Schutz vor Diskriminierung: Auch ein Zeichen gegen Rechts

Berlin, 15. Februar 2024. Die Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) lässt weiterhin auf sich warten. Die Bundesregierung hatte sie im Koalitionsvertrag angekündigt, schiebt das Vorhaben jetzt aber auf. Dabei könnte sie mit dieser Reform ein klares gesellschaftliches Zeichen setzen.

Plattformregulierung

Diskriminierende Anzeigen: KI ist auch keine Lösung

Ein neues System von Meta sollte dafür sorgen, dass auf Facebook und Instagram Wohnungsanzeigen in den USA weniger diskriminierend sind. In einem Compliance-Bericht wird behauptet, dass die KI-Lösung funktioniere, aber dafür fehlen Beweise einer neutralen Instanz.

Ungerechtigkeit vorprogrammiert: Wenn Algorithmen diskriminieren

Algorithmische Entscheidungssysteme sind inzwischen in allen Lebensbereichen zu finden. Mit der Technik sind allerdings nicht alle Probleme gelöst, manchmal werden Menschen sogar durch sie benachteiligt.

Pressemitteilung

Menschenrechtsorganisationen fordern Reform des Allgemeinen Gleichbehandlungsgesetzes

Offener Brief: Jetzt algorithmenbasierte Diskriminierung anerkennen und Schutzlücken schließen!

Das Allgemeine Gleichbehandlungsgesetz (AGG) weist in seiner heutigen Form wesentliche Schutzlücken auf. AlgorithmWatch und 20 weitere zivilgesellschaftliche Organisationen fordern die Bundesregierung auf, diese Lücken zu schließen und die Bevölkerung zukünftig vor algorithmenbasierter Diskriminierung zuverlässig zu schützen.

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Algorithmenbasierte Diskriminierung oder nachhaltige Rechenzentren? Kaum Pläne der Bundesregierung nach 100 Tagen im Amt

Die Ampelregierung ist seit 100 Tagen im Amt – bisher lässt sich nicht erkennen, ob und wie sie auf die Risiken algorithmischer Diskriminierung eingehen will. Auch bei nachhaltiger Digitalisierung zeigt sich dringender Handlungsbedarf, Vorstöße auf Regierungsseite sind aber kaum zu sehen.

Algorithmenbasierte Diskriminierung – Anpassung des Allgemeinen Gleichbehandlungsgesetzes (AGG) notwendig

Im Koalitionsvertrag haben die Regierungsparteien angekündigt, das AGG evaluieren zu wollen. Diese Gelegenheit muss genutzt werden, um Betroffene besser vor algorithmenbasierter Diskriminierung zu schützen. Deshalb fordern wir in Bezug auf das AGG, ein Verbandsklagerecht einzuführen, mehr Transparenz zu schaffen und die Anwendungsbereiche des Gesetzes auszuweiten.

Digital Autonomy Policy Brief #5: Algorithmenbasierte Diskriminierung

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Verbraucherschutz vor Algorithmen – wie wehrt man sich gegen automatisierte Entscheidungen?

Das Projekt Unding unterstützt Menschen, die von automatischen Entscheidungen benachteiligt wurden. Im Interview berichtet Projektmanagerin Anna Lena Schiller, was Betroffene tun können, und wie Verbraucherschutz im digitalen Zeitalter aussieht

LinkedIn: Bewerber·innen aus dem Ausland „nicht geeignet“

LinkedIn stuft Bewerber·innen, die sich für einen Job in einem anderen EU-Land bewerben, zum Teil automatisch als „nicht geeignet“ ein. Das könnte illegal sein. Ich habe sechs nationale und europäische Agenturen darauf aufmerksam gemacht. Keine scheint ein Interesse daran zu haben, geltendes Recht durchzusetzen.

“Wir suchen konkrete Beispiele für die Diskriminierung durch Algorithmen in Deutschland.”

Das Projekt AutoCheck geht der Frage nach, welche Diskriminierungsrisiken in automatisierten Entscheidungssystemen (ADMS) stecken. Im Interview berichtet Projektmanagerin Jessica Wulf von der Suche nach Fallbeispielen, und wie das Projekt die Arbeit von Beratungsstellen und Fortbildungen zum Thema unterstützen wird.

AutoCheck – Welche Diskriminierungsrisiken stecken in automatisierten Entscheidungssystemen?

Männer fahren LKW, Frauen erziehen Kinder – diskriminierendes Gendertargeting durch Facebook

Automatisierte Diskriminierung: Facebook verwendet grobe Stereotypen, um die Anzeigenschaltung zu optimieren

Ein Experiment von AlgorithmWatch zeigt, dass Online-Plattformen die Anzeigenauslieferung in diskriminierender Weise optimieren. Die Nutzung durch Werbetreibende könnte gesetzeswidrig sein.

Instagram-Algorithmus: Wer gesehen werden will, muss Haut zeigen

Eine exklusive Untersuchung deckt auf, dass Instagram Bilder priorisiert, die spärlich bekleidete Männer und Frauen zeigen, und so das Verhalten von Content-Erstellern und die Weltsicht von 140 Millionen Europäern prägt – ein blinder Fleck in den EU-Richtlinien.

Unsere Untersuchung der Hartz-IV-Algorithmen zeigt: Hier diskriminiert der Mensch und nicht die Maschine

Die Bundesagentur für Arbeit (BA) und die Jobcenter setzen Algorithmen ein, um zu berechnen, wie viel Arbeitslosengeld II – besser bekannt als Hartz IV – ein·e Antragsteller·in bekommt. Anders als in den USA oder in Österreich geschehen, konnten wir in den deutschen Sozialhilfe-Algorithmen keine diskriminierenden Muster nachweisen. Das Problem sind eher Sachbearbeiter·innen und das Gesetz.

Kreditscoring: Urteil aus Finnland wirft Fragen zur Diskriminierung auf

In einem außerhalb Finnlands wenig bekannten Fall verurteilte das finnische Nichtdiskriminierungs- und Gleichheitstribunal im April dieses Jahres den Finanzdienstleister Svea Ekonomi AB zu einer Geldstrafe von 100.000 Euro, weil er mit seinen statistischen Verfahren einen Mann diskriminiert habe. Die Begründung des Gerichts lässt Fragen offen.

Risikobürger

In den Niederlanden filtert eine Software automatisch potentielle Sozialbetrüger heraus. Wie sie funktioniert, verrät der Staat nicht. Bürgerrechtler klagen dagegen.