#diskriminierung (25 Ergebnisse)

Pressemitteilung

Diskriminierende KI bei Job-Bewerbungen: AlgorithmWatch CH zeigt mit Forschungsprojekt neue Lösungen

Bei der Personalauswahl nutzen immer mehr Unternehmen KI-gestützte Bewerbungssysteme. Solche Systeme bergen das Risiko der Diskriminierung. AlgorithmWatch CH veröffentlicht im Rahmen des Horizon-Europe-Projekts „FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation“ neue Tools, Trainings und Empfehlungen, um Diskriminierung durch KI-Systeme in der Personalauswahl zu reduzieren.

Projekt „FINDHR“

Just Hiring! So vermeiden wir Diskriminierung durch Algorithmen in Einstellungsverfahren

KI, die Bewerbungen vorsortiert? Im Rahmen des Horizon-Europe-Projekts „FINDHR“ haben wir Algorithmen, Methoden und Trainings entwickelt, um Diskriminierung zu vermeiden, wenn KI bei der Personalauswahl zum Einsatz kommt.

Dieses Bild zeigt eine Menschenmenge, die an einer Veranstaltung im Freien teilnimmt. Im Vordergrund sieht man zwei Hände, die Regenbogenfahnen hochhalten.

Pressemitteilung

Wie Algorithmen LGBTQIA+-Menschen diskriminieren

A couple of ATM machines sitting next to each other

Können Algorithmen automatisch Bankkonten sperren?

Kleines Computer-Icon im Pixel-Style, daneben der Text: “Algorithmische Diskriminierung melden”

Pressemitteilung

Wohnung, Job oder Kredit nicht bekommen? AlgorithmWatch sammelt Fälle algorithmischer Diskriminierung.

Mit einem Online-Meldeformular möchte AlgorithmWatch Fälle algorithmischer Diskriminierung sammeln, um das Thema stärker ins öffentliche Bewusstsein zu rücken.

Was ist algorithmische Diskriminierung?

Diskriminierung und Künstliche Intelligenz (KI): Wir geben einen Überblick über das Thema.

Überwachungskamera blickt auf gesprühten oder projizierte CDU/CSU und SPD Logos an einer Wand

Pressemitteilung

Koalitionsvertrag: Bundesregierung darf KI-Regulierung nicht aus den Augen verlieren

A rock embedded with intricate circuit board patterns, held delicately by pale hands drawn in a ghostly style. The contrast between the rough, metallic mineral and the sleek, artificial circuit board illustrates the relationship between raw natural resources and modern technological development. The hands evoke human involvement in the extraction and manufacturing processes.

Digitalthemen in den Koalitionsverhandlungen: AlgorithmWatch bezieht Stellung

Die ersten Zwischenergebnisse der Koaltionsverhandlungen zwischen der Union und SPD sind da. AlgorithmWatch hat sich die Verhandlungspapiere der „AG Digitales“ und der „AG Innen, Recht, Migration und Integration“ genauer angeschaut. Hier ist unsere Reaktion auf die Positionen zu zentralen Digitalthemen.

AlgorithmWatch erhält den Bundespreis Verbraucherschutz 2024

Aufklärung und Forschung zu Algorithmen und Künstlicher Intelligenz (KI), Engagement und Forderungen für mehr Gerechtigkeit in der digitalen Welt: Dafür hat AlgorithmWatch den Bundespreis Verbraucherschutz der Deutschen Stiftung Verbraucherschutz (DSV) 2024 erhalten. Eine vierzehnköpfige Jury wählte AlgorithmWatch aus 40 Vorschlägen als Sieger aus.

Geschlechtsangleichende Transition: Auch im digitalen Leben schwierig

Nur eine Formalität? Für die Transgender-Community ist der Wechsel der Online-Identität kein simpler Verwaltungsakt. Eine mangelhafte Datenarchitektur macht es nur schlimmer.

Explainer: Algorithmische Diskriminierung

Wie und warum Algorithmen diskriminieren

Automatisierte Entscheidungssysteme können diskriminieren. Wir erklären, welche Ursachen das hat, was in solchen Fällen passieren kann und warum die bestehenden Gesetze nicht ausreichend vor algorithmischer Diskriminierung schützen.

EU-Migrationspakt: Die Europäische Gemeinschaft der Überwachung

An den EU-Grenzen und den dortigen Abschiebelagern werden immer mehr Technologien eingesetzt, die die Privatsphäre verletzen. Der neue Migrations- und Asylpakt ermutigen geradezu, die gesellschaftlich bereits am stärksten Ausgegrenzten mit gefährlichen digitalen Systemen noch intensiver zu überwachen - auch Kinder.

Pressemitteilung

Schutz vor Diskriminierung: Auch ein Zeichen gegen Rechts

Berlin, 15. Februar 2024. Die Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) lässt weiterhin auf sich warten. Die Bundesregierung hatte sie im Koalitionsvertrag angekündigt, schiebt das Vorhaben jetzt aber auf. Dabei könnte sie mit dieser Reform ein klares gesellschaftliches Zeichen setzen.

Plattformregulierung

Diskriminierende Anzeigen: KI ist auch keine Lösung

Ein neues System von Meta sollte dafür sorgen, dass auf Facebook und Instagram Wohnungsanzeigen in den USA weniger diskriminierend sind. In einem Compliance-Bericht wird behauptet, dass die KI-Lösung funktioniere, aber dafür fehlen Beweise einer neutralen Instanz.

Ungerechtigkeit vorprogrammiert: Wenn Algorithmen diskriminieren

Algorithmische Entscheidungssysteme sind inzwischen in allen Lebensbereichen zu finden. Mit der Technik sind allerdings nicht alle Probleme gelöst, manchmal werden Menschen sogar durch sie benachteiligt.

Pressemitteilung

Menschenrechtsorganisationen fordern Reform des Allgemeinen Gleichbehandlungsgesetzes

Offener Brief: Jetzt algorithmenbasierte Diskriminierung anerkennen und Schutzlücken schließen!

Das Allgemeine Gleichbehandlungsgesetz (AGG) weist in seiner heutigen Form wesentliche Schutzlücken auf. AlgorithmWatch und 20 weitere zivilgesellschaftliche Organisationen fordern die Bundesregierung auf, diese Lücken zu schließen und die Bevölkerung zukünftig vor algorithmenbasierter Diskriminierung zuverlässig zu schützen.

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Algorithmenbasierte Diskriminierung oder nachhaltige Rechenzentren? Kaum Pläne der Bundesregierung nach 100 Tagen im Amt

Die Ampelregierung ist seit 100 Tagen im Amt – bisher lässt sich nicht erkennen, ob und wie sie auf die Risiken algorithmischer Diskriminierung eingehen will. Auch bei nachhaltiger Digitalisierung zeigt sich dringender Handlungsbedarf, Vorstöße auf Regierungsseite sind aber kaum zu sehen.

Algorithmenbasierte Diskriminierung – Anpassung des Allgemeinen Gleichbehandlungsgesetzes (AGG) notwendig

Im Koalitionsvertrag haben die Regierungsparteien angekündigt, das AGG evaluieren zu wollen. Diese Gelegenheit muss genutzt werden, um Betroffene besser vor algorithmenbasierter Diskriminierung zu schützen. Deshalb fordern wir in Bezug auf das AGG, ein Verbandsklagerecht einzuführen, mehr Transparenz zu schaffen und die Anwendungsbereiche des Gesetzes auszuweiten.

Digital Autonomy Policy Brief #5: Algorithmenbasierte Diskriminierung

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Verbraucherschutz vor Algorithmen – wie wehrt man sich gegen automatisierte Entscheidungen?

Das Projekt Unding unterstützt Menschen, die von automatischen Entscheidungen benachteiligt wurden. Im Interview berichtet Projektmanagerin Anna Lena Schiller, was Betroffene tun können, und wie Verbraucherschutz im digitalen Zeitalter aussieht

LinkedIn: Bewerber·innen aus dem Ausland „nicht geeignet“

LinkedIn stuft Bewerber·innen, die sich für einen Job in einem anderen EU-Land bewerben, zum Teil automatisch als „nicht geeignet“ ein. Das könnte illegal sein. Ich habe sechs nationale und europäische Agenturen darauf aufmerksam gemacht. Keine scheint ein Interesse daran zu haben, geltendes Recht durchzusetzen.

“Wir suchen konkrete Beispiele für die Diskriminierung durch Algorithmen in Deutschland.”

Das Projekt AutoCheck geht der Frage nach, welche Diskriminierungsrisiken in automatisierten Entscheidungssystemen (ADMS) stecken. Im Interview berichtet Projektmanagerin Jessica Wulf von der Suche nach Fallbeispielen, und wie das Projekt die Arbeit von Beratungsstellen und Fortbildungen zum Thema unterstützen wird.

Seite 1 von 2