Pressemitteilung
Diskriminierende KI bei Job-Bewerbungen: AlgorithmWatch CH zeigt mit Forschungsprojekt neue Lösungen
Bei der Personalauswahl nutzen immer mehr Unternehmen KI-gestützte Bewerbungssysteme. Solche Systeme bergen das Risiko der Diskriminierung. AlgorithmWatch CH veröffentlicht im Rahmen des Horizon-Europe-Projekts „FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation“ neue Tools, Trainings und Empfehlungen, um Diskriminierung durch KI-Systeme in der Personalauswahl zu reduzieren.

Zürich, 04.09.2025 – AlgorithmWatch CH veröffentlicht im Rahmen des Horizon-Europe-Projekts „FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation“ neue Tools, Trainings und Empfehlungen, um Diskriminierung durch KI-Systeme in der Personalauswahl zu reduzieren. Die entwickelten Guidelines, Tools und Trainings stehen allen Interessierten frei zur Verfügung: https://algorithmwatch.ch/de/findhr/#toolkits
Bei der Personalauswahl nutzen immer mehr Unternehmen KI-gestützte Bewerbungssysteme. Solche Systeme können zwar Zeit sparen, bergen aber auch das Risiko der Diskriminierung. Gemeinsam mit einem europäischen, interdisziplinären Konsortium aus Wissenschaft, Industrie und Zivilgesellschaft hat AlgorithmWatch CH rund drei Jahre lang an Lösungsansätzen gearbeitet, um dieser Art von Diskriminierung entgegenzuwirken.
„Der Einsatz KI-gestützter Software in der Personalauswahl erfordert ein besonderes Verantwortungsbewusstsein sowohl in der Softwareentwicklung, in Personalabteilungen als auch in der Politik. Denn die potenzielle Diskriminierung durch solche Systeme ist systematisch und skalierbar“, sagt Moira Daviet, Researcherin bei AlgorithmWatch CH.
Nachweisliche Risiken beim Einsatz von KI im Recruiting
Der Einsatz von KI-basierten Recruiting-Systemen verspricht Personalverantwortlichen Zeitersparnis. Die bisherigen Erfahrungen zeigen jedoch, dass bei ihrer Anwendung Diskriminierungsmuster reproduziert und diskriminierende Hürden vergrößert werden können – oft ohne Wissen der Bewerbenden oder derjenigen, die die Systeme einsetzen. Das FINDHR-Forschungsprogramm legt einen besonderen Fokus auf intersektionale Diskriminierung, bei der die Kombination mehrerer persönlicher Merkmale (etwa Geschlecht, Alter, Religion, Herkunft oder sexuelle Orientierung) neue Formen von Diskriminierung schafft und bestehende multipliziert.
Wie die internationale Forschungsgruppe nun aufzeigt, ist Diskriminierung in automatisierten Bewerbungsverfahren dabei keineswegs nur ein theoretisches Konstrukt, sondern für viele Menschen eine Realität. Im Rahmen des Projekts haben sich die Forschenden in sieben europäischen Ländern mit Betroffenen ausgetauscht (Albanien, Bulgarien, Deutschland, Griechenland, Italien, Niederlande, Serbien). Viele Betroffene fühlten sich ohnmächtig und waren frustriert, da sie auf ihre Bewerbungen, trotz zahlreicher Versuche und Anstrengungen, oft nur automatisierte Absagen außerhalb der Arbeitszeiten erhielten, vermutlich ohne dass ihre Bewerbungsunterlagen je von einem Menschen gesichtet wurden.
Lösungen, die Diskriminierung entgegenwirken
Wie kann bei der Entwicklung und dem Einsatz von KI-Systemen zur Personalauswahl das Risiko von Diskriminierung reduziert werden?
„Ein breiter Ansatz, der sowohl Maßnahmen für die Software-Entwicklung und Personalabteilungen als auch auf politischer Ebene umfasst, ist wichtig“, sagt AlgorithmWatch CH Researcherin Moira Daviet. Denn: „Algorithmische Diskriminierung entsteht nicht ausschliesslich auf technischer Ebene und kann nicht allein dort behoben werden. Der soziale und kulturelle Kontext, in dem ein System entwickelt und eingesetzt wird, muss ebenso berücksichtigt werden.“
Alle Lösungsansätze im Überblick
- FINDHR Toolkits mit konkreten Empfehlungen für
Software-Entwicklerinnen, HR- & Personalverantwortliche sowie für politische Entscheidungsträgerinnen: https://algorithmwatch.ch/de/findhr/#toolkits - Guidelines und Methoden für inklusives Software-Design sowie den
verantwortungsbewussten Einsatz und Unterhalt von algorithmischen
Systemen im Recruiting: https://algorithmwatch.ch/de/findhr/#guidelines-methoden - Technische Tools und Software, die das Risiko von algorithmischen
Diskriminierungen im Recruiting reduzieren: https://algorithmwatch.ch/de/findhr/#technische-tools - Trainings für Fachpersonen, um für das Risiko von algorithmischen
Diskriminierungen im Recruiting zu sensibilisieren: https://algorithmwatch.ch/de/findhr/#trainings - Erfahrungsberichte von Betroffenen und Tipps für Stellensuchende,
um auf die häufig unsichtbaren Barrieren in der Stellensuche
aufmerksam zu machen und die Lebensrealität von Betroffenen
einzubeziehen: https://algorithmwatch.ch/de/findhr/#betroffene
Die Kampagne: Algorithmische Diskriminierung muss sichtbar werden
AlgorithmWatch will algorithmische Diskriminierung ins öffentliche Bewusstsein rücken und Betroffenen helfen. Mit einem eigens geschaffenen Meldeformular gibt die NGO Menschen die Möglichkeit, solche Fälle zu melden. Den eingehenden Meldungen wird AlgorithmWatch nachgehen, um algorithmische Diskriminierung aufzudecken und so Druck auf Anbieter entsprechender Systeme und politische Entscheidungsträger*innen auszuüben.
Das Meldeformular für algorithmische Diskriminierungsfälle ist hier hinterlegt:
https://algorithmwatch.org/de/algorithmische-diskriminierung-melden/
Kontakt
Moira Daviet, Researcherin, AlgorithmWatch CH
daviet@algorithmwatch.ch daviet@algorithmwatch.ch| +41 78 411 94 54
Dr. Angela Müller, Geschäftsleiterin, AlgorithmWatch CH
mueller@algorithmwatch.ch mueller@algorithmwatch.ch| +41 76 516 91 78
Über AlgorithmWatch CH
AlgorithmWatch CH ist eine zivilgesellschaftliche Organisation, die sich dafür einsetzt, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Grundrechte und Nachhaltigkeit stärken, statt sie zu schwächen.