Webdossier: Automatisiertes Personalmanagement und Mitbestimmung

Immer mehr Unternehmen setzen KI-basierte Systeme für das Personalmanagement ein, um Beschäftigte zu überwachen und zu bewerten. Mithilfe dieser sogenannten „People Analytics“-Verfahren werden mitunter Entscheidungen darüber getroffen, Mitarbeiter·innen zu fördern und sogar zu entlassen. Daher braucht es klare Regeln – aber Beschäftigte müssen auch selbst dafür sorgen, die Funktionsweise hinter den Systemen besser verstehen und beurteilen zu können.

Automatisierte Systeme zur Entscheidungsunterstützung im Personalmanagement, die Methoden des Maschinellen Lernens – häufig Künstliche Intelligenz genannt – nutzen, haben das Potenzial, das Leben der Menschen am Arbeitsplatz tiefgreifend zu verändern und die Machtstrukturen zwischen Arbeitgebern und Arbeitnehmer·innen signifikant und dauerhaft zu verändern. In unserem Dossier geben wir einen Einblick in die grundlegenden Prinzipien, die hinter „People Analytics”-Systemen stecken, formulieren Regeln, die für den Einsatz gelten sollten, und bieten Hilfsmittel dafür, besser zu verstehen, wie sie funktionieren.

https://unding.de/umfrage/hr-automatisierung/1/ https://unding.de/umfrage/hr-automatisierung/1/

Grundsätzlich gilt: Die Systeme müssen so gestaltet und eingesetzt werden, dass immer auch die Beschäftigten davon profitieren, nicht ausschließlich das Unternehmen. Um das zu erreichen, ist zum einen der Gesetzgeber gefordert klarzustellen, dass bestimmte Transparenzpflichten auch beim Einsatz von KI-basierten Systemen gelten. Wie das aussehen kann und warum wir der Einschätzung sind, dass Unternehmen, die solche Systeme im Personalmanagement verwenden, möglicherweise rechtswidrig handeln (ohne sich notwendigerweise darüber im Klaren zu sein), haben wir in unserem Positionspapier Rechte und Autonomie von Beschäftigten stärken – Warum Gesetzgeber, Unternehmen und Betriebsräte handeln müssen dargelegt.

Darin erläutern wir auch, warum die Anwender·innen solcher Systeme (also die Unternehmen und ihre Personalmanager·innen) und die Vertretungen der Beschäftigten (also Betriebsräte und Gewerkschaften) sich Kompetenzen erarbeiten müssen, um deren Grundlagen zu verstehen. Um das zu unterstützen, haben wir einen Leitfaden mit Fragen entwickelt, die die Unternehmensleitung den Beschäftigten beantworten sollte – am besten vor der Einführung neuer Systeme, aber auch bereits eingeführte Systeme können damit überprüft werden.

Wer sich erst einmal darüber informieren möchte, was mit Nachvollziehbarkeit algorithmischer Entscheidungssysteme, Proxy-Variablen, Fehlerraten oder Korrelation und Kausalität überhaupt gemeint ist, ist bei unseren Erklär-Videos genau richtig:

Externer Inhalt von youtube-nocookie.com

Wir möchten Ihnen Inhalte anzeigen, die nicht auf unseren Servern gehostet werden.

Erst wenn Sie Ihre Zustimmung geben, werden die Inhalte von externen Servern geladen. Bitte beachten Sie, dass der Drittanbieter dann möglicherweise Daten verarbeitet, die Ihr Browser übermittelt. Zusätzlich könnten Informationen auf Ihrem Gerät gespeichert werden, beispielsweise in Cookies. Weitere Details dazu erhalten Sie direkt vom Drittanbieter..

Und wer schon immer mal in die Rolle einer Personalmanagerin oder eines Personalmanagers schlüpfen wollte, um darüber zu entscheiden, wer befördert und wer entlassen werden sollte, kann das mit unserem interaktiven HR Puzzle tun. Hier kann man spielerisch die Funktionsweise eines Neuronalen Netzes erkunden, wie es im Personalmanagement eingesetzt wird.

Doch was ist, wenn ein System nicht den Empfehlungen entspricht? Unternehmen sind – abhängig von den Werten und der Kultur des Unternehmens – möglicherweise nicht immer oder sogar nur selten bereit, freiwillig auf die Vorteile zu verzichten, die sie sich vom Einsatz von People-Analytics-Systemen versprechen. Das Datenschutzrecht kann bis zu einem gewissen Grad genutzt werden, um Änderungen zu verlangen, hat aber große Defizite in Bezug auf automatisierte Entscheidungsprozesse. In Deutschland gibt das Betriebsverfassungsgesetz Arbeitnehmer·innen und ihren Vertretern Instrumente an die Hand, mit denen sie von Unternehmen Auskunft über IT-Systeme verlangen können. Diese Bestimmung kann auch auf People-Analytics-Systeme angewendet werden (siehe unsere Analyse zu Arbeitsrechten und Datenschutz). Wie gut diese Rechte in der Praxis durchgesetzt werden können, ist allerdings aus Mangel an Fällen noch unklar.

In vielen Ländern gibt es jedoch gar nicht erst die rechtliche Grundlage für solche Ansprüche. Wir begrüßen daher die Entscheidung der Europäischen Kommission, in ihrem Vorschlag zur KI-Verordnung Systeme, die im Feld “Beschäftigung, Personalmanagement und Zugang zu selbstständiger Tätigkeit (z. B. Software zur Auswertung von Lebensläufen für Einstellungsverfahren)" eingesetzt werden, als Anwendungen mit hohem Risiko einzustufen. Diese Hochrisiko-Systeme sind "nur bei Einhaltung bestimmter verbindlicher Anforderungen und einer Ex-ante-Konformitätsbewertung auf dem europäischen Markt zugelassen" und unterliegen gesetzlichen Anforderungen "in Bezug auf Daten und Data Governance, Dokumentation und Aufbewahrung von Aufzeichnungen, Transparenz und Bereitstellung von Informationen für Nutzer, menschliche Aufsicht, Robustheit, Genauigkeit und Sicherheit."

Wir werden mit Unterstützung des European AI Funds und der Hans-Böckler-Stiftung die Anforderungen an KI-Systeme mit hohem Risiko evaluieren, die im Verordnungsentwurf festgelegt sind, z.B. Artikel 13, "Transparenz und Bereitstellung von Informationen für die Nutzer", der vorschreibt, dass "KI-Systeme mit hohem Risiko so konzipiert und entwickelt werden, dass ihr Betrieb ausreichend transparent ist, damit die Nutzer den Output des Systems interpretieren und angemessen nutzen können."

Auf der Grundlage dieser Analyse werden wir beurteilen, ob es realistisch ist, dass die KI-Verordnung im Falle ihrer Verabschiedung in der Praxis den Arbeitnehmer·innen ein einklagbares Recht auf Transparenz einräumen wird. Wir werden auch analysieren, ob - und wenn ja, wie - die Verordnung genutzt werden könnte, um zu gewährleisten, dass Arbeitnehmer·innen europaweit ein Mitspracherecht darin bekommen, wie und für welche Zwecke KI-basierte Systeme am Arbeitsplatz eingesetzt werden können. In der Folge werden wir umsetzbare Forderungen an den Gesetzgeber entwickeln und diese gegenüber den europäischen Institutionen, namentlich dem Parlament und dem Rat, vertreten – um sicherzustellen, dass diese Rechte garantiert werden, wenn die Verordnung in Kraft tritt.


Medienspiegel

Süddeutsche Zeitung | 2. März 2020 
Personalanalyse von Mitarbeitern oft rechtswidrig

heise online | 2. März 2020 
Zalando & Co.: Personalanalyse mit Big Data in der dunkelgrauen Zone

Der Standard | 2. März 2020 
Studie: Automatisierte Mitarbeiterüberwachung womöglich rechtswidrig

Deutschlandfunk Nova | 2. März 2020
Überwachung am Arbeitsplatz: Mein Kollege nervt. Der Computer weiß Bescheid

golem.de | 2. März 2020
Datenschutz bei MyAnalytics: Microsoft weiß, wo deine freie Zeit bleibt

Süddeutsche Zeitung | 3. März 2020
Einsatz von KI im Arbeitsleben: Intelligenztest für Hubertus Heil

Der Standard | 10. März 2020
Von Lernsieg bis Apple: Online-Reviews setzen Menschen unter massiven Druck

Politico.eu | 11. März 2020
AI: Decoded [...] Workforce surveillance

Haufe.de | 12. März 2020
KI-Lösungen im Personalmanagement verstoßen oft gegen das Betriebsverfassungsrecht