Den Menschen und dem Gemeinwohl dienen: 5 Forderungen zum Einsatz von KI im Personalmanagement

Position

2. März 2020

#work

Wie können wir sicherstellen, dass KI-Anwendungen, die in Betrieben eingesetzt werden, den Menschen und dem Gemeinwohl dienen? Dieser Frage soll sich das KI-Observatorium widmen, das Arbeitsminister Hubertus Heil heute in Berlin eröffnet. Wir bei AlgorithmWatch haben schon jetzt einige sehr konkrete Antworten.

Personalmanagement-Software, die sogenannte „People Analytics”-Fähigkeiten bietet – also die Möglichkeit, Leistungen und Potenzial von Angestellten oder Teams zu analysieren, vorauszusagen oder zu steuern – ist der letzte Schrei. Microsofts Office 365 Workplace Analytics, IBM Watson Talent Insights, Success Factors People Analytics von SAP und ähnliche Produkte sollen dazu beitragen, dass Personalmanagerinnen und -manager bessere Entscheidungen treffen – datengetrieben, evidenzbasiert, vorurteilsfrei.

Das muss nicht schlecht sein. Menschen treffen zu oft Entscheidungen auf der Basis von Vorurteilen, sie diskriminieren und handeln inkonsistent. Datenanalyse kann dazu beitragen, diese Situation zu verbessern, und so nicht nur dem Unternehmen zugutekommen, sondern auch den Beschäftigten. Doch Theorie und Marketingbroschüren sind die eine Seite, die Praxis im Betrieb eine andere: Automatisierungsprozesse im Personalmanagement gefährden die sensible Balance zwischen Beschäftigten und Unternehmen, weshalb es klare Vorgaben für ihren Einsatz geben muss. Zu diesem Schluss kommen wir, nachdem wir uns im Forschungsprojekt Automatisiertes Personalmanagement und Mitbestimmung, gefördert von der Hans-Böckler-Stiftung, zwei Jahre lang mit dem Thema beschäftigt haben.

Warum? Zum einen droht eine große Informationsasymmetrie zu Ungunsten der Beschäftigten. Nicht nur, weil Daten über sie gesammelt werden und daraus Schlüsse gezogen werden, die sie nicht kennen. Sondern vor allem deshalb, weil die Beschäftigten über die Funktionsweise der Systeme vollständig im Dunkeln gelassen werden. Welche Modelle nutzen die People-Analytics-Anbieter, um zu ihren Ergebnissen zu kommen? Sind es die richtigen Modelle, das heißt: können sie tatsächlich sinnvolle Antworten auf die gestellten Fragen liefern? Sind die Verfahren wissenschaftlich valide? Nur zu oft verweigern die Anbieter die Auskunft mit einer Reihe von Argumenten: Dass die Verfahren zu komplex seien, um sie zu erklären, dass sie geheim gehalten werden müssen, damit Beschäftigte sie nicht zu ihren Gunsten – und damit zum Nachteil anderer – manipulieren, und dass sie geheim gehalten werden müssen, damit die Konkurrenz sie nicht kopiert. All dies sind Gründe, die man ernst nehmen muss. In ihrer Einseitigkeit aber sind sie inakzeptabel.

Denn aus einer ethischen Perspektive müssen Autonomie und Mitsprache der Beschäftigten auch dann gewährleistet sein, wenn algorithmische Systeme zum Personalmanagement eingesetzt werden. Es ist ethisch nicht zu rechtfertigen, Beschäftigte zu reinen Objekten derartiger Verfahren zu machen. Um das wirksam zu vermeiden, ist der Gesetzgeber gefragt, aber nicht nur er. Auch Arbeitgeber, Anbieter von „People Analytics“-Systemen und nicht zuletzt Beschäftigte und ihre Vertreter·innen müssen zusammenarbeiten, um dieses Ziel zu erreichen.

Unsere Forderungen im Einzelnen:

Ja, es müssen Gesetze geändert werden.

Die Bundesregierung muss Arbeitgeber gesetzlich verpflichten, nur solche Systeme einzusetzen, deren Funktionsweise sie detailliert kennen. Darüber hinaus muss sie gesetzlich klarstellen, dass Arbeitgeber auch dann Transparenz über die verwendeten Methoden gewährleisten müssen, wenn die Hersteller der Software keine Auskünfte erteilen wollen. Bereits derzeit gehen wir davon aus, dass Unternehmen, die „People Analytics“-Verfahren verwenden, möglicherweise rechtswidrig handeln – oft, ohne sich darüber im Klaren zu sein. Denn diese Verfahren dürfen nicht eingesetzt werden, ohne dass Beschäftigte individuell eingewilligt haben oder eine Betriebsvereinbarung vorliegt. Das wird in der Praxis oft nicht der Fall sein. Zudem erfüllen „Black-Box“-Systeme, deren Funktionsweise dem Betriebsrat auf Anfrage nicht erläutert werden kann, nicht die Auskunftsanforderungen des Betriebsverfassungsgesetzes.

Um die Rechte der Beschäftigten wirksam zu schützen, sollte ein gesetzliches „Beweisverwertungsverbots“ für widerrechtlich erlangte Informationen eingeführt werden. Bislang können Arbeitgeber solche Informationen für arbeitsrechtliche Maßnahmen nutzen und sogar mit Aussicht auf Erfolg bei einem Prozess vor dem Arbeitsgericht verwenden. Dem muss die Bundesregierung einen Riegel vorschieben.

Es ist zu prüfen, ob der Einsatz von KI-Systemen rechtmäßig ist.

Betriebsräte und Unternehmen müssen prüfen, ob der Einsatz von KI-Systemen rechtskonform erfolgt. Es ist zu erwarten, dass Arbeitgeber in vielen Fällen den Beschäftigten und ihren gewählten Interessenvertretungen nicht in dem Maß Informationen zur Verfügung stellen können, wie es das Gesetz verlangt, weil die KI-Anbieter diese Informationen nicht herausgeben. Obwohl das für Unternehmen eine Belastung darstellen kann, glauben wir, dass es hier sogar eine klare Überschneidung der Interessen von Arbeitgebern und Beschäftigten gibt. Denn wenn Personalmanagerinnen und -manager „People Analytics“-Anbieter fragen, wie ihre Systeme denn nun genau funktionieren, bekommen sie üblicherweise nur oberflächliche Marketing-Auskünfte.

Hersteller müssen sinnvolle und angemessene Auskünfte geben.

Hersteller müssen daher aktiv Möglichkeiten dafür entwickeln und anbieten, sowohl den Beschäftigten, als auch ihren Betriebsräten angemessen Auskunft über die Funktionsweise KI-basierter Systeme geben zu können. Hier kann der Leitfaden zur Überprüfung essenzieller Eigenschaften KI-basierter Systeme für Betriebsräte und andere Personalvertretungen als Vorlage dienen, den wir mit Sebastian Stiller, Professor für mathematische Optimierung der TU Braunschweig und Autor des Buchs „Planet der Algorithmen“, entwickelt haben.

Unternehmen und Betriebsräte müssen dazulernen.

Derselbe Leitfaden kann auch Unternehmen und Betriebsräten dabei helfen dafür zu sorgen, dass auf Seiten der Beschäftigten und des Personalmanagements angemessene Kompetenz vorhanden ist, aus den Informationen der Anbieter die richtigen Schlüsse zu ziehen. Gewerkschaften sollten hierbei sowohl auf der betrieblichen, als auch der politischen Ebene unterstützen.

Betriebsräte müssen früh agieren, um die Rechte der Beschäftigten zu wahren.

Betriebsräte müssen ihre Auskunftsrechte gegenüber Arbeitgebern bereits in der Planungsphase von KI-Systemen aktiv durchsetzen, da sich die praktische Wirksamkeit und Durchsetzbarkeit ihrer Mitbestimmungsrechte verringert, sobald Systeme eingeführt sind.

Ob und wie Algorithmen und so genannte Künstliche Intelligenz reguliert werden müssen, ist zurzeit eins der politischen Mega-Themen. Doch die Frage wird viel zu oft als Grundsatzdebatte geführt. Dann klafft schnell ein Graben zwischen denen, die meinen, Regulierungsbestrebungen kommen zu früh, sind notwendigerweise unverhältnismäßig, würgen Innovationen ab und versetzen Deutschland und die EU in einen strategischen Nachteil gegenüber den vermeintlichen KI-Supermächten USA und China. Und denen, die argumentieren, der Einsatz von Systemen zum automatisierten Entscheiden sei eine Gefahr für die Demokratie, vor der uns nur massive „horizontale“ Gesetzgebung schützen kann; jeder andere Ansatz sei zum Scheitern verurteilt. Konkrete Vorschläge, was zu tun ist, gibt es aber kaum. Unsere Forderungen zeigen: Ja, es ist sehr viel Arbeit, diese konkreten Ideen zu entwickeln. Aber es ist möglich. Sie umzusetzen, erfordert Entschlossenheit und Kooperation, Detailkenntnis und Augenmaß. Beim Thema Arbeit gibt es keine Ausreden mehr; die Vorschläge liegen auf dem Tisch. Wir sind gespannt, wie Bundesregierung, Arbeitgeber und Beschäftigte sowie die Anbieter von KI-Systemen damit umgehen werden.

Zum AlgorithmWatch-Dossier: Automatisiertes Personalmanagement und Mitbestimmung

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu ADM am Arbeitsplatz.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.