Explainer
Was geht und was nicht: KI-Systeme und Arbeitsrecht
In vielen Unternehmen werden Beschäftigte von automatisierten Systemen gesteuert, am stärksten bei der Plattformarbeit. Der Einsatz dieser Systeme in Arbeitsverhältnissen ist rechtlich noch nicht umfassend geregelt. Erste Gesetz(entwürf)e sollen Arbeiter*innen zu ihrem Recht verhelfen.
Die Plattformarbeit-Richtlinie: Für Arbeitsrechte, gegen Scheinselbstständigkeit
Plattformarbeit verändert Arbeitsbeziehungen grundlegend. Wenn nichts gegen die schlechten Arbeitsbedingungen in der Gig Economy getan wird, könnten sie auch in traditionellen Arbeitsverhältnissen Fuß fassen und hart erarbeitete Errungenschaften im Arbeitsrecht aushebeln. Die Regulierung der Plattformarbeit steht erst ganz am Anfang. Aber es sind erste Gesetze vorhanden, die den Arbeiter*innen zu ihrem Recht verhelfen.
Die Europäische Union hat daher im Frühjahr 2024 eine Plattformarbeit-Richtlinie („platform work directive“) erlassen. Bis 2026 haben die Mitgliedsstaaten Zeit, sie umzusetzen. Durch die Richtlinie soll die Verwendung von Algorithmen durch die Personalverwaltung transparenter gemacht werden. Außerdem soll sie sicherstellen, dass qualifiziertes Personal automatisierte Systeme überwacht und Beschäftigte das Recht erhalten, automatisierte Entscheidungen anzufechten.
Die Richtlinie soll auch Scheinselbstständigkeit in der Gig Economy bekämpfen und die Verwendung von Algorithmen durch digitale Arbeitsplattformen besser regulieren. Sie soll dazu beitragen, den Beschäftigungsstatus von Personen zu bestimmen, die für Plattformen arbeiten. Dadurch soll ihnen ermöglicht werden, alle ihnen zustehenden Arbeitnehmerrechte in Anspruch zu nehmen. Die digitalen Plattformen sind verpflichtet nachzuweisen, dass kein festes Beschäftigungsverhältnis besteht. Personen, die für Plattformen arbeiten, ihre Vertreter*innen oder nationale Behörden können sich auf diese gesetzliche Verpflichtung berufen, wenn sie gegen falsche Einstufungen von Beschäftigten vorgehen.
Ob die Richtlinie tatsächlich gegen Scheinselbstständigkeit wirkt, muss sich erst noch zeigen. Kritiker*innen befürchten, dass das Gesetz zu sehr aufgeweicht wurde. Plattformunternehmen haben versucht, Einfluss auf die Verhandlungen zu nehmen und die Vorgaben zur Bekämpfung von Scheinselbstständigkeit abzuschwächen.
Die KI-Verordnung: Verbotene Gefühlserkennung
Den Einsatz von KI-Systemen am Arbeitsplatz regelt auch die KI-Verordnung der EU (AI Act). Wie streng gesetzliche Regelungen für einzelne KI-Systeme sind hängt von den Risiken ab, die von den Systemen für die Gesundheit, die Sicherheit und die Grundrechte ausgehen. Folgende Emotionserkennungssysteme am Arbeitsplatz sind nach Artikel 5 verboten, weil ihre Risiken als inakzeptabel hoch eingestuft wurden:
- KI-Systeme zur Überwachung der Leistung von Mitarbeitenden und ihres emotionalen Zustands, während sie etwa an Besprechungen teilnehmen oder Aufgaben ausführen. Solche Systeme könnten Gesichtsausdrücke, den Tonfall der Stimme und andere biometrische Daten analysieren, um daraus emotionale Zustände wie Stress, Zufriedenheit oder Frustration abzuleiten.
- KI-basierte Tools, die im Einstellungsprozess eingesetzt werden und den emotionalen Zustand oder die Aufrichtigkeit von Bewerber*innen bewerten, indem sie deren Gesichtsausdruck, Stimmmodulation oder Körpersprache während eines Gesprächs analysieren.
- Tools, die auf emotionale Zustände von Arbeitnehmer*innen schließen, um Stress oder potenzielle Sicherheitsrisiken vorauszusagen, sofern die Tools nicht speziell aus medizinischen oder sicherheitstechnischen Gründen entwickelt wurden.
- Tools zur Bewertung der psychischen Gesundheit, die aus biometrischen Daten auf emotionale Zustände oder psychische Erkrankungen schließen, sofern die Tools nicht ausschließlich für medizinische Zwecke verwendet werden.
Außerdem sind biometrische Kategorisierungssysteme verboten, die natürliche Personen auf der Grundlage ihrer biometrischen Daten individuell kategorisieren, um daraus abzuleiten, ob sie einer Gewerkschaft angehören.
Die von der KI-Verordnung festgelegten Verbote umfassen nicht alle möglichen KI-Anwendungen zur Emotionserkennung. Emotionserkennungssysteme sind zwar am Arbeitsplatz und im Bildungsbereich verboten, aber nicht in anderen Hochrisikobereichen wie der Strafverfolgung oder Migration.
Sollte eine bestehende Anwendung als verboten gelten, muss sie innerhalb von sechs Monaten nach der Verabschiedung der KI-Verordnung umgestaltet bzw. vom europäischen Markt genommen werden. Pro Verstoß gegen diese Frist droht eine Geldstrafe von bis zu sieben Prozent des Gesamtumsatzes.
Neben verbotenen Praktiken bestimmt die KI-Verordnung Bereiche, in denen der Einsatz von KI-Systemen mit einem erhöhten Risiko für die Sicherheit, Gesundheit und Grundrechte verbunden ist. Da der Arbeitsplatz ein solcher Hochrisikobereich ist, müssen bestimmte KI-Anwendungen strengeren Vorschriften genügen:
- KI-Systeme, die bei der Einstellung oder Auswahl natürlicher Personen verwendet werden sollen, insbesondere um gezielt Stellenanzeigen zu schalten, Bewerbungen zu analysieren und zu filtern und Bewerber*innen zu bewerten.
- KI-Systeme, die bestimmte Arbeitsentscheidungen übernehmen sollen: Entscheidungen zu Arbeitsbedingungen, über Beförderungen oder über Entlassungen; KI-Systeme, die Arbeitsaufgaben verteilen und dabei individuelles Verhalten oder persönliche Merkmale zum Maßstab nehmen; sowie KI-Systeme, die die Leistung und das Verhalten von Personen in Arbeitsverhältnissen überwachen und bewerten sollen.
Die KI-Verordnung schreibt auch vor, dass Arbeitgeber ihre Beschäftigten und deren Vertreter*innen darüber informieren, wenn sie risikoreiche KI-Systeme einsetzen und diese Systeme einen Einfluss auf die die Arbeit oder das Anstellungsverhältnis der Beschäftigten haben – zum Beispiel bei Einstellungen, Beförderungen oder Entlassungen. Diese Maßnahme soll Transparenz herstellen. Die Arbeitgeber sollen ihre Beschäftigten möglichst nach den Regeln und Verfahren informieren, die gewerkschaftliche Vereinbarungen und nationale Rechtsvorschriften im Fall so einer Informationspflicht seitens der Arbeitgeber vorschreiben. Arbeitgeber sind allerdings nicht verpflichtet, die Beschäftigten anzuhören. Gewerkschaften und Arbeitnehmervertretungen wird allgemein kein Mitbestimmungsrecht bei Entscheidungen über die Einführung von KI-Systemen eingeräumt.
Für Arbeitgeber bestehen noch weitere Verpflichtungen, wenn sie hochrisikoreiche KI-Systeme einsetzen:
- Sie müssen ihre KI-Systeme während der gesamten Nutzungsdauer kontrollieren.
- Sie dürfen KI-Systeme nur so verwenden, wie es der Gebrauchsanweisung zufolge vorgesehen ist, und die darin dargelegten Kontrollmaßnahmen befolgen.
- Sie müssen sicherstellen, dass die eingegebenen Daten dem Zweck des Systems dienen, und automatisch erstellte Systemprotokolle aufbewahren.
- Sie müssen vor der Systemeinführung prüfen, inwiefern die Grundrechte von dem Einsatz und dem Betrieb der KI-Systeme betroffen werden, insbesondere die der betroffenen Arbeitnehmer*innen.
Die gegenwärtige Rechtslage weist Unklarheiten und Schlupflöcher auf. Die Beschäftigten werden etwa nur über die Einführung von KI-Systemen mit hohem Risiko informiert. Ein KI-System gilt als hochriskant, wenn es die Grundrechte „erheblich beeinträchtigt“. Diese Formulierung lässt viel Spielraum für Interpretationen. In Artikel 3 der KI-Verordnung wird „erhebliches Risiko“ zwar definiert. Diese Definition ist aber nicht sehr konkret, weil es schwierig ist, vor der Systemeinführung mögliche „erhebliche Risiken“ vorauszusehen.
Die KI-Haftungsrichtlinie: Wer kommt für den Schaden auf?
Die KI-Verordnung geht nicht auf alle Probleme ein, die bei einer KI-Implementierung für Arbeitnehmer*innen auftreten können. Nicht ausgeführt ist zum Beispiel, welche Sanktionen es zur Folge hat, wenn KI-Systeme falsche oder diskriminierende Entscheidungen treffen. Ebenso wenig ist geklärt, wer haftet, wenn KI-Systeme Schäden verursachen.
Um solche offenen Fragen zu beantworten, arbeitet die EU an einem Entwurf für eine KI-Haftungsrichtlinie („AI Liability Directive“). Sie soll Schadensersatzansprüche regeln, die sich aus dem Einsatz von KI-Systemen ergeben. In ihrer aktuellen Fassung gilt die KI-Haftungsrichtlinie nicht, wenn die Haftung bereits in einem Vertrag geregelt ist. Die Europäische Kommission hat ihren Vorschlag im September 2022 veröffentlicht.
Diesem Entwurf der KI-Haftungsrichtlinie zufolge sind Arbeitgeber dafür verantwortlich, wenn von ihnen eingesetzte oder betriebene KI-Systeme Fehler produzieren, die zu Schäden führen. Sie müssen Aufzeichnungen und Dokumentationen offenlegen, die nach der KI-Verordnung zu erstellen sind, um zu beweisen, dass Arbeitgeber ihren Pflichten in vollem Umfang nachgekommen sind.
Das Inkrafttreten der KI-Haftungsrichtlinie wird noch einige Zeit auf sich warten lassen. Von daher sind wahrscheinlich noch erhebliche Änderungen daran zu erwarten.
Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu ADM am Arbeitsplatz.