People Analytics muss den Menschen zugutekommen

In seinem Gutachten entwickelt Michele Loi vom Institut für Biomedizinische Ethik und Medizingeschichte der Universität Zürich Empfehlungen dafür, wie Systeme zum automatisierten Personalmanagement ethisch angemessen eingesetzt werden können.

Der Einsatz von Künstlicher Intelligenz im Personalmanagement steckt noch in den Kinderschuhen. Gerade deshalb stellt sich die Frage, wie sie überhaupt zu besseren und faireren Personalentscheidungen beitragen kann. In seinem Gutachten entwickelt Michele Loi von der Universität Zürich Empfehlungen dafür, wie Systeme zum automatisierten Personalmanagement ethisch angemessen eingesetzt werden können. Entscheidend sind guter Datenschutz, fachliche Kompetenz, transparente Verfahren und eine sorgfältige Überprüfung der Auswirkungen automatisierter Entscheidungen.

Michele Loi

Senior Scientific Advisor

Foto: Julia Bornkessel, CC BY 4.0

Dr. Michele Loi ist Senior Scientific Advisor bei AlgorithmWatch und Professor mit Lehrauftrag („professore a contratto“) für den Studiengang KI, Ethik und Recht an der Universität Mailand. Zuvor hat er als Marie-Sklodowska-Curie-Stipendiat am Politecnico di Milano zum Thema Fairness in der KI geforscht. Mit einem Doktortitel in Politischer Theorie der LUISS-Universität und umfangreicher Postdoc-Erfahrung an Institutionen wie der Universität Zürich, der ETH Zürich und der Weltgesundheitsorganisation hat sich Dr. Loi als führender interdisziplinärer Forscher an der Schnittstelle von KI-Ethik, Technologie-Governance und Sozialphilosophie etabliert und mehrere hochkarätige Publikationen veröffentlicht. Sein Forschungsportfolio umfasst die Leitung mehrerer Projekte zur Untersuchung von Algorithmus-Fairness, Datenethik und Technologie-Governance mit über 35 begutachteten Artikeln, 9 Konferenzbeiträgen, 3 Büchern und 7 Buchkapiteln. Seine Publikationen zeugen von spezifischer Expertise in den Bereichen algorithmische Fairness, ethische Implikationen von KI-Systemen und soziale Auswirkungen von Technologie. Das qualifiziert ihn nicht zuletzt, methodische Rahmenwerke für die Analyse der systemischen Risiken von KI-Systemen sowohl aus technischer als auch aus gesellschaftlicher Perspektive zu entwickeln.

Abonniere jetzt unseren Community Newsletter!

Ich bin mit der Verarbeitung meiner Daten einverstanden und weiß, dass ich den Newsletter jederzeit abbestellen kann.

Mehr Informationen findest du in unserer Datenschutzerklärung.