Story

Sprachanalyse: Wunschdenken oder Wissenschaft?

von Veronika Thiel

Die algorithmische Analyse menschlicher Persönlichkeitsmerkmale, auch „Affective Computing“ oder „Künstliche emotionale Intelligenz“ genannt, wird von Firmen, aber auch von einigen Wissenschaftler*innen als wichtige neue Entwicklung dargestellt. Doch die verwendeten Methoden sind mehr als zweifelhaft und bergen ein hohes Diskriminierungsrisiko.

Die angekündigten Durchbrüche auf dem Gebiet der Emotionsanalyse durch Alexa und Co lassen auf sich warten. Es wird derzeit viel über „Affective Computing“ geschrieben, doch die Produkte sind von einer Serienreife weit entfernt. Dylan etwa, ein Emotionsassistent von Amazon, der aus den Stimmen von Menschen deren Stimmungslage abschätzen soll, existiert momentan nur als Patent. Es ist offenbar komplizierter als von einigen Firmen angenommen, eindeutige Signale zu identifizieren, die sicher anzeigen, dass ein Mensch traurig ist – eventuell sind es auch Müdigkeit oder Erschöpfung, die die Stimme bedrückt klingen lassen. Amazon, Google und Co halten sich in jedem Fall noch damit zurück, entsprechende Produkte anzubieten.

Diese Schwierigkeiten hindert andere Unternehmen aber nicht daran, Produkte auf den Markt zu bringen, die behaupten, dieses hochkomplexe Problem gelöst zu haben und die Stimme und Sprache für Charakter- oder Persönlichkeitsanalysen nutzen.

So etwa die Aachener Firma Precire. Ihre Idee: Man nimmt eine Stimmprobe von einem Menschen und lässt sie von einer Software analysieren. Die zieht aufgrund von Wortwahl, Satzstruktur und anderen Kriterien Rückschlüsse auf den Charakter des Menschen.

Eingesetzt wird die Software beispielsweise im Personalwesen. Sie soll geeignete Kandidat*innen für einen Posten auswählen, oder innerhalb der eigenen Belegschaft Menschen mit Führungspersönlichkeit ausfindig machen, um diese entsprechend zu befördern.

Die Firma gibt an, eine psychologische Analyse durchzuführen, die auf einer 15-minütigen Sprachprobe basiert. Die Erkenntnisse seien wissenschaftlich fundiert und getestet, so der damalige Chef Mario Reis in einem Interview 2016. Dieser Anspruch wird in einem 2018 erschienenen Buch wiederholt. Hier wird auf weitere Studien und Erkenntnisse verwiesen, die die Wissenschaftlichkeit der Methode unterstützen sollen.

Kritik an der Methode

Doch Uwe Kanning ist skeptisch. Kanning ist Professor für Wirtschaftspsychologe und Experte auf dem Gebiet der Personalauswahl. Er kritisiert die wissenschaftliche Beschreibung: „Insgesamt betrachtet zeigt das vorliegende Buch unfreiwillig vor allem die Defizite der vorliegenden Erkenntnisse zur untersuchten Software auf. Keine der vorgelegten Studien ist unabhängig vom Anbieter.“

Weiter kritisiert Kanning, dass die Dokumentation der Firma Fragen offen lasse – etwa die Aussage, die Firma habe eine halbe Millionen Merkmale untersucht. Diese Angabe scheint ihm konstruiert: „Es ist nicht klar, was da drin ist, und die Zahl kommt nur dadurch zustande, dass man die Variablen kombiniert – also zum Beispiel sind 50 Variablen 5-fach gestuft und jede einzelne Stufe wird als Merkmal bezeichnet. Durch die Kombination kommt man dann auf solche Zahlen.“

Vor allem aber stecke hinter der Software ein Denkfehler, so Kanning: „Precire verwendet unter anderem Sprachprofile von erfolgreichen Menschen, um dann einen Menschen zu finden, der ein ähnliches Sprachprofil hat. Das ist so, als ob Sie einen guten Verkäufer mit Schuhgröße 47 haben und deswegen nur noch Leute einstellen, die diese Schuhgröße haben. Die Stichproben sind sehr klein und es besteht die Gefahr, dass Merkmale, die hierin zufällig auftreten, fälschlich als kausal interpretiert werden“ – also anzunehmen, dass eine bestimmte Schuhgröße der Grund sei für eine Eigenschaft oder Leistung.

Firmen, die Precires Software verwenden, können selber auswählen, welche Eigenschaften Bewerber*innen haben sollen, um für eine Position in Frage zu kommen. Wenn eine Firma also Merkmale – wie auch immer gemessen – ihrer existierenden Führungsriege nutzt, um ein Profil für erwünschte zukünftige Manager*innnen zu erstellen, ist die Gefahr groß, dass immer nur Menschen mit vergleichbaren Eigenschaften eingestellt oder befördert werden. Doch genau mit solchen Sprachanalysen von Führungspersonen bewirbt die Firma ihr Produkt und widmete ihr ein Kapitel im erwähnten Buch.

Doch selbst wenn Führungspersonen sprachliche Gemeinsamkeiten aufweisen: Ein Leistungstest ist ein solches Persönlichkeitsprofil nicht. Wirtschaftspsychologe Kanning bezweifelt daher die Nützlichkeit solcher Tests generell: „Man kann grundsätzlich über solche Persönlichkeitstests ein Stück weit berufliche Leistung prognostizieren, aber das sind geringe Werte im Bereich von einigen Prozent. Auf keinen Fall sollte man aufgrund eines Persönlichkeitstests alleine eine Auswahl treffen. Wenn man sie einsetzt, dann nur ergänzend etwa zu einem hochstrukturierten Interview und einem Leistungstest.“

Precire lege in ihrer Methodik zudem nicht offen, wie die Software mit Dialekten oder Akzenten umgeht. Hier sieht Kanning ein weiteres Diskriminierungspotential. „Wie geht die Software mit jemand mit starkem bayrischem Akzent um, oder mit jemand, der Deutsch mit einem starken Akzent spricht, im Vergleich mit jemand, der Hochdeutsch spricht? Da ist Diskriminierung quasi unausweichlich.“

Verbesserungen

Precire kennt diese Kritik. Thomas Belker, Geschäftsführer von Precire, führt an, dass das System laufend weiterentwickelt werde. Die Stimmanalyse, also Tonlage, Fluktuation und anderes, fließe nicht in die psychologische Bewertung ein, nur die Sprache, also Wortwahl und Satzstruktur, und viele andere sprachliche Merkmale, so Belker. Zum Thema Diskriminierung sagt er, dass nur Sprachproben, bei denen der Computer 80 Prozent der Worte transkribieren könne, verwendet würden. Bei starken Dialekten oder langen Sprechpausen beispielsweise gebe der Computer einen Fehler aus und die Probe werde nicht verwendet.

In Bezug auf die Gefahr der Homogenisierung betont er, dass die Software lediglich ein zusätzliches Hilfsmittel im Auswahlprozess sein soll und nicht die einzige Entscheidungsinstanz. „Die Entscheidung trifft immer der Mensch“, so Belker.

Außerdem arbeite die Firma mittlerweile mit einem viel größeren Datensatz; eine Agentur habe Stimmproben von 16.000 Menschen genommen. „Die Agentur hat alles Mögliche getan, um eine demographisch repräsentative Stichprobe zu erheben; wir sind zufrieden, dass dies gelungen ist“, so Belker. Diskriminierung aufgrund demographischer Eigenschaften könne man ausschließen, da dies explizit geprüft wurde. Alter, Geschlecht und Herkunft würden von dem Algorithmus auch nicht zur Profilbildung herangezogen.

Trotzdem bleiben Fragen offen.

So werden die Persönlichkeitstest, die der Software zugrunde liegen, nicht benannt. Damit fehlt aber Transparenz und eine unabhängige wissenschaftliche Einschätzung der Zweckmäßigkeit ist nicht möglich.

Auch die Aussage, dass die Software nicht diskriminiert, muss mit Vorsicht genossen werden. Die Grundlagenforschung für Sprachanalyse wird weitgehend dem US-Sozialpsychologen James Pennebaker zugeschrieben. Er hat festgestellt, dass es klare Unterschiede in der Wortwahl abhängig von Geschlecht und Alter gibt. Frauen würden das Wort „ich“ viel häufiger verwenden. Männer hingegen benutzen häufiger bestimmte Artikel („Der“, „Die“, „Das“). Junge Menschen verwenden Hilfsverben häufiger, Ältere neigen zu Präpositionen. Wird diese Wortwahl vom Algorithmus berücksichtigt? Bei Precire handelt es sich um ein Verfahren des so genannten „maschinellen Lernens“, bei dem nicht klar ist, welche Faktoren in die Berechnung mit einbezogen werden, und wie der Algorithmus sie gewichtet. Eine Diskriminierung kann also nicht ausgeschlossen werden.

Wortanalyse ohne Kontext

Precire gibt auch an, dass der Algorithmus in der Lage sei, die Persönlichkeit von Menschen ohne Kontext zu bestimmen, nur auf Basis der aufgenommenen Sprachprobe. Der Inhalt spiele dabei keine Rolle. „Es gibt verschiedene Analyseebenen. Die kommunikative Wirkung kann unabhängig vom Kontext, auf Basis der verwendeten Wörter analysiert werden“, erklärt Geschäftsführer Belker.

Wie das genau funktioniert, ist allerdings unklar. Die Test-Werkzeuge, die die Firma auf ihrer Webseite zur Verfügung stellt, um die Methode zu demonstrieren, sind allerdings wenig überzeugend. Dort wird ein Text zu einem Hackathon bereitgestellt, den man nach Eigenschaften wie „aggressiv“, „positiv“, „optimistisch“ oder „motivierend“ analysieren kann. Die Ergebnisse schaffen wenig Klarheit: Warum ist ein Wort wie „neben“ bei der Analyse zu „aggressiv“ rot markiert, während „hat“ grün ist? Wie können diese kleinen Wörter ohne Kontext mit einer solchen Eigenschaft besetzt werden?

Die Firma sagt, ihre Webseite werde überarbeitet und es werde in den nächsten Monaten weitere Informationen zur Methodik geben.

Doch auch wenn Precire den Algorithmus verbessert haben sollte, stellt sich die Frage, warum die Firma mit ihrer ursprünglichen Methodik auf den Markt gegangen ist. Zwar ist es im Zeitalter agiler Managementansätze üblich, Produkte schrittweise auf den Markt zu bringen. Doch sollte diese Methode verwendet werden, wenn dadurch die berufliche Laufbahn von Menschen beeinflusst werden kann?

Screenshot PRECIRE API: Core Functionality https://precire.com/demos/core_functionality/index.html (Abruf: 2.10.2019)

Randstad: Precire als Gesprächsstoff fürs Interview

Ein zufriedener Kunde von Precire ist die Firma Randstad, ein großer Personalvermittler. Laut eigener Aussage setzt sie die Software als „Unterstützungstool“ ein. Qualifikationsabgleiche, Leistungstest und das persönliche Interview seien weiterhin wichtiger als die Ergebnisse der Sprachanalyse. Andreas Bolder, verantwortlich für das interne Personalmanagement der Firma, hält die Precire-Analyse für einen guten Einstieg in das persönliche Interview bei der Auswahl von Mitarbeitern. Man komme damit „schneller zum Punkt.“

Außerdem sei der geringe Aufwand für Bewerber*innen und Firma ein Bonus, da das den Auswahlprozess beschleunige – zwei der Vorzüge also, die Precire anpreist. Ob durch die Software tatsächlich bessere Kandidat*innen ausgewählt würden oder weniger Personalwechsel stattfinden, kann Bolder nicht sagen. Hier spielten zu viele Faktoren eine Rolle. Ähnliches gilt für Diversität: Randstads Belegschaft sei auch schon vor der Nutzung der Software sehr divers gewesen. Precire könne dazu beitragen, es sei aber nicht zu belegen, ob das Programm sie weiter erhöht.

100 Worte: wissenschaftlicher Durchbruch in der Motivforschung oder heiße Luft?

Nicht nur Precire bietet ein System zur Sprachanalyse für die Personalauswahl an. Auch die Firma 100 Worte wirbt mit Sprachanalyse durch Algorithmen, um die Kandiatenauswahl zu unterstützen. Laut ihrer Webseite setzt die Firma einen Algorithmus ein, der durch eine reine Textanalyse von Bewerbungsschreiben ein Persönlichkeitsprofil erstellt. Ein Text wird nach Signalwörtern untersucht, die den Bewerber*innen ein bestimmtes Motiv zuordnen, zum Beispiel ein Machtmotiv oder ein Bindungsmotiv.

In der Psychologie sind Menschen machtmotiviert , denen es Spaß macht, auf andere einzuwirken, sich nicht scheuten, auch unpopuläre Entscheidungen zu treffen und allgemein gerne Verantwortung übernehmen. Bindungsmotiviert sind Personen, die gerne und viel mit anderen Menschen zusammen sind und Freundschaften schließen wollen. Solche Motive schließen sich gegenseitig nicht aus, und Menschen haben oft viele Motive, die sie in ihren Handlungen anleiten.

Die Motivforschung ist ein seriöser Zweig der Psychologie, der dazu beitragen kann, die Eignung einer Person für eine Stelle einzuschätzen. Durch ein relativ aufwändiges Verfahren kann untersucht werden, ob jemand tendenziell gerne führt, oder ob jemand lieber allein arbeitet. Korrekt durchgeführt kann die Methode also aussagekräftig und hilfreich sein.

Die herkömmliche, wissenschaftliche Methode zur Messung von Motiven ist komplex: Normalerweise werden Bewerber*innen gebeten, Reizwortgeschichten zu Bildern zu schreiben, die entfernt mit dem zu testenden Motiv zu tun haben, also zum Beispiel mit Macht oder Management. Die Geschichten werden im Anschluss dann auf Motivesignale untersucht. Als Grundlage, quasi als Thermometer, dienen Geschichten die von Menschen zu den gleichen Bildern geschrieben wurden, die vorher in den zu untersuchenden Motivationszustand „versetzt“ wurden, zum Beispiel in dem sie bei einem Rollenspiel eine Machtfunktion ausüben sollten. Den Menschen, die dies gut bewältigt haben, kann man eine höheres Machtmotiv zuweisen, als Menschen, die schlecht abgeschnitten haben. Ihre Wortwahl und Geschichten dienen dann als Vergleichsbasis für Bewerber*innen auf einen Führungsposten. Der Prozess ist aufwändig, da Menschen die Codierung der Geschichten vornehmen müssen, um den Kontext mit in die Analyse einzubeziehen.

Ein Experte auf diesem Gebiet ist Oliver Schultheiss, Professor für Psychologie an der Universität Erlangen und Leiter des Human Motivation and Affective Neuroscience Lab. Er führte 2013 eine Studie durch, um herauszufinden, ob der aufwändige Kodierungsprozess automatisiert werden kann. Es wurde untersucht, ob es genügt, nach Signalwörtern zu suchen, statt Sätze im Kontext zu analysieren. Ergebnis: Es gab zwar eine gewisse Übereinstimmung zwischen dem automatisierten Verfahren und den Ergebnissen menschlicher Kodierung, jedoch waren diese nicht gut genug, um sie zu verwenden.

Schultheiss hat die Daten der Firma 100 Worte zur Verfügung gestellt, weiter war er an der Entwicklung nicht beteiligt. Die Firma hat ihren eigenen Algorithmus mit den Daten gefüttert und sagt, sie hätte bessere Ergebnisse erzielt. Dies gilt ihr als Beweis, dass Signalwörter eben doch funktionieren – doch Professor Schultheiss wiederspricht: „100 Worte hat ihr Modell über unsere Daten laufen lassen und daraus geschlossen, dass ihr Modell gut darin ist, solche Signalwörter zu erkennen. Sie haben die Analyse aber auf einer Kopie einer Kopie durchgeführt, und das funktioniert nicht. Sie hätten ihr Modell unabhängig testen müssen – also Probanden motivationell stimulieren, um ihr Instrument zu eichen, und dann mit nicht-stimulierten Probanden überprüfen, ob ihr Wort-Modell die erste Gruppe von der zweiten unterscheiden kann. Das haben sie nicht getan.“

Der Osnabrücker Wirtschaftspsychologe Kanning weist zudem darauf hin, dass Bewerbungen sich als Analysegrundlage nicht eignen, da sie heutzutage oft vorgefertigt aus dem Internet heruntergeladen werden und somit eine Analyse der Person stattfinde, die das Schreiben verfasst hat, und nicht der Person, die sich bewirbt.

Zu schnell vorgeprescht?

Auf Nachfrage räumt 100-Worte-Geschäftsführer Simon Tschürtz ein, dass die Firma von der Analyse von Bewerbungsschreiben abkomme und vermehrt auf Reizwortgeschichten zurückgreife. Er betont auch, dass das Tool nur eine Entscheidungshilfe sein soll, in keinem Fall die einzige Entscheidungsinstanz.

Der Kritik von Schultheiss widerspricht er jedoch vehement. Die Firma habe bewusst keinen eigenen Datensatz erhoben, um die Unabhängigkeit der Daten zu garantieren, so Tschürtz.

Daniel Spitzer, Mitbegründer und Chief Product Officer von 100 Worte, gibt zudem an, dass der Algorithmus der Firma mittlerweile in der Lage sei, Kontext zu erkennen – ein wichtiger Fortschritt im Vergleich zu der Studie von 2013. „Die Textanalyse, die wir entwickelt haben, ist sehr viel elaborierter als die, die Professor Schultheiss damals verwendet hat“. Ihr Algorithmus erreiche deshalb höhere Trefferquoten als menschliche Kodierer*innen. Eine Publikation zu dem Thema sei in Vorbereitung und werde demnächst veröffentlicht.

Sollte 100 Worte diese Aussage belegen können, wäre das ein Durchbruch im Bereich der Motivforschung. Skepsis ist jedoch angesagt: Laut Schultheiss ist ein Forschernetzwerk zwar mit der Automatisierung der Motiverkennung beschäftigt, Ergebnisse stehen bisher aber noch aus. Ob eine Maschine das je so gut oder gar besser als Menschen machen kann, ist also noch nicht geklärt.

Ähnlich wie Precire muss sich die Firma generell jedoch die Frage gefallen lassen, ob es vertretbar ist, wenig ausgereifte Produkte auf den Markt zu bringen.

Fragwürdiger Nutzen von Persönlichkeitstests

Unabhängig von der Aussagekraft der von Precire und 100 Worte produzierten Ergebnisse gibt es grundsätzliche Kritik an Persönlichkeitstests in der Personalauswahl. So schreibt die Organisation Analysis & Policy Observatory (APO) in einem Bericht über die automatisierte Personalauswahl:

„Abgeleitete Persönlichkeitsmerkmale stehen nicht notwendigerweise in einem kausalen Zusammenhang mit Leistung, und im schlimmsten Fall können sie völlig unwesentlich sein.“

Die Organisation listet weitere Kritikpunkte auf, die den Einsatz von Persönlichkeitstests zur Personalauswahl sehr fragwürdig erscheinen lassen:

  • Persönlichkeitstests werden häufig mit Studierenden von Universitäten als Proband*innen getestet, weshalb fraglich ist, ob die Studienergebnisse auf die allgemeine Bevölkerung übertragbar sind.
  • Persönlichkeitstest werden immer im Kontext von historischen und sozialen Mustern entwickelt. Menschen, die aus diesen Standardmustern herausfallen – aufgrund von kulturellen Unterschieden, ihrem Geschlecht oder anderen Gründen – können unterschiedlich handeln und reagieren, obwohl sie die gleichen Fähigkeiten haben.
  • Die Tests sind in seltenen Fällen validiert; das heißt, es wurde nicht getestet, ob ein Test für einen bestimmten Job das misst, was er messen soll, und ob die Testergebnisse in irgendeiner Form Rückschlüsse auf die Eignung der Person für einen Job zulassen.

Die Organisation bezieht sich dabei auf die Apps Koru und Pymetrics, die durch die Anwendung von Tests auf die Persönlichkeit schließen und damit anzeigen will, wie gut Bewerber*innen auf eine offene Stelle passen, doch gelten diese Kritikpunkte genauso für Precire und 100 Worte.

Dies schränkt die Einsatzmöglichkeiten von Software, die Persönlichkeiten beurteilen will, grundsätzlich ein.

Mögliche Automatisierung

Generell sieht der Personalmanagement-Experte Kanning dennoch Potential für computergestützte Auswahlverfahren, jedoch nur in größeren Betrieben – denn nur dort könnten genug Daten erhoben werden, um Aussagen darüber zu treffen, welche Qualitäten Mitarbeiter*innen in einer Firma zu einer guten Führungskraft machen.

Das Szenario sähe wie folgt aus: Die Fähigkeiten von Mitarbeiter*innen werden in einem Assessment-Center getestet und dann gezielt unterstützt, um bestimmte Fähigkeiten weiter auszubauen, zum Beispiel im Organisationsmanagement oder auch bei der Gefühlskontrolle, falls jemand besonders aufbrausend oder ungeduldig ist. Durch solche Assessment-Center hat eine Personalabteilung dann Daten über die Mitarbeiter*innen, die in Führungspositionen zum Einsatz kommen. Man könnte darauf aufbauend nach einiger Zeit sehen, ob es Korrelationen zwischen bestimmten Persönlichkeitsmerkmalen und einem Erfolgsindikator gibt, zum Beispiel Kundenzufriedenheit, Umsatzzahlen oder Mitarbeiterzufriedenheit. Eine solche Untersuchung wäre entsprechend zeitaufwändig und es ist fraglich, ob sich der Aufwand lohnt.

Der Vorteil wäre, dass der Datensatz kontextspezifisch ist und die Modelle laufend durch neue Daten verfeinert und aktualisiert werden könnten. Die Firma könnte auch Diversitätsaspekte in das Modell einbauen, um zu verhindern, dass immer nur Menschen mit ähnlichen Merkmalen befördert oder eingestellt werden.

Die vom Organisation Analysis & Policy Observatory erwähnten Apps erfüllen diese Voraussetzungen jedoch nicht, und Precire nutzt offenbar auch nur ein Standardmodell, das nicht für spezifische Kontexte validiert ist.

Solch einen universal einsetzbaren Datensatz zu generieren, der alle Branchen und Berufsbilder abdeckt und dann auf den spezifischen Kontext einer Firma angepasst werden kann, würde Entwickler*innen vor große Herausforderungen stellen. Der Datensatz müsste die Merkmale von Menschen erfassen, die in ihrem Beruf oder ihren Firmen erfolgreich sind, und zwar berufs- und branchenübergreifend. Sowohl die Merkmale eines Servicebetreuers bei der Telekom, wie auch die für die Managerin einer Privatbank müssten darin enthalten sein – der Datensatz wäre also riesig. Und wie würde man die Daten überhaupt beschaffen? Welches Unternehmen darf und will solche Personaldaten herausgeben, welche Indikatoren sollen erhoben werden? Es genügt nicht, wenn Personalmanager*innen die ideale Person beschreiben – denn das würde zu Verzerrungen führen. Damit ein Algorithmus wirklich „lernt“, was in der Realität stattfindet, müssten die Daten die gemessenen Leistungs- und Persönlichkeitsmerkmale von vielen Hunderttausend Menschen umfassen. Erst dann könnten unter Umständen valide Muster erkannt werden, die eine gute Managerin oder einen guten Kundenbetreuer ausmachen.

Da dies noch keine Firma geschafft hat – und das mag eine Frage der Zeit sein – beruhen die Angebote auf Einheitsmodellen, die allgemeingültige Passkriterien für Stellenausschreibungen bereitstellen sollen. Dass dies ein zu simples Modell ist, sollte offensichtlich sein.

Erfolg (und Hype) weiter ungebrochen

Auch bei anderen Systemen zur Personalauswahl werden Behauptungen aufgestellt, die wissenschaftlich gesehen nicht haltbar sind. Das hindert Firmen nicht daran, den Hype weiter zu befeuern. Neben Text- und Sprachenanalyse werden auch Mimik und Gestik untersucht – die Firma HireVue behauptet, ihre Software könne aus der Körperhaltung, Gestik und Mimik auf die Arbeitsstils von Bewerber*innen schließen, obwohl gerade die Mimik-Analyse zur Erkennung von Emotionen stark in der Kritik steht.

Wenn also mithilfe von Precire und 100 Worte die Vorauswahl getroffen wird, ist die Wahrscheinlichkeit groß, dass viele Menschen ausgeschlossen werden, die eigentlich sehr gut auf den Job passen könnten. Ohne eine genauere Beschreibung der Methodik und besserer Validierung der Ergebnisse kann Diskriminierung nicht ausgeschlossen werden. Bei der Motivforschung beispielsweise ist es ein leichtes, auf das Geschlecht einer Person zu schließen. Der Erlanger Psychologie-Professor Schultheiss warnt daher: „Solange die Unternehmen sich nicht in die Karten schauen lassen und zeigen, dass ihre Normwerte tatsächlich unabhängig sind und Sexismus, Altersdiskriminierung und Rassismus ausschließen, würde ich dies erstmal anzweifeln. Ich würde daher nur den Unternehmen wirklich glauben, die ihre Daten offenlegen. Die Validierungsstudien müssen publiziert und so für andere kritisch nachprüfbar sein. Sonst ist alles nur Behauptung.“

Die Kritik an der Methode und die nur halbherzige Veröffentlichung zum Vorgehen haben Precires Erfolg offenbar bisher keinen Abbruch getan – ebenso wenig wie der Big Brother Award 2019, der Precire verliehen wurde, weil der Einsatz der Software im Call Center gegen Datenschutzbestimmungen verstoße. Die Firma hat viele namhafte Kund*innen, sie listet Unternehmen wie den Frankfurter Flughafen, KPMG und HDI auf. Wie intensiv sich diese Firmen mit der Methodik beschäftigt haben, und ob ihre Mitarbeiter*innen dieser Methode zur Beurteilung ihrer Leistungsfähigkeit unterzogen werden, ist unbekannt.

 

Bearbeitet am 4. November 2019 zugunsten einer akkuraten Beschreibung der Trainingsmethode der Firma 100 Worte.

Veröffentlicht: 23. 9. 2019
Kategorie: Story

Kommentieren

Your email address will not be published. Required fields are marked *

AlgorithmWatch wird gefördert durch