Story

Automatisierte Diskriminierung: Facebook verwendet grobe Stereotypen, um die Anzeigenschaltung zu optimieren

Von Nicolas Kayser-Bril • kayser-bril@algorithmwatch.orgGPG Key

Aus dem Englischen von Lisa Andergassen

Ein Experiment von AlgorithmWatch zeigt, dass Online-Plattformen Anzeigenschaltungen auf diskriminierende Weise optimieren. Werbetreibende verstoßen mit deren Verwendung eventuell  gegen das Gesetz.

Online-Plattformen sind dafür bekannt, dass sie ihre Werbetechnologien ständig optimieren, damit Werbetreibende ganz bestimmte Zielgruppen adressieren können. Über Facebook lassen sich beispielsweise Freunde von Personen ansprechen, die demnächst Geburtstag haben. Bis Journalisten den Umstand aufgedeckt haben, konnten auch Personen nach rassistischen Mustern von Anzeigen ausgeschlossen werden.

Aber das ist erst der Anfang. Denn Plattformen führen, ohne Wissen der jeweiligen Werbetreibenden, eine zweite Runde des Targetings bzw. der Optimierung durch.

AlgorithmWatch hat auf Facebook und Google für die folgenden Stellenangebote geworben (alle Werbungen verwendeten die männliche Form): Entwickler für Machine-Learning-Systeme, LKW-Fahrer, Friseur, Kinderbetreuer, Anwalt und Krankenpfleger. Alle Anzeigen enthielten ein Bild, das sich auf die Stelle bezog. Wir haben das Experiment in Deutschland, Polen, Frankreich, Spanien und der Schweiz durchgeführt. Die Anzeigen waren mit tatsächlichen Stellenangeboten auf Indeed verlinkt, einem Stellenportal mit Lokalauftritt in jedem dieser Länder.

Für jede Anzeige wurde ausdrücklich kein Targeting verwendet, abgesehen von der von der Plattform angeforderten Angabe einer geografischen Eingrenzung.

An ad for jobs of hairdresser on Facebook.

Wir hatten nicht erwartet, dass unsere Anzeigen Männer und Frauen gleichermaßen erreichen würden. Allerdings gingen wir davon aus, dass die Anzeigen ungefähr demselben Zielpublikum gezeigt werden würden. Schließlich waren unsere Anzeigen nicht an eine spezielle Gruppe gerichtet.

“Optimierung”

Google, aber insbesondere Facebook, hat Targeting durchgeführt, ohne unsere Erlaubnis einzuholen. In Deutschland wurde unsere Anzeige für Lastwagenfahrer 4864 Männern gezeigt, aber nur 386 Frauen. Unsere Anzeige für Kinderbetreuer, die genau zur selben Zeit geschaltet wurde, erreichte 6,456 Frauen, aber nur 258 Männer.

Unsere Auswertungen können Sie hier im Detail einsehen.

 

 

Wenn Inserenten Werbefläche auf Google oder Facebook kaufen, geben sie Gebote ab, wie bei einer Auktion. Wenn Nutzer·innen ihre Newsfeeds abrufen oder eine Suche durchführen, werden die Anzeigen mit den höchsten Geboten bestimmten Nutzer·innen gezeigt.

Es wäre nicht praktikabel, wenn Inserenten jedes Mal, wenn jemand seinen Newsfeed aktualisiert, mit allen anderen Anbietern konkurrieren müssten. Plattformen “optimieren” daher den Biet-Prozess, indem die Konkurrenz zwischen den Inserenten nur jene Nutzer·innen betrifft, die mit einer großen Wahrscheinlichkeit auf ihre Anzeigen klicken werden. Daraus resultiert, dass Werbetreibende auf Nutzer·innen bieten, die voraussichtlich auch auf ihre Anzeigen klicken werden und dass Plattformen ihr Anzeigenbudget schneller ausschöpfen können.

Das Stellenangebot für Lastwagenfahrer·innen wurde 4864 Männer und 386 Frauen gezeigt. Dies waren die Nutzer·innen, von denen Facebook dachte, dass sie mit hoher Wahrscheinlichkeit auch auf die Anzeige klicken würden.

Schicksalhafte Bilder

Wir wollten herausfinden, wie Facebook die Wahrscheinlichkeit, auf eine Anzeige zu klicken, berechnet. In einem anderen Experiment schalteten wir eine Anzeige für eine Seite, die mehrere Stellenangebote für LKW-Fahrer·innen auflistete und veränderten die Bilder und den Text der Anzeige.

Die Inserate wurden in Frankreich geschaltet. In einer der Anzeigen benutzten wir eine genderneutrale Form von “LKW-Fahrer·in” (chauffeur·se). In einer anderen verwendeten wir nur die weibliche Form (chauffeuse, LKW-Fahrerin). In einer dritten zeigten wir Bilder einer Landstraße, statt eines Lastwagens. Und schließlich zeigten wir ein Bild von Kosmetikartikeln.

Die Ergebnisse zeigen, dass Facebook hauptsächlich anhand der Bildinhalte entscheidet, wer die Anzeige zu sehen bekam.

 

 

Google scheint weniger zu diskriminieren, aber das ist noch unklar

Die Anzeigen, die wir auf Google gekauft haben, zeigten ein ähnliches Muster, allerdings waren die Verhältnisse weniger stark ausgeprägt: Die Differenz zwischen den Anzeigen, die hauptsächlich Männern oder hauptsächlich Frauen gezeigt wurden, war nie höher als 20 Prozentpunkten. Und vor allem folgt die Gender Optimierung von Google keinem gleichbleibenden Muster. In Deutschland beispielsweise, wurde die Anzeige für Lastwagenfahrer·innen hauptsächlich Frauen gezeigt.

Allerdings ließ Google uns nicht “unbegrenzt” auf unsere Anzeigen bieten. Wir mussten manuell einstellen, wieviel wir für eine Person, die auf unsere Anzeige klickt, zahlen würden. Mit unbegrenzten Geboten entscheidet die Plattform automatisch, wieviel für einen Klick geboten werden soll, basierend auf dem Budget des Werbunganbieters. Die Ergebnisse der beiden Plattformen sind nicht direkt vergleichbar.

Die Ergebnisse unseres Facebook-Experiments waren außerdem davon beeinflusst, dass die Plattform ihre Werbe-Richtlinien willkürlich durchsetzt. In Spanien wurden unsere Anzeigen alle nach ein paar Stunden mit der Begründung beendet, es bestehe der Verdacht eines “get rich quick scheme”. In Polen wurden zwei unserer Anzeigen beendet, nachdem Facebook entschied sie bezögen sich auf “Gesellschaftsfragen, Wahlen oder Politik”.

An advertisement for jobs of legal counsels being suspended by Facebook under the pretense that it is political.

Die Vergangenheit wiederholen

Unsere Ergebnisse bestätigen die eines Teams der Northeastern University in den Vereinigten Staaten. 2019 wurde hier herausgefunden, dass Facebooks Anzeigenoptimierung auf eine Weise diskriminiert, die möglicherweise illegal ist.

Piotr Sapiezynski, einer der Co-Autoren, berichtete AlgorithmWatch, dass Facebook Erkenntnisse aus historischen Daten zieht. Er stellte fest, dass die Gender-Adressierung von Anzeigen sich während ihrer gesamten Laufzeit kaum verändert. Facebook entscheidet unmittelbar nach der Veröffentlichung einer Anzeige, wem sie gezeigt werden soll. Basierend darauf, wie Nutzern und Nutzerinnen in der Vergangenheit auf ähnliche Ads reagiert haben, prognostiziert Facebook wer auf welche Anzeige klicken wird.

“Der Mechanismus ist von Natur aus konservativ”, erklärte Herr Sapiezynski. „Er sagt voraus, dass sich die Vergangenheit wiederholen wird”. Weil der Mechanismus darüber entscheidet, was Nutzer·innen zu sehen bekommen, wenn sie eine Facebook Seite besuchen, “gestaltet er außerdem die Zukunft”, fügte er hinzu. Auf diese Weise schränkt Facebook die Möglichkeiten von Nutzern und Nutzerinnen ein.

Eventuell illegal

Automatisiertes Targeting könnte für Werbetreibende auf vielfältige Weise hilfreich sein. Stellenangebote für spezialisierte Berufsgruppen könnten beispielsweise nur den Menschen gezeigt werden, die über entsprechende Qualifikationen verfügen. Nach europäischem Recht sind allerdings etliche Kriterien verboten: Niemand darf auf der Basis von Kriterien, wie Gender oder ethnischem Hintergrund diskriminiert werden.

Die Gründe dafür sind offensichtlich. Wenn eine Stellenausschreibung für Krankenpfleger·innen oder Kindererzieher·innen nur auf Facebook geschaltet werden würde, hätten männliche Kandidaten nur eine geringe Chance, sich auf die Stelle bewerben zu können.

AlgorithmWatch hat mit mehreren Experten für Antidiskriminierungsrecht gesprochen. Alle waren sich einig, dass Facebook, und vielleicht auch Google, mit ihrem automatisierten Targeting indirekte Diskriminierung betreiben.

Die Ethische Perspektive

Trotz rechtlicher Folgen tragen diese Systeme zu Diskriminierung im ethischen Sinne bei, erklärte Tobias Matzner, Professor für Medien, Algorithmen und Gesellschaft an der Universität Paderborn, auf Anfrage von AlgorithmWatch.

„Solche Prozesse tragen ganz klar zu Diskriminierung bei, insbesondere strukturelle Formen der Diskriminierung, bei denen Teile der Bevölkerung von bestimmten gesellschaftlichen Bereichen ferngehalten werden,” sagte er. „Das Beispiel zeigt, dass unsere Vergangenheit als Nutzer·innen eines Tages darüber entscheiden könnte, welchen Job wir bekommen. Und das würde nicht durch ein negatives Verdikt eines mächtigen Unternehmens zustande kommen, sondern wäre das Resultat einer Kombination von Auswertungen früherer Nutzer·innendaten mit Vorhersagen der Plattformen, die verhindert, dass Nutzer·innen die Anzeigen überhaupt zu sehen bekommen.”

Darüber hinaus zeigte das Experiment der Northeastern University von 2019, dass Facebook Menschen nach rassistischen Mustern wie Race diskriminiert. Wir konnten zwar nicht belegen, dass dies auch in Europa der Fall ist, allerdings sah Herr Sapiezynski keine Gründe, die dagegensprechen würden, dass Facebook dieselben Mechanismen auf der ganzen Welt einsetzt.

Schwer zu beweisen

Trotz Verbot ist es für Bürger wahrscheinlich unmöglich nachzuweisen, dass sie von Diskriminierung betroffen sind, wenn Facebook beispielsweise Lastwagenfahrerinnen auf Arbeitssuche keine für sie relevanten Stellausschreibungen anzeigt.

Die aktuelle Rechtsprechung sieht vor, dass Menschen, die sich betroffen fühlen, selbst dafür zuständig sind, die Diskriminierung nachzuweisen. Allerdings haben Facebook-Nutzer·innen keine Möglichkeit in Erfahrung zu bringen, welche Stelleanzeigen ihnen nicht gezeigt werden. Genauso wenig können Werbetreibende garantieren, dass das Targeting ihrer Anzeigen nicht auf illegale Weise diskriminierend ist. Die deutsche Antidiskriminierungsstelle rief dazu auf, die Rechtslage zu überdenken, um dieses Problem zu lösen. Allerdings lassen Gesetzesänderungen bislang noch auf sich warten.

In den Vereinigten Staaten versuchte die Wohnrechtaktivistin Neuhtah Opiotennione eine Sammelklage gegen Facebooks diskriminierende Anzeigendistribution einzureichen. Leider sieht es momentan aber so aus, als würde die mit der Sache betraute Richterin die Klage abweisen.

No-go zone

Google reagierte auf keine unserer Anfragen, einen Kommentar abzugeben. Allerdings wurde unser Benutzerkonto ein paar Tage nachdem wir unsere Fragen verschickt hatten, mit der Begründung geschlossen, dass wir Googles Werbeprozesse und -systeme umgangen hätten. Letzteres war jedoch nicht der Fall.

Facebook hat unsere Fragen ebenfalls nicht beantwortet. Vertreter des Konzerns verlangten jedoch Einsicht in unsere Ergebnisse und fragten nach den Namen der involvierten Journalisten. Eine Antwort von Seiten der Plattform, die man durchaus als Einschüchterungsversuch verstehen könnte.

Moritz Zajonz hat an dieser Recherche mitgewirkt.

 

Newsletter


Diese Recherche wurde von JournalismFund.eu unterstützt

JournalismFund.eu logo

Foto: Joshua Hoehne on Unsplash

Veröffentlicht: 18. 10. 2020
Kategorie: Story
AlgorithmWatch wird gefördert durch