Ethische Richtlinien des größten technischen Berufsverbands der Welt zeigen kaum Wirkung

Der weltweit größte Berufsverband von Ingenieuren hat im März dieses Jahres seine Ethikrichtlinien für automatisierte Systeme veröffentlicht. Eine Auswertung von AlgorithmWatch zeigt, dass Facebook und Google diese noch nicht anerkannt haben.

Nicolas Kayser-Bril
Head of Journalism (in Elternzeit)

Anfang 2016 startete der Fachverband IEEE (Institute of Electrical and Electronics Engineers) eine „globale Initiative zur Förderung der Ethik in der Technik“. Nach fast drei Jahren Arbeit und mehrfachen Runden des Austauschs mit Expert*innen zu diesem Thema erschien im vergangenen April die erste Ausgabe von Ethically Aligned Design, einer 300-seitigen Abhandlung über die Ethik automatisierter Systeme. (Die deutsche Übersetzung der Zusammenfassung finden Sie hier.)

Die im Bericht veröffentlichten allgemeinen Grundsätze legen den Schwerpunkt unter anderem auf Transparenz, Menschenrechte und Rechenschaftspflicht. Damit unterscheiden sie sich nicht wesentlich von den 83 anderen ethischen Richtlinien, die Forscherinnen und Forscher des Health Ethics and Policy Lab der ETH Zürich in einem Artikel in Nature Machine Intelligence im September veröffentlicht haben. Ein wesentlicher Aspekt unterscheidet IEEE jedoch von anderen Think-Tanks. Mit über 420.000 Mitgliedern ist sie die weltweit größte Ingenieurvereinigung und hat ihre Wurzeln tief im Silicon Valley. Vint Cerf, einer der Vizepräsidenten von Google, ist ein IEEE „Life Fellow“.

Da die IEEE-Prinzipien als „Schlüsselreferenz für die Arbeit von Technolog*innen“ dienen sollen und viele Technolog*innen an ihrer Entwicklung beteiligt waren, wollten wir wissen, wie drei Technologieunternehmen, Facebook, Google und Twitter, diese umsetzen wollen.

Transparenz und Rechenschaftspflicht

Der Grundsatz Nummer 5 verlangt beispielsweise, dass die Grundlage einer bestimmten automatisierten Entscheidung „auffindbar“ (discoverable) ist. Auf Facebook und Instagram sind die Gründe, warum ein bestimmter Artikel im Feed eines Nutzers oder einer Nutzerin angezeigt wird, alles andere als ersichtlich. Die Funktion „Warum sehe ich diesen Beitrag?“ von Facebook erklärt, dass „viele Faktoren“ an der Entscheidung beteiligt sind, einen bestimmten Inhalt zu zeigen. Die Hilfeseite, die zur Klärung der Frage dienen soll, tut dies nicht: Viele Sätze dort verwenden undurchsichtige Formulierungen (den Nutzer*innen wird beispielsweise mitgeteilt, dass„einige Faktoren das Ranking beeinflussen“) und die Entscheidungsgrundlagen für ihr News Feed-Ranking sind nicht zu finden.

In Grundsatz Nummer 6 heißt es, dass jedes autonome System „eine unmissverständliche Begründung für alle getroffenen Entscheidungen liefern muss“. Die Werbesysteme von Google liefern keine eindeutige Begründung dafür, warum eine bestimmte Werbung einer Nutzerin oder einem Nutzer gezeigt wird. Ein Klick auf „Warum sehe ich diese Werbung?“ gibt an, dass eine Anzeige auf allgemeinen Faktoren („general factors“) basieren kann und auf auf Informationen, die vom Publisher gesammelt wurden („information collected by the publisher“). Eine solche Unklarheit steht im Widerspruch zur Forderung nach Deutlichkeit.

AlgorithmWatch hat detaillierte Briefe (die Sie unter dem Artikel finden) mit diesen und weiteren Beispielen an Google, Facebook und Twitter geschickt und gefragt, wie sie die IEEE-Richtlinien umsetzen wollen. Das war im Juni. Nach vielen E-Mails, Telefonaten und persönlichen Treffen antwortete nur Twitter.

Twitter, which in the past few years has been facing weak growth and a public backlash on the abuse some of its users face, wrote that they agreed with the IEEE principles. Their change of course towards more accountability, notably the introduction of a button that lets users choose between an algorithm-curated and a chronological news feed in December 2018, predates the publication of the IEEE ethical principles.

Twitter, das in den letzten Jahren mit schwachem Wachstum und einer öffentlichen Kritik am Missbrauch einiger seiner Nutzer konfrontiert war, schrieb, dass sie mit den IEEE-Prinzipien einverstanden seien. Der Kurswechsel von Twitter hin zu mehr Verantwortlichkeit, insbesondere die Einführung einer Schaltfläche im Dezember 2018, die es den Nutzern ermöglicht, zwischen einem algorithmisch kuratierten und einem chronologischen Newsfeed zu wählen, erfolgte vor der Veröffentlichung der ethischen Grundsätze des IEEE.

Falsche Fragen

Zu fragen, warum Google und Facebook keine Zeichen für die Umsetzung der Richtlinien setzen, sei die „falsche Frage“, sagte Konstantinos Karachalios, Geschäftsführer des IEEE in einem Telefoninterview. Für seien die allgemeinen Prinzipien kein Standard wie WiFi, ein technischer Standard, der klar und schnell umgesetzt werden kann. Sie zielen vielmehr auf die Berufsausbildung und die „Gestaltung der Politik“ ab. In dieser Hinsicht war Ethically Aligned Design ein großer Erfolg, sagte er. Die OECD, ein Club reicher Länder, veröffentlichte Prinzipien zur künstlichen Intelligenz, die sich eng an denen des IEEE orientierten. Neben anderen Institutionen der öffentlichen Hand in vielen Ländern habe auch die  Datenethikkommission der Bundesregierung von der Expertise des IEEE profitiert, so Karachalios.

Während ein politischer Wandel ein lobenswertes Ziel ist, hängt die soziale Wirkung automatisierter Systeme von den konkreten Schritten ab, die Technologieunternehmen unternehmen, um ihren Nutzer*innen Handlungsspielraum zu geben oder zu nehmen. AlgorithmWatch wird weiterhin die falschen Fragen stellen.

Die Briefe an Facebook, Google und Twitter von AlgorithmWatch (um PDF in neuem Tab zu öffnen hier klicken):

[pdf-embedder url=„https://algorithmwatch.org/de/wp-content/uploads/2019/10/IEEE-emails.pdf“]

Ergänzende Recherche: Veronika Thiel

Hat dir diese Story gefallen?

Alle zwei Wochen untersucht „Die automatisierte Gesellschaft“ die Auswirkungen automatisierter Systeme auf die Gesellschaft und die Welt um dich herum. Melde dich jetzt an und verpasse keine Story mehr!

Abonniere jetzt DIE AUTOMATISIERTE GESELLSCHAFT_

Mehr Informationen findest du in unserer Datenschutzerklärung.