Warum Zuckerbergs „Unabhängiger Beirat” ins Leere laufen wird (aber einige seiner Ideen diskutierenswert sind)

Plötzlich ist Mark Zuckerberg ein Fan der Regulierung sozialer Medien. Was stimmt da nicht?

In einem fast 5.000 Worte langen „Blogbeitrag” hat Mark Zuckerberg (und wahrscheinlich etwa zwei Dutzend Policy-Berater und Anwälte) Facebooks Vorstellungen davon dargelegt, wie die aktuelle Krise des Unternehmens bewältigt werden kann. Der Artikel heißt: „Eine Blaupause für Governance und Durchsetzung“ und ist in neun Teile gegliedert:

  1. Community Standards
  2. Proaktiv schädliche Inhalte identifizieren
  3. Grenzwertige Inhalte abschrecken
  4. Nutzern Kontrolle geben und mehr Inhalte zulassen
  5. Algorithmischen Bias angehen
  6. Ein Berufungsverfahren aufbauen
  7. Unabhängige Governance und Aufsicht
  8. Transparenz herstellen und Forschung ermöglichen
  9. Zusammenarbeit bei der Regulierung

Es ist zu früh und der Vorschlag zu komplex, um eine umfassende Einschätzung zu dem zu geben, was Zuckerberg in seinem Blog darlegt. Ich konzentriere mich deshalb auf einige Aspekte und stelle meine Gedanken dazu vor. Das ist alles nur vorläufig, aber irgendwo müssen wir anfangen – wer also denkt, dass ich falsch liege, möge das sagen, ohne gleich zu schreien. Wir könnten am Ende sogar miteinander diskutieren und voneinander lernen.

Beim ersten Lesen könnte man meinen, der Text markiere eine scharfe Kehrtwende in den Ansichten der Firma zum Thema Inhaltssteuerung, einer der Kernfragen für ein Netzwerk mit mehr als 2 Milliarden Nutzern. Andererseits kann man ihn auch als ein weiteres (mehr oder weniger) geschickt gemachtes Ablenkungsmanöver interpretieren.

Facebooks Logik in Kürze

Kurz gesagt geht die Argumentation so:

Da es eine Menge Inhalte auf Facebook gibt, mit denen manche Leute (und Regierungen) ein Problem haben, beschränken wir, wie viel davon zu sehen ist, indem wir „KI“ nutzen, die die Inhalte entweder komplett blockiert oder ihre Sichtbarkeit reduziert. Um dem Eindruck vorzubeugen, die Plattform würde zensiert, stellen wir sicher, dass unsere KI das Richtige tut, geben den Menschen die Wahl, wie sie ihren Newsfeed einstellen und – für den sehr, sehr seltenen Fall, dass wir es vermasseln – richten wir ein Berufungsverfahren mit einem Beirat unabhängiger Experten ein, um die Fälle zu entscheiden, die wir selbst nicht entscheiden wollen. Und für den Fall, dass Selbstregulation mal nicht genug ist, werden wir – tadaa! – mit Regierungen zusammen an der Regulierung arbeiten (wobei wir aber nur Messdaten zu den Methoden anbieten, die wir sowieso anwenden wollen).

Sind jetzt alle glücklich? Na ja, nicht ganz. Facebook steckte schon lange in der Klemme. Das Unternehmen wurde gleichzeitig (vorwiegend von Bürgern, Regierungen und einigen Aktivisten) dafür kritisiert, dass nicht genug „hate speech” und „Fehlinformationen” vom Netz genommen wird, und (von anderen Bürgern und Aktivisten, aber nicht von Regierungen) dafür, dass zu viele legale Inhalte entfernt werden.

Die erste Fraktion versteigt sich dazu, zu behaupten, Facebook sei eine Gefahr für die Demokratie, weil es Leuten erlaube, Hass zu sähen und die öffentliche Debatte und sogar Wahlen manipuliere. Die zweite argumentiert, Facebook sei eine Bedrohung für die Redefreiheit, weil es auf Grundlage seiner „Community Standards“ Inhalte blockiere, die in den jeweiligen Ländern eigentlich legal seien. Weil Facebook so dominant sei, dass Leute nicht einfach eine andere Plattform wählen könnten – und Facebook damit einen Teil der Öffentlichkeit selbst darstelle –, bedeute das, die Debatte als solche sei in Gefahr.

Gratwandeln wie ein betrunkener Elefant

Facebook wandelt seit Jahren auf diesem Grat – die meiste Zeit allerdings wie ein betrunkener Elefant.

Die These „Facebook ist eine Gefahr für die Demokratie“ werde ich hier erst einmal nicht diskutieren. Nur soviel dazu: Ich denke, dass diese Behauptung übertrieben ist, weil sie Facebook zu viel Macht zuschreibt und dabei von wichtigen Diskussionen über die Gründe ablenkt, warum Demokratien in der Tat gefährdet sind. Aber die These ist da und wird überall auf der Welt aufgestellt; und sie hat genug Wirkung, um das Unternehmen zum Handeln zu zwingen. Ein besonders aggressives Beispiel ist Deutschlands viel diskutiertes Netzwerkdurchsetzungsgesetz, das Strafgelder von bis zu 50 Millionen Euro androht, wenn es sozialen Netzwerken nicht gelingt, illegale Inhalte schnell zu löschen.

Das Gesetz wurde von allen Interessensgruppen scharf dafür kritisiert, Anreize zum „übermäßigen Blockieren“ zu setzen. Oder anders gesagt: Netzwerke löschen vorschnell grenzwertige Inhalte, um Geldstrafen zu vermeiden. Aber Verteidiger der Redefreiheit kritisieren Facebook ebenso dafür, dass es das mithilfe seiner „Community Standards“ (die natürlich nicht Standards sind, die eine Gemeinschaft entwickelt hat, sondern als Standards des Unternehmens dazu dienen, Nutzer zu kontrollieren) bereits seit Jahren getan habe, um in den jeweiligen Ländern Inhalte zu blockieren, die dort völlig legal sind.

Das Problem mit der Rechtssprechung

Dies scheint ein Dilemma zu sein, das unmöglich zu lösen ist. Wenn man das Gesetz eines Landes (z. B. der USA) zur Grundlage dafür macht, was zulässig ist, dann könnte Facebook als Konsequenz in vielen anderen Staaten der Welt nicht tätig sein (man denke hier nicht nur an Saudi-Arabien, sondern auch an Deutschland oder Frankreich). Macht man aber die Gesetze aller Staaten, in denen die Firma operiert, zur Grundlage, dann würde das entweder dazu führen, dass überhaupt keine Inhalte mehr zu sehen wären oder es kein grenzüberschreitendes Netzwerk gäbe. Deshalb sind beide Optionen indiskutabel, sowohl für das Unternehmen als auch für die Verfechter der Redefreiheit. Dagegen scheinen viele Regierungen die Option zu mögen, bei der ihre Gesetze gültig sind und vollständig durchgesetzt werden (klar, dafür sind sie Regierungen!) – aber das hat meist mit der Unwissenheit von Gesetzgebern über die „Ansammlung von Kabeln“ zu tun, aus denen das Internet besteht.

Vor diesem Hintergrund fangen die Pläne von Facebook an, deutlich mehr Sinn zu ergeben. Wenn man sich (mehr oder weniger) an die Gesetze aller Länder halten muss, in denen das Unternehmen operiert, aber möglichst viele Inhalte auf der Plattform belassen möchte, muss man Kompromisse machen. Bisher wendet die Firma ihr berüchtigtes ehemaliges Motto „Move fast and break things“ („handle schnell und zerstöre“) auf Gesellschaften überall auf der Welt an. Sie veröffentlicht Milliarden illegaler Posts und verweist dabei darauf, dass sich der Gerichtsstand für Facebook in Kalifornien befindet. Jetzt, wo der Druck aus Ländern wächst, in denen Facebook sehr viel Geld verdient (das es auch weiter verdienen möchte), muss es sich etwas Besseres einfallen lassen.

Schlecht definierte Konzepte führen zu einem fehlerhaften Prozess

Dieses „etwas Bessere“, das Facebook nun vorschlägt, ist eine Kombination aus Technik und Governance-Strukturen. Auf Basis seiner „Community Standards” identifiziert „KI” „proaktiv“ „schädlichen“ und „grenzwertigen“ Inhalt, wobei sie „algorithmischen Bias“ vermeidet und Nutzern „Kontrolle“ darüber gibt, was sie sehen. Begleitet wird das durch ein „Beschwerdeverfahren“ mit „unabhängiger Governance und Aufsicht“ und unterstützt durch „Transparenz“ und „Forschung“ sowie „Zusammenarbeit“ mit Regierungen bei der „Regulierung“. In dieser Zusammenfassung habe ich alle Begriffe in Anführungszeichen gesetzt, die unzureichend definiert oder unklar verwendet werden und damit höchst umstritten sind. Nicht viel übrig außer Konjunktionen und Artikeln, nicht wahr? Schauen wir uns das mal im Detail an.

“KI” meint in diesem Fall Filter, die auf die Identifikation von Inhalten trainiert werden, die in bestimmte Kategorien fallen. Hört sich toll an, wenn es von einem der größten Technologiekonzerne der Welt kommt, der eines der höchsten Budgets für die Erforschung und Entwicklung von KI hat, nicht wahr? Aber die Klassifikation von Sprache – im Sinne der Bedeutung von Worten in einem spezifischen Kontext – ist eine der komplexesten Aufgaben, die es gibt, und momentan scheitern automatisierte Inhaltsfilter noch kläglich daran. Es wird heiß diskutiert, ob sie dazu jemals in der Lage sein werden, aber das ist eine philosophische Frage. Aktuell können sie jedenfalls nicht zuverlässig identifizieren, was „schädlich“ ist (und damit geht „grenzwertig“ gleich mit über die Wupper). Wenn Zuckerberg also sagt: „Wir machen Fortschritte bei Hassrede, 52 % der Posts werden schon proaktiv identifiziert”, dann sollten wir den Satz so verstehen: „Unsere Systeme klassifizieren eine Menge Posts als ‚Hassrede’, die dann nie veröffentlicht und deshalb auch nie von einem Menschen beurteilt werden; was bedeutet, dass wir keine Ahnung haben, wie viele davon Fehleinschätzungen sind, wie viele Inhalte demnach fälschlicherweise entfernt werden und inwieweit wir damit die freie Meinungsäußerung beeinträchtigen.“ Ja, das ist (nur) ein wenig vereinfacht, denn es gibt Methoden, Anwendungen auf Fehleinschätzungen und Bias hin zu testen. Die Leute bei Facebook sind nicht dämlich und ich bin sicher, viele von ihnen wollen das Richtige tun – aber Zuckerberg schreibt selber, dass „im großen Ganzen diese Arbeit wichtig und noch am Anfang ist. Wir werden Sie auf dem Laufenden halten, wenn es Fortschritte gibt“. Lesen Sie dies so: „Wir wissen nicht, was wir tun, aber das ist in Ordnung, weil es keiner weiß.“ Solange es keine unabhängige Forschung dazu gibt (siehe unten), sollten wir einem Unternehmen, das alle zwei Monate beim Lügen erwischt wird, an der Stelle erstmal nichts glauben.

Mehr Inhalte, mehr Kontrolle, weniger Verstöße – hat Zuckerberg den Heiligen Gral gefunden?

Was bleibt uns also von „Nutzern mehr Kontrolle geben und mehr Inhalte erlauben“? Nicht viel, meine ich, obwohl ich die zugrunde liegende Idee erstmal sehr charmant finde. Wie schon gesagt: Wenn es um Sprache geht, ist Kontext alles. Des Einen Lüge ist des Anderen Parodie; des Einen Freiheitskämpfer ist des Anderen Terrorist. Das wird sich nie ändern (und sollte es wahrscheinlich auch nicht). Es ist also eine gute Idee, Menschen die Kontrolle darüber zu geben, was sie sehen möchten. Aber wenn die Wahl, die die Nutzer bekommen, auf einer mangelhaften Definition von schädlichem und grenzwertigem Inhalt basiert (den „Community Standards”), gefolgt von einer fehlerhaften Klassifikation von schädlichem und grenzwertigem Inhalt (durch „KI“), dann werden die Nutzer eine ziemlich schlechte Auswahl dessen bekommen, über das sie „Kontrolle“ ausüben dürfen. In Verbindung mit der Absicht von Facebook, dass Nutzer mehr Inhalte nur per Opt-In zu sehen bekommen – also nur, wenn sie die Filterung bewusst abschalten –, bekommen wir ein System, dass nur theoretisch besser ist als das, das wir jetzt haben, aber nicht in der Praxis.

Was ist dann mit dem Berufungsverfahren mit unabhängiger Governance und Aufsicht? Genau wie beim Vorschlag, „Nutzern die Kontrolle zu geben, was sie sehen“, bin ich sehr für die Idee. Es wurde hier eben schon erklärt, dass Plattformen nicht über Rede- und Äußerungsfreiheit richten sollten. Das gilt natürlich nicht allein für Facebook, sondern auch für Google, Twitter und andere; und ich selbst habe die Entscheidung des Europäischen Gerichtshof zum „Recht auf Vergessenwerden“ aus diesem Grund kritisiert. Gleichzeitig können Gerichte aber auch nicht über Tausende umstrittener Posts, Suchergebnisse, Videos und Tweets urteilen. Es muss ein abgestuftes System geben, das (selbstverständlich) nicht innerhalb eines Unternehmens enden darf. Solange illegale Inhalte nicht entfernt werden, ist das in den meisten Ländern die Regel. Denn wenn Unternehmen Inhalte online lassen, können Menschen vor Gericht gehen, um sie entfernen zu lassen (mir ist klar, dass das in der Praxis nur in einigen wenigen Ländern der Welt möglich ist und es selbst dort die Firmen so schwer, teuer und frustrierend machen, wie sie nur können; Facebook vorneweg – aber es gibt zumindest theoretisch immer noch die Option eines rechtlichen Verfahrens).

Ein zahnloses Berufungsverfahren

Wenn es aber um gelöschte Inhalte geht, die man wiederhergestellt haben möchte, weil man zum Beispiel findet, dass sie im eigenen Land völlig legal sind und man sie veröffentlichen dürfen sollte, haben die „Entscheider“ bei Facebook das letzte Wort. Warum? Weil Firmen wie Facebook Privatunternehmen sind und keine (rechtliche) Verpflichtung haben, die Meinungsfreiheit zu schützen. Sie können einfach ihre Hausregeln anwenden und nicht dazu gezwungen werden, irgendetwas zu veröffentlichen. Das ist grundsätzliche eine gute Idee, weil Meinungsfreiheit auch das Recht einschließt, auszuwählen, was man auf der eigenen Plattform veröffentlichen möchte. Dieses Argument wird aber dann sehr problematisch, wenn diese Plattform so dominant geworden ist, dass sie eine Öffentlichkeit (wenn auch nicht gleich die Öffentlichkeit) darstellt. Man muss sie sich vorstellen wie einen öffentlichen Raum oder eine Infrastruktur für Sprache. Ich würde sagen, dass wir mit Facebook (wie auch mit Googles Suchmaschine und Youtube) diesen Punkt erreicht haben.

Das neue Berufungsverfahren bei Facebook ist also ein Schritt in die richtige Richtung, aber natürlich ändert es nicht grundsätzlich etwas an der Tatsache, dass die Entscheidung innerhalb des Unternehmens bleibt. Faszinierend und wahrscheinlich ein Wendepunkt in der Diskussion ist die Tatsache, dass Facebook dies nun anerkennt und vorschlägt, einen unabhängigen Beirat für Governance und Aufsicht zu bestellen, „dessen Entscheidungen transparent und bindend“ für die Firma sein sollen. Wenn jemand also eine Entscheidung der Moderatoren von Facebook anficht, könnte das vor dem Beirat landen, an dessen Entscheidung sich das Unternehmen dann halten muss.

Hört sich toll an, oder? Unabhängige Aufsicht! Facebook gibt Macht an Experten ab! Vielleicht geht es ja nur mir so, aber ich habe ganz schlicht keine Ahnung, wie das zugrunde liegende  Problem damit gelöst werden soll, dass man unmöglich auf globaler Ebene über Rede- und Äußerungsfreiheit entscheiden kann. Dabei lasse ich mal all die Probleme mit dem Verfahren an sich beiseite, die dadurch entstehen, dass ein Gremium unabhängig von einem Unternehmen sein soll, das für seine Existenz und seine Arbeit bezahlt (und weil es viel Arbeit dort geben wird, kann das niemand ehrenamtlich machen). Lesen Sie einfach den Satz „Weil unser Vorstand unseren Shareholdern rechenschaftspflichtig ist, würde sich dieses Gremium nur auf unsere Community konzentrieren” und lassen sie ihn wirken; Sie werden sehen, was ich meine.

Keine gemeinsame Basis

Ich rede hier davon, was im Fall einer Holocaustleugnung passiert, die in Israel, Deutschland, Frankreich und 14 anderen europäischen Ländern illegal ist, aber nicht in den USA und den meisten anderen Staaten der Welt. Ich rede davon, was mit Fällen von Darstellung von Nacktheit passiert, die in den USA illegal sind, aber nicht in den Niederlanden und Schweden. Ich spreche von der Tatsache, dass es selbst zwischen Ländern, die die Meinungsfreiheit anerkennen, keine Einigkeit darüber gibt, was diese Freiheit umfasst, weil das in jedem Land mit seiner Gesellschaft und ihren Normen unterschiedlich ist. Mir geht es um die grundsätzliche Herausforderung, die durch die Tatsache entsteht, dass Facebook eine globale Plattform ist, die über 180 Ländergrenzen mit ihren nationalen Rechtssprechungen hinweg operiert.

Ich möchte das nicht ein Problem nennen, denn die Meisten von uns halten nationale Rechtssprechung im Bezug auf Meinungsfreiheit für etwas Gutes, weil sie kulturelle Kontextualität respektiert. Für globale Plattformen aber ist das ein Problem. Und weil wir jetzt globale Plattformen haben, ist das auch für Vertreter der Redefreiheit (wie mich) ein Problem, weil wir einfach noch keine Vorstellung davon haben, wie man freie Rede mit der Existenz globaler Plattformen und nationaler, kontextbezogener Gesetze vereinbaren kann. (Wir haben es deshalb auch abgelehnt, Vorschläge dafür zu machen, wer in einem Auswahlkomittee für den Beirat – nicht im Beirat selbst – sein könnte, als Vertreter von Facebook Deutschland vor ein paar Wochen an uns herangetreten sind.)

Regulation? Nicht wirklich

Zieht man all dies in Betracht, wird es schwierig, Zuckerbergs Vorschläge für Transparenz, das Ermöglichen von Forschung und die Zusammenarbeit bei der Regulation in einem günstigen Licht zu sehen. Ich kenne die Ansicht, dass Plattformen gerade dabei seien, ihre Haltung zu Regulierung ändern: von mit Zähnen und Klauen bekämpfen hin zu darum bitten. Zuckerbergs Text scheint dafür ein Beispiel zu sein, aber der Schein kann trügen. Ich stimme weitgehend zu, dass das Konzept „wir definieren, wie viel problematischen Inhalt eine Gesellschaft hinnehmen muss“ eine sehr gute Idee ist, die weiterverfolgt werden sollte, weil es „in Wirklichkeit immer einige schädliche Inhalte geben wird, sodass es für die Gesellschaft wichtig ist, sich darüber zu einigen, wie man sie auf ein Minimum reduziert – und wo die Grenze zwischen Freiheit und Sicherheit gezogen werden sollte“. Aber „KI“- basiertes „proaktives“ Management (blockieren und verstecken) von „schädlichem“ und „grenzwertigem“ Inhalt, in Verbindung mit einer Regulierung, die Unternehmen nur dazu zwingt, bestimmte „Daten“ offenzulegen, ist – aus den bisher dargelegten Gründen – einfach weit entfernt von einer echten Lösung.

Diese „Blaupause“ kann also funktionieren, um Kritiker und Gesetzgeber zu beschwichtigen und die Regulierungsdiskussion von Facebook abzulenken (obwohl ich das nicht hoffe). Als „Blaupause für Governance und ihre Durchsetzung“ taugt sie nicht.

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu ADM und öffentlicher Meinungsbildung.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.