Community Standards + KI + Beirat = Informationsfreiheit weltweit?

Das deutsche Netzwerkdurchsetzungsgesetz hat weltweit Aufsehen erregt. Obwohl in Deutschland nahezu einhellig und zum Teil sehr scharf kritisiert, weckt es in anderen Ländern die Hoffnung, man könne große Informationsintermediäre wie Facebook, Google/Youtube und Twitter mithilfe strengerer Gesetze endlich „in die Schranken weisen“. Das ist durchaus verständlich in Ländern, die mit wesentlich schlimmeren Auswirkungen koordinierter Desinformationskampagnen zu kämpfen haben als Deutschland. Andererseits ist es wenig aussichtsreich und offenbart ein Dilemma, das nahezu ausweglos erscheint: auf grenzübergreifenden Plattformen landesspezifische Kulturen der Informationsfreiheit durchzusetzen, ohne zugleich die Informationsfreiheit weltweit einzuschränken.

Blog

5. August 2019

#essay

Den so genannten Informationsintermediären1 wie Facebook, Twitter und Youtube (Google) weht weltweit der Wind ins Gesicht. In Deutschland wurde das höchst umstrittene Netzwerkdurchsetzungsgesetz eingeführt (s. Diskussionen in diesem Band), das von autokratischen und autoritären Regimes wie in Russland2, den Philippinen3 oder Malaysia4 als Vorbild genommen wird, aber auch in anderen demokratischen Ländern Hoffnungen weckt, mithilfe gesetzlicher Regulierung koordinierte Desinformationskampagnen und „Hassrede“ eindämmen zu können. Das französische Parlament hat ein so genanntes „Fake-News-Gesetz“ erlassen, wonach Richter_innen in Wahlkampfzeiten von Anbietern verlangen können, Falschnachrichten augenblicklich aus dem Netz zu nehmen.5 Eine EU-Regulierung verpflichtet Informationsintermediäre dazu, „terroristische“ Inhalte innerhalb einer Stunde zu löschen. Auch in den USA, die traditionell eine libertäre Auffassung von Informationsfreiheit vertreten, mehren sich Forderungen danach, die „Social Networks“ stärker zu beschränken.

Vermutlich als Reaktion auf diesen weltweit zunehmenden Druck hat Facebook als erster großer Akteur nun einen auf den ersten Blick geradezu revolutionären Vorschlag vorgelegt: Das Unternehmen werde eine Art externen, unabhängigen Beirat einberufen, der in kontroversen Fällen letztendlich die Entscheidung darüber treffen soll, ob ein Beitrag gelöscht werden oder bestehen bleiben soll. Bei näherer Betrachtung sorgt dieser Vorschlag dafür, ein Dilemma herauszuarbeiten, das unauflösbar anmutet: auf grenzübergreifenden Plattformen landesspezifische Kulturen der Informationsfreiheit durchzusetzen, ohne zugleich die Informationsfreiheit weltweit einzuschränken.

Community Standards + KI + Beirat = Informationsfreiheit weltweit?

In einem fast 5.000 Worte langen „Blogbeitrag”6 hat das Unternehmen7 seine Vorstellungen davon dargelegt, wie es mit der Herausforderung umgehen kann, dass es zugleich möglichst viele Beiträge seiner Nutzer_innen auf der Plattform veröffentlichen kann, und zugleich in möglichst vielen Ländern operieren darf. Die Überschrift lautet „Eine Blaupause für Governance und Durchsetzung“; der Beitrag legt dar, wie auf der Basis von Facebooks „Community Standards“ so genannte „schädliche Inhalte“ identifiziert und „grenzwertige“ Inhalte abgewendet werden können. Nutzer_innen sollen mehr Kontrolle darüber bekommen, welche Inhalte ihnen angezeigt werden. Da die Identifizierung der schädlichen Inhalte mithilfe von Techniken der so genannten „Künstlichen Intelligenz“ erfolgen soll, die anfällig dafür sind, Vorurteile zu enthalten und zu verstärken, sollen die Technologien besonders auf diese Vorurteile („algorithmic bias“) hin überprüft werden. Zudem will das Unternehmen ein Berufungsverfahren aufbauen, mit dem Nutzer_innen gegen ungerechtfertigte Löschungen vorgehen können. Dieses Verfahren soll von dem oben genannten unabhängigen Aufsichtsgremium kontrolliert werden, dessen Entscheidungen sich das Unternehmen unterwerfen will. Zudem sollen Transparenz über das Verfahren her- und Daten zu Verfügung gestellt werden, um Forschung dazu zu ermöglichen. Schließlich kündigt Zuckerberg an, bei der Frage nach effektiverer Regulierung mit Regierungen zusammenzuarbeiten.8

Facebook steckt schon lange in einer Klemme. Das Unternehmen wird gleichzeitig dafür kritisiert, dass es nicht genug „hate speech” und „Fehlinformationen” löscht. Diese Kritik kommt vorwiegend von betroffenen Bürger_innen, Regierungen und einigen Aktivist_innen. Andere Bürger_innen und Aktivist_innen (aber keine Regierungen) hingegen kritisieren das Unternehmen dafür, dass zu viele legale Inhalte entfernt werden.

Die erste Fraktion geht so weit zu behaupten, Facebook sei eine Gefahr für die Demokratie, weil das Unternehmen Menschen erlaube, Hass zu sähen, die öffentliche Debatte und sogar Wahlen manipuliere. Die zweite argumentiert, Facebook sei eine Bedrohung für die Redefreiheit, weil es auf Grundlage seiner „Community Standards“ Inhalte blockiere, die in den jeweiligen Ländern eigentlich legal seien. Weil Facebook so dominant sei, dass Menschen nicht einfach eine andere Plattform wählen könnten – und Facebook damit einen Teil der Öffentlichkeit selbst darstelle –, bedeute das, die Debatte als solche sei in Gefahr.

Um die Gültigkeit der These „Facebook ist eine Gefahr für die Demokratie“ soll es in diesem Beitrag nicht gehen. Ich denke, dass diese Behauptung übertrieben ist, weil sie Facebook zu viel Macht zuschreibt und dabei von wichtigen Diskussionen über die Gründe ablenkt, warum Demokratien in der Tat gefährdet sind. Aber die These ist da und wird überall auf der Welt aufgestellt; und sie hat genug Wirkung, um das Unternehmen zum Handeln zu zwingen – wie eben durch das deutsche Netzwerkdurchsetzungsgesetz, das Strafgelder von bis zu 50 Millionen Euro vorsieht, wenn die Intermediäre illegale Inhalte systematisch nicht schnell genug löschen.

Das Gesetz wurde von vielen Interessenvertreter_innen scharf dafür kritisiert, Anreize zum „übermäßigen Blockieren“ zu setzen. Anders gesagt: Netzwerke werden dazu veranlasst, vorschnell vermeintlich problematische Inhalte zu löschen, um Geldstrafen zu vermeiden. Verteidiger_innen der Redefreiheit kritisieren Facebook allerdings ohnehin seit Jahren dafür, unliebsame Beiträge zu löschen, die in den jeweiligen Ländern völlig legal sind.

Die Gründe: Zum einen muss sich Facebook als US-Firma an die Gesetze der USA halten, also Inhalte löschen, die in den USA rechtswidrig sind – oder auch nur politisch problematisch und daher dazu führen könnten, dass die US-Gesetze verschärft werden. Zum anderen will das Unternehmen Inhalte verbreiten, die zwar kontrovers sind, weil diese Inhalte zu besonders viel Interaktion anspornen, was wiederum durch die Logik der Plattform zu mehr Werbeeinnahmen führt. Zum anderen sollen diese Inhalte aber nicht so kontrovers sein, dass sie Nutzer_innen davon abhalten, Facebook zu nutzen. Diese Balance soll mithilfe von Facebooks so genannten „Community Standards“ erreicht werden – die keine Standards sind, die eine Gemeinschaft entwickelt hat, sondern als Standards des Unternehmens dazu dienen, „die Gemeinschaft“, also die Nutzer_innen, zu kontrollieren.

Der grenzüberschreitende Charakter des Netzes bringt Anbieter wie Facebook, Twitter und Youtube in ein Dilemma. Wenn sie das Gesetz eines Landes (z. B. der USA) zur alleinigen Grundlage dafür machten, was zulässig ist, dann könnten sie als Konsequenz in vielen anderen Staaten der Welt nicht tätig sein – das gilt nicht nur für Saudi-Arabien, China oder Vietnam, sondern auch für Deutschland oder Frankreich. Macht man aber die Gesetze aller Staaten, in denen die Firma operiert, zur Grundlage, dann würde das entweder dazu führen, dass nahezu gar keine Inhalte mehr zu sehen wären oder es kein grenzüberschreitendes Netzwerk gäbe. Warum?

Grenzenloses Internet vs. kulturelle Kontextualität

Selbst zwischen demokratischen Rechtsstaaten sind die kulturellen Auffassungen davon, was zu äußern erlaubt ist, so unterschiedlich, dass es in vielen Fällen keinen gemeinsamen Nenner gibt. Beispiele dafür sind die Darstellungen von Nacktheit und der Umgang mit dem Völkermord an den Juden, aber auch die Privatsphäre: Was in den USA und Großbritannien erlaubte Berichterstattung ist, in der etwa der Name von Verdächtigen genannt wird, kann in Deutschland bereits eine Persönlichkeitsrechtsverletzung sein. Würde man nun in Zweifelsfällen das jeweils restriktivere Gesetz anwenden, würden auf Plattformen wie Facebook, Youtube und Twitter wohl Milliarden von Beiträgen verschwinden.

Ein möglicher Ausweg: Der Intermediär gestaltet sein Angebot so, dass Menschen in einem bestimmten Land immer nur „die Inhalte dieses Landes“9 zu sehen bekommen, die dadurch auch konform mit den Gesetzen des jeweiligen Landes sein könnten. Dieses Verfahren wird – mit Einschränkungen – von China verwendet, das versucht, durch ein hochentwickeltes Zensursystem dafür zu sorgen, dass im Land nahezu nur Inhalte zu sehen sind, die mit den Ansichten der Obrigkeit vereinbar sind. Aber auch Unternehmen setzen das so genannte Geoblocking ein, etwa um kommerzielle Interessen durchzusetzen. So ist es nicht möglich, als Kundin von Video-Streaming-Plattformen alle Filme zu sehen, die das Unternehmen im Angebot hat, weil die Rechteinhaber Inhalte unterschiedlich lizenzieren. Beispiel: Eine Produktionsfirma verkauft die Rechte eines von ihr produzierten Films in Deutschland an Sky, in den USA an Netflix. Dann kann die Netflix-Kundin den Film in Deutschland nicht sehen, weil Netflix ihren Standort technisch erkennt und technisch den Zugang verhindert. Reist sie in die USA, kann sie den Film über ihren Netflix-Zugang sehen. Dieses Verfahren ist vor allem innerhalb der EU höchst umstritten, weil die EU-Kommission davon ausgeht, dass ein gemeinsamer Binnenmarkt auch für digitale Güter gelten muss und EU-Bürger_innen daher in allen Ländern Zugriff auf das Repertoire an Inhalten von Musik-, Video und anderen Inhaltsangeboten verfügen können müssen, auf das sie in ihrem Heimatland Zugriff haben.

Mit Geolokalisierung und dem darauf aufbauenden Geoblocking könnten also Intermediäre wie Facebook, Youtube oder Twitter dafür sorgen, dass die meisten Menschen in einem bestimmten Land auch nur Inhalte sehen, die in diesem Land legal sind. Verteidiger_innen der Informationsfreiheit kritisieren am Geoblocking jedoch, dass es das Internet in ein so genanntes „Splinternet“ (von Splinter, engl. für Splitter) verwandelt: weg von einem globalen Kommunikationsnetz, hin zu einem Flickenteppich verschiedenster Netze, über die nur noch sehr eingeschränkt grenzübergreifend kommuniziert werden könnte.

Auch Staaten mit einem hohen Maß an Informationsfreiheit kritisieren den Ansatz, da damit unter anderem verhindert würde, dass global verfügbare Netzwerke einen – von ihnen gewünschten – Effekt haben können: staatliche Zensur in autoritären und diktatorischen Staaten zu umgehen und damit möglicherweise demokratisierend zu wirken. Denn die meisten dieser Länder sind technisch nicht in der Lage, den Zugang zu ausgewählten, von ihnen unerwünschten Inhalten auf Facebook, Twitter oder Youtube zu verhindern, schrecken aber davor zurück, den Zugang zu den Plattformen vollständig zu sperren (was technisch leichter möglich wäre), da diese von sehr vielen Bürger_innen und Unternehmen der Länder genutzt werden – und nicht zuletzt auch oft von den Regierungen für deren eigene Zwecke.

Angleichung nach unten oder ein zerrissenes Internet

Deshalb sind beide Optionen – also der „kleinste gemeinsame Nenner“ und das Splinternet – sowohl für Facebook, als auch für die Verfechter_innen der Redefreiheit unerwünscht.

Vor diesem Hintergrund ist es verständlich, dass Facebook ein großes eigenes Interesse daran hat, eine Lösung der Probleme nicht den Regierungen zu überlassen. Wenn man sich (mehr oder weniger) an die Gesetze aller Länder halten muss, in denen man als Unternehmen operiert, aber möglichst viele Inhalte auf der Plattform belassen möchte, muss man Kompromisse machen. Bisher wendet die Firma ihr berüchtigtes ehemaliges Motto „Move fast and break things“ („handle schnell und zerschlage Dinge“) auf Gesellschaften überall auf der Welt an. Sie veröffentlicht Milliarden Posts, die in vielen Ländern gegen das Gesetz verstoßen, und verweist dabei darauf, dass sich der Gerichtsstand für Facebook in Kalifornien befindet. Jetzt, wo der Druck aus Ländern wächst, in denen Facebook sehr viel Geld verdient (das es auch weiter verdienen möchte), muss es sich etwas Besseres einfallen lassen. Dieses „etwas Bessere“, das Facebook nun vorschlägt, ist eine Kombination aus Technik und Governance-Strukturen.

Der Vorschlag in Kürze: Es werden eine Menge Inhalte auf Facebook veröffentlicht, mit denen Menschen (und Regierungen) ein Problem haben, weil sie entweder klar rechtswidrig sind oder als Verstoß gegen die guten Sitten empfunden werden. Daher schränkt Facebook ein, wie viel davon zu sehen ist, indem Künstliche Intelligenz dazu genutzt wird, Inhalte entweder komplett zu blockieren oder ihre Sichtbarkeit zu reduzieren. Das Kriterium dafür sind Facebooks „Community Standards“. Um dem Eindruck vorzubeugen, Facebook zensiere Inhalte, muss sichergestellt sein, dass die KI „das Richtige tut“, also fehlerfrei funktioniert; zudem bekommen die Nutzer_innen die Wahl, wie sie ihren Newsfeed einstellen – also ob sie lieber mehr oder weniger Inhalte sehen wollen, die sie als anstößig empfinden könnten. Für den Fall, dass trotzdem Fehler passieren oder es Uneinigkeit gibt, richtet Facebook ein Berufungsverfahren mit einem Beirat unabhängiger Expert_innen ein, um die Fälle zu entscheiden, die die Firma selbst nicht entscheiden will.
Der erhoffte Effekt: Gesetzeswidrige Inhalte werden effektiver aussortiert. Nutzer_ innen bekommen die Möglichkeit, per Menü-Einstellung selber darüber zu entscheiden, weniger Inhalte in ihrer Timeline angezeigt zu bekommen, die sie anstößig finden könnten. Dadurch entstehen weniger Kontroversen, denn die eine Gruppe sieht weniger Inhalte, die sie inakzeptabel findet, die andere Gruppe sieht die Informationsfreiheit nicht beschränkt.

Künstliche Intelligenz ist kein Wundermittel

„KI“ meint in diesem Fall Techniken selbstlernender Programme, die auf die Identifikation von Inhalten trainiert werden, die in bestimmte Kategorien fallen – so genannte automatisierte Filter. Zwar ist Facebook einer der größten Technologiekonzerne der Welt mit einem der höchsten Budgets für die Erforschung und Entwicklung von Künstlicher Intelligenz. Aber die Klassifikation von Sprache – im Sinne der Bedeutung von Worten in einem spezifischen Kontext – ist eine der komplexesten Aufgaben, die es gibt, und momentan scheitern automatisierte Inhaltsfilter noch kläglich daran. Es wird hitzig diskutiert, ob sie dazu jemals in der Lage sein werden, aber das ist eine philosophische Frage. Aktuell können sie jedenfalls nicht zuverlässig identifizieren, was „schädlich“ ist. Aber wenn sie nicht zuverlässig identifizieren können, was „schädlich“ ist, folgt daraus zwangsläufig, dass sie auch keine Inhalte zuverlässig als „grenzwertig“ einstufen können.

Wenn Zuckerberg also sagt: „Wir machen Fortschritte bei Hassrede, 52 % der Posts werden schon proaktiv identifiziert”, dann sollten wir den Satz so verstehen: ‚Unsere Systeme klassifizieren eine Menge Posts als ‚Hassrede’, die dann nie veröffentlicht und deshalb auch nie von einem Menschen beurteilt werden; das bedeutet, dass wir keine Ahnung haben, wie viele davon Fehleinschätzungen sind, wie viele Inhalte demnach fälschlicherweise entfernt werden und inwieweit wir damit die freie Meinungsäußerung beeinträchtigen.‘

Das ist lediglich ein wenig vereinfacht, denn es gibt zwar Methoden, Anwendungen auf Fehleinschätzungen und Bias hin zu testen. Die Entwickler_innen bei Facebook sind nicht dumm und ich bin sicher, viele von ihnen wollen das Richtige tun – doch Zuckerberg schreibt selber, dass „im großen Ganzen diese Arbeit wichtig und noch am Anfang ist. Wir werden Sie auf dem Laufenden halten, wenn es Fortschritte gibt“. Das kann man nur so lesen: ‚Wir wissen nicht, was wir tun, aber das ist in Ordnung, weil es derzeit niemand weiß.‘ Solange es keine unabhängige Forschung dazu gibt (siehe unten), sollten wir einem Unternehmen, das alle zwei Monate beim Lügen erwischt wird, an der Stelle erst einmal nichts glauben.

Was bleibt also übrig vom Versprechen, Facebook werde „Nutzern mehr Kontrolle geben und mehr Inhalte erlauben“? Nicht viel, meine ich, obwohl man die zugrunde liegende Idee zunächst sehr charmant finden kann. Denn wenn es um Sprache geht, ist Kontext alles. Des Einen Lüge ist des Anderen Parodie; des Einen Freiheitskämpfer ist des Anderen Terrorist. Das wird sich nie ändern – und sollte es wahrscheinlich auch nicht. Es ist also eine gute Idee, Menschen die Kontrolle darüber zu geben, was sie sehen möchten. Aber wenn die Auswahl, die die Nutzer_innen bekommen, auf einer mangelhaften Definition von schädlichem und grenzwertigem Inhalt basiert (den „Community Standards”), gefolgt von einer fehlerhaften Klassifikation von schädlichem und grenzwertigem Inhalt (durch „KI“), dann werden die Nutzer_innen eine ziemlich schlechte Auswahl dessen bekommen, über das sie „Kontrolle“ ausüben dürfen.

Zudem hat Facebook angekündigt, dass die Filter grundsätzlich restriktiv eingestellt sind, also mehr potenziell anstößige Inhalte unterdrücken. Nur, wenn sich Nutzer_innen aktiv dazu entschließen, mehr dieser Inhalte sehen zu wollen, können sie das entsprechend einstellen. Sie müssen also die Filterung bewusst abschalten oder verringern.

Facebook bleibt der „Entscheider“ in nahezu allen Fällen

Sehr wahrscheinlich führt all das also zu einem System, das nur theoretisch besser ist als das, das wir jetzt haben, aber nicht in der Praxis. Denn am Ende führt die Kombination der beschriebenen Faktoren dazu, dass in erster Linie Facebook entscheiden wird, was die Nutzer_innen zu sehen bekommen, und was nicht. Denn Facebook legt die Kriterien fest, nach denen algorithmische Systeme filtern und sorgt durch das Design der Plattform dafür, dass nahezu alle Nutzer_innen sich diesen Kriterien unterwerfen werden, da sie nicht bemerken, dass sie eine Wahl haben.

Bleibt das Berufungsverfahren mit „unabhängiger Governance und Aufsicht“. Genau wie beim Vorschlag, den „Nutzern die Kontrolle darüber zu geben, was sie sehen“, ist das im Grunde eine gute Idee. Denn zum einen sollten Intermediäre nicht über Rede- und Äußerungsfreiheit richten. Genau das tun sie aber schon immer, und Gesetze wie das NetzDG geben ihnen Anreize dazu, es noch aggressiver zu tun als bisher. Gleichzeitig können Gerichte aber auch nicht über Tausende umstrittener Facebook-Posts, Youtube-Videos und Tweets urteilen. Es muss ein abgestuftes System geben, das aber eben nicht innerhalb eines Unternehmens enden darf.

Solange Intermediäre klar rechtswidrige Inhalte nicht entfernen, ist in den meisten Ländern das Verfahren zumindest im Prinzip klar: Dann können Menschen Anzeige erstatten und im Zweifel vor Gericht ziehen, um sie entfernen zu lassen. „Im Prinzip“ bedeutet aber, dass die Praxis oft anders aussieht. Die Unternehmen selbst legen die Hürden dafür so hoch wie möglich, etwa indem sie dafür sorgen, dass allein die Zustellung eines anwaltlichen Schreibens mit abschreckend hohem Aufwand und Kosten verbunden ist. Dass das NetzDG den Unternehmen vorschreibt, in Deutschland einen Zustellungsbevollmächtigten zu ernennen und dafür zu sorgen, dass Auskunftsersuchen von inländischen Strafverfolgungsbehörden innerhalb von 48 Stunden beantwortet werden müssen, ist einer der wenigen Aspekte des Gesetzes, der durchweg positiv zu werten ist. „im Prinzip“ heißt eben auch, dass es für Betroffene eine Handhabe gibt zu erzwingen, dass Inhalte aus dem Netz verschwinden: die äußerungsrechtlichen Vorgaben des jeweiligen Landes.

Anders sieht es aus mit Inhalten, die nicht gegen diese äußerungsrechtlichen Vorgaben verstoßen. Wenn Nutzer_innen gelöschte Inhalte wiederhergestellt sehen möchten, weil sie der Ansicht sind, dass diese nicht gegen geltendes Recht verstoßen, können sie in den meisten Fällen nichts weiter tun als an das Unternehmen zu appellieren. Dann haben die „Entscheider“ bei Facebook (oder Youtube oder Twitter) das letzte Wort. Warum? Weil Firmen wie Facebook Privatunternehmen sind und erst einmal keine direkte (rechtliche) Verpflichtung haben, die Meinungsfreiheit zu schützen – Artikel 5 des Grundgesetzes schützt die Bürger_innen vor Übergriffen des Staats, nicht vor den Handlungen anderer Privater. Das ist grundsätzlich eine gute Idee, weil Meinungsfreiheit auch das Recht für Unternehmen einschließt, auszuwählen, was sie auf der eigenen Plattform veröffentlichen möchten.

Dieses Argument wird aber dann sehr problematisch, wenn eine Plattform so dominant geworden ist, dass sie eine wichtige Teilöffentlichkeit (wenn auch nicht gleich die Öffentlichkeit) darstellt. Man muss sie sich vorstellen wie einen öffentlichen Raum oder eine Infrastruktur für Sprache. Ich gehe davon aus, dass wir mit Facebook (wie auch mit Googles Suchmaschine und Youtube) diesen Punkt erreicht haben.

Auch Intermediäre müssen die Informationsfreiheit schützen

In Deutschland entwickelt sich zu dieser Situation derzeit eine differenzierte Rechtsprechung. Einerseits hat das Oberlandesgericht (OLG) Dresden 2018 entschieden10, dass Facebook das Recht habe, „Meinungsäußerungen unterhalb der Schwelle zur Schmähkritik und außerhalb von § 1 Abs. 2 NetzDG“ zu löschen, da eine entsprechende Klausel in den Nutzungsbedingungen nicht überraschend sei und damit rechtmäßig. Sowohl das OLG Dresden (ebd.), als auch das OLG Karlsruhe11 sahen es auch nicht als Problem an, dass die Nutzungsbedingungen auf Facebooks „Gemeinschaftsstandards“ verweisen, obwohl diese jederzeit geändert werden könnten, ohne dass die Nutzer_innen zustimmen müssen. Maßgeblich war für die Richter_innen allein, dass es nicht (mehr) nur auf die subjektive Ansicht der Betreiber ankommt, sondern in Form der Dokumente „objektive“ Sachverhalte vorliegen, nach denen die Entscheidungen getroffen werden. Damit übe der/die Anbieter_in nach Ansicht der OLGs kein unbeschränktes einseitiges Bestimmungsrecht mehr aus, so dass Willkür oder Unverhältnismäßigkeit nicht vorlägen und damit der Meinungsfreiheit ausreichend Rechnung getragen werde.

Andererseits haben Gerichte zugleich entschieden, dass Nutzer_innen einen Anspruch darauf haben, dass Facebook es unterlässt, zulässige Äußerungen zu löschen. Sie leiten diesen Anspruch daraus her, dass auch Facebook aus dem mit den Nutzer_ innen geschlossenen Vertrag Pflichten entstehen. Dazu gehört, im Wege der mittelbaren Drittwirkung der Grundrechte, die Meinungs- und Äußerungsfreiheit des Vertragspartners zu berücksichtigen und zu schützen. Auf dieser Basis hat etwa das Landgericht Frankfurt/Main entschieden12, dass Facebook die Äußerung „Die pseudo-linke TAZ ist ein Kriegstreiber erster Klasse! War es nicht dieses Hetzblättchen, was kürzlich rum flennte, dass sie vor der Pleite stünden? KEIN VERLUST! ist meine Meinung!“ wiederherstellen musste.

Es sieht also derzeit danach aus, als könnte die Rechtsentwicklung in Deutschland zu dem führen, was Verfechter_innen der Informationsfreiheit fordern: Dass Intermediäre in Bezug auf Meinungs- und Äußerungsfreiheit nicht einfach tun und lassen können, was sie wollen, sondern sehr wohl auch dafür sorgen müssen, dass gesetzeskonforme Äußerungen auch veröffentlicht bleiben.

Doch selbst wenn diese Entwicklung in Deutschland weiterhin positiv verliefe, wäre damit der Konflikt, der durch den grenzübergreifenden Charakter des Netzes entsteht, nicht gelöst: Was in Deutschland rechtens ist, ist es nicht unbedingt in anderen Ländern – und umgekehrt. Die meisten Intermediäre aber machen Inhalte grenzüberschreitend verfügbar. Hören sie damit auf, etwa indem sie strenges Geoblocking verwenden, kann man nicht mehr sinnvollerweise von einem Internet sprechen, wie wir es kennen.

Facebook bietet keine Lösung – aber sonst auch niemand

In dieser Situation hat Mark Zuckerberg also nun vorgeschlagen, einen unabhängigen Beirat für „Governance und Aufsicht“ zu bestellen, „dessen Entscheidungen transparent und bindend“ für die Firma sein sollen. Wenn jemand also eine Entscheidung der Moderator_innen von Facebook anficht, könnte das vor dem Beirat landen, an dessen Entscheidung sich das Unternehmen dann halten muss.

Das ist in jedem Fall ein Schritt in die richtige Richtung: Facebook gibt Macht an Expert_innen ab, die die unternehmenseigenen Kontrolleur_innen kontrollieren können. Damit kann aber keine Lösung für das zugrunde liegende Problem erreicht werden: Dass man unmöglich auf globaler Ebene über Rede- und Äußerungsfreiheit entscheiden und zugleich ihrem kulturellen und kontextuellen Charakter gerecht werden kann.13 Man stelle sich nur den Fall einer Holocaustleugnung vor, die in Israel, Deutschland, Frankreich und 14 anderen europäischen Ländern illegal ist, aber nicht in den USA und den meisten anderen Staaten der Welt. Oder Fälle von Darstellung von Nacktheit, die in den USA illegal sind, aber nicht in den Niederlanden und Schweden. Selbst zwischen Ländern, die die Meinungsfreiheit anerkennen, herrscht keine Einigkeit darüber, was diese Freiheit umfasst, denn das ist in jedem Land mit seiner jeweiligen Gesellschaft und ihren Normen unterschiedlich. Viele Menschen, ich selbst gehöre dazu, halten nationale Rechtsprechung im Bezug auf Meinungsfreiheit für etwas Gutes, weil sie kulturelle Kontextualität respektiert.

Facebooks Verfehlungen sind Legion. Ein „Datenmissbrauchsskandal“ jagt den nächsten, die Respektlosigkeit der Verantwortlichen gegenüber nationalen Gesetzen und den berechtigten Erwartungen von Nutzer_innen, was den Umgang mit Informationen über sie angeht, ist atemberaubend. Dazu kommt die Skrupellosigkeit beim Einsatz von Lobbying-Methoden, die Waffenherstellern zur Ehre gereichen würden.14 Viele Kritiker_innen verleitet das zu dem Schluss, dass Facebooks Kritik an Gesetzen wie dem NetzDG ungerechtfertigt ist und nur dazu diene, die Unternehmensinteressen zu schützen. Ich selbst bin mir sicher, dass das ein Teil der Motivation ist.

Allerdings sollte man anerkennen, dass wir von Facebook die Lösung für ein Problem erwarten, für das derzeit niemand eine Lösung hat. Es geht nicht darum, dass das Unternehmen sich weigert, eine bestehende Lösung aufzugreifen und umzusetzen, weil es seinen Interessen widerspricht. Es ist vielmehr so, dass wir Facebooks Vorschlag als das ernstgemeinte Angebot verstehen sollten, weiter darüber nachzudenken, wie wir widerstreitende Rechtsgüter in eine Balance bringen können, so dass wir letztendlich alle, wenn sicherlich auch zähneknirschend, damit leben können. Ob das gelingt, ist offen. Es wird aber nichts nützen, das Angebot aus Gründen, die damit wenig zu tun haben, auszuschlagen.


Anmerkungen:

1) Ich verwende den Begriff hier in der Definition von Schulz und Dankert: „Dienste des Typs Intermediär zeichnen sich durch eine Vermittlungsleistung zwischen Inhalten oder Inhaltsangeboten und Nutzerinnen und Nutzern aus. Informationsintermediäre bieten also in der Regel keinen eigenen Inhalt an, sondern ihre Leistung liegt etwa in der Bündelung oder besonders geordneten Bereitstellung von digitalen Inhalten.“ In: Schulz, Wolfgang und Dankert, Kevin 2016: Die Macht der Informationsintermediäre. Strukturen und Regulierungsoptionen, Bonn, URL: https://library.fes.de/pdf-files/akademie/12408.pdf (letzter Zugriff: 11. Januar 2019).

2) Vgl. Reporter ohne Grenzen (17. Juli 2017): Russland kopiert Gesetz gegen Hassbotschaften, https://shop.reporter-ohne-grenzen.de/pressemitteilungen/meldung/russland-kopiert-gesetz-gegen-hassbotschaften/ (letzter Zugriff: 6. Januar 2019).

3) Vgl. Sventeenth Congress of the Republic of the Philippines (2017): An Act Penalizing the Malicious Distribution of false news and other related violations. URL: https://www.aseanlip.com/philippines/ip/legislation/bill-of-the-antifake-news-act-of-2017/AL18286 (letzter Zugriff: 6. Januar 2019).

4) Vgl. Deutsche Welle (26. März 2018): Malaysian government calls for 10-year jail sentence ‘fake news’. URL: http://www.dw.com/en/malaysian-government-calls-for-10-year-jail-sentence-fake-news/a-43130163 (letzter Zugriff: 6. Januar 2019).

5) Assembleée Nationale 2018: Proposition de Loi relative aa la lutte contre la manipulation de l’information. URL: http://www.assemblee-nationale.fr/15/ta/tap0190.pdf (letzter Zugriff: 11. Januar 2019).

6) Mark Zuckerberg (15. November 2018): A Blueprint for Content Governance and Enforcement URL: https://www.facebook.com/notes/mark-zuckerberg/a-blueprint-for-content-governance-and-enforcement/10156443129621634/ (letzter Zugriff: 6. Januar 2019).

7) Der Beitrag ist unter dem Namen des Unternehmensgründers und CEO Mark Zuckerberg erschienen; es ist aber davon auszugehen, dass der Vorschlag von verschiedenen Mitarbeiter_innen des Unternehmens, darunter Anwält_innen und Public-Policy-Berater_innen entstanden ist.

8) Alle wörtlichen Zitate beruhen auf Übersetzungen des Verfassers.

9) Dies in Anführungszeichen, weil mit dem Ausdruck „Inhalte eines Landes“ nicht gemeint ist, dass sie in dem Land produziert sein oder die dortige Kultur repräsentieren müssen, sondern lediglich, dass die Rechteinhaber die Erlaubnis gegeben haben, dass sie dort zugänglich gemacht werden. So wäre es in diesem Sinn kein Widerspruch, dass eine englischsprachige US-Fernsehserie in Deutschland und Österreich zu sehen ist, eine deutsch-österreichische Konzertproduktion aber nur in einem der Länder.

10) OLG Dresden, Beschluss v. 8.8.2018 – Az. 4 W 577/18 (= NJW 2018, 3111), abrufbar unter https://www.online-und-recht.de/urteile/Hassrede-Klausel-in-Facebook-AGB-wirksam-Oberlandesgericht-Dresden-20180808/ (29.05.2019).

11) OLG Karlsruhe, Beschluss vom 25.6.2018 - 15 W 86/18, abrufbar unter https://openjur.de/u/2109791.html (29.5.2019).

12) LG Frankfurt/M., Beschluss v. 14.5.2018, 2-03 O 182/18 (=JurPC WebDok. 108/2018); vgl. https://www.jura.uni-frankfurt.de/74531373/2018-10-24-Peukert-NetzDG-Meinungsfreiheit-DAV.pdf.

13) Hier lasse ich all die Probleme mit dem Verfahren an sich beiseite, die dadurch entstehen, dass ein Gremium unabhängig von einem Unternehmen sein soll, das für seine Existenz und seine Arbeit bezahlt (und weil es viel Arbeit dort geben wird, kann das niemand ehrenamtlich machen).

14) Vgl. Sheera Frenkel, Nicholas Confessore, Cecilia Kang, Matthew Rosenberg, Jack Nicas (14. November 2018): Delay, Deny and Deflect: How Facebook’s Leaders Fought Through Crisis URL: https://www.nytimes.com/2018/11/14/technology/facebook-data-russia-election-racism.html (letzter Zugriff: 11. Januar 2019).

Matthias Spielkamp

Mitgründer und Geschäftsführer

Foto: Julia Bornkessel, CC BY 4.0
Matthias Spielkamp ist Mitgründer und Geschäftsführer von AlgorithmWatch, das mit der Theodor-Heuss-Medaille ausgezeichnet und für einen Grimme Online Award nominiert wurde. Er war Sachverständiger in Anhörungen des Europarats, der EU-Parlaments, des Bundestags und ist Mitglied der Global Partnership on Artificial Intelligence (GPAI). Matthias ist Vorstandsmitglied bei Reporter ohne Grenzen, Mitglied des Kuratoriums der Stiftung Warentest, im Beirat des Whistleblower Netzwerks und im Fachausschuss Kommunikation/Information der Deutschen UNESCO-Kommission. Er ist Autor und Herausgeber der Automating Society Reports und Büchern zu Algorithmen, KI und Automatisierung, Internet Governance, der Zukunft des Journalismus und des Urheberrechts. Seine journalistischen Beiträge sind in MIT Technology Review, Die Zeit, brand eins und vielen anderen Publikationen erschienen. MA Philosophie, FU Berlin, MA Journalismus, University of Colorado at Boulder.