Nach Drohungen von Facebook: AlgorithmWatch sieht sich gezwungen, Instagram-Forschungsprojekt einzustellen

Facebook versucht derzeit verstärkt, Organisationen daran zu hindern herauszufinden, wie auf der Plattform Inhalte bekannt gemacht, unterdrückt und gesteuert werden. Vergangene Woche sperrte das Unternehmen Forscher·innen der New York University den Datenzugang. Auch AlgorithmWatch sah sich gezwungen, ein Datenspende-Projekt zu beenden, um nicht zu riskieren, vom Konzern verklagt zu werden. Das Europäische Parlament und die EU-Mitgliedsstaaten müssen jetzt handeln, um weitere Schikanen zu verhindern.

Digitale Plattformen spielen eine immer wichtigere Rolle dabei, die öffentliche Debatte zu strukturieren und zu beeinflussen. Unabhängige Watchdog-Organisationen, Forscher·innen und Journalist·innen müssen in der Lage sein zu überprüfen, wie sie dabei vorgehen. Nur so können sie zur Rechenschaft gezogen werden, wenn sie unverantwortlich handeln.

Am 3. März 2020 startete AlgorithmWatch ein Projekt mit dem Ziel, besser zu verstehen, wie der Newsfeed-Algorithmus von Instagram Bilder und Videos in der Timeline von Nutzer·innen priorisiert. Freiwillige konnten dazu ein Browser-Add-on installieren, das ihre Instagram-Newsfeeds auslas und an unsere Datenbank sendete.

In den letzten 14 Monaten haben etwa 1.500 Freiwillige das Add-on installiert. Anhand ihrer Daten konnten wir Belege dafür finden, dass Instagram-Nutzer·innen dazu ermutigt werden, Bilder von sich mit viel nackter Haut zu posten, und dass Politiker·innen wahrscheinlich eine größere Reichweite erlangen, wenn sie in ihren Veröffentlichungen auf Text verzichten (Facebook bestreitet beide Ergebnisse).

Obwohl wir den Algorithmus von Instagram nicht in allen Details überprüfen konnten, gehört diese Untersuchung zu den bisher umfassendsten Studien, mit denen die Plattform überprüft wurden. Das Projekt wurde vom Europäischen Netzwerk für Datenjournalismus und von der niederländischen Stiftung SIDN unterstützt und in Zusammenarbeit mit Mediapart in Frankreich, NOS, Groene Amsterdammer und Pointer in den Niederlanden und der Süddeutschen Zeitung in Deutschland durchgeführt. Dutzende Publikationen in aller Welt haben darüber berichtet.

Vor der Veröffentlichung haben wir Facebook um eine Stellungnahme zu unseren Ergebnissen gebeten. Das Unternehmen beantwortete unsere Fragen nicht, teilte uns aber am 28. Mai 2020 mit, dass unsere „Recherche in mehrfacher Hinsicht fehlerhaft“ sei. Am 2. März 2021 erreichte uns die Nachricht, es sei „eine Reihe von Problemen mit [unserer] Methodik“ gefunden worden. Die angeblichen Mängel wurden nie aufgelistet, aber wir gehen davon aus, dass Facebook unsere Forschungsmethoden gründlich geprüft hatte, um zu solch deutlichen Schlüssen zu kommen.

Nutzungsbedingungen als Waffe

Deshalb waren wir überrascht, als Facebook uns Anfang Mai 2021 zu einem Treffen einlud. Unser Projekt, so Facebook, verstoße gegen die Nutzungsbedingungen, die die automatisierte Erfassung von Daten verbieten. Sie würden „formellere Schritte einleiten“ müssen, wenn wir das Problem nicht zu ihren Bedingungen „lösen“ würden – eine kaum verhohlene Drohung.

In Abschnitt 3.2.3 der Nutzungsbedingungen heißt es in der Tat, dass es nicht gestattet ist, „mittels automatisierter Methoden auf Daten [von Facebooks] Produkten [zu]zugreifen [oder] solche Daten [zu] erheben“. Wir haben allerdings nur Daten über Inhalte gesammelt, die Facebook den Nutzer·innen angezeigt hat, die das Datenspende Add-On installiert haben. Mit anderen Worten: Die Spender·innen haben nur auf ihren eigenen Feed zugegriffen und die Inhalte freiwillig und zu Forschungszwecken mit uns geteilt.

Facebook behauptete auch, dass unser System gegen die Datenschutz-Grundverordnung der EU verstoße, weil einige der gesammelten Daten von Nutzer·innen stammten, die dem Projekt nie zugestimmt hatten, deren Bilder jedoch im Feed der freiwilligen Spender·innen angezeigt wurden. Ein Blick in den Quellcode, den wir offengelegt haben, zeigt jedoch, dass solche Daten sofort gelöscht wurden, sobald sie auf unserem Server ankamen.

Wir haben unser Add-on mit großer Sorgfalt entwickelt, damit Facebook die Datenspender·innen nicht identifizieren und verfolgen kann. Die Reaktion von Facebook zeigt jedoch, dass jede Organisation, die versucht, Facebooks Algorithmen genauer zu beleuchten, Gefahr läuft, verklagt zu werden. Da die Nutzungsbedingungen von Facebook nach eigenem Ermessen (mit einer Frist von 30 Tagen) aktualisiert werden können, könnte das Unternehmen jede laufende Analyse, die auf mehr Transparenz abzielt, einfach durch eine Änderung der Bedingungen unterbinden.

Am 13. Juli haben wir beschlossen, das Projekt zu beenden und alle gesammelten Daten zu löschen (die Medienpartner·innen verfügen weiterhin über vollständig anonymisierte Versionen der Daten). Letztendlich kann eine Organisation von der Größe von AlgorithmWatch nicht riskieren, gegen ein Unternehmen mit einem Wert von einer Billion US-Dollar vor Gericht zu ziehen.

Facebook gibt nur vor, die Privatsphäre der Nutzer·innen schützen zu wollen

Wir haben uns entschlossen, unsere Geschichte nun zu veröffentlichen, nachdem Facebook die Zugänge von Forscher·innen gesperrt hat, die am Ad Observatory der New York University (NYU) arbeiten. Sie hatten ein Browser-Add-on entwickelt, das Daten über Werbeanzeigen auf der Plattform sammelt. Ihr System wird immer noch von vielen Forscher·innen genutzt, darunter auch einige vom Virality Project, das Desinformation über Covid-Impfstoffe untersucht.

Facebook behauptet, es hätte den Forscher·innen angeboten, ihnen die benötigten Daten selbst zur Verfügung zu stellen. Laut der Plattform gefährde das Browser-Add-on die Privatsphäre der Nutzer·innen. Dabei beruft sich Facebook auf eine Anordnung der Federal Trade Commission (FTC), der amerikanischen Verbraucherschutzbehörde. Am Tag nachdem bekannt wurde, dass Facebook die Konten des Ad Observatory gesperrt hatte, bezeichnete die FTC in einer scharf formulierten Erklärung diese Behauptung allerdings als „unzutreffend“. Die FTC machte deutlich, sie unterstütze das Projekt der NYU und forderte Facebook auf, gegen seriöse Forscher·innen nicht mit undifferenzierten und eigennützigen Auslegungen des Datenschutzrechts vorzugehen.

Es ist nicht das erste Mal, dass Facebook aggressiv gegen Organisationen vorgeht, die versuchen, Nutzer·innen mehr Selbstbestimmung bei der Verwendung sozialer Medien zu ermöglichen. Im August 2020 bedrohte es Friendly, eine mobile App, die Nutzer·innen das Sortieren ihres Newsfeeds selbst überlässt. Im April 2021 wurden mehrere Apps, die es Nutzer·innen ermöglichten, Facebook zu ihren Bedingungen zu nutzen, aus dem Play Store verbannt. Es gibt wahrscheinlich mehr Fälle solcher Schikanen, die bisher noch unbekannt sind. Wir hoffen, dass die Veröffentlichung unseres Falls auch andere Organisationen ermutigt, ihre Erfahrungen öffentlich zu machen.

Effektive Transparenz sicherstellen

Das neu erwachte Interesse Facebooks an der Privatsphäre der Nutzer·innen mag zwar einige überraschen (schließlich sagte Gründer Mark Zuckerberg, dass Privatsphäre keine „soziale Norm“ mehr sei), aber seine Behauptungen, Forscher·innen und zivilgesellschaftliche Organisationen unterstützen zu wollen, könnte Gesetzgeber dazu verleiten, sie für bare Münze zu nehmen.

Forscher·innen können sich nicht auf die von Facebook zur Verfügung gestellten Daten verlassen, weil man dem Unternehmen nicht trauen kann. Laut The Markup, einer gemeinnützigen Nachrichtenorganisation, die ein eigenes Prüf-Projekt namens Citizen Browser betreibt, ist das Unternehmen seit Anfang des Jahres mindestens viermal seinen Selbstverpflichtungen nicht nachgekommen. So versprach das Unternehmen im Januar im Zuge der Ausschreitungen im Kapitol in den USA, dass es keine Empfehlungen mehr für den Beitritt zu politischen Gruppen aussprechen würde. Wie sich herausstellte, tat es das sechs Monate später immer noch.

Selbst Facebooks Ad Library, eines der Vorzeigeprojekte des Unternehmens in Sachen Transparenz, litt unter „Bugs“, die seiner Glaubwürdigkeit schadeten. Im Dezember 2019, wenige Tage vor den Parlamentswahlen im Vereinigten Königreich, verschwand fast die Hälfte der in dieser Bibliothek gespeicherten britischen Anzeigen.

Es gibt keinen Grund zur Annahme, dass Facebook verwertbare Daten liefern würde, wenn Forscher·innen ihre unabhängig gesammelten Daten durch die des Unternehmens ersetzen würden. AlgorithmWatch wies ebenfalls in einer im Juni 2020 veröffentlichten Studie die Behauptung von Facebook zurück, dass der Datenzugriff nicht datenschutzkonform gewährleistet werden kann. Mittler-Institutionen könnten damit beauftragt werden, solche Datenzugänge für Forschung im öffentlichen Interesse zu ermöglichen. Wie das funktionieren kann, haben wir bereits in unserer Stellungnahme zum Gesetz über digitale Dienste (Digital Services Act) der Europäischen Kommission im September 2020 erläutert. Zur Zeit untersucht AlgorithmWatch zusammen mit einigen Partnern den Empfehlungsalgorithmus von Youtube mit dem Datenspendeprojekt DataSkop.

Facebook und Instagram müssen überprüft werden

Es ist dringend notwendig, die Algorithmen von Instagram genauer zu untersuchen. Anfang Mai stellten kolumbianische Nutzer·innen fest, dass Inhalte, die sie im Zusammenhang mit den laufenden Protesten im Land veröffentlicht hatten, häufig verschwanden. Das Gleiche geschah in Palästina und Israel, wo es Hinweise auf systematische Bemühungen gibt, bestimmte Arten von palästinensischen Inhalten zu entfernen. Instagram erklärte, das „Problem“ sei einige Tage später behoben worden und es sei nie die Absicht gewesen, Demonstrant·innen zum Schweigen zu bringen. Die anschließende Berichterstattung von BuzzFeed News zeigte jedoch, dass Moderationsteams willkürlich bestimmte Gruppen zum Schweigen bringen konnten (in diesem Fall betrachtete Facebook die Al-Aqsa-Moschee als terroristische Organisation). Instagram machte vergangene Woche bekannt, dass Inhalte über „politische Themen“ in der „Reels“-Funktion (ein TikTok-ähnliches Videoformat) nicht mehr bevorzugt werden, wobei die Definition von „politisch“ fadenscheinig bleibt.

Nutzer·innen haben über weitere Fälle von verschwundenen Beiträgen und Shadowbanning (bei dem Inhalte vollständig oder partiell blockiert werden, ohne Nutzer·innen darüber zu informieren) berichtet. Ohne unabhängige Untersuchungen im öffentlichen Interesse und strenge Kontrollen durch die Regulierungsbehörden ist es unmöglich zu wissen, ob die Algorithmen von Instagram bestimmte politische Meinungen gegenüber anderen bevorzugen. Frühere Berichte in den USA haben gezeigt, dass Facebook gewisse Entscheidungen getroffen hatte, um Prominente der rechtsradikalen Alt-Right Bewegung zu schützen.

Von Identitätsbildung bis hin zu Wahlentscheidungen – große Plattformen spielen eine immense gesellschaftliche Rolle, doch wir wissen weiterhin wenig darüber, wie sie das tun. Nur wenn wir mehr Transparenz herstellen, können wir als Gesellschaft eine faktenbasierte Debatte über die Rolle und die Auswirkungen großer Plattformen führen – was ein notwendiger Schritt ist, um sie zur Verantwortung zu ziehen. Nur wenn wir verstehen, wie unsere Öffentlichkeit durch die algorithmischen Entscheidungen der Plattformen beeinflusst wird, können wir Maßnahmen ergreifen, um sicherzustellen, dass sie nicht unsere Autonomie, Freiheit und das Gemeinwohl untergraben.

EU-Parlament und Mitgliedstaaten haben mit dem Digital Services Act die Möglichkeit sicherzustellen, dass für Forschung im öffentlichen Interesse – durch Akademiker·innen, Journalist·innen und Organisationen der Zivilgesellschaft – Zugang zu Daten besteht, die wir von großen Plattformen benötigen. Lesen Sie unseren offenen Brief, der von 6.126 Personen sowie 35 zivilgesellschaftlichen und wissenschaftlichen Organisationen unterzeichnet wurde!

Pressekontakt: policy@algorithmwatch.org | +49 (0)30 99 40 49 001