Süddeutsche veröffentlicht Ergebnisse unseres Instagram-Forschungsprojekts zur Bundestagswahl
Inhalte der AfD landen im Instagram-Newsfeed weiter oben als die von anderen Parteien. Das zeigt eine Analyse der Süddeutschen Zeitung, die im Projekt #wahlfilter mit Hilfe eines Browser-Add-ons von AlgorithmWatch über 200.000 Datenspenden ausgewertet hat.
Zwischen April und Juli 2021 hatten hunderte Freiwillige Daten zu ihrer Instagram-Timeline an AlgorithmWatch gespendet. Sie wurden gebeten, einer Auswahl von deutschen Politiker·innen und Parteien zu folgen. Das Browser-Plug-in registrierte dann, wo und wie die Inhalte dieser Profile in den Newsfeeds der Nutzer·innen erschienen, und übermittelte diese Informationen.
Ziel des Projektes #wahlfilter war es, herauszufinden, wie sich der Algorithmus des sozialen Netzwerks auf den Wahlkampf zur Bundestagswahl am 26. September auswirkt. Die Datenspenden mussten allerdings im Juli vorzeitig beendet werden, nachdem Facebook AlgorithmWatch mit “formelleren Schritten” gedroht hatte.
Nicht alle Parteien sind gleich
Nun haben Datenjournalist·innen der Süddeutschen Zeitung die Ergebnisse der Analyse des anonymisierten Datensatzes veröffentlicht. Sie zeigen, dass die Posts von Politiker·innen der rechtsradikalen Partei Alternative für Deutschland (AfD) im Durchschnitt weiter oben in den Timelines angezeigt wurden, als die von Politiker·innen der SPD, Linke, Grüne, FDP und Union. Lesen Sie die vollständige Analyse auf www.sueddeutsche.de (Paywall).
Zudem wurden nicht alle Wahlkampfthemen gleich prominent platziert. Die Analyse zeigt, dass es wahrscheinlicher war, dass Posts zu Themen wie Kriminalität oder Mieten in den Newsfeeds der Nutzer·innen angezeigt wurden als Posts zu anderen Themen. Faktoren wie Aktualität und Reichweite alleine können diese Unterschiede nicht erklären.
Die Studie beweist nicht, dass Instagram grundsätzlich politisch rechte Inhalte bevorzugt. Erstens ist es möglich, dass die Datenspender·innen einfach mehr Interesse an den Posts der AfD hatten (was allerdings sehr unwahrscheinlich ist). Zweitens könnten rechte Politiker·innen sich den Algorithmus von Instagram besser zu Nutze gemacht haben. Bisherige Analysen von uns hatten gezeigt, dass Bilder von Menschen und Gesichtern im Vergleich zu Bildern mit Text vom Algorithmus bevorzugt wurden.
Das stellte sich heraus, als wir im März 2021 eine ähnliche Untersuchung im Vorfeld der Parlamentswahlen in den Niederlanden durchgeführt hatten. Sie zeigte keine Bevorzugung von rechtsradikalen Inhalten durch Instagram, allerdings wurden damals wesentlich weniger Profile von rechtsradikalen Politiker·innen analysiert als jetzt und die Dominanz sehr großer und aktiver Accounts verzerrte die Daten. Beim #wahlfilter Projekt wurde von jeder Partei die gleiche Anzahl an Profilen untersucht.
Mehr Daten und weitere Analysen notwendig
Jede Verzerrung beim Anzeigen von Inhalten im Newsfeed wirkt sich nicht nur auf unzählige Nutzer·innen, sondern auch Wähler·innen aus. Laut Angaben von Facebook, Instagrams Mutterkonzern, haben im letzten Monat 28 Millionen Menschen in Deutschland die Plattform genutzt. Das ist ungefähr jede·r Dritte. (Die Tagesschau kam 2020 im Durchschnitt auf knapp 12 Millionen Zuschauer·innen.)
Die Analysen von der Süddeutschen Zeitung zeigen zwar deutlich, dass nicht alle Politiker·innen die gleiche Instagram-Reichweite erlangen – warum das so ist, bleibt allerdings unbeantwortet. Eine genauere Untersuchung des Algorithmus ist dafür dringend notwendig.
Hierfür reicht es nicht aus, Facebook und all seine Dienste von außen – ohne Zugang zu Daten von Nutzer·innen – zu untersuchen. Gegen solche Forschungsprojekte macht der Konzern zudem Druck, indem er entweder mit Klagen droht, wie im Falle von AlgorithmWatch, oder Wissenschaftler·innen den Zugang zur Plattform entzieht, wie im Falle des Ad Observatory der New York University. Sich auf die Bedingungen von Facebook einzulassen ist dagegen wenig hilfreich. Denn auf eine Zusammenarbeit mit dem Konzern ist kein Verlass. Erst letzte Woche mussten Forscher·innen feststellen, dass die Daten die ihnen vom Unternehmen bereitgestellt wurden, fehlerhaft waren. Tausende Stunden Arbeit waren unbrauchbar.
Ohne verlässlichen Zugang zu Plattformdaten für Wissenschaftler·innen, Journalist·innen und NGOs werden wir die Auswirkungen von Social-Media-Algorithmen auf unsere Demokratien nicht erforschen können. Gesetzgeber·innen müssen jetzt handeln und Forscher·innen Rechtssicherheit geben, um Online-Plattformen unter die Lupe zu nehmen und zur Verantwortung zu ziehen.
Hat dir diese Story gefallen?
Alle zwei Wochen untersucht „Die automatisierte Gesellschaft“ die Auswirkungen automatisierter Systeme auf die Gesellschaft und die Welt um dich herum. Melde dich jetzt an und verpasse keine Story mehr!