Risikofalle Social Media: Wie bekommen wir Algorithmen in den Griff?

Da uns personalisierte Empfehlungssysteme beeinflussen können, müssen wir herausfinden, welche Risiken von ihnen ausgehen. Die neue Transparenzregelung des DSA ist dazu ein wichtiger Schritt, dennoch brauchen wir Audits von unabhängigen Forschungsinstanzen.

Foto von Chris Liverani auf Unsplash

Auf Social-Media-Plattformen war schon immer bei manchen Inhalten Vorsicht geboten. Inzwischen haben sich aber die Hinweise darauf verdichtet, dass nicht die Inhalte selbst das Hauptproblem sind, sondern die Funktionsweise der Plattformen, die diese Inhalte verbreiten. Elon Musks chaotische Übernahme von Twitter gab Hassrede auf der Plattform Auftrieb. TikTok ist unter Teenagern die beliebteste Plattform. Der Empfehlungsalgorithmus bombardierte gerade diese Zielgruppe mit Inhalten, die psychisch nicht gefestigte Nutzer*innen zu Essstörungen und Selbstverletzungen verleiten könnten. Und trotz frühzeitiger Warnungen hörten einige Plattformen – unter ihnen Facebook und YouTube – nicht damit auf, extremistische Inhalte zu promoten, die zum antidemokratischen Aufruhr in Brasilien am 8. Januar beigetragen haben könnten. Finanziell dürfte es sich für die Plattformen gelohnt haben.  

Wir kennen solche Beispiele, weil immer mehr Plattformforschung im öffentlichen Interesse betrieben wird. Durch sie kommt ans Licht, in welchem Ausmaß Social-Media-Plattformen Inhalte ausstreuen, die schädliche Folgen für Einzelne und die Gesellschaft haben. Der Digital Services Act (DSA) hat Forschenden inzwischen ein erweitertes Zugangsrecht eingeräumt. Dadurch dürfen sie offiziell auf interne Plattformdaten zugreifen, um sie zu analysieren. Wir brauchen diese Art der Forschung, um Risiken zu erkennen, die von Online-Plattformen ausgehen. 

Die neue Transparenzregelung des DSA ist ein Schritt in die richtige Richtung. Es wird sich aber erst mit der Zeit zeigen, wie gut sie funktioniert. Bis dahin brauchen wir unabhängige Forscher*innen, die mit den richtigen Instrumenten algorithmische Systeme untersuchen, um Plattformen zur Rechenschaft zu ziehen.

Welche Social-Media-Algorithmen meinen wir?   

Empfehlungssysteme gehören zu den wirkungsvollsten Features von Social-Media-Plattformen: Sie steuern unsere Aufmerksamkeit, woraus die Betreiber Kapital schlagen. Diese Systeme bestehen aus miteinander interagierenden Algorithmen, die unsere Daten sammeln und sie dazu nutzen, uns mit personalisierten Inhalten zu füttern. Oft operieren diese Systeme nach einer eindeutigen Logik: Sie versuchen, uns so lange wie möglich bei der Stange zu halten, um uns derweil Werbung zu zeigen.

Personalisierte Empfehlungssysteme können unsere Meinungen und unser Verhalten beeinflussen, gerade wenn sie uns Nachrichten und Informationen präsentieren oder zu sozialen Interaktionen anregen. Da Plattformen eine so große Macht haben, müssen wir herausfinden, inwiefern gesellschaftliche Risiken von ihnen ausgehen. Diese Risiken haben viele Gesichter: die Verbreitung von Desinformation, Hassrede und geschlechtsspezifischer Gewalt, die Zersetzung demokratischer Prinzipien oder auch die Gefährdung psychischer Gesundheit. Wie können wir die Risiken erkennen?

Bis vor Kurzem waren wir größtenteils auf freiwillige Angaben der Plattformen angewiesen, wenn wir wissen wollten, wie Social-Media-Algorithmen funktionieren. Diese Angaben konnten wir entweder selektiven Transparenzberichten entnehmen oder die Unternehmen stellten ausgewählten Forscher*innen begrenzte (und demnach oft unzuverlässige) Datensätze zur Verfügung. Diese dahingeworfenen Häppchen sind aber nur ein Teil der Wahrheit, was wir durch die Enthüllungen von investigativen Journalist*innen, unabhängigen Forscher*innen und Whistleblower*innen wissen. Viele von ihnen haben große persönliche Nachteile in Kauf genommen, um über die Risiken zu berichten, die die algorithmischen Systeme von Plattformen mit sich bringen.

Die Aufsichtsbehörden der EU haben erkannt, dass wir nicht mit dem Entgegenkommen der Plattformbetreiber rechnen dürfen, wenn es darum geht, ihre algorithmischen Systeme transparenter zu machen und Risiken einzudämmen. Der Digital Services Act (DSA) soll eine neue Ära öffentlicher Kontrolle einläuten: Die Plattformen sollen nunmehr zur Verantwortung gezogen werden.

Der DSA verpflichtet die Betreiber der größten Plattformen wie YouTube, TikTok und Facebook dazu, ihre Dienste mit festgelegten Verfahren zu überprüfen und darüber Bericht zu erstatten. Sie müssen ermitteln, ob von den Plattformen (und ihren Empfehlungssystemen) Risiken ausgehen oder Risiken durch sie verschärft werden, und geeignete Maßnahmen ergreifen, um den Risiken vorzubeugen. Bei diesen Selbsteinschätzungen bleibt es nicht:  Die größten Plattformen müssen darüber hinaus ihre internen Daten zur weiteren Prüfung mit unabhängigen Instanzen teilen: EU-Behörden, Behörden von Mitgliedstaaten, Wissenschaftler*innen und zivilgesellschaftlichen Einrichtungen.

Noch ist der DSA allerdings nicht in trockenen Tüchern. Bevor er im Februar 2024 EU-weit vollständig in Kraft tritt, muss noch einiges daran getan werden.

Warum wir Plattformen sofort in die Verantwortung nehmen müssen

Die Risiken, die von Social Media ausgehen, sind bereits jetzt da, während offizielle Prüfungsverfahren noch auf sich warten lassen. Aus diesem Grund führen Forschende und zivilgesellschaftliche Organisationen Audits durch, die darüber Aufschluss geben sollen, welchen Einfluss algorithmische Entscheidungssystem auf die Gesellschaft haben. Noch bis Ende März führt AlgorithmWatch zusammen mit Partnerorganisationen das zweite Dataskop-Datenspendeprojekt durch, bei dem der For-You-Feed von TikTok untersucht wird. Die von TikTok-Nutzer*innen gespendeten Daten sollen helfen, die Logik hinter den Empfehlungsalgorithmen der Plattform zu erkennen.  Wir wollen herausfinden, wie und wo TikTok-Trends und -Nischen entstehen und ob es Hinweise darauf gibt, dass die Plattform bestimmte Inhalte prominent in den For-You-Feeds der Nutzer*innen platziert.

Dieses Datenspendeprojekt kann als Beispiel für ein externes Audit betrachtet werden. Das Projekt findet unabhängig davon statt, dass die Plattform in einem selbst festgelegten Umfang Zugriff auf interne Systemdaten gewährt. Solche Audits haben zum Beispiel gezeigt, dass das Empfehlungssystem von Instagram überproportional rechtsextreme Inhalte promotet und TikTok-Nutzer*innen in Russland Inhalte über den Krieg in der Ukraine anzeigt, die eigentlich gesperrt sein sollten.

Die Audits allein geben kein vollständiges Bild darüber, wie Empfehlungssysteme funktionieren. Sie könnten zum Beispiel nur mit öffentlich zugänglich Daten durchgeführt worden sein oder durch eine verzerrte Datenauswahl ein falsches Bild vermitteln. Allerdings bieten sie im Vergleich zu einem reglementierten Datenzugriff einige Vorteile: Sie ermöglichen zum Beispiel Forscher*innen, flexibel Daten zu sammeln und ihre Forschungsfragen danach auszurichten, sie also nicht auf einen vordefinierten Datenzugriff zuzuschneiden. Zudem bieten Audits eine der wenigen Möglichkeiten, unabhängig zu prüfen, ob die Daten und Berichte der großen Plattformbetreiber richtig sind.

Audits haben sich als nützliches Instrument dabei erwiesen, Risiken von Social Media aufzudecken, die Öffentlichkeit auf Probleme hinzuweisen und den Druck auf die Plattformbetreiber zu erhöhen, damit sie zum Wohle der Nutzer*innen und der Öffentlichkeit notwendige Änderungen umsetzen. Diese Art der Forschung wird auch in Zukunft wichtig sein, um zur Bestimmung von Risiken den im DSA festgelegten Zugriff auf Plattformdaten zu ergänzen. Da sich die Plattformbetreiber externer Forschung gegenüber in der Vergangenheit mehrfach feindselig gezeigt haben, muss sie geschützt werden.

Viele Akteure suchen gerade praktische Antworten auf die Frage, wie sich im Rahmen des DSA unabhängige und effektive Audits der großen Plattformen durchsetzen lassen: Aufsichtsbehörden, Forschungseinrichtungen und zivilgesellschaftliche Institutionen.  Allen ist bewusst, dass dieses Feld nicht den Betreibern überlassen werden darf, da sie sonst die Bedingungen bestimmen werden. Watchdog-Unternehmen führen derweil weiter ihre Audits durch, damit Plattformen transparenter werden und die Risiken zutage treten, denen wir alle durch sie ausgesetzt sind.

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum DSA.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.