
Der Musk-Effekt: Welchen Einfluss X auf die Bundestagswahl hatte
AlgorithmWatch und das DFRLab haben im Vorfeld der Bundestagswahl auf der Plattform X Posts von deutschen Politiker*innen und bekannten Organisationen untersucht, die sich gegen Rechtsextremismus engagieren. Wir haben herausgefunden, dass die am weitesten verbreiteten Posts auf Elon Musk und dessen Unterstützung für die AfD verweisen.

Die beiden Autoren haben gemeinsam Forschungshypothesen entwickelt, die Analysen durchgeführt und den Bericht verfasst. Die Daten wurden über das Tool Meltwater von DFRLab bereitgestellt. Die Arbeiten der beiden Organisationen wurden jeweils mit eigenen Mitteln durchgeführt. |
Der extrem parteiische X-Eigentümer veröffentlicht in großem Ausmaß in den USA Beiträge, die sich mit Inhalten zur deutschen Wahl befassen. Da auch die Inhaltsmoderation und Transparenz der Plattform Grund zur Sorge geben, findet in Deutschland gerade eine Debatte über die Rolle von X bei der öffentlichen Meinungsbildung statt.
Die Inhalte mit den eindeutig meisten Interaktionen in unserem Datensatz stammen von der AfD-Vorsitzenden Alice Weidel. Sie äußerte sich über Musk und dessen Unterstützung ihrer Partei. Diese Posts scheinen sich vor allem unter einem englischsprachigen Publikum verbreitet zu haben. Wir haben außerdem Inhalte von Konten analysiert, die mit der AfD-Verbotskampagne in Verbindung stehen. Viele von solchen Konten sind allerdings wegen der Präsenz von Musk inzwischen auf der Plattform inaktiv. Unter den Anti-AfD-Posts war das Bild am weitesten verbreitet, auf dem Musk mit seiner bekannten Hitlergruß-ähnlichen Geste auf die Tesla-Fabrik in Brandenburg projiziert wurde. In diesem Zusammenhang besonders problematisch: Das Bild wurde offenbar so von X entfernt, dass das Zentrum für politische Schönheit, das für die Aktion verantwortlich ist und das Bild ursprünglich gepostet hatte, nichts darüber wissen konnte. Dieses Vorgehen könnte gegen das EU-Gesetz über digitale Dienste (Digital Services Act, DSA) verstoßen. X hat auf unsere Fragen zu diesem Thema nicht geantwortet.
Obwohl Musk als Persönlichkeit übermäßig präsent war, konnten wir keine eindeutigen Anhaltspunkte dafür finden, dass „systemische Risiken für Wahlprozesse“ im Sinne des DSA vorliegen, zum Beispiel eine algorithmische Verzerrung bei der Verbreitung von Inhalten. Scheinbar konnten keine anderen AfD-Politiker*innen von Alice Weidels erhöhter Präsenz profitieren.
Unsere Forschung konzentrierte sich auf Posts von deutschen Politiker*innen und Anti-AfD-Organisationen auf X. Dieser Ansatz weicht von dem anderer Untersuchungen ab, bei denen zum Beispiel neue Konten erstellt wurden, um die ihnen angezeigten Inhalte zu analysieren. Dementsprechend sind wir auch zu unterschiedlichen Ergebnissen gekommen. Selbst wenn die AfD auf X algorithmisch bevorzugt worden wäre, ist es scheinbar nicht dazu gekommen, dass AfD-Politiker*innen im Allgemeinen dadurch mehr Aufmerksamkeit erhalten konnten. Allerdings bestehen andere Risiken, die sich nicht auf Wahlen und Politiker*innen beschränken, etwa Angriffe auf Minderheiten und polarisierende Inhalte. Um diese Risiken zu untersuchen, ist mehr Transparenz erforderlich. X hat aber gerade Berufung gegen eine Klage von Democracy Reporting International und dem Center for User Rights in Berlin eingelegt. Damit will X den Zugang zu Daten verhindern, die für eine vollständige Analyse der Plattform erforderlich sind.
Da andere Big-Tech-Unternehmen immer mehr dem Beispiel von Musk folgen, gilt auch für sie: Wir müssen dringend die Risiken beobachten, die von ihren Plattformen ausgehen. Wir setzen uns weiterhin dafür ein, dass Plattformen gesetzlich dazu gezwungen werden, deren Folgen für die Demokratie ernst zu nehmen. Wir müssen auch darüber nachdenken, wie Online-Räume gestaltet werden sollten, damit demokratische Diskussionen nicht von den Interessen privater Unternehmen beeinträchtigt werden.
Diese Studie wurde von Oliver Marsh, Head of Tech Research bei AlgorithmWatch, und Mark Scott, Senior Resident Fellow am Digital Forensic Research Lab (DFRLab) von Atlantic Council, durchgeführt.
Mehr über unsere Policy- und Advocacy-Arbeit zum DSA.