Der Digital Services Act feiert Geburtstag – Zeit für ein Zwischenfazit
Der Digital Services Act (DSA) der EU wird drei Jahre alt. Durch das wegweisende Digitalgesetz zur Kontrolle von Plattform-Unternehmen soll transparenter werden, wie Online-Dienste ihren Nutzer*innen Inhalte anzeigen. Und es soll mehr Möglichkeiten geben gegen diese Unternehmen vorzugehen. Es gibt jedoch noch viel zu tun, damit der DSA wirklich den Bedürfnissen von Bürger*innen und Nutzer*innen gerecht wird.

Alle Technologieregelungen der EU müssen heutzutage vor dem Hintergrund der feindseligen Angriffe der Trump-Regierung und ihrer Verbündeten betrachtet werden, wie wir und über 40 andere zivilgesellschaftliche Organisationen vor Kurzem in einem offenen Brief betont haben. Viele CEOs nehmen Plattform-Schutzmaßnahmen zurück. Am deutlichsten wurde das an den Trump-freundlichen Änderungen sichtbar, die Mark Zuckerberg Anfang 2025 bei Meta durchsetzte, was wir scharf kritisiert haben. In einer kürzlich in den USA abgehaltenen Anhörung unter dem Vorsitz von Jim Jordan wurde der DSA fälschlicherweise als Mittel zur Zensur dargestellt. Jordan neigt wie Trump oder Elon Musk dazu, freie Meinungsäußerung zu beschneiden, wenn sie den eigenen Machtinteressen dient. In Reaktion hierauf machten verschiedene DSA-Expert*innen darauf aufmerksam, dass dies keineswegs der Wahrheit entspricht, auch wenn das Gesetz längst nicht perfekt ist. Ähnliche Angriffe kommen inzwischen auch aus dem Inneren der EU, unter anderem aus Deutschland.
Trotz solcher Angriffe blieben Forderungen nach einer „Vereinfachung” des DSA, wie es beispielsweise bei der KI-Verordnung (AI Act) immer wieder geschieht, in der EU (bislang) aus. Der DSA hatte bereits eine positive Wirkung, etwa auf die Entscheidung von TikTok, das Lite-Rewards-Programm in der EU zurückzuziehen, nachdem es nach EU-Standards als zu riskant eingestuft wurde. Generell wird der DSA jedoch zu zögerlich und lückenhaft durchgesetzt. So weigert sich X hartnäckig, AlgorithmWatch Daten zur Verfügung zu stellen, damit wir Dienste untersuchen können, mit denen nicht einvernehmlich Nacktbilder von realen Personen generiert werden können. Wir warten seit Monaten auf die Durchsetzung von Maßnahmen gegen die Plattform. Die ersten Risikobewertungen, die Plattformunternehmen jährlich durchführen müssen, waren bereits veraltet und lieferten kaum Informationen.
Wir müssen uns weiter gegen falsche Darstellungen des DSA durch Kräfte wehren, die der europäischen Demokratie feindlich gegenüberstehen. Gleichzeitig müssen wir daran arbeiten, den DSA besser zu machen. Wie lässt sich das umsetzen? Wir konzentrieren uns dabei auf zwei Schlüsselbereiche: den Datenzugang und Risikobewertungen.
Mehr Zugang zu Daten
Der Zugang zu Daten ist ein Schwerpunkt der Arbeit von AlgorithmWatch zum DSA. Nur so lassen sich potenzielle Risiken und negative Einflüsse des Internets erkennen. In den letzten Jahren haben Plattformen jedoch versucht, diesen Zugang einzuschränken. Um es mit den Worten des Wissenschaftlers Philipp Lorenz-Spreen zu sagen: Das ist so, als sollte der Klimawandel erforscht werden, während ausschließlich Anbieter fossiler Brennstoffe über Emissionsdaten verfügen.
Wir setzen uns dafür ein, dass die neuen DSA-Bestimmungen zum Datenzugang effektiver und umfassender genutzt werden. Wir haben einen einfachen einseitigen Leitfaden erstellt, den zivilgesellschaftliche Organisationen oder auch Journalist*innen verwenden können, die im Rahmen des DSA untersuchen möchten, welche Inhalte durch die größten Dienste öffentlich verbreitet werden. Es ist wichtig, dass viele Organisationen die Möglichkeiten der neuen Datenzugangsregeln ausloten und ihre Wirksamkeit demonstrieren – auch Organisationen außerhalb der EU. Wenn Sie also glauben, dass Sie Daten von großen Plattformen und Suchmaschinen für Ihre Forschung oder Ihre Recherchen benötigen, lesen Sie bitte unseren Leitfaden und wenden Sie sich an uns, falls wir Sie unterstützen können.
Unsere jüngste Initiative geht noch einen Schritt weiter: Anlässlich des dritten Geburtstags des DSA haben wir gemeinsam mit der Mozilla Foundation und dem DSA40 Data Access Collaboratory eine „Massenanfrage” gestellt. Die Idee basiert auf einem Datenzugang-Hackathon, den wir im April mit Organisationen aus der Zivilgesellschaft und der Wissenschaft sowie mit Faktenprüfer*innen veranstaltet haben. Wenn wir Erfolg damit haben, werden mehrere Organisationen eine tägliche Übersicht über Beiträge mit der größten Reichweite in jedem EU-Mitgliedstaat erhalten können. So lässt sich schnell erkennen, welche Inhalte potenziell die größte Wirkung haben, und besser verstehen, welche Inhalte durch Algorithmen bevorzugt werden. Die Entscheidung, die Massenanfrage anzunehmen oder abzulehnen, liegt bei den Plattformen. Wenn sie sie ablehnen, werden wir diese Entscheidung anfechten.
Die Einführung neuer Regeln für den Zugang von Forschenden zu privaten Plattformdaten könnte eine neue Entwicklung einläuten. Wir warten seit Februar 2024 darauf, dass diese Regeln konkretisiert werden, nachdem wir und andere Organisationen die ersten Datenzugangsanfragen gestellt haben. Die Regeln sollen (endlich) noch in diesem Monat in Kraft treten und könnten dann neue Erkenntnisse aus bisher unzugänglichen Daten liefern. Wir haben dazu unsere Erfahrungen bei Datenanfragen geteilt, die wir im Rahmen einer Untersuchung über die Risiken von Chatbots für deutsche Landtagswahlen gestellt hatten. Hierbei haben wir besonders betont, dass die neuen Vorschriften verschiedene Forschungsprojekte zu Risiken in spezifischen Zusammenhängen ermöglichen müssen. Die nationalen Regulierungsbehörden müssen unvermeidliche Streitigkeiten zwischen Forschenden und den Plattformen klären, beispielsweise darüber, ob Daten durch Geschäftsgeheimnisse geschützt sind.
Wir sind Teil des F5-Bündnisses, das im Beirat der Bundesnetzagentur sitzt, der deutschen EU-Regulierungsbehörde für digitale Dienste. Deshalb wissen wir, wie ernst sie die Chancen und Herausforderungen des Datenzugangs nimmt. Viel wird davon abhängen, wie die Regulierungsbehörde in Irland mit allen Anfragen umgehen wird, wo die meisten großen Plattformen ihren Sitz haben, und wie viel Widerstand die Konzerne leisten werden. Viele von ihnen halten sich kaum an die bestehenden Vorschriften für den Zugang zu öffentlichen Daten. X weigert sich beharrlich, Daten herauszugeben. Meta entwickelte ein „Transparenz-Tool” für die Wahlen zum EU-Parlament, das sich bei unseren Tests als untauglich erwiesen hat. Die Datenzugang-Schnittstelle von TikTok lässt in puncto Genauigkeit und Benutzerfreundlichkeit zu wünschen übrig. Wenn die Dienstanbieter sich weiterhin Problemlösungen verweigern, wird die Umsetzung des DSA schwierig werden. Das bedeutet mehr Arbeit für zivilgesellschaftliche und ähnliche Organisationen.
Risikobewertungen
Der DSA schreibt vor, dass sehr große Dienste proaktiv Risikobewertungen durchführen müssen. So soll verhindert werden, dass immer wieder Journalist*innen und Forschende auf Gefahren hinweisen müssen, damit die Plattformbetreiber sie beheben. Allerdings hält dieser Ansatz derzeit nicht, was er verspricht. Die ersten Risikobewertungsberichte brachten insgesamt keinen wirklichen Nutzen, wie wir mit Partnerorganisationen in einer Gruppenanalyse hier dargelegt haben.
Es besteht auch eine anhaltende Verwirrung darüber, wie die Dienste „systemische Risiken” bewerten sollen. Was unterscheidet solche von anderen Risiken? Diese Frage mag sich mit der Zeit klären, aber es gibt Fallstricke, die es zu vermeiden gilt. Eine zu weit gefasste Definition könnte die Durchsetzung schwieriger machen, während viele relevante Themen durch eine sehr enge Definition aus dem Blickfeld geraten könnten, etwa wenn potenziell „riskante” Inhalte dadurch definiert werden würden, dass sie vielen Nutzer*innen angezeigt werden. Wir schlagen einen sogenannten „Dual-Track”-Ansatz vor, der die Vorteile einer breit angelegten Forschung mit einer klar definierten Durchsetzung des Gesetzes kombiniert.
Derzeit konzentrieren wir uns insbesondere auf systemische Risiken, die für etablierte Medien und den Journalismus insgesamt durch Zusammenfassungen generativer KI in Ergebnislisten von Suchmaschinen entstehen. Diese oft unzuverlässigen Zusammenfassungen erscheinen direkt über den Ergebnissen und verleiten Nutzer*innen dazu, die angegebenen Links nicht aufzurufen und keine weiteren Informationsquellen hinzuzuziehen. Der Traffic zu Quellen wie Zeitungen und Websites könnte dadurch versiegen – womit der zuverlässige Journalismus als tragfähiges Geschäftsmodell gefährdet wäre. In einem offenen Brief an die Bundesnetzagentur haben AlgorithmWatch und andere Organisationen auf die Risiken und den derzeit unklaren Stand der von Google durchgeführten „Risikobewertungen” hingewiesen. Ein Großteil der Arbeit im Zusammenhang mit dem DSA konzentriert sich auf Social-Media-Plattformen. Wir sind der Meinung, dass Suchmaschinen eine größere Aufmerksamkeit verdienen, und werden die uns durch den DSA zur Verfügung stehenden Instrumente nutzen, um dieses Problem anzugehen.
Ein Schritt hin zu einem besseren Internet
Die Notwendigkeit eines wirksamen DSA ist größer denn je. Regulierung von Technologie kann die politischen Probleme von heute nicht lösen, und das sollte auch niemand erwarten. Aber der DSA kann Polarisierung, Hetze, irreführende Informationen und andere Risiken für die Gesellschaft eindämmen, gegen die Plattformbetreiber allzu oft nichts unternehmen.
Die gegenwärtige Entwicklung zeigt, dass die CEOs von Tech-Konzernen nicht im Interesse der Bevölkerung, der Demokratie und der Menschenrechte handeln. Stattdessen werden sie weiterhin neue Produkte wie KI-Zusammenfassungen an uns testen. Die Anbiederung vieler CEOs von Tech-Konzernen an die antidemokratischen Kräfte in den USA – und an ähnlich gesinnte politische Kräfte in Europa – erhöht auch das Risiko intransparenter Algorithmen und nicht nachvollziehbarer Moderationsentscheidungen, die eine antidemokratische Zensur ermöglichen.
Der DSA kann vielen verschiedenen Gruppen dabei helfen, solche Herausforderungen zu bewältigen: Nutzer*innen können damit ihre Internet-Erfahrungen verstehen, gestalten und hinterfragen; Forschende und Journalist*innen können damit untersuchen, was im Internet wirklich vor sich geht; die Zivilgesellschaft und Aktivist*innen können damit auf negative Folgen hinweisen und sich für bessere Schutzmaßnahmen einsetzen. Außerdem können Menschen, die für Tech-Konzerne arbeiten, auf die Arbeit all dieser Gruppen zurückgreifen, wenn sie im Gegensatz zu ihren Arbeitgebern für eine gute Risikobewertung und -minderung eintreten wollen. Der DSA allein wird nicht genügen, um ein besseres Internet zu gestalten und aufzubauen. Aber er ist ein Instrument, mit dem wir arbeiten können.