
Explainer: DSA
Eine Einführung in das Gesetz über digitale Dienste (Digital Services Act, DSA)
Alles Wissenswerte zum Gesetz über digitale Dienste (DSA), das mächtige Tech-Plattformen wie YouTube, TikTok, Facebook und Twitter/X transparenter machen soll. Die EU will Anbieter stärker in die Verantwortung nehmen, um systemische Risiken bei der Nutzung ihrer Plattformen einzudämmen.

Was ist der DSA und warum brauchen wir ihn?
Das Gesetz über digitale Dienste (DSA) ist eine Verordnung, die Online-Dienste wie Facebook, YouTube, TikTok, X etc. dazu bringen möchte, mehr gegen die Verbreitung rechtswidriger Inhalte und weitere Risiken für die Gesellschaft zu tun. Verstoßen sie gegen die Vorschriften, drohen ihnen Geldbußen. Das Gesetz zielt auf „Vermittlungsdienste“ wie soziale Netzwerke, Suchmaschinen und Online-Marktplätze – mehr dazu auf der Webseite der Kommission. Zusammen mit dem Gesetz über digitale Märkte (Digital Markets Act, DMA) legt der DSA einheitliche Regeln für die gesamte EU fest, die theoretisch zum weltweiten Standard in Sachen Plattformregulierung werden könnten.
Die Zeiten, in denen Technologieunternehmen sich im Wesentlichen selbst reguliert haben, sollen sich damit ihrem Ende zuneigen. Bisher konnten Plattformen beispielsweise selbst entscheiden, wie Inhalte moderiert werden, und in „Transparenzberichten“ über ihre Bemühungen im Kampf gegen Desinformation informieren. Für Außenstehende waren diese Informationen jedoch kaum überprüfbar. Der DSA fordert von den Plattformen, mehr Transparenz über die Funktionsweise ihrer algorithmischen Systeme zu schaffen und Verantwortung für die Risiken zu übernehmen, die mit der Nutzung ihrer Dienste für die Gesellschaft einhergehen. Bei der Um- und Durchsetzung der Regeln kommt es jedoch zu „Verzögerungen im Betriebsablauf“.
Der Text der Verordnung wurde im Oktober 2022 im EU-Amtsblatt veröffentlicht und trat wenig später in Kraft. Seit Februar 2024 gelten die neuen Regeln verbindlich; einige davon, die größten in Europa aktiven Plattformen und Suchmaschinen betreffend, sogar bereits seit August 2023. Mehr als 20 Plattformen sind derzeit von der Kommission offiziell als „sehr große“ Online-Plattformen oder -Suchmaschinen klassifiziert worden, als „Very Large Online Platforms“ (VLOPs) oder „Very Large Search Engines“ (VLOSEs), mit monatlich mehr als 45 Millionen aktiven Nutzenden in der EU. Dazu zählen soziale Medien wie TikTok, X, Snapchat, YouTube, Instagram und Facebook (die beide Meta gehören), Suchmaschinen wie die Google-Suche und Microsoft Bing, aber auch Online-Marktplätze und App-Stores wie Amazon, AliExpress, Shein, Booking.com oder der App-Store von Apple, außerdem einige Erotik-Plattformen. Die Schwelle von 45 Millionen aktiven Nutzer*innen entspricht zehn Prozent der EU-Bevölkerung und soll angepasst werden, wenn die Bevölkerung wächst.
Was schreibt der DSA vor?
Der DSA ist kein Gesetz zur „Einschränkung der Meinungsfreiheit“. Er zielt nicht darauf ab, dass bestimmte Inhalte von den Plattformen gelöscht werden sollen, es sei denn, sie wären nach nationalen oder EU-Gesetzen rechtswidrig. Vielmehr schafft er Transparenz im Hinblick auf die Moderationsentscheidungen der Plattformen, nicht zuletzt auf Auskunftsersuchen nationaler Regierungen hin (mehr dazu hier).
Wozu sind Technologieunternehmen also genau nach dem DSA verpflichtet? Und welche Verantwortlichkeiten hinsichtlich der Durchsetzung liegen bei der EU und den Mitgliedsstaaten?
- Recht auf Datenzugang für unabhängige Überprüfung und Forschung: Forschungseinrichtungen (wozu auch zivilgesellschaftliche und journalistische Organisationen zählen, die ein öffentliches Interesse im Blick haben) können, wenn sie bestimmte Voraussetzungen erfüllen, von sehr großen Online-Plattformen und -Suchmaschinen, also von VLOPs und VLOSEs, einen Zugang zu bestimmten Daten verlangen. Öffentlich zugängliche Daten wie öffentliche Nutzer*innen-Beiträge und Interaktionsdaten, können direkt bei den Plattformen angefragt werden (hier unsere Anleitung dazu). Ob berechtigte Organisationen öffentlich zugängliche Daten auch selbst sammeln und für ihre Forschung verwenden dürfen, ohne bei den Plattformen anzufragen, etwa indem sie sie von Webseiten extrahieren (Scraping), ist noch rechtlich umstritten und bedarf einer Klärung. Zugang zu nicht-öffentlichen Daten gibt es nur auf Antrag bei einer nationalen Aufsichtsbehörde (hier eine Anleitung dazu).
- Mehr Transparenz bei Empfehlungssystemen und Online-Werbung: Plattformen müssen in ihren Nutzungsbedingungen deutlich erläutern, wie ihre Verfahren zur Moderation von Inhalten und ihre Empfehlungssysteme funktionieren. Außerdem müssen sie Nutzer*innen mindestens ein alternatives Empfehlungssystem (bzw. einen Nachrichten-Feed) zur Auswahl anbieten, das nicht auf Profiling basiert, und ihnen erläutern, warum ihnen eine bestimmte Werbung angezeigt wird. Informationen zu ihren Werbeanzeigen müssen VLOPs und VLOSEs in einem öffentlich zugänglichen Online-Archiv ablegen.
- Beschwerderechte bei Entscheidungen im Zusammenhang mit der Moderation von Inhalten: Wenn Plattformen Nutzer*innen-Konten suspendieren bzw. schließen oder bestimmte Inhalte entfernen oder ihre Sichtbarkeit einschränken, müssen sie dies gegenüber den Betroffenen detailliert begründen. Diese können im Rahmen eines Beschwerdeverfahrens Widerspruch gegen solche Entscheidungen einlegen und sich nötigenfalls an eine eigens hierfür geschaffene außergerichtliche Streitbeilegungsstelle wenden.
- Klare Regeln zum Umgang mit rechtswidrigen Inhalten: Der DSA bringt klarere Vorgaben zum Umgang der Anbieter digitaler Dienste mit Inhalten, die nach nationalen oder EU-Gesetzen rechtswidrig sind. Zusätzlich aktualisiert er das EU-weite Verbot allgemeiner Überwachungspflichten. Die Plattformen müssen also von Nutzer*innen geteilte Inhalte nicht aktiv oder kontinuierlich überprüfen, was im Hinblick auf die Meinungsfreiheit problematisch wäre.
- Einschränkungen bei gezielter Werbung und irreführender Gestaltung: DerDSA untersagtgezielte Werbung, die sich an Kinder richtet. Auch die Erstellung von Werbeprofilen auf Grundlage „sensibler“ Merkmale, etwa des Glaubens oder der sexuellen Orientierung, wird verboten. Design-Gestaltungen oder Funktionen, die geeignet sind, Nutzer*innen in die Irre zu führen oder zu manipulieren, sogenannte „dark patterns“, sind ebenfalls nur noch eingeschränkt möglich.
- Verpflichtung der größten Plattformen zur Minderung „systemischer Risiken“: Nach Erkenntnis des EU-Gesetzgebers gehen von den größten Plattformen und Suchmaschinen auch die größten Risiken für die Gesellschaft aus. Zu solchen „systemischen Risiken“ zählen negative Auswirkungen auf Grundrechte, auf die gesellschaftliche Debatte und Wahlprozesse, in Bezug auf geschlechtsspezifische Gewalt sowie auf den Schutz der öffentlichen Gesundheit. Deshalb verpflichtet der DSA die VLOPs und VLOSEs, ihre Produkte, einschließlich der algorithmischen Systeme, daraufhin zu bewerten, inwiefern sie solche Risiken für die Gesellschaft darstellen, und angemessene Risikominderungsmaßnahmen zu ergreifen. Der Begriff der „systemischen Risiken“ bleibt zwar vage, eröffnet Forschenden und zivilgesellschaftlichen Organisationen jedoch die Möglichkeit, zur Um- und Durchsetzung des DSA einen Beitrag zu leisten. (Hier unsere beiden Veröffentlichungen dazu: Researching Systemic Risks under the Digital Services Act sowie A Dual Track Approach to Systemic Risks.) Die meisten VLOPs und VLOSEs veröffentlichen ihre Risikobewertungsberichte jeweils im November. Eine zivilgesellschaftliche Antwort auf die ersten Berichte findet sich hier.
- Transparenz- und Berichtspflichten: Plattformen müssen jährlich Berichte über ihre Maßnahmen zur Moderation von Inhalten vorlegen. Darin muss die Zahl der von Mitgliedstaaten erhaltenen Anordnungen zum Vorgehen gegen rechtswidrige Inhalte sowie der von vertrauenswürdigen Hinweisgebern (trusted flaggers) erhaltenen Meldungen ebenso angegeben werden wie der Umfang der von Nutzer*innen erhaltenen Beschwerden und wie mit ihnen umgegangen wurde. Zudem müssen in den Transparenzberichten die zur Moderation von Inhalten eingesetzten automatischen Systeme beschrieben werden. Dabei muss ersichtlich werden, wie zuverlässig bzw. fehleranfällig diese Systeme im Durchschnitt sind.
- Kompetenzen und Durchsetzungsbefugnisse der Europäischen Kommission und der nationalen Aufsichtsbehörden: Aufsicht und Durchsetzungsbefugnisse gegenüber VLOPs und VLOSEs obliegen der Europäischen Kommission, genauer gesagt, der Generaldirektion Kommunikationsnetze, Inhalte und Technologien (DG Connect). Sie kann bei Verstößen Bußgelder in Höhe von bis zu sechs Prozent des weltweiten Umsatzes der Unternehmen verhängen und außerdem die Plattformen mit einer Aufsichtsgebühr zur Mitfinanzierung ihrer Arbeit heranziehen. Kleinere Diensteanbieter werden auf Ebene der Mitgliedstaaten von deren jeweiligem Digital Service Coordinator (DSC) überwacht. Zu den Aufgaben des DSC gehört es auch, Bürger*innen bei der Wahrnehmung ihrer Rechte zu unterstützen und mit anderen Aufsichtsbehörden zusammenzuarbeiten, um Erkenntnisse über den jeweiligen Stand der Um- und Durchsetzung der DSA-Regeln zu gewinnen.
Die DSA-Timeline: Das ist bisher passiert
Übersicht: Sämtliche Aktivitäten der Europäischen Kommission, einschließlich diverser an VLOPs/VLOSEs gerichteter Auskunftsersuche, der Benennung neuer VLOPs/VLOSEs und anderer Durchsetzungsmaßnahmen, sind hier aufgeführt.
- April 2023: Das European Centre for Algorithmic Transparency (ECAT) wird gegründet.
- August 2023: VLOPs und VLOSEs reichen die ersten vom DSA vorgeschriebenen Risikobewertungen ein. Da es noch keine Leitlinien der Europäischen Kommission gibt, spiegeln sich darin eher kommerzielle Interessen der Plattformen als Gemeinwohlinteressen wider. Zudem bleiben die Berichte der Öffentlichkeit weitgehend unzugänglich. Weitere Informationen dazu: Call for Evidence; Auditing risks; Risk Assessments and Audits under DSA; Wie sollte man Risiken von Plattformen definieren.
- Februar 2024: Der DSA erlangt vollständige Geltung und die EU-Staaten erhielten die Aufgabe, ihre nationalen Koordinatoren für Digitale Dienste (Digital Services Coordinators, DSCs) zu benennen.
- April 2024: Die Kommission gibt Leitlinien für Anbieter von VLOPs und VLOSEs zur Minderung systemischer Risiken für Wahlprozesse heraus. Hier unsere Antwort im Rahmen der Konsultation: AlgorithmWatch proposals on mitigating election risks for online platforms
- Mai 2024: Die Bundesnetzagentur (BNetzA) wird offiziell zum deutschen Digital Services Coordinator (DSC) ernannt.
- November 2024: Erste Risikobewertungsberichte und Audits werden veröffentlicht. Weiteres hierzu: Zivilgesellschaftliche Analyse der Risikobewertungen, Anleitung zu Risikobewertungen im DSA, Mängel der ersten Audits.
- Ende 2024: Die meisten nationalen DSCs sind mittlerweile offiziell benannt worden.
- Februar/Mai 2025: Democracy Reporting International (DRI) und die Gesellschaft für Freiheitsrechte (GFF) verklagen X vor dem Berliner Landgericht, weil das Unternehmen ihnen den Datenzugang verwehrt hatte. Die Richter kommen zwar nicht zu dem Schluss, dass X gegen den DSA verstoßen hätte, betonen jedoch, dass Forschende ein Recht auf Datenzugang haben, das sie in ihrem jeweiligen Sitzland auch rechtlich gegen VLOPs und VLOSEs durchsetzen können.
- Juni 2025: Die Europäische Kommission akzeptiert die von AliExpress abgegebenen Verpflichtungszusagen zur Verbesserung der Transparenz und erklärt sie für bindend.
- August 2025: Die Europäische Kommission erklärt die von TikTok abgegebenen Verpflichtungszusagen, die „TikTok Lite Rewards“ in der EU dauerhaft einzustellen, für bindend.
- Oktober 2025: Der delegierte Rechtsakt gemäß Artikel 40 (4) DSA tritt in Kraft. Zugelassene Forschende erhalten damit das Recht, über den Digital Services Coordinator Zugang zu nicht-öffentlichen Daten von VLOPs und VLOSEs zu beantragen, um deren systemische Risiken und die entsprechenden Risikominderungsmaßnahmen zu untersuchen.
- Dezember 2025: Die Europäische Kommission verhängt wegen Verstoßes gegen die Transparenzverpflichtungen gemäß dem DSA eine erste Geldbuße, nämlich gegen X.
- In 2025: Im Lauf des Jahres werden Risikobewertungen und Audits neu benannter VLOPs und VLOSEs veröffentlicht.
Mehr über unsere Policy- und Advocacy-Arbeit zum DSA.




