Was ist der DSA und warum brauchen wir ihn?
Der Digital Services Act (DSA) ist ein neues Regelwerk, das die großen Internetplattformen wie Facebook oder YouTube dazu verpflichtet, mehr gegen die Verbreitung illegaler Inhalte und andere gesellschaftliche Risiken zu tun, die ihre Dienste in der EU zur Folge haben. Wenn sie dagegen verstoßen, drohen ihnen Bußgelder in Milliardenhöhe. Zusammen mit dem Digital Markets Act, dem Schwestergesetz zum DSA, legt es umfassende Bestimmungen fest, die in der der ganzen EU gelten und möglicherweise einen globalen Standard für die Plattformregulierung setzen werden.
Der DSA soll eine Zeitwende einläuten: Bislang haben die Tech-Konzerne sich im Wesentlichen ungehindert selbst reguliert und ihre eigenen Richtlinien dazu festgelegt, wie sie Inhalte moderieren. In ihren „Transparenzberichten“ erklärten sie zwar, welche Maßnahmen sie ergreifen, um zum Beispiel die Verbreitung von Desinformationen zu verhindern. Für Dritte war es aber nahezu unmöglich, solche Erklärungen zu überprüfen. Der DSA verspricht nun, diesen Zustand zu ändern. Die Plattformen müssen über die Funktionsweise ihrer algorithmischen Systeme Auskunft geben und Verantwortung übernehmen, wenn ihre Dienste eine Gefahr für die Gesellschaft darstellen.
Welche Neuerungen bringt der DSA?
Die endgültige Fassung des DSA ist ein mehr als 300 Seiten langes Rechtsdokument, in dem die komplexen neuen rechtlichen Verpflichtungen für Tech-Unternehmen ausgeführt sind. Außerdem beinhaltet es die Verantwortlichkeiten der EU und ihrer Mitgliedstaaten bei der Durchsetzung dieser Rechtsvorgaben. Dazu gehören:
- Klare Regeln für den Umgang mit illegalen Inhalten: Der DSA legt einen neuen Prozess fest, an den sich Anbieter digitaler Dienste halten müssen, um unverzüglich Inhalte zu löschen, die nach nationalem oder EU-Recht illegal sind. Zudem wird darin ein EU-weites Verbot eines allgemeinen „Content Monitoring” bekräftigt, also die systematische und kontinuierliche Suche, Erhebung, Aufbereitung, Analyse, Interpretation und Archivierung von Inhalten. Wenn die Tech-Konzerne gezwungen wären, ihre Plattformen auf diese Weise zu überwachen, würde es das Prinzip der freien Rede beeinträchtigen.
- Neue Rechte für Nutzer*innen, um Entscheidungen bei der Moderation von Inhalten anzufechten: Wenn Plattformen Konten sperren oder Inhalte herabstufen bzw. entfernen, müssen sie den entsprechenden Nutzer*innen detaillierte Erklärungen dafür geben. Die Nutzer*innen können nach dem DSA solche Plattformentscheidungen anfechten und nötigenfalls auf außergerichtliche Einigungen drängen.
- Mehr Transparenz bei Empfehlungssystemen und Online-Werbung: Die Plattformen müssen in ihren Nutzungsbedingungen genau darlegen, wie sie ihre Inhalte moderieren und wie ihre algorithmischen Empfehlungssysteme funktionieren. Sie müssen ihren Nutzer*innen zudem mindestens eine Empfehlungssystem- oder Feed-Alternative bereitstellen, die nicht auf „Profiling“ basiert, also einem gezielten Marketing durch die Auswertung von Kundenprofilen. Darüber hinaus müssen die Nutzer*innen genaue Informationen darüber erhalten, warum ihnen eine bestimmte Werbung angezeigt wird und wie sie die Parameter der zielgerichteten Werbung ändern können.
- Beschränkungen bei zielgerichteter Werbung und irreführenden Designs: Der DSA führt ein Verbot von Werbeanzeigen ein, die auf Kinder ausgerichtet sind. Auch wird das Erstellen von Profilen auf der Grundlage von „sensiblen“ Merkmalen wie der religiösen Überzeugung oder der sexuellen Orientierung verboten. Der DSA führt ebenso Beschränkungen beim Plattformdesign ein. Untersagt sind Designs, die Nutzer*innen irreführen oder manipulieren. Darunter fallen zum Beispiel „Dark Patterns“, Designmuster, die darauf ausgelegt sind, Nutzer*innen zu Handlungen zu verleiten, die nicht in ihrem Interesse sind.
- Allgemeine Transparenz- und Berichtanforderungen: Die Plattformen müssen jährlich darüber Berichte erstellen, wie sie Inhalte moderieren. Sie müssen darin die Anzahl der von den Mitgliedstaaten oder „Trusted Flaggers“ (vertrauenswürdigen Hinweisgeber*innen) angeordneten Löschungen von illegalen Inhalten angeben, außerdem den Umfang der Beschwerden von Nutzer*innen. In den Berichten müssen die Plattformen außerdem schildern, welche Maßnahmen sie daraufhin ergriffen haben. Die Transparenzberichte müssen Angaben über alle automatisierten Systeme machen, die dazu eingesetzt wurden, Inhalte zu moderieren. In diesen Angaben muss offengelegt werden, wie genau diese Systeme Inhalte identifizieren konnten und wie hoch die mögliche Fehlerrate ist.
- Auflagen für die größten Plattformen, um systemische Risiken einzudämmen: Die EU-Gesetzgeber*innen haben die größten Plattformen als potenziell größte Risikoquelle für die Gesellschaft identifiziert – die von ihnen ausgehenden Risiken umfassen genderspezifische Gewalt und einen negativen Einfluss auf die Grundrechte, den zivilen Diskurs, Wahlen und die öffentliche Gesundheit. Aus diesem Grund verpflichtet der DSA Plattformen mit über 45 Million Nutzer*innen in der EU (YouTube, TikTok und Instagram) dazu, nach formalen Vorgaben zu prüfen, wie ihre Produkte (wozu auch algorithmische Systeme gehören) diese gesellschaftlichen Risiken verschärfen. Daraufhin müssen sie messbare Maßnahmen ergreifen, um diese Risiken einzudämmem.
- Gesetzlich zugesicherter Datenzugang für externe Prüfungsinstanzen: Den Tech-Konzernen ist es nicht länger selbst überlassen, ihre Plattformdienste und die damit einhergehenden Risiken zu beurteilen – sie müssen ihre internen Daten nunmehr mit unabhängigen Auditoren teilen, Behörden der EU und ihrer Mitgliedstaaten. Zudem erhalten Forschende aus der Wissenschaft und der Zivilgesellschaft die Möglichkeit, die Erkenntnisse der Behörden zu überprüfen, um systemische Risiken ausfindig zu machen und die Plattformen dazu zu verpflichten, sie zu beseitigen.
- Die Europäische Kommission und nationale Behörden erhalten neue Kompetenzen und Durchsetzungsbefugnisse: Um sicherzustellen, dass das neue Gesetz umgesetzt wird, werden sich neue nationale und EU-Körperschaften koordinieren. Die Kommission erhält eine direkte Beaufsichtigungs- und Durchsetzungsbefugnis über die größten Plattformen und Suchmaschinen. Sie kann Bußgelder im Umfang von bis zu sechs Prozent des globalen Umsatzes der Plattformen verhängen und Beaufsichtigungsgebühren erheben, um damit die Erfüllung ihrer Aufgaben zu finanzieren.
Welche weiteren Schritte stehen beim DSA an?
Der Wortlaut des DSA wurde am 27. Oktober 2022 im Amtsblatt der Europäischen Union veröffentlicht. Am 16. November trat der DSA in Kraft. Das Gesetz wird ab Februar 2024 in der gesamten EU gelten. Für die größten Plattformen und Suchmaschinen gilt es aber bereits früher. Auf der Grundlage der Nutzungszahlen wird die Europäische Kommission prüfen, ob eine Plattform oder Suchmaschine als sehr groß einzustufen ist. Nach der Entscheidung der Kommission hat das betreffende Unternehmen vier Monate Zeit, um den Verpflichtungen aus dem DSA nachzukommen. Da mit dem DSA für die gesamte EU ein einheitlicher Regulierungsrahmen für Plattformen eingeführt wird, müssen nationale Digitalgesetze wie das NetzDG in Deutschland grundlegend überarbeitet werden.
Bei der Umsetzung des DSA stehen diese wichtigen Etappen bevor:
- Transparente Einstufung mittels der Anzahl an Nutzer*innen
Bis zum 17. Februar 2023 muss die Anzahl der aktiven Endnutzer*innen von Plattformen und Suchmaschinen an die Europäische Kommission übermittelt werden. Die Kommission wird anschließend darüber bestimmen, welche Dienste dem festgelegten Grenzwert von über 45 Million aktiven EU-Nutzer*innen gemäß als „Sehr große Online-Plattformen“ (Very Large Online Platform, VLOP) oder „Sehr große Online-Suchmaschinen“ (Very Large Online Search Engine, VLOSE) eingestuft werden. - Erfüllung der neuen Vorgaben
Diese sehr großen Plattformen und Suchmaschinen müssen innerhalb von vier Monaten (bis Juni 2023) nach den Vorgaben des DSA angepasst werden. Dazu gehören die Durchführung und Übermittlung der ersten jährlichen Risikobewertung an die Kommission sowie die Einführung neuer Regeln zur Moderation von Inhalten. Solche Änderungen sollten für Nutzer*innen von Plattformen durch neue Features bald sichtbar werden, beispielsweise durch einfachere Meldemöglichkeiten bei illegalen Inhalten. Zudem sollten die Allgemeinen Nutzungsbedingungen so angepasst werden, dass alle Nutzer*innen sie verstehen können, auch Minderjährige.
- Ernennung von DSA-Bevollmächtigten
Am 17. Februar 2024 tritt der DSA in der gesamten EU vollständig in Kraft. Alle EU-Mitgliedstaaten müssen bis dahin eine*n DSA-Bevollmächtigte*n (Digital Services Coordinator, DSC) ernennen – eine unabhängige Aufsichtsperson, die für die Vollstreckung des Gesetzes auf kleineren Plattformen verantwortlich ist, die in ihrem Heimatland etabliert sind. Damit der DSA in Europa einheitlich umgesetzt wird, stimmen sich die einzelnen DSC untereinander und mit der Kommission ab.
Da der Zeitplan nun feststeht, müssen die EU-Mitgliedstaaten und die Kommission die nötigen Kapazitäten aufbauen und Personalressourcen schaffen, um den DSA adäquat umsetzen zu können. Dazu hat die Kommission vor Kurzem das Europäische Zentrum für algorithmische Transparenz gegründet. Sie hat angekündigt, ab Juni 2023 eingehend zu prüfen, ob VLOP und VLOSE den neuen Verpflichtungen nachkommen.
Bei diesem Prozess sind Schwierigkeiten zu erwarten. Die Turbulenzen rund um die Twitter-Übernahme durch Elon Musk könnten die DSA-Wachinstanzen der EU schon früh auf die Probe stellen. Nach der planlosen Einführung der kostenpflichtigen Verifikation wurde die Plattform zum Beispiel mit Desinformationen überflutet, die reale Schäden verursachten. Wenn Twitter bereits als VLOP eingestuft worden wäre, hätte das wahrscheinlich eine Untersuchung nach sich gezogen. Möglicherweise hätte Twitter dann hohe Bußgelder zahlen müssen. Laut DSA ist es VLOPs nämlich untersagt, große Änderungen am Geschäftsmodell einzuführen, ohne zuvor eine Risikoprüfung durchgeführt zu haben.
Über offene Fragen hinaus, die die Durchsetzung des DSA betreffen, sind im DSA noch sehr viele delegierte Rechtsakte, Durchführungsbestimmungen, potentielle Verhaltenskodizes und freiwillige Standards aufgeführt, deren Ausformulierung noch aussteht. Erst wenn das geschehen ist, können bestimmte Aspekte des Gesetzes geklärt werden, etwa die Frage, welche technischen Bedingungen für das Teilen von Daten zwischen Plattformen und externen Forschenden erfüllt sein müssen.
Unsere Publikationsliste zum DSA
- Story | Facebook demontiert CrowdTangle: Mehr Transparenz durch schlechteren Datenzugang? | 3. August 2022
- Op-ed | Die EU und der DSA: Es ist Zeit, sich die großen Tech-Konzerne vorzuknöpfen | 5. Juli 2022
- Policy Brief zu Online-Plattformen: Unabhängige Forschung braucht Datenzugang | 5. Juli 2022
- Blog | Der Digital Services Act: EU verpflichtet Plattformen zu einem neuen Rechenschaftsstandard | 25. April 2022
- Policy Paper | DSA-Trilogverhandlungen in der Endphase: Plattformtransparenz muss eine Priorität sein | 30. März 2022
- Gemeinsame Erklärung: Beteiligung von Interessensgruppen bei der Revision des „Code of Practice on Disinformation“ | 24. Februar 2022
- Parlamentarische Anfrage | EU Commission responds to MEP Breyer’s question concerning AlgorithmWatch [EN] | 11. Januar 2022
- DSA-Meilenstein: Die EU-Gesetzgeber·innen haben unsere Forderungen nach Transparenz für Big Tech wahrgenommen | 14. Dezember 2021
- Offener Brief an die Mitglieder des Europäischen Parlaments – Ausschuss für Binnenmarkt und Verbraucherschutz | Holding platforms accountable: The DSA must empower vetted public interest research to reign in platform risks to the public sphere [EN] | 29. November 2021
- Offener Brief an die Mitglieder des Europäischen Parlaments | Facebook macht dicht: Forschung braucht Zugang zu Plattformen | 13. August 2021
- Positionspapier | The DSA proposal is a good start. Now policymakers must ensure that it has teeth [EN] | 16. Dezember 2020
- Podcast | Der EU Digital Services Act – Warum Datenzugriff nötig ist | 9. Dezember 2020
- Gespäch mit Margarethe Vestager, der geschäftsführenden Vizepräsidentin der Europäischen Kommission | Beyond the buzzwords: Putting meaningful transparency at the heart of the Digital Services Act [EN] | 3. November 2020
- Stellungsnahme | Civil Society Coalition Led by AlgorithmWatch Calls for Binding Transparency Rules for Online Platforms [EN] | 30. Oktober 2020
- Das Projekt „Governing Platforms“: Abschließende Empfehlungen | Putting Meaningful Transparency at the Heart of the Digital Services Act [EN] | 30. Oktober 2020
- Story/Kampagne | Left on Read: How Facebook and others keep researchers in the dark [EN] | 9. Juli 2020
- Beratende Einreichung | Our response to the European Commission’s planned Digital Services Act [EN] | 9. September 2020
- Gemeinsame Erklärung | AlgorithmWatch joins call for ‘Universal Advertising Transparency by Default’ [EN] | 8 September 2020
- Projekt | Governing Platforms | 2019-2021
Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum DSA.