Ein Leitfaden zum Digital Services Act: Das neue EU-Gesetz soll den großen Tech-Konzernen Zügel anlegen

Alles Wesentliche zum Digital Services Act (DSA), Europas neuem Instrument, um die mächtigen Plattformen wie YouTube, TikTok, Facebook und Instagram transparenter zu machen und sie für die Risiken zur Rechenschaft zu ziehen, die von ihnen für die Gesellschaft ausgehen.

Was ist der DSA und warum brauchen wir ihn?

Der Digital Services Act (DSA) ist ein neues Regelwerk, das die großen Internetplattformen wie Facebook oder YouTube dazu verpflichtet, mehr gegen die Verbreitung illegaler Inhalte und andere gesellschaftliche Risiken zu tun, die ihre Dienste in der EU zur Folge haben. Wenn sie dagegen verstoßen, drohen ihnen Bußgelder in Milliardenhöhe. Zusammen mit dem Digital Markets Act, dem Schwestergesetz zum DSA, legt es umfassende Bestimmungen fest, die in der der ganzen EU gelten und möglicherweise einen globalen Standard für die Plattformregulierung setzen werden.

Der DSA soll eine Zeitwende einläuten: Bislang haben die Tech-Konzerne sich im Wesentlichen ungehindert selbst reguliert und ihre eigenen Richtlinien dazu festgelegt, wie sie Inhalte moderieren. In ihren „Transparenzberichten“ erklärten sie zwar, welche Maßnahmen sie ergreifen, um zum Beispiel die Verbreitung von Desinformationen zu verhindern. Für Dritte war es aber nahezu unmöglich, solche Erklärungen zu überprüfen. Der DSA verspricht nun, diesen Zustand zu ändern. Die Plattformen müssen über die Funktionsweise ihrer algorithmischen Systeme Auskunft geben und Verantwortung übernehmen, wenn ihre Dienste eine Gefahr für die Gesellschaft darstellen.

Welche Neuerungen bringt der DSA?

Die endgültige Fassung des DSA ist ein mehr als 300 Seiten langes Rechtsdokument, in dem die komplexen neuen rechtlichen Verpflichtungen für Tech-Unternehmen ausgeführt sind. Außerdem beinhaltet es die Verantwortlichkeiten der EU und ihrer Mitgliedstaaten bei der Durchsetzung dieser Rechtsvorgaben. Dazu gehören:

  • Klare Regeln für den Umgang mit illegalen Inhalten: Der DSA legt einen neuen Prozess fest, an den sich Anbieter digitaler Dienste halten müssen, um unverzüglich Inhalte zu löschen, die nach nationalem oder EU-Recht illegal sind. Zudem wird darin ein EU-weites Verbot eines allgemeinen „Content Monitoring” bekräftigt, also die systematische und kontinuierliche Suche, Erhebung, Aufbereitung, Analyse, Interpretation und Archivierung von Inhalten. Wenn die Tech-Konzerne gezwungen wären, ihre Plattformen auf diese Weise zu überwachen, würde es das Prinzip der freien Rede beeinträchtigen.
  • Neue Rechte für Nutzer*innen, um Entscheidungen bei der Moderation von Inhalten anzufechten: Wenn Plattformen Konten sperren oder Inhalte herabstufen bzw. entfernen, müssen sie den entsprechenden Nutzer*innen detaillierte Erklärungen dafür geben. Die Nutzer*innen können nach dem DSA solche Plattformentscheidungen anfechten und nötigenfalls auf außergerichtliche Einigungen drängen.
  • Mehr Transparenz bei Empfehlungssystemen und Online-Werbung: Die Plattformen müssen in ihren Nutzungsbedingungen genau darlegen, wie sie ihre Inhalte moderieren und wie ihre algorithmischen Empfehlungssysteme funktionieren. Sie müssen ihren Nutzer*innen zudem mindestens eine Empfehlungssystem- oder Feed-Alternative bereitstellen, die nicht auf „Profiling“ basiert, also einem gezielten Marketing durch die Auswertung von Kundenprofilen. Darüber hinaus müssen die Nutzer*innen genaue Informationen darüber erhalten, warum ihnen eine bestimmte Werbung angezeigt wird und wie sie die Parameter der zielgerichteten Werbung ändern können.
  • Beschränkungen bei zielgerichteter Werbung und irreführenden Designs: Der DSA führt ein Verbot von Werbeanzeigen ein, die auf Kinder ausgerichtet sind. Auch wird das Erstellen von Profilen auf der Grundlage von „sensiblen“ Merkmalen wie der religiösen Überzeugung oder der sexuellen Orientierung verboten. Der DSA führt ebenso Beschränkungen beim Plattformdesign ein. Untersagt sind Designs, die Nutzer*innen irreführen oder manipulieren. Darunter fallen zum Beispiel „Dark Patterns“, Designmuster, die darauf ausgelegt sind, Nutzer*innen zu Handlungen zu verleiten, die nicht in ihrem Interesse sind.
  • Allgemeine Transparenz- und Berichtanforderungen: Die Plattformen müssen jährlich darüber Berichte erstellen, wie sie Inhalte moderieren. Sie müssen darin die Anzahl der von den Mitgliedstaaten oder „Trusted Flaggers“ (vertrauenswürdigen Hinweisgeber*innen) angeordneten Löschungen von illegalen Inhalten angeben, außerdem den Umfang der Beschwerden von Nutzer*innen. In den Berichten müssen die Plattformen außerdem schildern, welche Maßnahmen sie daraufhin ergriffen haben. Die Transparenzberichte müssen Angaben über alle automatisierten Systeme machen, die dazu eingesetzt wurden, Inhalte zu moderieren. In diesen Angaben muss offengelegt werden, wie genau diese Systeme Inhalte identifizieren konnten und wie hoch die mögliche Fehlerrate ist.
  • Auflagen für die größten Plattformen, um systemische Risiken einzudämmen: Die EU-Gesetzgeber*innen haben die größten Plattformen als potenziell größte Risikoquelle für die Gesellschaft identifiziert – die von ihnen ausgehenden Risiken umfassen genderspezifische Gewalt und einen negativen Einfluss auf die Grundrechte, den zivilen Diskurs, Wahlen und die öffentliche Gesundheit. Aus diesem Grund verpflichtet der DSA Plattformen mit über 45 Million Nutzer*innen in der EU (YouTube, TikTok und Instagram) dazu, nach formalen Vorgaben zu prüfen, wie ihre Produkte (wozu auch algorithmische Systeme gehören) diese gesellschaftlichen Risiken verschärfen. Daraufhin müssen sie messbare Maßnahmen ergreifen, um diese Risiken einzudämmem.
  • Gesetzlich zugesicherter Datenzugang für externe Prüfungsinstanzen: Den Tech-Konzernen ist es nicht länger selbst überlassen, ihre Plattformdienste und die damit einhergehenden Risiken zu beurteilen – sie müssen ihre internen Daten nunmehr mit unabhängigen Auditoren teilen, Behörden der EU und ihrer Mitgliedstaaten. Zudem erhalten Forschende aus der Wissenschaft und der Zivilgesellschaft die Möglichkeit, die Erkenntnisse der Behörden zu überprüfen, um systemische Risiken ausfindig zu machen und die Plattformen dazu zu verpflichten, sie zu beseitigen.
  • Die Europäische Kommission und nationale Behörden erhalten neue Kompetenzen und Durchsetzungsbefugnisse: Um sicherzustellen, dass das neue Gesetz umgesetzt wird, werden sich neue nationale und EU-Körperschaften koordinieren. Die Kommission erhält eine direkte Beaufsichtigungs- und Durchsetzungsbefugnis über die größten Plattformen und Suchmaschinen. Sie kann Bußgelder im Umfang von bis zu sechs Prozent des globalen Umsatzes der Plattformen verhängen und Beaufsichtigungsgebühren erheben, um damit die Erfüllung ihrer Aufgaben zu finanzieren.

Welche weiteren Schritte stehen beim DSA an?

Es wird erwartet, dass der DSA im September 2022 formell vom Rat der Europäischen Union angenommen wird. Im Anschluss wird er im Amtsblatt der Europäischen Union veröffentlicht werden, zwanzig Tage später in Kraft treten und nach fünfzehn Monaten bzw. zum 1. Januar 2024 (dem späteren der beiden Zeitpunkte) EU-weit anwendbar sein. Für die größten Plattformen und Suchmaschinen, die systemische Auflagen erfüllen müssen, gelten die neuen Regeln bereits früher: Ihnen bleiben vier Monate, um den Vorgaben des DSA nachzukommen, sobald er von der Europäischen Kommission vorgeschlagen wurde.

In der Zwischenzeit müssen die EU-Mitgliedstaaten und die Kommission die nötigen Kapazitäten aufbauen und Personalressourcen schaffen, um den DSA adäquat umsetzen zu können. Jedes EU-Land wird eine*n DSA-Bevollmächtigte*n ernennen – eine unabhängige Aufsichtsperson, die für die Vollstreckung der Gesetze auf kleineren Plattformen verantwortlich sein wird, die in ihrem Heimatland etabliert sind. In ihren Zuständigkeitsbereich fallen außerdem Gesetze, die nicht-systemische Probleme auf den großen Plattformen betreffen. Die Kommission hat angekündigt, ein hochrangig besetztes Europäisches Zentrum für algorithmische Transparenz einzurichten, um die Umsetzung des DSA voranzutreiben.

Da mit dem DSA ein einheitlicher Regulierungsrahmen für Plattformen eingeführt wird, der in der gesamten EU gelten wird, müssen nationale Digitalverordnungen wie Deutschlands NetzDG grundlegend überarbeitet werden, sobald der DSA in Kraft tritt. Über offene Fragen hinaus, die die Durchsetzung des DSA betreffen, sind im DSA noch sehr viele delegierte Rechtsakte, Durchführungsbestimmungen, potentielle Verhaltenskodizes und freiwillige Standards aufgeführt, deren Ausformulierung noch aussteht. Erst wenn das geschehen ist, können bestimmte Aspekte des Gesetzes geklärt werden, etwa die Frage, welche technischen Bedingungen für das Teilen von Daten zwischen Plattformen und externen Forschenden erfüllt sein müssen.

Unsere Publikationsliste zum DSA

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum DSA.