Der Digital Services Act: EU verpflichtet Plattformen zu einem neuen Rechenschaftsstandard

Beim Gesetz über digitale Dienste (Digital Services Act, DSA) wurde vergangene Woche eine politische Einigung erzielt. Dies könnte ein Durchbruch sein, um im Internet Grundrechte zu schützen und die großen Tech-Konzerne zur Verantwortung zu ziehen. Die Plattformen müssen nun das Design und die Funktionsweise der algorithmischen Systeme, die ihrem Geschäftsmodell zugrunde liegen, transparenter machen.

Aman Pal | Unsplash

Nach einer Marathonverhandlung bis in den frühen Samstagmorgen (23. April) hinein verkündeten die EU-Verhandlungspartner, dass beim DSA ein Kompromiss gefunden wurde. Es bleibt zu hoffen, dass damit ein wichtiger Schritt getan wurde, die großen Tech-Konzerne wie Facebook, YouTube, TikTok und Twitter stärker zu regulieren. Mit dem DSA wird ein komplexes Regelwerk eingeführt, um im Internet Grundrechte zu schützen und Plattformen bei ihren Empfehlungen und ihrer Moderation von Inhalten zu größerer Transparenz zu verpflichten.

AlgorithmWatch begrüßt diese Einigung beim DSA, da sie eine neue Ära der Transparenz und öffentlichen Kontrolle der großen Tech-Konzerne einleiten könnte. Wir sind vor allem erfreut darüber, dass der DSA Online-Plattformen dazu verpflichtet, diejenigen Probleme zu identifizieren und zu beheben, die mit sogenannten „systemischen Risiken“ einhergehen. Zu diesen Risiken, die aus dem Design und Gebrauch der Plattformdienste resultieren, gehören zum Beispiel die Verbreitung von Hassreden oder die vorsätzliche Manipulation von Wahlprozessen und öffentlichen Diskursen. Solche Selbstregulierungspflichten für Plattformen sind notwendig, jedoch reichen sie nicht aus, wenn wir sicherstellen wollen, dass sie systemische Risiken hinreichend untersuchen und dagegen vorgehen. Deshalb sind für die im DSA festgelegte Risikobeurteilung zwei unterstützende Maßnahmen vorgesehen: unabhängige Audits sowie der Datenzugang und Prüfungsmöglichkeiten für Regulierungsbehörden und Forschende aus Wissenschaft und Zivilgesellschaft.

Es ist eines der Kernanliegen von AlgorithmWatch, sich für Forschung im öffentlichen Interesse einzusetzen, um automatisierte Entscheidungssysteme und ihre gesellschaftlichen Auswirkungen besser verstehen zu können. Der DSA stellt Kontrollinstanzen, die im öffentlichen Interesse handeln, rechtliche Mittel zur Verfügung, um die systemischen Risiken von Online-Plattformen untersuchen zu können. Die Notwendigkeit dazu zeigte sich 2021, als Facebook uns dazu zwang, unser Instagram-Forschungsprojekt einzustellen. Unsere Forderungen an die EU-Gesetzgeber·innen haben eine große Unterstützung gefunden und Wirkung gezeigt, deshalb sind wir zuversichtlich, dass die Transparenzvorgaben des DSA künftig zivilgesellschaftlichen Organisationen ermöglichen wird, Zugang zu Plattformdaten zu erhalten. Bis die Details ausgearbeitet sind, bleibt trotz der nun erzielten Einigung beim DSA weiterhin unklar, wie das Kleingedruckte im Einzelnen aussehen wird. Diese Detailfragen werden auf der sogenannten „technischen Ebene“ geklärt. Danach wird die finale Textfassung öffentlich gemacht. Dies wird voraussichtlich im Mai stattfinden.

Da die Trilogverhandlungen sehr undurchsichtig waren, können wir noch nicht beurteilen, was genau am Samstag beschlossen wurde. Der Teufel liegt bekanntermaßen im Detail. Die Umrisse der Vereinbarung und Kompromisse bei strittigen Themen wie Online-Werbung und „Dark Patterns“ wurden vom EU-Parlament, dem EU-Rat und der EU-Kommission bereits in Pressemitteilungen angedeutet. Eine erste Analyse legt nahe, dass – teils dank der kollektiven Anstrengung zivilgesellschaftlicher Organisationendie ungeheuerlichsten Auswüchse der Plattformen (Tracking-basierte Werbeanzeigen und ein irreführendes Design) vom DSA unterbunden werden. Der DSA führt auf der EU-Ebene für die größten Plattformen starke Kontrollregelungen ein. Wir begrüßen, dass er außerdem wichtige Garantien für Nutzer·innen einführt: zum Beispiel bessere Verfahren, um Online-Inhalte zu markieren, die möglicherweise illegal sind, oder auch Rechtsmittel, um Moderationsentscheidungen zu bestimmten Plattforminhalten anzufechten. Die Plattformen werden ihrerseits dazu verpflichtet, auf solche Mitteilungen transparent und ohne Androhung unmittelbarer Rechtsfolgen zu antworten. Dies ist wichtig, um sicherzustellen, dass Plattformen rechtliche Bedenken nicht übermäßig abblocken. Dennoch vermuten wir, dass einige der finalen Beschlüsse im DSA nicht weit genug gehen, um Nutzer·innen zu schützen. Dieses Ergebnis ist den massiven Lobbykampagnen der großen Tech-Konzerne zuzuschreiben, die das EU-Regulierungsverfahren beeinflussen sollten.

Der Prozess ist trotz der Einigung beim DSA längst noch nicht abgeschlossen. Ob er seine Versprechen einhalten kann, werden wir erst sehen, wenn er in die Praxis umgesetzt werden soll. Die Erfahrung hat uns gelehrt, dass die Plattformen jede Gelegenheit nutzen, um sich der öffentlichen Kontrolle zu entziehen. Wir machen uns weiterhin darüber Sorgen, in welchem Ausmaß sie sich unter dem DSA auf „Geschäftsgeheimnisse“ berufen können, um Kontrollinstanzen und Forschenden den Zugang zu ihren Daten zu verweigern. Wir können den Einfluss, den Plattformen auf den öffentlichen Diskurs ausüben, nicht abschätzen, wenn wir nicht wissen, wie der Diskurs von ihnen algorithmisch moderiert wird. Der DSA ist ein erster Schritt in diese Richtung, aber er wird nur dann Wirkung entfalten, wenn das Gesetz effektiv umgesetzt wird.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.