Was folgt aus dem Digital Services Act

Plattformregulierung: Wie lassen sich systemische Risiken für die Demokratie erkennen?

Wie sollen die Betreiber von großen Plattformen und Suchmaschinen dem Digital Services Act (DSA) zufolge „systemische Risiken“ erkennen? AlgorithmWatch hat eine Methodik entworfen, an der wir uns als zivilgesellschaftliche Watchdog-Organisation orientieren werden, um die gerade stattfindenden Risikobewertungen kritisch zu begleiten.

Die marktbeherrschenden Internet-Dienste stellen einem Großteil der Welt zweifellos wichtige Konsumgüter zur Verfügung. Wer will schon eine Woche lang, oder auch nur einen einzigen Tag, auf die praktische Google-Suchmaschine verzichten, oder auf die Interaktionen, die Social-Media-Plattformen wie Instagram ihren Nutzer*innen ermöglichen – sei es privat oder beruflich? Trotz ihrer nicht von der Hand zu weisenden Vorteile treiben die mächtigen Online-Dienste die Fehlentwicklungen unserer kapitalistische Gesellschaft möglicherweise auf die Spitze. Durch die Plattform-Ökonomie sind wir unzähligen Risiken ausgesetzt, die Einzelne und unsere gesamte Demokratie gefährden könnten. 

Risikobewertung

Auch die Gesetzgeber*innen der Europäischen Union sehen das so, deshalb haben sie den Digital Services Act (DSA) ins Leben gerufen. Das Gesetz verpflichtet die Betreiber von sehr großen Online-Plattformen (Very Large Online Platforms, VLOPs) und sehr großen Suchmaschinen (Very Large Online Search Engines, VLOSEs) dazu, gewissenhaft nach systemischen Risiken für die EU zu suchen, die sich aus dem Design und der Funktionsweise ihrer Dienste und ähnlicher (algorithmischer) Systeme ergeben oder auch daraus, wie die Dienste verwendet werden. Solche Risiken beinhalten, ohne darauf beschränkt zu sein: die Verbreitung illegaler Inhalte auf Plattformen und durch Suchmaschinen, geschlechtsbasierte Gewalt sowie bereits stattfindende oder zu erwartende negative Folgen für die Grundrechte, den zivilen Diskurs, Wahlprozesse, das Gesundheitswesen, Minderjährige, die öffentliche Sicherheit und das körperliche und geistige Wohlbefinden von Nutzer*innen. Sobald die Plattformbetreiber solche Risiken entdeckt haben, sind sie dazu verpflichtet, sie zu analysieren, einzuordnen und angemessene Maßnahmen dagegen zu ergreifen.

Ein Leitfaden fehlt

Das Gesetz führt zwar eine lange Liste von möglichen Maßnahmen auf, um derlei Risiken einzudämmen, zum Beispiel eine entsprechende Anpassung des Designs, der Plattform-Features, der Benutzeroberfläche oder der Funktionsweise ihrer Dienste. Allerdings klärt der DSA nicht darüber auf, wie VLOPs und VLOSEs ihre Risikobewertungen durchführen sollen und was in dieser Hinsicht rechtlich von ihnen verlangt wird. VLOPs und VLOSEs müssen Rechenschaft darüber ablegen, warum bestimmte Faktoren zu systemischen Risiken führen könnten, etwa das Design von Empfehlungssystemen und ähnlichen algorithmischen Systemen, Systeme zur Moderation von Inhalten, geltende Geschäftsbedingungen und ihre Umsetzung, Systeme zur Auswahl und Darstellung von Werbeanzeigen oder auch die Verwendung von Daten seitens der Anbieter.

Im Gesetzestext ist aber nicht ausgeführt, wie Verfahren aussehen könnten, mit denen systemische Risken in der Praxis ausfindig gemacht werden sollen. Die Europäische Kommission hat keinen Leitfaden dazu veröffentlicht, an dem sich Unternehmen orientieren könnten. Im Moment existieren also keine Vorgaben, wie VLOPs und VLOSEs Risikobewertungen durchführen sollen, um den Vorgaben des DSA nachzukommen. Dennoch sind sie dazu verpflichtet, der Europäische Kommission bis August 2023 ihre ersten Risikobewertungen vorzulegen. Es ist wiederum nicht sonderlich wahrscheinlich, dass sie öffentlich einsehbar sein werden. Unklar bleibt auch, wie und wann sich die Kommission über deren Inhalte äußern wird.

Wie weiter?

Zu dieser Frage haben wir ein Paper veröffentlicht. Wir behaupten nicht, damit umfassend die Vor- und Nachteile der digitalen Gesellschaft ausgelotet zu haben, wie sie gerade von den Internet-Marktriesen bestimmt wird. Unsere Fragestellung ist enger gefasst. Das Paper soll Aufschluss darüber geben, ob Online-Dienste die Redefreiheit und die Medienvielfalt gefährden können. Wir hoffen mit unserem Beitrag einen konkreten Ansatzpunkt für weitere Diskussionen zu liefern: Wie könnten Risikobewertungen praktisch umgesetzt werden und was können und sollten die verschiedenen Stakeholder von ihnen erwarten?

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zum DSA.

Michele Loi (er/ihm)

Senior Research Advisor

Foto: Julia Bornkessel

Dr. Michele Loi ist Senior Research Advisor bei AlgorithmWatch. Er ist Senior Researcher am Institut für Biomedizinische Ethik und Medizingeschichte sowie Research Fellow bei der Digital Society Initiative an der Universität Zürich. 2015 und 2016 war er Consultant bei der World Health Organization, für die er die Publikation Guidance For Managing Ethical Issues In Infectious Disease Outbreaks betreute und am Entwurf der Guidelines on Ethical Issues in Public Health Surveillance mitwirkte.