Pressemitteilung

Erforschen von Plattformen: AlgorithmWatch und AI Forensics testen neues EU-Gesetz

Berlin, 15. Februar 2024. Das EU-Gesetz über digitale Dienste (Digital Services Act, DSA) gibt Europäer*innen neue Möglichkeiten, ihre Rechte im Internet zu schützen. Ab dem 17. Februar gelten einige der wichtigsten Bestimmungen: Plattformen müssen Forscher*innen Zugang zu Daten gewähren und in jedem EU-Mitgliedstaat werden zuständige Überwachungsbehörden eingerichtet.

Warum ist das für Nutzer*innen von Social-Media-Plattformen wichtig? Ein reales Beispiel: Eine niederländische Teenagerin hatte auf Instagram 20.000 Follower*innen, die über Nacht verschwunden waren. Zum sechsten Mal war ihr Konto ungerechtfertigterweise gemeldet worden – was bei Meta regelmäßig passiert, vor allem Frauen. Manchmal versuchen Kriminelle, auf diese Art die Konten zu übernehmen, manchmal sind es schlicht Trolle. Theoretisch haben Betroffene mit dem DSA jetzt ein wirksames Mittel, um ihre Rechte zu schützen. Funktioniert das auch?

Die neue Aufsichtsstelle: Digital Services Coordinator

Plattformen müssen es ihren Nutzer*innen leichter machen, sich zu beschweren, um Probleme wie das geschilderte zu lösen. So sieht es der DSA vor. Sind die Nutzer*innen aber der Ansicht, dass die Plattformen sich nicht angemessen kümmern, haben sie ab dem 17. Februar einen neuen Beistand: Jeder EU-Mitgliedstaat muss eine Koordinierungsstelle für Digitale Dienste einrichten (Digital Services Coordinator, DSC). Diese Behörde wird die unabhängige Instanz sein, bei der sich Nutzer*innen über Missstände beschweren können. In Deutschland ist das voraussichtlich die Bundesnetzagentur (BNetzA). Allerdings wird es noch einige Zeit dauern, bis alle Koordinierungsstellen voll einsatzbereit sind – auch in Deutschland. Hier wird die Bundesnetzagentur voraussichtlich erst im April oder Mai rechtskräftig als DSC ernannt. Erst dann werden wir sehen können, wie gut sie die Interessen der Nutzer*innen vertritt.

Neue Daten für die Forschung

In den vergangenen Jahren haben Plattformen sich immer stärker dagegen gewehrt, der Forschung Zugang zu ihren Daten einzuräumen. Meta hat zum Beispiel stillschweigend Crowdtangle abgeschafft. Mit diesem Tool konnten Forscher*innen sich einen Einblick in die Funktionsweise von Facebook und Instagram verschaffen. Wenn aber kein Zugang zu Plattformdaten besteht, können wir auch nicht verstehen, welchen Einfluss sie haben – auf öffentliche Debatten, auf Wahlen, aber auch auf Nutzer*innen, etwa auf ihre mentale Gesundheit.

Durch die Koordinationsstelle für Digitale Dienste ergeben sich ganz neue Möglichkeiten für Wissenschaftler*innen, an solche Daten zu gelangen. Die Behörden können Daten von Plattformen anfordern, um sogenannte systemische Risiken zu überwachen und sie einzudämmen. Dazu gehören zum Beispiel Risiken für demokratische Wahlen. Wenn Forscher*innen bei einer Koordinierungsstelle den Datenzugang beantragen und er bewilligt wird, könnten sie interne Inhalte und Metriken einsehen, die vorher nur für die Plattformen sichtbar waren. Allerdings müssen die Behörden prüfen, ob die Forschungsanträge angemessen sind und die Forscher*innen garantieren können, dass die Plattformdaten sicher gespeichert werden. Plattformen können Anträge auf einen Datenzugang allerdings mit Sicherheitsbedenken oder Geschäftsgeheimnissen abwehren, was zu Verhandlungen über alternative Optionen mit den Behörden führen würde.

Wie zugänglich sind Plattformdaten jetzt?

Eine Untersuchung von AlgorithmWatch und AI Forensics zeigt, dass ein Drittel der Antworten von Microsofts KI-gestützter Suchmaschine Bing Chat auf Fragen zu den Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023 sachliche Fehler enthielten: falsche Wahldaten, veraltete Kandidat*innen oder sogar erfundene Skandale. AlgorithmWatch und AI Forensics setzen diese Studie nun mit den Möglichkeiten fort, die der DSA bietet, indem wir einen Antrag auf Zugang zu Microsoft-Daten stellen, die bisher nicht öffentlich sind.

„Wir können durch den DSA auf Daten zugreifen, die bisher für unsere Forschung unzugänglich waren. So können wir vielleicht das tatsächliche Ausmaß der Desinformation durch Bing Chat erkennen und prüfen, ob die Gegenmaßnahmen von Microsoft etwas gebracht haben. Die Zeit wird knapp, da in diesem Jahr Wahlen anstehen, auf die Online-Plattformen durch das Verbreiten falscher Informationen einen negativen Einfluss haben könnten“, sagt Dr. Oliver Marsh, Leiter des AlgorithmWatch-Projekts „Systemische Risiken von Algorithmen“.

„Unser Antrag auf Datenzugriff soll zeigen, ob die neuen DSA-Bestimmungen wirklich vor Online-Risiken schützen. Wenn nicht, können wir vielleicht auf Verwaltungshürden aufmerksam machen, die schleunigst beseitigt werden müssen. In diesem entscheidenden Wahljahr müssen die Rechte der Wähler*innen dringend geschützt werden,” erklärt Raziye Buse Çetin, Leiterin Policy und Kommunikation bei AI Forensics.

Wenn Sie mehr über unsere DSA-Datenanfrage, unsere Forschung oder unsere Arbeit zum DSA erfahren möchten, wenden Sie sich bitte an:

Clara Helming
Senior Advocacy & Policy Manager
Oliver Marsh
Leiter des Projekts „Algorithmen auf systemische Risiken prüfen„

Abonniere jetzt DIE AUTOMATISIERTE GESELLSCHAFT_

Mehr Informationen findest du in unserer Datenschutzerklärung.