Wir müssen Maßstäbe für Verantwortlichkeit definieren

RP-P-1911-3380Natali Helberger ist Professorin für Informationsrecht am Institut für Informationsrecht (IVIR) der Universität Amsterdam. Sie untersucht die Schnittstellen von Technologie und Informationsrecht und der sich wandelnden Rolle des Nutzers. Wir sprachen mit ihr über die Fragen, wie gut der Begriff „Algorithmus“ geeignet ist, neue Entwicklungen zu fassen, welchen rechtlichen Herausforderungen wir gegenüber stehen und wie wir Beurteilungskriterien für unseren Umgang mit algorithmisch gesteuerten Prozessen entwickeln können.

Was sind die Chancen und Herausforderungen, die mit Algorithmen einhergehen?

Die Chancen und Herausforderung liegen in der Kombination von Algorithmen, Big Data, stark verbesserten Computern und Speicherkapazitäten sowie wissenschaftlichem Fortschritt, zum Beispiel auf dem Gebiet des maschinellen Lernens. Diese Kombination erlaubt es uns, mit Daten Dinge zu tun, die wir früher nicht konnten. Wir können intelligenter suchen, Epidemien vorhersagen, große Mengen von Twitter-Daten durchforsten, um Hinweise auf neue Entwicklungen oder Trends zu bekommen, die Nachrichten an persönliche Interessen anzupassen und vieles mehr. Diese Entwicklungen schaffen Chancen für viele spannende neue Dienste und Anwendung.

In welcher Gesellschaft wollen wir morgen leben? Das kann der Datenschutz nur teilweise beantworten.

Sie zwingen uns auch, darüber nachzudenken, in welcher Gesellschaft wir morgen leben wollen: Inwieweit wollen wir es zulassen, dass Algorithmen Entscheidungen treffen, die wichtig für unser Leben sein können – etwa unsere Kreditwürdigkeit, medizinische Diagnosen, die Entscheidung, auf welche Schulen unsere Kinder gehen, Risikoprofile dazu zu entwickeln, wer morgen mit einiger Wahrscheinlichkeit einen Betrug oder ein Verbrechen begeht? Wie viel sollen der Staat, die Polizei, die Medien und Werbeunternehmen über uns wissen? Müssen wir alles wissen, weil es potenziell nützlich sein kann, oder müssen wir neue Grenzen setzen? Datenschutzrecht kann diese Frage nur teilweise beantworten.

Algorithmen sind auch zunehmend komplex. Es gibt zum Beispiel nur sehr wenige Menschen, die Googles Suchmaschinen-Algorithmus wirklich verstehen können. Zudem halten viele Betriebe Algorithmen geheim, so dass wir oft nur zufällig erfahren, was diese tun und wie sie funktionieren. Die jüngste Diskussion über den Algorithmus von Facebooks Trending Topics ist ein gutes Beispiel, und noch immer können wir nicht mit Sicherheit sagen, ob Trending Topics konservative Themen unterdrückt hat oder nicht.

Inwiefern ist es wirklich sinnvoll, dieses große Spektrum an Phänomenen, das Sie beschreiben, unter dem Begriff des Algorithmus zu fassen?

Viele der Diskussionen über Big Data und Algorithmen werden tatsächlich aus einer übergreifenden Perspektive geführt, ohne auf die Eigenheit bestimmter Anwendungsgebiete einzugehen. Die Zeit ist aber reif für eine differenziertere Diskussion! Die Profilierung von Bürgern, wenn sie Fernsehen schauen oder die Zeitung lesen, hat andere Implikationen und betrifft andere rechtspolitische Wertungen als Profilierung von Besuchern eines Online-Kleidungsversands. Algorithmen, die Kreditwürdigkeit feststellen, sind nach anderen Grundsätzen zu beurteilen als Algorithmen, die eingesetzt werden, um zu prognostizieren, ob eine Maschine in der Fabrik kurz vor einem technischen Problem steht und eine Reparatur nötig hat. Verschiedene Sektoren und Anwendungsgebiete folgen unterschiedlichen Regeln, Grundrechten und rechtspolitischen und ethischen Erwägungen. In dieser Hinsicht müssen wir eine übergreifende Diskussion um sektor-spezifische Diskussionen mit Blick auf Teilbereiche erweitern.

Welche rechtlichen Aufgaben stellen sich?

Eine wichtige Aufgabe ist es, die Voraussetzungen für Transparenz und Nachvollziehbarkeit zu schaffen. Ein Beispiel, das mir als Wissenschaftlerin natürlich besonders nahe liegt, ist die Rolle der Forscher hierbei. Wissenschaftlerinnen und Wissenschaftler, vor allem in Europa, stoßen auf große praktische und rechtliche Probleme, wenn sie spezifische Algorithmen, ihr Wirken und Wirkungen auf Nutzer und Gesellschaft besser verstehen wollen. Das sind zum Beispiel Probleme auf dem Gebiet des Datenschutzes. Um die Wirkungen von Algorithmen zu untersuchen, kann es nötig sein, persönliche Daten zusammenzustellen: Welche Suchresultate sehen Menschen? Unterscheiden diese sich, und wenn ja, nach welchen Kriterien? Sind das persönliche Kriterien? Kriegt jeder dieselben Informationen auf Facebook?

Regeln, die unsere Privatsphäre schützen müssen, wenden sich gegen uns

Das Recht zieht hier Grenzen, die ursprünglich zum Schutz persönlicher Daten aufgestellt wurden, die sich aber nun auch gegen die Ziele des Datenschutzes richten können, nämlich wenn es Forschern nicht erlaubt wird, die Verarbeitung, Nutzung und den Missbrauch von Daten durch Algorithmen zu untersuchen. Oder nehmen Sie die Bedingungen in den Nutzungsvereinbarungen, die es Forschern direkt oder indirekt untersagen, auf bestimmten Plattformen Untersuchungen durchzuführen. Damit haben wir die ironische Situation, dass die Regeln, die unsere Privatsphäre schützen müssen, sich insofern gegen uns wenden, als sie Forschung und die Möglichkeit, Missstände ans Licht zu bringen, erschweren. Eine andere wichtige Aufgabe für das Recht ist es, Bewertungsmaßstäbe zu definieren. 

Zwischengefragt: Würden Sie sagen, dass eine externe Bewertung von Algorithmen abhängig davon ist, dass Algorithmen-Betreiber dazu angehalten werden, nachvollziehbar zu machen, welcher Logik ein Algorithmus folgt? Wie ließe sich eine solche Anforderung rechtlich ausbuchstabieren?

Wiederum eine der großen und noch ungelösten Fragen. Der Schlüssel zu einer Antwort liegt sicherlich nicht nur in mehr Nachvollziehbarkeit für Verbraucher. Sicherlich: Nutzer haben ein Recht, zu wissen, ob sie Gegenstand automatisierter Entscheidungen sind und welcher Logik diese Entscheidungen folgen – so wie auch in der neuen europäischen Datenschutzverordnung gefordert wird. Aber die Aufgabe, Algorithmen zu kontrollieren, und zwischen akzeptablen und inakzeptablen Arbeitsweisen zu unterscheiden, kann nicht alleine auf den Schultern der Nutzer liegen. Dazu sind die zugrunde liegenden technischen und organisatorischen Prozesse einfach zu kompliziert. Deshalb ist die Rolle von Experten so wichtig.

Wir müssen Experten ausbilden und einen gesellschaftlichen Dialog führen

Ebenso wichtig ist es, diese Experten auszubilden und entsprechende Mittel zur Verfügung zu stellen. Hier sind Datenschutzbehörden, Medien- und Wettbewerbshüter und Verbraucherschutz-Institutionen gefragt. Daneben brauchen wir auch einen gesellschaftlichen und politischen Dialog über die Beurteilungskriterien. Beispiel Facebook: Wäre es tatsächlich so, dass Facebook in seinem Newsfeed oder den Trending Topics bestimmte Meinungen unterdrückt und andere hochspielt – nach welchen Kriterien beurteilen wir, ob das akzeptabel ist oder nicht? Liegt es im Ermessen der unternehmerischen Freiheit, so etwas zu tun? Oder müssen wir Facebook nach ähnlichen ethischen und juridischen Normen beurteilen wie die Presse oder gar die Rundfunkmedien? Nachvollziehbarkeit von Algorithmen ist die eine Hürde. Die Entwicklung von Maßstäben, an denen sich Verantwortlichkeit bemisst, die andere.

Welche Verantwortung haben Programmierer und andere IT-Fachleute? Tauchen ethische Fragen erst dort auf, wo Algorithmen zur Anwendung kommen?

Algorithmen sind im Wesentlichen wissenschaftliche Formeln. Das bedeutet auch, dass das Funktionieren von Algorithmen damit unter anderem schon im Vorfeld davon abhängt, welche Fragen man beantwortet sehen will, welche Modelle man zu Grunde legt – wobei der Aspekt Machines Lernen zu berücksichtigen ist – und welche Daten man dem Model zuführt. Mit anderen Worten: Nicht nur beim Output von algorithmischen Prozessen spielen ethische Fragen eine Rolle, sondern auch auf der Inputseite und als Teil des Prozesses. Stellt etwa ein hypothetischer Algorithmus, der auf Betrugserkennung hin programmiert ist, auf der Grundlage von Big-Data-Analysen fest, dass die Wahrscheinlichkeit, dass Marokkaner oder Katholiken einen Betrug begehen als andere Teile der Bevölkerung, dann geht der weiteren Verwendung eines solchen Algorithmus’ auch eine ethische Entscheidung voraus. Auf bestimmte Entscheidungsparameter hin zu filtern, oder dies gerade nicht zu tun, kann per se diskriminierend sein.

Welche Möglichkeiten sehen Sie für Technikfolgenbewertung bei Algorithmen?

Unzählige Möglichkeiten! Wir stehen hier vor einem technischen Riesensprung in die Zukunft. Diesen Prozess zu beobachten, transparent zu machen und über die – positiven und negativen – gesellschaftlichen Folgen nachzudenken, ist ausgesprochen wichtig. Und die Zeit ist reif.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.