Es gibt keine digitalen Grundrechte


Der Vorschlag für eine EU-Charta digitaler Grundrechte hat eine intensive Debatte entfacht. Neben positiven Kommentaren, vor allem durch die Initiatoren und Unterzeichner selbst, gibt es Kritik, vor allem am Zustandekommen der Charta und der Art, wie sie in der Öffentlichkeit platziert wurde und wird. Wir fokussieren uns hier auf inhaltliche Fragen, die  die Themen „automatisierte Entscheidungen“, „Algorithmen“ und „künstliche Intelligenz“ betreffen, die in der Charta eine große Rolle spielen.

Unser Fazit: Gut gemeint ist auch hier das Gegenteil von gut gemacht. Was es derzeit braucht, ist keine Digitalcharta mit zweifelhaftem Freund-Feind-Schema, sondern eine intensive und fundierte Auseinandersetzung mit den technischen Entwicklungen und ihren gesellschaftlichen Auswirkungen. Mehr Mittel für Forschung, Analyse, Exploration und Einordnung sind notwendig. Europa hat kein Defizit an Grundrechten, sondern an Erkenntnissen.

Die viel kritisierten USA machen vor, mit welchen Mitteln man sie erlangen kann, etwa dem AI Now Report, einem Bericht zu künstlicher Intelligenz, für den Wissenschaftler und Vertreter zivilgesellschaftlicher Organisationen mit politischen Beamten des Weiße Hauses zusammengearbeitet haben, oder dem „Nationalen Strategiepapier zur Erforschung und Entwicklung künstlicher Intelligenz“ des National Science and Technology Council (Link). Daran sollten sich europäische Politikerinnen und Politiker ein Beispiel nehmen, statt populistische Charta-Entwürfe zu diskutieren.

Hier unsere – als vorläufig zu verstehende – Analyse im Detail:

Durch neue Technologien stellen sich bekannte gesellschaftliche Probleme nicht selten auf neue Art dar. Wir nehmen sie in einem neuen technischen Kontext als neuen Konflikt wahr. Selten werden diese Konflikte von den Technologien selbst verursacht. Eine fortschreitende Digitalisierung der Gesellschaft beeinflusst etwa das Verhältnis von Privatem und Öffentlichem, das sich im Laufe der Geschichte immer wieder gewandelt hat. Sie beeinflusst die Kriterien, nach denen das Private und das Öffentliche reguliert werden: Geographische Bedingungen, auf die sich ethische und juristische Betrachtungen beziehen, sind nunmehr ungeeignete Merkmale. Die Wohnung oder der Marktplatz sind nicht genug, um die Grenzen zwischen Öffentlichem und Privatem zu ziehen: Auch vom Schlafzimmer aus kann man im digitalen Zeitalter öffentlich kommunizieren, etwa über Social Media.

Unsere Vorstellung von Raum wird dadurch nicht geändert (ein Wohnzimmer ist ein Wohnzimmer ist ein Wohnzimmer), aber die Möglichkeiten (Reichweite, Zugang) und Risiken darin verändern sich. Dies kann eine grundlegende Verunsicherung mit sich bringen, da die Faktoren für unsere tägliche Beurteilung von Risiken nicht mehr funktionieren. Das hat im vergangenen Jahrzehnt zu der falschen Annahme geführt, neue Grundrechte wären aufgrund der Digitalisierung notwendig, weil die üblichen räumlichen Kriterien zur Ausübung dieser Grundrechte nicht mehr sinnvoll verwendet werden können.

Diese Sicht ist aus mehreren Gründen verfehlt.

Erstens: Kriterien zur Ausübung von Grundrechten definieren nicht die Grundrechte selbst. Sie definieren lediglich den Rahmen und die Weise, in der diese in Anspruch genommen werden können. Zweitens: Diese Kriterien waren auch davor ungeeignete Merkmale, da der Kerngehalt dieser Grundrechte nicht vom Raum abhängig ist, sondern von einem viel komplexeren Zusammenhang aus zwischenmenschlichen Faktoren. Genau darauf wiesen Richard Sennett oder Jürgen Habermas selbst hin, als sie Ende der siebziger Jahre vom Privaten nicht als eine Frage des Räumlichen, sondern der Autonomie schrieben.

Wir brauchen nicht neue Grundrechte, wir brauchen eine Revision der vorhandenen Kriterien für deren Anwendung im digitalen Zeitalter.

Es ist daher zu begrüßen, dass dieser Vorschlag zur Verankerung „digitaler Grundrechte“ die Debatte – die bereits in den 90er Jahren des letzten Jahrhunderts stattfand – in einem Zeitalter erneut belebt, in der die Dichotomie digital-analog von einer vollständigen Digitalisierung überholt wurde.

Aus der Perspektive von AlgorithmWatch gibt es einige Artikel der Charta, die wir nicht unkommentiert lassen wollen. Zunächst ist auf die Schlusssätze der Präambel hinzuweisen, die im Unterschied zu anderen Texten Technologien nicht ausschließlich aus der Risikoperspektive betrachten.

FEST ENTSCHLOSSEN

[...]

das Digitale nicht als Quelle der Angst, sondern als Chance für ein gutes Leben in einer globalen Zukunft zu erfassen

Artikel 1 WÜRDE

(2)  Neue Gefährdungen der Menschenwürde ergeben sich im digitalen Zeitalter insbesondere durch Big Data, künstliche Intelligenz, Vorhersage und Steuerung menschlichen Verhaltens, Massenüberwachung, Einsatz von Algorithmen, Robotik und Mensch-Maschine- Verschmelzung sowie Machtkonzentration bei privaten Unternehmen.

Leider geht dieser gute Vorsatz bereits in Artikel 1 verloren. Kategorien werden vermischt, Technologien sowie Analyseverfahren neben illegitimen menschlichen Handlungen wie Massenüberwachung gleichwertig als Risiko dargestellt. Technologien und Analyseverfahren an sich sind aber keine Gefährdung, sondern Mittel, mit denen menschliche Handlungen zum Schaden Dritter ausgeführt werden können. Auch Bücher stellen an sich keine Gefährdung der Menschenwürde dar, sondern – unter Umständen – das, was Menschen darin äußern. Daher setzen wir dem Buchdruck keine Grenzen auf grundrechtlicher Ebene, sondern den Äußerungsrechten von Individuen.

Artikel 3 GLEICHHEIT

(2) Die Verwendung von automatisierten Verfahren darf nicht dazu führen, dass Menschen vom Zugang zu Gütern, Dienstleistungen oder von der Teilhabe am gesellschaftlichen Leben ausgeschlossen werden. Dies gilt insbesondere im Bereich Gesundheit, Schutz vor elementaren Lebensrisiken, Recht auf Arbeit, Recht auf Wohnen, Recht auf Bewegungsfreiheit und bei Justiz und Polizei.

Vollautomatisierte Entscheidungs-Technologien sind in Europa derzeit verboten und noch von keinem Gesetz oder Gesetzesentwurf in nächster Zukunft erlaubt. Gleichheit ist nicht mit Schutz vor Diskriminierung gleich zu setzen. Ganz im Gegenteil: Menschen mit Benachteiligungen oder Minderheiten werden in unseren demokratischen Gesellschaft durch positive Diskriminierung und andere legitime Mechanismen der Ungleichheit geschützt. Deswegen geben wir beispielsweise Menschen mit Behinderungen bessere Parkplätze, die am nächsten zum Zielort liegen und nicht von anderen benutzt werden dürfen, oder wir zahlen nicht alle die gleichen Steuern: der Staat stipuliert verschiedene Steuersätze und behandelt Geringverdiener, Familien und Besserverdiener unterschiedlich, um ihnen und der Gesellschaft gerecht zu werden. Neue Technologien, insbesondere Automatisierungsverfahren, auf Gleichheit zu trimmen, bringt daher große Gefahren der Diskriminierung mit sich. 

Artikel 4 INNERE UND ÄUSSERE SICHERHEIT

(2)  Sicherheitsbehörden dürfen nicht auf durch Private erhobene Daten zugreifen. Ausnahmen sind nur auf gesetzlicher Grundlage zum Schutz besonders wichtiger Rechtsgüter zulässig.

Wenn mit „Privaten“ Individuen gemeint sind, würde man damit beispielsweise Zeug·innenaussagen von Privaten in der Strafverfolgung verbieten, d.h. ohne eine besondere staatliche Erlaubnis, die eine Zeug·innenenaussage oder den Hinweis von Zeug·innen erlaubt, wäre es  verboten, auf sie zuzugreifen. Auch könnte man  neue Formen der Pflicht zur Hilfeleistung relativieren, etwa wenn Zeug·innen, um ein potentielles Opfer in der U-Bahn zu schützen, den Sachverhalt mit dem Smartphone aufnehmen.

Wenn mit Privaten Unternehmen gemeint sind: Es waren gerade die Datenschützer, die in der geltenden Budapester Cybercrime Convention (siehe Section II, Titel 2, Art. 16 ff) verlangten (siehe dazu auch die Stellungnahme des ULD), dass Private zwecks Strafverfolgung Daten zu speichern haben, um eine totale Vorratsdatenspeicherung zu verhindern und dennoch das Gewaltmonopol des Staates aufrechtzuerhalten und damit eine Strafverfolgung möglich zu machen. 

Die Grenzen und Verfahrensweisen des Gewaltmonopols sollen durchaus im digitalisierten Zeitalter einer Revision unterzogen werden. Jedoch bedeutet eine Abkehr vom oder Aufweichung des staatlichen Gewaltmonopols in der Konsequenz, dass Individuen selbst für ihre Sicherheit sorgen müssen und führt zu dem Zustand, den Thomas Hobbes für das größte Übel hielt: einem Zustand des Krieges aller gegen alle.

(4)  Waffensysteme dürfen nicht vollautomatisiert eingesetzt werden.

Dem stimmen wir gänzlich zu. Allerdings ist das zum einen in Deutschland bereits jetzt grundsätzlich verboten, zum anderen ist diese Aussage kein Grundrecht, sondern ein Verbot, das in der Rechtssystematik an anderer Stelle verankert werden sollte und sich aus dem Grundrecht auf persönliche Unversehrtheit ableiten lässt.

Artikel 7 ALGORITHMEN

(1) Jeder hat das Recht, nicht Objekt von automatisierten Entscheidungen von erheblicher Bedeutung für die Lebensführung zu sein. Sofern automatisierte Verfahren zu Beeinträchtigungen führen, besteht Anspruch auf Offenlegung, Überprüfung und Entscheidung durch einen Menschen. Die Kriterien automatisierter Entscheidungen sind offenzulegen. (2) Insbesondere bei der Verarbeitung von Massen-Daten sind Anonymisierung und Transparenz sicherzustellen

Algorithmen an sich können nicht als Grundrecht oder Grundrechtseingriff verstanden werden. Ein Grundrecht auf Schutz vor lebensrelevanten automatisierten Entscheidungen ergibt sich bereits aus bestehenden Grundrechten, beispielsweise aus der Meinungs-, Informations- oder Versammlungsfreiheit oder dem Schutz vor Diskriminierung

Wir begrüßen die Forderung nach Transparenz, sofern diese nicht als Konsequenz die Verantwortung – als Selbstbestimmung verkleidet – auf die NutzerInnen abwälzt, die dann vor die Alternative “take it or leave it” gestellt werden. Wir sehen sowohl bei Entwickler·innen, als auch bei Institutionen, die Automatisierungsverfahren anwenden, eine Verantwortung, die durch Standards gesichert und unter demokratische Aufsicht gestellt werden muss, möglicherweise auch durch Expert·innen. Dieser Diskurs der Transparenz – der aus dem Datenschutz stammt – postuliert, dass durch Transparenz Bürger·innen ihre informationelle Selbstbestimmung ausüben können. Das bedeutet letztendlich, dass Bürger·innen verantwortlich für die Konsequenzen gemacht werden, die sie bei einem Dienst erleiden. Damit gibt es eine Verschiebung in der Verantwortung: Auf der einen Seite scheint es, dass durch Transparenz Bürger·innen mehr Autonomie verliehen wird – auf der anderen Seite wird das Unternehmen aus seiner aus ethischer Sicht bestehenden Verantwortung entlassen und diese den Bürger·innen übertragen. Darüber hinaus ist Transparenz, wenn es um die Offenlegung komplizierter mathematischer Verfahren geht, für die selbst Mathematiker viel Zeit brauchen, um diese nachzuvollziehen, keine geeignete Basis, um für Laien selbstbestimmte Entscheidungen zu treffen. Es muss daher eher um die Nachvollziehbarkeit des Verfahrens gehen. Transparenz darf keineswegs an die Stelle von Verantwortung der Institutionen und Unternehmen treten.

Artikel 8 KÜNSTLICHE INTELLIGENZ

(1) Ethisch-normative Entscheidungen können nur von Menschen getroffen werden. (2) Der Einsatz und die Entwicklung von künstlicher Intelligenz in grundrechtsrelevanten Bereichen muss gesellschaftlich begleitet und vom Gesetzgeber reguliert werden. (3) Für die Handlungen selbstlernender Maschinen und die daraus resultierenden Folgen muss immer eine natürliche oder juristische Person verantwortlich sein. (4) Bei Infrastrukturen, die für das Funktionieren der Gesellschaft essentiell sind, muss staatliche Kontrolle und Krisen-Vorsorge gewährleistet sein.

Künstliche Intelligenz basiert ebenfalls auf Algorithmen daher erscheint uns Artikel 8 eine Erweiterung von Artikel 7 unter anderer Nomenklatur. Zunächst gilt es zu betonen, dass Automatisierungsverfahren keine maschinelle Entscheidung konstituieren, sondern eine technisch nachgelagerte Entscheidung einer Gruppe von Individuen. Demnach ist die Frage der Haftung und Verantwortung in der Tat neu zu stellen und wird in vielen Fällen kaum von einzelnen Akteur·innen allein verantwortet werden können.

Artikel 9 TRANSPARENZ

(1) Die Informationen staatlicher Stellen müssen öffentlich zugänglich sein. (2) Das Transparenzgebot gilt auch gegenüber Privaten, sofern diese über Informationen verfügen, die für die Freiheitsverwirklichung Betroffener von entscheidender Bedeutung sind.

Transparenz ist an sich kein Wert, sondern ein Mittel, um Beobachtungen, Evaluationen und Entscheidungen besser zu ermöglichen. Insbesondere bei Absatz 2 ist unklar, inwiefern Transparenz über den Besitz von Informationen „die für die Freiheitsverwirklichung Betroffener von entscheidender Bedeutung sind“ eine Einschränkung dieser Freiheit legitimer machen. Die Erhebung des Mittels Transparenz zum Grundrecht bringt keinen zusätzlichen Wert, sondern birgt ein grundsätzliches Risiko: ethisch problematische Handlungen allein zu legitimieren, weil sie transparent sind und Betroffene zur Entscheidungsverantwortung gezogen werden, statt transparent Handelnde zur Rechenschaft zu ziehen. Wir plädieren vielmehr für verschiedene Aufsichtsinstanzen der demokratischen und ethischen Kontrolle durch Expert·innen, die Semi- und Vollautomatisierungsverfahren rechtlich, ethisch und mathematisch beobachten und bewerten.

Artikel 11 DATENSCHUTZ UND DATENSOUVERÄNITÄT

(1) Jeder hat das Recht auf den Schutz seiner Daten und die Achtung seiner Privatsphäre. (2) Jeder hat das Recht, über seine Daten selbst zu bestimmen. Personenbezogene Daten dürfen nur nach Treu und Glauben und für festgelegte Zwecke erhoben und verarbeitet werden, wenn dies für das jeweilige Nutzungsverhältnis erforderlich ist und eine vorherige Einwilligung erfolgt ist oder auf gesetzlicher Grundlage. Die Einwilligung muss ausdrücklich und informiert erfolgen. Nutzungsverhältnisse müssen fair und transparent gestaltet werden. (3) Die Einhaltung dieser Rechte wird von einer unabhängigen Stelle überwacht. (4) Anbieter von Diensten oder Produkten dürfen nur solche Daten erheben und verarbeiten, welche für den Zweck der Benutzung erforderlich sind. Die Grundsätze von privacy by design und privacy by default sind einzuhalten.

Daten über eine Person sind Bestandteil ihrer Identität. Schwierig ist jedoch die Annahme, man könne souverän über „seine“ Daten bestimmen, wie etwa beim Eigentum. Daten können nicht als Eigentum kategorisiert werden. Dies würde zu neuen, kaum überwindbaren Problemen etwa der Zuordnung führen: Ist beispielsweise das Geburtsdatum eines Kindes das alleinige Datum des Kindes? Müsste eine Mutter um Erlaubnis bitten, um das Datum in ihrem Rentenantrag angeben zu dürfen? Auch die Konsequenzen wären problematisch: Grundrechte wie die Freiheit dürfen nicht entäußert werden. Daten als Eigentum zu betrachten, würde aber geradezu eine Entäußerung implizieren. Denn alles, was als Eigentum deklariert wird, ist kapitalisierbar und somit verkäuflich. Aus guten demokratischen Gründen sind Grundrechte wie Freiheit kein Eigentum. Man kann sich selbst nicht verkaufen. Privatheit darf auch nicht verkäuflich sein.

Eine Herausforderung ist auch der Grundsatz der Zweckbindung, der bereits in der EU-Grundrechte-Charta (Art. 8) enthalten ist und dort zu einer Diskussion im Zusammenhang mit Big Data geführt hat. Gerade bei Big Data und dem Einsatz von Algorithmen ist eine Zweckbindung der Datennutzung schon strukturell schwer möglich. Diese Technologien suchen primär nach Mustern, und erst aus diesen Mustern können verschieden Interpretationen und Anwendungen abgeleitet werden. Algorithmen, die Musik kuratieren, können auch für die Krebsforschung verwendet werden. Sie sind in ihrer Zweckhaftigkeit unterbestimmt. Sinnvoller wäre es, daraus entstehende diskriminierende Handlungen zu unterbinden.

Keiner der oben aufgeführten Artikel konstituiert dem Wortlaut nach eine Ergänzung bereits bestehender Grundrechte. Insofern stellt sich von vornherein die Frage des Konkurrenzverhältnisses. Da wir es im privaten Bereich zudem stets mit kollidierenden allgemeinen Grundrechten zu tun haben, besteht die Gefahr, durch das einseitige „Adeln“ bestimmter Aspekte zu neuen Grundrechten die bestehenden Grundrechten zu erodieren. Dies gilt z.B. für die Meinungsfreiheit, die Berufsfreiheit und insbesondere die Freiheit der Wissenschaft, die für die technische Entwicklung zentral ist.

Die derzeitige Erkenntnislage ist noch zu dünn, um anhand von Fakten eine gute Ergänzung der bestehenden Regelungen zu ermöglichen, geschweige eine neue EU-Charta zu entwerfen. Es erscheint vielmehr notwendig, in den Sozial-, Rechts- und Technikwissenschaften weiter zu forschen, um zu erkennen, in welchen gesellschaftlichen Kontexten Automatisierungsverfahren vorhanden sind, welche Effekte sie haben, unter welchen gesetzlichen Regelungen sie genutzt werden und welche gesetzlichen Lücken dadurch letztendlich entstehen oder entstanden sind.

Würde die Charta-Initiative verstanden als Anstoß zu dieser Art faktenbasierter Auseinandersetzung mit den Themen automatisierte Entscheidungen, Algorithmen und künstliche Intelligenz, hätte sie ein sinnvolles Ziel erreicht.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.