Want create site? Find Free WordPress Themes and plugins.

AlgorithmWatch-Mitgründerin Lorena Jaume-Palasí kommentiert die Pläne von Bundesjustizminister Heiko Maas, eine Digitalagentur – eine Art Algorithmen Behörde – schaffen zu wollen.

Wir begrüßen sehr, dass das Thema aufgegriffen wird. Doch die Initiative wirft eine Reihe von Fragen auf. Es besteht die Gefahr, ein weiteres technikbezogenes Fachrecht zu schaffen, bei dem sowohl der Anwendungsbereich als auch das gesetzgeberische Ziel höchst unklar sind. Abgrenzungsprobleme und Wertungswidersprüche sind wahrscheinlich. Im Ergebnis könnte sich ein solches Gesetz als Innovationsbremse erweisen, das nicht nur Risiken, sondern flächendeckend auch digitale Chancen minimiert und das mit bestehenden Grundrechten kollidiert. Die – empirisch wissenschaftlich bislang nicht belegte – Gefahr einer digitalen Bevormundung durch Filterblasen wird durch die rechtliche Bevormundung einer digitalen Behörde ersetzt.

Demgegenüber gibt es bereits ein AGG (Allgemeines Gleichbehandlungsgesetz) und weitere rechtliche Vorkehrungen gegen Diskriminierung. Diskriminierung hängt nicht vom Medium ab. Durch den technischen Fortschritt sind keine rechtsfreien Räume entstanden, die es vorschnell auszufüllen gilt. Im Zweifel müssen wir erstmal verstehen, was online passiert. Wir haben noch keine schlüssigen oder expliziten Zahlen und Fakten. Wir sehen bspw., dass es Kollektive oder Gruppen gibt, die sich nicht mal bewusst sind, dass sie gegenüber anderen Kollektiven oder Gruppen ungleich gehandelt, geschweige denn diskriminiert werden. Umgekehrt ist es ebenso: Viele diskriminieren, ohne dass es ihnen bewusst ist. Auch für eine Behörde dürfte es äußerst schwierig sein, die Faktoren einer Diskriminierung zu erkennen, sofern sie nicht ihrerseits über zusätzliche Informationen und ggf. sogar Algorithmen verfügt.  
Durch den technischen Fortschritt sind keine rechtsfreien Räume entstanden, die es vorschnell auszufüllen gilt.
Viele Diskriminierungsmuster, die wir beobachten, erzeugen Schaden auf kollektiver Ebene – ohne dabei individuelle Grundrechte zu verletzen. Es ist in diesen Fällen vielfach schlichtweg nicht möglich, a priori (durch eine Behörde) festzustellen, ob eine bestimmte algorithmische Unterscheidung gerade unter Diskriminierungsgesichtspunkten geboten oder schädlich ist. Der Gleichheitsgrundsatz verbietet schließlich nicht nur Gleiches ungleich zu behandeln, sondern auch Ungleiches gleich. Was aber Gleich und Ungleich ist, ist von zahlreichen Faktoren abhängig, die möglicherweise erst durch Algorithmen auf einer breiten Datenbasis erkennbar werden. Eine Diskriminierung im Sinne eines individualrechtlichen Schadens ist häufig erst in einem späten Stadium feststellbar. Eine vorgezogene Regulierung kann hier selbst zu einem individualrechtlichen Schaden führen. Wir werden nicht in erster Linie über digitale Diskriminierung nachdenken müssen. Vielmehr müssen wir uns grundsätzlich über das Konzept der Diskriminierung Gedanken machen.

Ein „one size fits all-Ansatz“ ist bei Algorithmen von vornherein problematisch
Dabei wird es auch um die Perspektive des Regelungsansatzes gehen müssen. Der Maas’sche Ansatz geht vom Individuum aus, das mit „gefilterten“ Informationen versorgt wird, weil dieser algorithmenbasierte Filter auf seinem eigenen Verhalten aufbaut. Doch welches Individualrecht kann der Betroffene für sein Informationsbedürfnis in Anspruch nehmen? Kennen wir einen solchen individuellen Anspruch in anderen Medien? Und soll wirklich eine staatliche Instanz entscheiden dürfen, dem Betroffenen Informationen aus Diskriminierungsgründen und als Schutz vor sich selbst vorzuenthalten oder aufzudrängen? Maas fordert auch „eine behördliche Kontrolle, um die Funktionsweise, Grundlagen und Folgen von Algorithmen überprüfen zu können“. Ein „one size fits all-Ansatz“ ist bei Algorithmen von vornherein problematisch: Algorithmen gibt es in allen Bereichen (Finanzen, Gesundheit, Wirtschaft, Bildung, Verkehr, Industrie, Kommunikation, etc. etc.). In einigen dieser Bereiche gibt es bereits Kontrollinstanzen und -Mechanismen, die den für eine Beurteilung notwendigen Kontext viel besser einschätzen können und gegebenenfalls eher einer Anpassung oder Neujustierung bereits bestehender Gesetze bedürfen (beispielsweise etwa die deutsche Finanzmarktaufsicht (BaFin), das Bundesinstitut für Arzneimittel und Medizinprodukte oder der TÜV für Fahrzeuge).

Und zu guter Letzt: Wir verlangen nicht von Bürgern, dass sie zu Biochemikern werden, um das Essen im Supermarkt vor jedem Kauf zu überprüfen. Die Komplexität ist zu hoch und Transparenz würde nicht zur Mündigkeit führen. Gleichwohl scheint es so, als ob im Digitalen von Bürgern verlangt würde, dass sie Experten in künstlicher Intelligenz und Datenschutzrecht werden. Damit wird ihnen  die Verantwortung für ein Handeln übertragen, das klar beim Unternehmen liegen müsste. Deswegen sagen wir: Hinsichtlich von Transparenz und Selbstbestimmung bei Algorithmen darf die Verantwortung der Firmen nicht an den Bürger übertragen werden.

Rede des Bundesministers der Justiz und für Verbraucherschutz Heiko Maas „Zusammenleben in der digitalen Gesellschaft – Teilhabe ermöglichen, Sicherheit gewährleisten, Freiheit bewahren“ bei der Konferenz „Digitales Leben –Vernetzt. Vermessen. Verkauft? #Werte #Algorithmen #IoT“ am 3. Juli 2017 in Berlin – Link

 

Did you find apk for android? You can find new Free Android Games and apps.

Posted by AlgorithmWatch

One Comment

  1. Ulrich Strunz Junior 7. Juli 2017 at 16:41

    Der gesamte Sachverhalt der Abbildung von „Wahrheit“ lässt sich abkürzen:

    „An Essay in Universal Semantics“, Achille C. Varzi, ISBN 978-90-481-5186-8

    Hier wird zunächst eine Syntax für alle(!) möglichen Sprachen definiert.

    Beim dem Versuch, diese globale Syntax auf semantische Wahrheiten vollständig und konsistent zu mappen wird klar: unmöglich.

    Entweder über- oder unterdefiniert. Siehe S. 61 truth-table.

    Hat sich damit erledigt.

    Antworten

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.