Warum Sie keine Angst vor Künstlicher Intelligenz haben sollten

Neue Technologien erfordern neue Regeln. Wie gehen wir mit Robotern um?

Blog

27. April 2018

#essay

Von Lorena Jaume-Palasí

Sind Maschinen mit „KI“ intelligent? Haben sie Gefühle und einen eigenen Willen? Sind sie zu Bosheit und Heimtücke fähig? Diese Fragen wurden nach der Kommerzialisierung des Automobils zu Beginn des 20. Jahrhunderts in den Gerichten verschiedener Länder verhandelt. Dass die gleichen Unsicherheiten und Fragen ein Jahrhundert später mit der zunehmenden Kommerzialisierung von KI wieder auftauchen, rechtfertigt einen Rückblick auf die Debatte, die mit der Einführung eines neuen Verkehrsmittels einherging.

Die Idee einer automatisierten Gesellschaft, in der Roboter den Arbeitsplatz und das eigene Zuhause bevölkern, war eine der Utopien – und Dystopien –, mit denen die Literatur auf die Einführung von Automatisierungssystemen reagierte. Anfang des 20. Jahrhunderts brachten Autos und Ampeln die Automatisierung buchstäblich auf die Straße. Seitdem hat die Zahl der Maschinen und automatisierten Prozesse in unserem Leben exponentiell zugenommen: Waschmaschinen, Geldautomaten, Kameralinsen, Türen, Autowaschanlagen, Thermostate... Die Angst, die sie anfänglich ausgelöst haben, ist einer Routine gewichen. Automatisierung ist so allgegenwärtig, dass wir sie nicht einmal bemerken, wenn wir auf sie stoßen.

Doch automatische Maschinen und Künstliche Intelligenz (KI) sind nicht dasselbe. KI ist vielmehr eine Form der fortgeschrittenen Automatisierung. In herkömmlichen Geräten werden sehr genaue Programmierregeln erstellt, mit denen eine Maschine bestimmte Aufgaben ausführt. Die Effizienz hängt vom Detail und der Genauigkeit ab, mit der die Aufgabe programmiert wurde, etwa die kürzeste Strecke zwischen Berlin und München zu kalkulieren. Was KI ermöglicht, ist eine abstraktere Form der Automatisierung. So ließe sich die schnellste Route zwischen diesen beiden Städten, unter Berücksichtigung diverser Aspekte berechnen: der Bauarbeiten, der Anzahl der Ampeln, des vorhersehbaren Berufsverkehrs sowie unvorhersehbaren Ereignissen wie Verkehrsunfällen oder Wetterbedingungen. Mit anderen Worten, die Programmierung konzentriert sich in diesem Kontext darauf, Regeln zur Messung der Effizienz zu erstellen und Aktionsparameter zu entwickeln. Nach diesen Regeln wählen intelligente Automatisierungssysteme die effizienteste Aktion. Diese Abstraktionsebene ist ein Meilenstein in der Geschichte der Technik.

Diese Errungenschaften begeistern und beängstigen gleichermaßen. Mangelnde Kenntnis und Vertrautheit lässt KI wie Zauberei erscheinen und führt dazu, dass alte Debatten wiederbelebt werden. Ist diese Technologie intelligent? Hat sie Gefühle und einen eigenen Willen? Ist sie zu Bosheit und Heimtücke fähig? Wer ist verantwortlich, wenn das System unvorhergesehene, schädliche Auswirkungen hat? Wird sie die Natur des Menschen verändern? Welche Risiken birgt sie? Brauchen wir neue Regeln?

Genau diese Fragen wurden nach der Kommerzialisierung des Automobils zu Beginn des 20. Jahrhunderts in den Gerichten verschiedener Länder verhandelt. Dass die gleichen Unsicherheiten und Fragen ein Jahrhundert später mit der zunehmenden Kommerzialisierung von KI wieder auftauchen, rechtfertigt einen Rückblick auf die Debatte, die mit der Einführung eines neuen Verkehrsmittels einherging. Aus normativer und regulatorischer Sicht verdienen drei Aspekte unsere Aufmerksamkeit.

Technologie erscheint nur dann intelligent und menschlich, wenn sie nicht alltäglich ist

Die Kommerzialisierung von Autos wurde damals von allen sozialen Schichten herbeigesehnt. Das Auto als Transportmittel versprach eine Zukunft der Effizienz und Hygiene in Städten, in denen die Straßen in Pferdekot ertranken. Doch innerhalb weniger Jahre kam es zu einer Kehrtwende und die Autos selbst wurden zur neuen städtischen Plage. In den 1920er Jahren waren Demonstrationen gegen die Unsicherheit auf den Straßen allgegenwärtig: Echte Unfallwracks wurden auf den Straßen zur Schau gestellt – mit blutigen Schaufensterpuppen und dem Teufel hinter dem Steuer. In den Straßen von Washington und New York fanden Demonstrationen statt, auf denen 10.000 als Geister verkleidete Kinder die jährliche Zahl der Verkehrstoten symbolisierten.

In nur wenigen Jahren wurde das Auto zum Gegenstand einer grundlegenden ethischen Debatte, die bald die Gerichte erreichte. Beispielsweise führte das Landesgericht im US-Bundesstaat Georgia eine intensive Debatte über den moralischen Charakter des Autos. In seinem Urteil kam das Gericht zu dem Schluss, dass die Fahrzeuge zwar nicht bösartig seien, sie „aber als gefährliche Wildtiere einzustufen sind“. Aus diesem Grund sollten die bestehenden Gesetze für die Haltung exotischer Tiere angewendet werden.

Die Gewöhnung an die neuen Fahrzeuge sorgte dafür, dass die Vermenschlichung der Maschinen und die damit einhergehende Zuschreibung böswilliger Absichten mit der Zeit abnahmen. Die ethische und juristische Debatte konzentrierte sich zunehmend auf das Verhalten der Menschen – vor und hinter dem Steuer.

Dieser auf den ersten Blick philosophische Aspekt der Diskussion hatte eine klare rechtliche Konsequenz. Eine Haftung der Maschine, als wäre sie eine intelligente Entität, wurde ausgeschlossen. Rückblickend wäre das Gegenteil nicht nur lächerlich, sondern hätte auch eine Herausforderung für die Ethik und das Recht bedeutet, tragfähige Regeln und Sanktionen zu schaffen, die sowohl für den Menschen als auch für Maschinen Geltung hätten.

Die heutige Debatte über künstliche Intelligenz hat in diesem Bereich die gleiche Bedeutung und legt nahe, über die gleichen rechtlichen und ethischen Konsequenzen nachzudenken. Hat ein Roboter Absichten, die dazu führen sollten, ihm eine Rechtspersönlichkeit zu verleihen? Inwieweit kann Verantwortung vom Menschen auf eine Maschine übertragen werden? Wie kann eine Sanktion auf eine Maschine angewendet werden?

Künstliche Intelligenz ist nicht intelligent

Künstliche Intelligenz und ihre Methoden der statistischen Analyse haben keinen eigenen Willen. Künstliche Intelligenz ist nicht intelligent. Sie ist daher nicht in der Lage, eigene Ambitionen und Interessen zu haben, zu täuschen oder zu lügen. Mit anderen Worten, künstliche Intelligenz sollte uns nicht mehr Angst machen als Statistik. Das bedeutet nicht, dass sie harmlos ist. Künstliche Intelligenz und ihre Algorithmen sind nicht neutral, sondern reflektieren die Absichten und die unbewussten Vorurteile des Teams von Programmierern und Datenwissenschaftlern sowie der Parteien, die an der Implementierung dieser Technologie beteiligt sind.

Für KI können sehr transparente Protokolle erstellt werden, um nachzuvollziehen, welche Änderungen von Menschen vorgenommen wurden – unabhängig von der Komplexität der Algorithmen, mit denen diese Technologie arbeitet. Es gibt keine Notwendigkeit, eine spezielle Rechtsfigur für künstliche Intelligenz zu schaffen. Die Technologie selbst ermöglicht es, die Verantwortung für das Versagen von oder den Missbrauch durch eine bestimmte Person klarer und einfacher zuzuschreiben als zuvor.

Beide, sowohl der Fahrer, der die künstliche Intelligenz verwaltet, als auch der Fußgänger, der dem System ausgesetzt ist, können identifiziert werden.

Ethik und Recht müssen gegenüber Technologie neutral sein

Zurück zu den Dilemmata, die durch die Einführung des Autos vor einem Jahrhundert entstanden. Damals war es entscheidend, die Debatte – ethisch und rechtlich – auf den Menschen auszurichten, um praktische und anwendbare Gesetze und Vorschriften zu formulieren. Die Schaffung eines Rechts- und Regulierungssystems, das Rechte und Pflichten zuweist, kann jedoch nur mit einem klaren Verständnis der Risiken und der beteiligten Akteure legitim sein. Die Gerichte, und die Gesellschaft im Allgemeinen, brauchten einige Zeit, um sowohl die technischen Aspekte des Autos, als auch die durch Autoverkehr geschaffenen Probleme zu verstehen.

Die ersten Regulierungsversuche erscheinen uns heute grotesk. Nicht zuletzt weil sie Akteuren Pflichten auferlegten, die keine ausreichende Kontrolle über die Maschine ausüben konnten. Im Vereinigten Königreich war ein Fahrer beispielsweise verpflichtet, den Sheriff zu benachrichtigen, bevor er durch eine Gemeinde fuhr, damit dieser mit zwei roten Fahnen ausgerüstet vor dem Auto marschieren und Fußgänger warnen konnte.

Das Rechtssystem, das den Verkehr zu regeln versuchte, schrieb die Verantwortung ausschließlich dem Fahrer zu. Damals waren die Straßen jedoch von mangelnder Vorhersehbarkeit geprägt: Straßenschilder waren noch nicht erfunden, Kinder spielten auf der Straße, Pferdekutschen gingen bei Motorengeräuschen durch, und Fußgänger konnten die Geschwindigkeit, mit der sich Autos näherten, nicht einschätzen. All dies machte die dem Fahrer zugewiesene Verantwortung unverhältnismäßig. Aus physiologischer Sicht war es schlicht unmöglich, auf solch unvorhersehbare Ereignisse zu reagieren.

Pragmatismus und Sinn für soziale Gerechtigkeit veranlassten den Kanadier James Couzens, ein System von Verkehrszeichen und Regeln zu erfinden, um Fußgänger und Fahrer zu koordinieren. Couzens trat von seiner Position als Vizepräsident für Finanzen bei Ford zurück und begann für die Stadt Detroit (USA) zu arbeiten, der damaligen Welthauptstadt des Automobils. Mit der Zigarre in der Hand revolutionierte Couzens die Verkehrsinfrastruktur. Zuerst identifizierte er die Situationen, in denen die Verantwortung beim Fußgänger lag, und schuf Schilder und Bereiche zum Überqueren der Straßen.

Anfangs gab es großen Widerstand aus der Gesellschaft. Die Regeln und Pflichten für Fußgänger waren nicht frei von Kontroversen: Stadtrat Sherman Littlefield nannte sie erniedrigend, weil sie „normale Bürger wie Vieh behandelten“. Couzens ließ sich nicht einschüchtern und verhängte seine Regeln per Dekret. Die Zeit gab ihm Recht und zeigte die Wirksamkeit seines Ansatzes, der schließlich zum internationalen Vorbild wurde. Couzens war auch für die Erstellung eines Plans für die Verkehrslenkung und -verwaltung verantwortlich, der es ermöglichte, bei Personalmangel auf die Anwesenheit der Polizei zu verzichten. So wurde Detroit zur Wiege des technologischen Fortschritts, mit revolutionären Ideen wie der automatischen Ampel in den 20er Jahren.

Bemerkenswert ist, dass Couzens dem Auto als eigenständige Technologie bei der Gestaltung seiner Verkehrsregeln wenig Beachtung schenkte: Die Regeln und Einschränkungen betrafen nicht den technischen Aspekt, sondern nur seinen Einsatz im öffentlichen Raum. Beispielsweise verbieten Maßnahmen zur Geschwindigkeitsbegrenzung nicht die Entwicklung von Motoren mit mehr PS, sondern schränkten die Nutzung des Gaspedals durch den Fahrer ein. So mussten die von Couzens aufgestellten Gesetze und Vorschriften nicht bei jedem technologischen Wandel geändert werden, da sie stets eine Rekontextualisierung des Technologieeinsatzes ermöglichten. Die Tatsache, dass die etablierten Verkehrsregeln technologisch neutral waren, ist der Grund dafür, dass sie ein Jahrhundert später immer noch in Kraft sind und im Wesentlichen nicht veraltet sind.

Im Bereich der KI werden Gesetze und ethische Grundsätze untersucht, die auf Programmcodes angewendet werden können. Ein Beispiel ist das Prinzip der „Minimierung personenbezogener Daten“, bei dem nur die für die Erbringung einer Dienstleistung oder die Ausführung einer Aufgabe erforderliche Mindestmenge personenbezogener Daten verarbeitet werden soll. Dies ist ein technisches Prinzip, das von entscheidender Bedeutung ist und die Informationsverarbeitung beeinflusst. Einerseits schützt der Prozess die Privatsphäre der beteiligten Personen. Diese Regel kann jedoch paradoxerweise gegen die Gleichbehandlung verstoßen, da sie den Kontext nicht berücksichtigt. Zum Beispiel wurden vor etwas mehr als einem Jahrzehnt Studien über die Verwendung von Betablockern (ein häufig in der Kardiologie verwendetes Medikament) unter Verwendung einer Datenbank durchgeführt, die hauptsächlich aus Daten europäischer Männern bestand. Ihre Schlussfolgerungen gelten für diese Gruppe, nicht aber für Frauen oder für ethnische Gruppen mit einer anderen genetischen Variation.

Der Mangel an Informationen über bestimmte soziale Gruppen erzeugt eine von Anfang an verzerrte Datenbasis: Das Profil und die Merkmale eines Teils der Bevölkerung werden überrepräsentiert und verzerren die Berechnung, was einen falschen Eindruck vom Ganzen vermittelt. Die Annahme, dass mit weniger Daten das Risiko der Diskriminierung sinkt, ist ein Mythos. Je nach Kontext werden mehr oder weniger personenbezogene Daten benötigt, um nicht in Vereinfachungen zu verfallen, die zur Diskriminierung bestimmter Gruppen führen.

Diese Beispiele zeigen, dass wir die Strategie ändern müssen. Denn bis jetzt hat sich die Debatte über künstliche Intelligenz auf den technischen Teil konzentriert. Aber die Geschichte zeigt, dass es möglich ist, Gesetze und Vorschriften zu neuen Technologien zu entwickeln, ohne den mathematischen Code selbst zu regulieren. Ethik und Recht konzentrieren sich grundsätzlich auf den sozialen Kontext: Ihre Prinzipien gelten nicht für den technischen Prozess, sondern für die soziale Situation, in der dieser technische Prozess integriert ist. Es geht nicht darum, die Technologie zu regulieren, die künstliche Intelligenz ermöglicht, sondern das, was die Menschen damit machen.

Die Ausbildung der Gesellschaft im Umgang mit neuen Technologien erfordert kein technisches Wissen

Couzens sah die Notwendigkeit, die Bürger im Umgang mit dem Auto zu erziehen, damit die Verkehrsregeln die Gesellschaft durchdringen und von dieser übernommen werden. Zudem verstand er die Bedeutung zentraler Kenntnisse, wie zum Bespiel die Entfernung und Geschwindigkeit eines Autos zu erkennen. Dies konnte nur durch die Integration der Technologien in den Alltag und die Gewöhnung durch ihren Gebrauch erfolgen. Couzens glaubte nicht, dass es notwendig sei, die Mechanismen des Autos über seine betrieblichen Funktionen hinaus zu verstehen, wie Bremsen, Beschleunigen oder Wechseln eines Reifens. Sowohl im Recht als auch in der Ethik gilt die Prämisse ultra posse nemo obligatur, ein Rechtsbegriff, der besagt, dass niemand verpflichtet ist, mehr zu tun, als er tun kann. Das erforderliche Wissen über die Mechanismen eines Autos geht über den gesunden Menschenverstand hinaus, so dass niemand die Pflicht hat, sie zu kennen.

In der Debatte über KI wird die Öffentlichkeit aufgefordert, technisch kompetent zu sein. Aber die Dilemmata, die das Automobil zu Beginn des 20. Jahrhunderts hervorrief, zeigen, dass diese Art von Diskurs nicht konstruktiv ist. Wir müssen nicht wissen, wie ein Flugzeug funktioniert, um in ihm zu fliegen. Auch müssen wir nichts über Biochemie wissen, um einen Joghurt zu kaufen. Jenseits dessen, was getan werden kann, jenseits des gesunden Menschenverstands, ist niemand verpflichtet, etwas zu wissen.

KI ermöglicht uns, Verhaltensmuster zu erkennen und Unterschiede im Verhalten verschiedener Gruppen – Frauen, ethnische Gruppen, soziale Klassen und viele andere – zu identifizieren. Auf dieser Grundlage können die Entwickler beschließen, mehr oder weniger legitim zu diskriminieren. Sie können verschiedene Dienste oder Informationen zu verschiedenen Gruppen anbieten oder die Aufmerksamkeit manipulieren. Auch unfreiwillige und implizite Diskriminierungen müssen berücksichtigt werden, weshalb eine ständige Bewertung der Technologie unerlässlich ist. Dazu müssen Experten nicht nur über eine allgemeine ethische Sensibilität verfügen, sondern insbesondere auch im Hinblick auf unfreiwillige Diskriminierung sensibel sein. Denn die kann sich aus Verzerrungen im Design oder den Datenbanken, mit denen KI arbeitet, ergeben.

Der Einsatz dieser Technologie zur Verstärkung oder Kompensation von Diskriminierung hängt von der Gruppe der Menschen ab, die sie nutzen. Es ist nicht die Bürger*in, die den technischen Prozess hinter der KI verstehen muss, um sie nutzen zu können. Es sind Ingenieure, Datenwissenschaftler sowie Marketingabteilungen und Regierungen, die solche Technologien einsetzen oder regulieren, die die soziale und ethische Dimension der künstlichen Intelligenz verstehen müssen.

---

Lorena Jaume-Palasí ist Geschäftsführerin von AlgorithmWatch und Mitglied des Weisenrates zu künstlicher Intelligenz und Datenpolitik der spanischen Regierung. Der Beitrag erschien ursprünglich auf Spanisch bei El Pais im März 2018.