3. Arbeitspapier: Unsere Antworten zur Anhörung zu „Künstlicher Intelligenz“ des Ausschusses Digitale Agenda

Unsere Antworten auf den Fragenkatalog der Bundestag-Fraktionen stellen gleichzeitig unser 3. Arbeitspapier dar.

Externer Inhalt von bundestag.de

Wir möchten Ihnen Inhalte anzeigen, die nicht auf unseren Servern gehostet werden.

Erst wenn Sie Ihre Zustimmung geben, werden die Inhalte von externen Servern geladen. Bitte beachten Sie, dass der Drittanbieter dann möglicherweise Daten verarbeitet, die Ihr Browser übermittelt. Zusätzlich könnten Informationen auf Ihrem Gerät gespeichert werden, beispielsweise in Cookies. Weitere Details dazu erhalten Sie direkt vom Drittanbieter..

auf das Video klicken, um die Aufzeichnung anzusehen

Matthias Spielkamp vertritt heute AlgorithmWatch als Sachverständiger im Fachgespräch zu künstlicher Intelligenz und Robotik des Ausschusses Digitale Agenda, das von 16 bis 18 Uhr im Sitzungssaal E 700 des Paul-Löbe-Hauses in Berlin stattfindet. Es wird auf Bundestag.de live übertragen. Hier unsere Antworten auf den Fragenkatalog der Fraktionen; sie stellen gleichzeitig unser 3. Arbeitspapier dar.

1.1 Wie überschneiden und unterscheiden sich Begriffe wie „Künstliche Intelligenz“ (Anm.: Im Folgenden „KI“), „Maschinelles Lernen“, „Deep Learning“ und dergleichen?

Sowohl der Begriff „Lernen“ als auch der Begriff „Intelligenz“ sind Vermenschlichungen (Anthropomorphismen). Die Vorgänge hier können nicht mit der menschlichen Intelligenz oder dem Spracherwerb gleich gesetzt werden. Es ist jedoch unwahrscheinlich, dass die Begriffe KI oder maschinelles Lernen aus dem Sprachgebrauch wieder verschwinden werden. Besser wären wohl Ausdrücke wie Maschinenintelligenz oder Maschinenlernen, weil sie deutlich machen würden, dass es sich um eine andere Art von Intelligenz und Lernen handelt als die menschliche, satt um maschinell nachgebildete Intelligenz bzw. Lernfähigkeit, die der menschlichen vergleichbar wäre. Maschinelles Lernen, Deep Learning etc. sind technologische Herangehensweisen im Wandel. Es werden sich in Zukunft weitere Begriffe dazu gesellen. Für den Regulierer ist es nicht sinnvoll, sich auf die Begriffe zu fokussieren, sondern eine dem Zweck dienende Unterscheidung /Kategorisierung vorzunehmen, also eine politisch relevante Unterscheidung.

1.2 Wie können bereits durch die Wahl der Begriffe Missverständnisse vermieden werden?

Wir sollten uns auf die Quintessenz des Vorgangs fokussieren: Geht es darum, dass Entscheidungen automatisiert werden? Geht es um die physische Interaktion zwischen einem Patient und einem medizinischen Assistenzroboter?

2.1 Welche Entwicklungsstufen im Bereich der künstlichen Intelligenz gab es bisher und auf welchen Gebieten hat KI unter technischen Gesichtspunkten bisher die interessantesten Ergebnisse erzielt?

Aufsehen erregt haben die Siege von Computern über den damaligen Schachweltmeister Garri Kasparow (1997) und im vergangenen Jahr im Spiel Go über Lee Sedol, der derzeit als bester Go-Spieler gilt. Anwendungen der KI, die für Menschen im Alltag eine große Bedeutung haben, sind z.B. maschinelle Übersetzungen oder Bilderkennung, die durch den Einsatz von selbstlernenden Systemen erheblich besser geworden sind.

Eine bedeutende Entwicklung ist die Nanorobotik: Roboter, so groß wie Blutkörperchen. Anwendungsbereiche, in denen hier geforscht wird: als Alternative zur Chemotherapie, aber auch in der Kriegsführung.

2.2  Welche Meilensteine in Forschung und Anwendung sind realistischer Weise in den kommenden Jahren und Jahrzehnten zu erwarten?

Wir gehen davon aus, dass es in absehbarer Zeit autonom fahrende Autos gibt, Maschinen, die viele verschiedene gesprochene Sprachen ohne Verzögerung („in Echtzeit“) in viele andere übersetzen können. Vieles ist bereits vorhanden: persönliche Assistenz (Siri, Allo, Alexa), Assistenzroboter in Haushalt und in der Medizin (als Putzpersonal, zur Unterstützung von Wächter oder in der Pflege und für Operationen, in der Diagnostik als Assistenz). Es gibt auch bereits intelligente Prothetik und weiteren medizinischen Geräten wie bspw. Mini-Defibrillatoren, die in der Nähe des Herzens eines Patienten eingebaut sind. In der Industrie sind Roboter bereits Alltag, auch auf der Straße (Spurassistenz-Systeme), selbstfahrende Traktoren sowie „smarte“ Bauernhöfe, aber auch in der Sexindustrie und in der Personalsteuerung. Es ist von einer Ausbreitung und Kommerzialisierung dieser Anwendungen in den nächsten Jahren auszugehen. Problematisch dabei: Die Emotionalisierung (der Roboter als Freund). Auch das ist nicht von vorn herein negativ zu betrachten, muss aber gesellschaftlich problematisiert werden, um eine Debatte und Reflexion anzustoßen. Bald werden automatisierte Systeme auch in der Katastrophenhilfe (z.B. Scratchbots), automatisierten Grenzkontrollen, in Anwaltskanzleien (für Standard-Verträge), eingesetzt werden. Aus den USA und Australien werden sicher auch bereits dort verwendete Automatisierungssysteme übernommen werden, wie etwa Schülerbewertung oder bei Risikoeinschätzung durch Polizei und Justiz.

2.3 Welche sind bisher eher unbekannte Bereiche, in denen künstliche Intelligenz besondere Bedeutung erlangen kann?

Automatisierte Prozesse werden eine immer mehr Einfluss auf Kollektive und Kollektivgüter ausüben. Diese Auswirkungen werden derzeit kaum erkannt. So entsteht etwa durch vorausschauende Polizeiarbeit (das sogenannte Predictive Policing) das Risiko, dass geografische Räume negativ beeinflusst werden, bis hin zur Entstehung von Ghettos. Derartige Auswirkungen sind bislang wenig untersucht und regulatorisch nicht adressiert. Weder Antidiskriminierungsgesetze noch der Datenschutz greifen hier.

3.1  Welche ethischen Normen (bspw. „do-not-harm-Prinzip“) sind grundlegend für die weitere Entwicklung von KI?

3.2 Wie können Transparenz und demokratische Kontrolle in Bezug auf die hinter den Algorithmen spezifischer KI-Systeme stehende ethische Normen gewährleistet werden?

KI-Systeme sind komplex. Demokratische Kontrolle sollte durch Expertengremien ausgeübt werden, sei es durch Institutionen der öffentlichen Hand oder auch Ko-Regulierungsinstitutionen, in denen sich Experten auf Anforderungen und Best Pratices verständigen.

4.1 Ist die Abhängigkeit selbstlernender Systeme von großen Datenmengen von Dauer oder handelt es sich dabei um einen vorübergehenden Zusammenhang?

Systeme, die mit ihrer Umwelt interagieren, werden immer Daten austauschen.

4.2.  Ist künstliche Intelligenz mehr als Interpolation statistischer Daten?

Ja, KI-Systeme sind regelbasierte Systeme, daher beinhalten sie immer Normen und normative Vorstellungen (ob bewusst oder unbewusst).

D.h. Korrelationen plus Normen ergeben Handlungsempfehlungen auf Grundlage der Datenbasis – also auf Grundlage der Verhaltensweisen, die in der Vergangenheit statistisch beobachtet wurden.

4.3.  Gibt es „künstliche Kreativität“?

Nein.

5.1 Wie kann künstliche Intelligenz qualifiziert werden? Gibt es Kategorien für die „Qualität“ künstlicher Intelligenz wie einen IQ-Test?

Da wir hier nicht von einer generellen Intelligenz sprechen, ist die Qualitätsmessung automatisierter Systeme immer vom Einsatzkontext abhängig. Dabei sollte Automatisierung nicht mit menschenähnlicher Autonomie gleichgesetzt werden. Der Grad von Automatisierung kann in Standardisierungsverfahren (z.B. durch die ISO) festgelegt werden, um entsprechende Aufsichtsmaßnahmen zu entwickeln und festzulegen.

5.3 Wie können etwa KI-Antworten auf Fragen bewertet werden, deren Antwort wir nicht kennen?

Je nachdem, wie man diese Frage versteht, gibt es unterschiedliche Antworten:

5.4 Was lässt uns künstliche von menschlicher Intelligenz unterscheiden?

Maschinen sind nicht in der Lage, die Wahrheit einer Formel – einer der elementarsten Teile der Logik – wie „Sokrates ist ein Mensch“ nachzuweisen. „Sokrates ist ein Mensch“ ist eine prädikatenlogische Formel erster Ordnung. Die Prädikatenlogik erster Ordnung beschäftigt sich mit den logischen Schlussfolgerungen über gewisse mathematische Ausdrücke. Dieses Schlussfolgern geschieht rein syntaktisch, d.h. ohne Bezug zu mathematischer Bedeutung. In den 1930er Jahren haben Church und kurz danach Turing nachgewiesen, dass algorithmische Prozesse, eine Turing-Maschine, Theoreme der Prädikatenlogik erster Ordnung auf deren Gültigkeit nicht überprüfen können. Bisher sind Church und Turing nicht widerlegt worden. Die Turing-Maschine kann weder beweisen, dass „Sokrates ist ein Mensch“ wahr ist, da der Satz nicht allgemeingültig ist, noch kann sie beweisen, dass „Sokrates ist kein Mensch“ wahr ist, da der Satz ebenfalls nicht allgemeingültig ist.

Maschinen sind ebenfalls nicht in der Lage, Fantasie zu entwickeln, also sich etwas vorzustellen, was auf der Welt nicht vorhanden ist und wofür es auch kein „Vorläufer” gibt (z.B. Utopien).

5.5 Wird eine solche Unterscheidung auf Dauer möglich bleiben?

Eventuell, aber derzeit nicht absehbar.

5.6 Wie bzw. mit welchen Mechanismen kann man erkennbar machen, ob Mensch mit Mensch oder Mensch mit Maschine kommuniziert?

Als Übergangslösung sind wahrnehmbare Disclaimer geeignet (visuell mit einem Siegel, oder eine Ansage, wenn es sich um  mündliche Interaktion handelt).

6.1 Ist bei einer weiteren Ausbreitung assistiver und prothetischer Technologien die Idee einer klaren Trennlinie zwischen Selbst und Umgebung noch in jedem Fall haltbar?

Nein, sie ist schon jetzt nicht mehr gegeben und auch nicht wünschenswert. Der Mensch ist ein soziales Wesen und seine Vorstellung des Selbst hängt stark von seiner Umgebung ab.

6.2 Müssen hier rechtliche Konzepte wie etwa die Körperliche Unversehrtheit angepasst werden?

Unserer Ansicht nach nicht, da wir davon ausgehen, dass Prothethik Teil des Körpers ist.

6.3 Wenn menschliche und künstliche Intelligenz eng miteinander interagieren, welche Abgrenzungsprobleme könnten dabei entstehen, z.B. bei Fragen der Identität, Integrität, Unabhängigkeit, Privatsphäre oder Haftung?

Hier kann keine generelle Antwort gegeben werden, weil unendlich viele Szenarien denkbar sind, z.B. das Hacken eines “intelligenten” Herzschrittmachers. Hier werden permanent neue Akteure in die Verantwortungsketten eingefügt, die eine Rolle spielen können.

7. Welche - technischen, organisatorischen, rechtlichen - Anforderungen sind an intelligente und/oder vernetzte Technologien zu stellen, die tief in die individuelle Lebensführung (wie etwa bei persönlichen KI-Assistenten) oder direkt in körperliche Funktionen eingreifen? Wie müssten gesetzliche Regelungen zur informierten Einwilligung angepasst werden?

Automatisierungsverfahren sind denkbar komplex. Regelungen sind insofern anzupassen, dass Beteiligten in der Handlungskette mehr Verantwortung und Aufsichtspflichten zugewiesen werden müssen. Wir verlangen nicht von den Bürgern, dass sie mit einem Chemiebaukasten im Supermarkt die Lebensmittel selbst überprüfen (genauso wenig den Airbag im Auto). Das sind keine Allgemeinkenntnisse. Vom Bürger zu verlangen, darüber zu urteilen, wäre nicht nur für den Bürger kaum machbar, sondern unfair. Genau dasselbe trifft bei Algorithmen zu. Unsere Gesellschaft ist höchst spezialisiert und komplex. Deswegen haben wir eine repräsentative Demokratie. Dies schließt die Möglichkeit der Übertragung von Entscheidungen auf Experten ein, soweit die Legitimationskette zu den Volksvertretern gewahrt wird und sie der demokratischen Kontrolle unterliegt.

8. Welche Bedeutung hat fortgeschrittene KI für die Demokratie und den politischen Prozess?  Neben möglichen Manipulationen der Meinungsbildung: Welche Rolle kann und darf künstliche Intelligenz Ihrer Expertise zufolge bei politischen Entscheidungen einnehmen? In anderen Worten: Worin besteht auf Dauer ein Qualitätsunterschied zwischen einem Gutachten eines Experten und dem einer künstlichen Intelligenz?

Diese Frage ist mehrdeutig formuliert. Es kann der Eindruck entstehen, dass künstliche Intelligenz bei möglichen Manipulationen der Meinungsbildung eine Rolle spielen kann und darf. Wenn Manipulation als illegitime Beeinflussung verstanden wird, darf KI keine Rolle dabei spielen. Wenn gemeint ist, welche Rolle KI bei politischen Entscheidungen einnehmen kann und darf, dann ist jedenfalls nicht zu begründen, dass Systeme zur Datenanalyse, die eine Entscheidung vorbereiten, nicht auch in der Politik eingesetzt werden dürfen. So treffen etwa Politiker schon lange sehr folgenschwere Entscheidung aufgrund von hochkomplexen Datenanalysen mit Voraussagefunktion: z.B. ein Zeltlager zu räumen (oder nicht zu räumen), weil ein schwerer Sturm droht. Die Frage, worin auf Dauer ein Qualitätsunterschied zwischen einem Gutachten eines Experten und dem einer künstlichen Intelligenz besteht, lässt sich ohnehin nur so beantworten, dass KI keine Gutachten erstellt, sondern z.B. Daten auswertet oder Prognosen erstellt.

9. In letzter Zeit wird oft von Social-Bots in sozialen Medien gesprochen, also von Algorithmen oder Programmen, die das Verhalten von echten menschlichen Nutzern simulieren. Es geht oft darum, diese Bots zu erkennen und zu entfernen.

9.1 Kann verbesserte KI (Stichwort Turing-Test) dazu führen, dass diese Bots nicht oder sehr schwer zu erkennen sind?

Es ist nahezu unzweifelhaft, dass sie schlechter zu erkennen sind, je weiter sie entwickelt werden. Ob sie irgendwann gar nicht mehr zu erkennen sind, kann dagegen bezweifelt werden. Es wird eher um die Frage gehen, ob der notwendige Aufwand betrieben werden kann und soll. Viele Bots üben hilfreiche Funktionen aus, etwa indem sie Informationen zusammenfassen oder weiterleiten, bspw. bei der Katastrophenhilfe. Wenn es hier darum geht, Bots zu entfernen, muss im Vorfeld die Frage geklärt werden, welche Gefahr von ihnen ausgeht und ob eine entsprechende Intervention notwendig ist. Zudem sollte es nicht Aufgabe des Gesetzgebers sein, Inhalte zu entfernen, die äußerungsrechtlich unproblematisch sind.

9.2 Könnte künstliche Intelligenz dazu eingesetzt werden, Fake-News vor allem in sozialen Medien zu erkennen und dem entgegenzuwirken?

Da es keine gut abgrenzbare Definition von „Fake News“ geben kann, hätten automatisierte Systeme große Probleme, entsprechende Inhalte zu erkennen.

10.1 In welchem KI-Bereich sind gesetzgeberische Rahmenbedingungen auf die Entwicklung künstlicher Intelligenz geboten?

Bei medizinischen und militärischen Einsatzzwecken, wenn die körperliche Unversehrtheit betroffen ist.

10.2 Mit welchen Mitteln kann diese Einflussnahme erfolgen?

Keine Antwort.

10.3 Ist eine etwaige Regulierung auf nationaler Ebene sinnvoll und möglich?

Ja, aber nicht losgelöst von internationalen Regulierungen - ähnlich wie bei Standardisierungsverfahren.

10.4 Ist eine europäische KI-Agentur für Folgenabschätzungen und technische Sicherheit sinnvoll?

Sinnvoll wäre eine Institution, die erkenntnisorientiert Fragen der Entwicklung automatisierter Systeme erforscht. Wir haben derzeit zu wenig Erkenntnisse zur sozialen Dimension dieser Entwicklungen.

10.5 Inwieweit sind juristische Erwägungen für die Verwendung der KI in verschiedenen Bereichen des alltäglichen Lebens von Bedeutung?

Das hängt von den jeweiligen Auswirkungen der konkreten Technologie ab.

11. Welche zivilrechtlichen Regulierungen sind von der weiteren Entwicklung von KI betroffen (Haftung, Datenschutz, etc.)?

Möglicherweise alle.

12.1 Welche Bedeutung hat die Qualität künstlicher Intelligenz für die Diskussion über Verantwortlichkeit für Aktionen von Maschinen?

Keine. Maschinen können keine Verantwortung übernehmen.

12.2 Ist „Verantwortlichkeit“ von Rechtsubjekten eine Kategorie von bleibender Bedeutung, auch wenn der Mensch keinen Einfluss mehr auf die Entscheidungsfindung der selbstlernenden Maschinen hat?

Ja, weil Menschen zum einen die Systeme entwickeln, zum anderen auch Gelegenheit zur Intervention haben werden. Trotzdem wird sich unsere Vorstellung von Verantwortung verändern, weil mehr Akteure beteiligt sind, die einen Einfluss auf die Geschehnisse haben.

12.3 Hat diese rechtliche und philosophische Diskussion auch eine technische Komponente?

Ja, z.B. in Form von technischen Maßnahmen zur Kontrolle und Nachvollziehbarkeit von Geschehnissen.

12.4 Wie sehen Sie die Auswirkungen auf die Volkswirtschaft – insbesondere den Versicherungsmarkt: Gibt es bereits Versicherungsprodukte für Systeme, die auf der Nutzung von künstlicher Intelligenz basieren?

Keine Antwort.

12.5 Ist eine Pflichtversicherung ein Instrument zur Minderung von Fehlfunktionen komplexer Systeme?

Keine Antwort.

12.6 Wie können Haftungsregime (Hersteller- Produkt- Gefährdungshaftung) für jeweilige KI-Anwendungen angepasst und das Vorsorgeprinzip angewendet werden?

Hierzu reichen wir eine Antwort nach.

13. Wo liegen die Herausforderungen und wirtschaftlichen Chancen moderner KI?

Es sind die gleichen, die sich schon immer durch Automatisierungstechnologien ergeben haben: Es können Effizienzgewinne erzielt werden; über deren Verteilung muss gesellschaftlich entschieden werden.

14. Wo steht Deutschland in Sachen KI im internationalen Vergleich, sowohl in wissenschaftlicher wie in wirtschaftlicher Hinsicht? Welche Schritte sind notwendig und möglich, um Deutschland als  führenden KI-Innovationsstandort, auch in wirtschaftlicher Hinsicht, zu etablieren? Ist der Ansatzpunkt hier die Forschung oder die Wirtschaft?

Wir müssen die sozialen Dimensionen dieser Technologien besser verstehen. Daher brauchen wir verstärkte Anstrengungen in den Feldern Philosophie, Soziologie und Kommunikationswissenschaften.

15. Zahlreiche Anwendungsmöglichkeiten künstlicher Intelligenz liegen im Bereich der Wirtschaft. Abgesehen von sich ändernden Berufsbildern und -anforderungen, vor welchen Änderungen steht unser Wirtschaftssystem als Ganzes? Welche Bedeutung wird welche Form von Arbeit zukünftig für die Lebenshaltung haben? Welche neuen Arbeitsplätze werden durch KI entstehen und wie müssen heutige Arbeitnehmer qualifiziert werden, um davon zu profitieren?

Keine Antwort.

16. Es gibt viele Studien zur Auswirkung der Automatisierung und Digitalisierung auf die Arbeitswelt. Diese beziehen sich jedoch zumeist auf den niedrigqualifizierten Bereich. Wie schätzen Sie die Auswirkung der KI auf die Arbeitswelt im höherqualifizierten Sektor ein? Auf welche Veränderungen müssen sich z.B. Branchen wie Versicherungs-, Banken- oder Aktienwirtschaft einstellen?

Wie in der Frage bereits formuliert, fehlen uns hier Erkenntnisse, auf deren Basis man  belastbare Prognosen erstellen könnte.

17. Welche Auswirkungen sind durch technische Entwicklungen in diesen Bereichen – Künstliche Intelligenz, Robotik, Mensch-Maschine-Interfaces – auf das Gesundheitswesen zu erwarten? Wird die körperliche „Verschmelzung“ von Mensch und Technologie in absehbarer Zukunft eine Rolle auch über den Bereich der medizinischen Prothetik hinaus spielen? In welchen Bereichen und welche Herausforderungen ergeben sich dabei?

Ja, denn die Verschmelzung von Mensch und Technologie geht bereits über das Medizinische hinaus und wird in Zukunft zunehmen. Die Frage der Grenzen und Regeln von so genanntem Body-Enhancement werden seit Jahrhunderten, wenn nicht Jahrtausenden debattiert. Und auch hier kann die Meinung nicht konkludent sein. Ethikkommission müssen über diese Grenzen debattieren, etwa wenn es um gesetzliche Verbote gehen soll: Darf eine Prothese mehr können als das menschliche Pendant? Dürfen Menschen mittels Technologien schöner, schneller, sicherer werden? Es gibt Opfer von Vergewaltigungen, die sich Sensoren implantieren lassen, die vibrieren, wenn ein Mensch sich von hinten nähert. Warum sollte diese Möglichkeit verwehrt werden? Schwieriger wird es, wenn es um neurologisches Enhancement geht, oder wenn Menschen um eine Amputation der Beine bitten, um Prothesen zu erhalten, die stärker und schneller sind als menschliche Beine. Wenn dieser Mensch gesund ist, dürften die Intuitionen meist anders aussehen, als wenn der Betroffene im Rollstuhl sitzt. All diese Fragen bedürfen daher einer ethischen Debatte.