Want create site? Find Free WordPress Themes and plugins.

Algorithmen, Big Data, KI und Robotik: Auto­matisierte Entscheidungsfindung wird bereits heute in nahezu allen Bereichen eingesetzt. Lorena Jaume-Palasí und Matthias Spielkamp beschreiben, wo entsprechende Systeme eingesetzt und wie sie in der politischen Diskussion diskutiert und reguliert werden.

Automatisierte Entscheidungsprozesse (automated decision-­making, ADM), die von Algorithmen gesteuert werden und auf der Auswertung großer Datenmengen (Big Data) beruhen, nehmen bereits heute breiten Raum in unserer Gesellschaft ein. Sie reichen von Fahrerassistenz-Systemen, die Autos bei Gefahr abbremsen, bis hin zu Scoring-Mechanismen, die darüber entscheiden, ob Menschen ein Kredit gewährt wird. Auch staatliches Handeln wird immer öfter von ADM-Systemen unterstützt, sei es in der „vorausschauenden Polizeiarbeit“ (predictive policing) oder bei der Entscheidung darüber, ob jemand am Flughafen besonders streng kontrolliert wird. Diese Entwicklung steht gerade erst an ihrem Anfang; in wenigen Jahren werden alle Bürgerinnen und Bürger täglich auf die eine oder andere Art von Entscheidungen ­dieser Systeme betroffen sein.

Traditionell werden die Felder Big Data auf der einen Seite und Algorithmen, künstliche Intelligenz und Robotik auf der anderen Seite in der politischen Diskussion getrennt voneinander behandelt. Jedoch ist eine Analyse der Funktionsweise von Algorithmen nicht möglich, ohne auch die Daten zu thematisieren, die von einem Algorithmus verarbeitet werden. Vor allem bei komplexeren, lernenden Algorithmen prägen die Daten die Lernrichtung des Algorithmus mit. Algorithmen sind an sich lediglich schlanke Handlungsanweisungen: Derselbe Algorithmus, der dafür genutzt wird, ­Filme vorzuschlagen, kann auch für die Krebsforschung verwendet werden. Die dafür genutzten Daten und der Kontext machen den Unterschied. Daher ist es für die Beurteilung, wie wirksam und effizient ein Algorithmus ist und welchen Mehrwert er bietet, unabdingbar, ihn in Kombination mit der Datenbank zu betrachten.

Schon jetzt werden Automatisierungsprozesse in nahezu allen Lebensbereichen eingesetzt und betreffen daher viele politischen Handlungsfelder:

  • Wirtschaft und Finanzen (Handel mit Waren, Dienstleistungen und Aktien)
  • Rechtsfindung, -anwendung, -zugang und -verwaltung (Legal Tech)
  • Gesundheit (Robotik im Operationssaal, in der Altenpflege und ­Diagnostik)
  • Arbeitswelt (Industrieroboter, Automatisierungsprozesse in ­Personalauswahl und -management, Crowdworking-Plattformen wie Uber, Airbnb u.a.)
  • öffentliche Hand (Grenzkontrolle, Steuerbescheide, Verwaltung, ­Sicherheit)
  • Verkehr (automatisiertes und autonomes Fahren, Autopiloten im Flugzeug, Verkehrssteuerung, Logistikplanung)
  • Bildung (Leistungsbeurteilung)
  • Forschung (alle Arten von komplexen Modellierungen, z.B. in der Klimaforschung)
  • Verbraucherschutz (Spielroboter, Roboter zum Staubsaugen und Rasenmähen, persönliche Assistenten wie Alexa, Siri u.a., Sexroboter)

Fast immer handelt es sich bei Automatisierungsprozessen um relativ komplexe Verfahren. Selten kann die Lenkung des Verfahrens und die Verantwortung dafür einer einzelnen Stelle zugeordnet werden.

Die Lage in Deutschland

Die Debatte um Automatisierung hat im Laufe des Jahres 2016 an Fahrt aufgenommen. So hat das Bundesministerium für Verkehr und digitale Infrastruktur eine Ethikkommission zum automatisierten Fahren einberufen; Anfang 2017 wurde der Gesetzentwurf zum automatisierten Fahren vom Bundeskabinett verabschiedet. Eine Harmonisierung des EU-Verkehrsrechts wird zudem von großen deutschen Konzernen gefordert, die auch autonom fahrende Lkws mit dem sogenannten Platooning-System entwickeln und bereits in Pilotprojekten erproben. In diesem Rahmen ist die Debatte um die Idee eines Datenpasses und eine mögliche Verrechtlichung des Begriffes „Dateneigentum“ zu sehen, mit dem ein Ausschließlichkeitsrecht der Unternehmen verankert werden soll. Dadurch sollen auf Algorithmen basierte Dienstleistungen und Anwendungen optimiert und abgesichert werden.

Das Bundesfinanzministerium hat 2016 eine Studie zum FinTech-Markt in Deutschland vorgelegt und im März 2017 den FinTechRat gegründet, der das Ministerium zu „Fragen der digitalen Finanztechnologie, insbesondere zu (informations-)technologischen Entwicklungen, ihren Potenzialen sowie zu Chancen und Risiken“ beraten soll. Die Studie fokussiert auf die Segmente Finanzierung und Vermögensmanagement. Zu den FinTech-Unternehmen zählen unter anderem Internetportale für „Robo Advice“, also Portfoliomanagementsysteme, „die algorithmusbasiert und in der Regel mit einem hohen Grad an Automatisierung Anlageempfehlungen geben und teilweise auch Anlageentscheidungen treffen“. Mit mehr als einer Verzehnfachung des Marktvolumens verzeichnete das Segment Robo Advice eine beachtliche durchschnittliche ­jährliche Wachstumsrate.

Auch das Bundesministerium für Wirtschaft hat sich im Rahmen einer offenen, nach dem Multistakeholder-Modell ablaufenden Konsultation mit Fragen von Algorithmen und Nutzungsrechten (Dateneigentum) beschäftigt sowie mit der Marktmacht digitaler Plattformen (Wettbewerbsrecht), die sich algorithmischer Prozesse bedienen. Die Ergebnisse dieser ­Konsultation wurden in einem Grünbuch und einem Weißbuch zu digitalen Plattformen zusammengefasst (vgl. den Beitrag von Joerg Heidrich zu Intermediären in Deutschland).

Die Fragen des Dateneigentums und des Wettbewerbsrechts werden derzeit von mehreren Bundesbehörden aus regulatorischer Sicht evaluiert. Zur Diskussion stehen vor allem drei Ideen:

  • gesetzliche Ausschließlichkeitsrechte an Daten zu schaffen oder zu stärken („Eigentum an Daten“)
  • mithilfe von Verträgen die Rechte an Daten zu klären
  • eine Stärkung der Datenzugangsrechte (Auskunftsrecht, Datenportabilität)

Auch die ethische Dimension der technologischen Entwicklung wird diskutiert. Ein Problem: Durch den Einsatz von ADM-Systemen kann sich die Nachvollziehbarkeit von Entscheidungen verschlechtern. Plädiert wird unter anderem dafür, dass offengelegt werden muss, wenn selbstlernende ­Algorithmen eingesetzt werden, um die Transparenz und Prüfbarkeit automatisierter Entscheidungen zu erhöhen, und dass sich in relevanten Fällen betroffene Unternehmen dazu verpflichten, ethische Standards einzuhalten.

Das Bundesministerium für Bildung und Forschung (BMBF) hat bereits 2014 das Berlin Big Data Center und das Competence Center for ­Scalable Data Services in Dresden aufgebaut. Die geförderte Forschung konzentriert sich auf Big Data in der industriellen Produktion, aber auch in den Lebens- und Geowissenschaften. Fragen des Datenschutzes, der Privatheit und der IT-Sicherheit begleiten die Vorhaben.

Das Bundesinnenministerium beschäftigt sich mit Fragen der automatisierten Entscheidungsfindung und Datennutzung im Rahmen der Anpassung der Datenschutz-Grundverordnung an nationales Recht. Dafür wurde eigens das neue Themenfeld „Datenpolitik“ geschaffen; erste öffentliche Multi­stakeholder-Expertenrunden zu Algorithmen und Automatisierung haben bereits stattgefunden. Darüber hinaus werden bei der Auswertung von Fluggastdaten (Passenger Name Records, PNR) zur Verfolgung terroristischer Anschläge Algorithmen eine Rolle spielen.

Auch die Polizei bedient sich automatisierter Verfahren beim Einsatz der sogenannten vorausschauenden Polizeiarbeit (predictive policing), um Eigentumsdelikte zu verhindern. In Bayern, Berlin, Hessen, Niedersachsen und Nordrhein-Westfalen sind derartige Systeme bereits im Einsatz, zum Teil in Probebetrieb. In Baden-Württemberg, Hamburg und Brandenburg gab oder gibt es Modellversuche und Machbarkeitsstudien.

Europäische Ebene

Auf europäischer Ebene verlaufen politische Diskussionen um die Automatisierung geteilt in zwei verschiedene Hauptthemen: Algorithmen und Robotik.

In der EU können Algorithmen nicht patentiert werden: „Programme für Datenverarbeitungsanlagen“ sind nach Artikel 52(2) des Europäischen Patentübereinkommens (EPÜ) von der Patentierung ausgeschlossen. Mit der EU-Verordnung zur europäischen Normung (1025/2012) wurden politische Rahmenbedingungen und Rechtsgrundlagen für die Standardisierung innerhalb der EU geschaffen. Die drei anerkannten europäischen Normungssysteme, das Europäische Komitee für Normung (CEN), das Europäische Komitee für elektrotechnische Normung (CENELEC) und das Europäische Institut für Telekommunikationsnormen (ETSI), haben zu diesem Zweck die „Europäische Normungsstrategie 2020“ entwickelt, um die Entwicklung von Standards voranzutreiben. Insbesondere die CEN besteht aus Experten aller Stakeholder-Gruppen (Industrieverbände, Konsumenten, aber auch andere Interessengruppen). Die dort entwickelten Normen haben zwar keinen bindenden Charakter; da alle drei Institutionen jedoch von der EU als Standardisierungsorgane anerkannt werden, haben diese Normen Gewicht.

Derzeit wird auch eine mögliche Regulierung von Robotern diskutiert; zur Analyse des Regulierungsbedarfs bei Algorithmen laufen ­derzeit ­Konsultationen. Ende 2016 präsentierte die EU-Abgeordnete Mady ­Delvaux einen Bericht mit Empfehlungen an die EU-Kommission, um ein Gesetzgebungsverfahren zur zivilrechtlichen Regulierung von Robotern anzustoßen. Vorgeschlagen wird die Gründung einer Europäischen Agentur; außerdem rechtliche Regelungen zu Fragen der Haftung, des geistigen Eigentums und des Datenflusses sowie der Standardisierung und Sicherheit von autonomen Fahrzeugen, von Drohnen, Pflegerobotern, medizinischen Robotern und Robotern für die „Reparatur und Optimierung des ­Menschen“. Der Bericht äußert Sorgen über die Folgen der Robotik für ­Bildung, Arbeitswelt und Umwelt und fordert Folgenabschätzungen. Er schlägt Maßnahmen vor, um intelligente Roboter einzustufen und zu registrieren, und eine Pflichtversicherung, um Probleme in Bezug auf Haftungsfragen zu lösen. Zu Interoperabilität, zum Zugang zu Programmiercode und geistigen Eigentumsrechten werden ebenso Empfehlungen ausgesprochen wie zu einer Charta zur Robotik samt Verhaltenskodex für Ingenieure.

Bereits jetzt sind EU-Gesetzestexte vorhanden, die sich mit der Regulierung von Robotern oder Algorithmen beschäftigen. Die neue Datenschutz-Grundverordnung widmet sich der Frage, unter welchen Umständen Mechanismen zur automatisierten Entscheidungsfindung von personenbezogenen Daten möglich sind (Art. 13.2 (f), Art. 14.2(g) und Art. 22). Der Europäische Datenschutzbeauftragte hat einen Ethikrat einberufen, der ihn dabei beraten soll, welche ethischen Folgen eine von Big Data und künstlicher Intelligenz gesteuerte Gesellschaft haben kann. Diese Gruppe ist interdisziplinär und vereint Vertreter verschiedener Stakeholder-Gruppen.

Auch die Richtlinie zu Märkten für Finanzinstrumente (2014/65/EU) fokussiert sich auf Anforderungen der Transparenz, der Sicherheit sowie von Erlaubnispflichten und Risikokontrollen bei Hochfrequenzhandel oder bei algorithmischem Handeln; ebenso die „Delegierte Verordnung“, durch die die Richtlinie 2014/65/EU um technische Regulierungsstandards zur Festlegung organisatorischer Anforderungen an Wertpapierfirmen ergänzt werden soll. Auch die Maßnahmen der EU-Kommission zum ­Internet der Dinge betreffen Algorithmen (siehe dazu der Beitrag von Jürgen Geuter in diesem Band).

Die Robotik wird von der EU bereits reguliert: Die Maschinenrichtlinie widmet sich unter anderem „unvollständigen Maschinen“. Dabei handelt es sich um Teilmaschinen, die universell einsetzbar sind und hauptsächlich in der Industrie verwendet werden (wie beispielsweise Schneid-, Lackier-, Sortierroboter in der Automobil- oder Pharmaindustrie). Einige zunächst rein technisch anmutende Kriterien, die in der Richtlinie enthalten sind, haben eine politische Dimension: So dürfen die Kriterien der Ergonomik nicht auf Größenparametern basieren, die nur der Norm eines männlichen Körpers entsprechen, da dies Frauen unmittelbar diskriminieren oder gar gefährden könnte.

Die EU-Kommission hat zudem Geld in die Erforschung möglicher Regulierung von Robotern investiert, etwa das Projekt RoboLaw, das die gesellschaftlichen Herausforderungen der verschiedenen Anwendungen der Robotertechnologien und deren zukünftige juristische Regulierung betrifft. Auch für die Erforschung und Entwicklung von Robotern haben EU-Kommission und Mitgliedsstaaten Milliardensummen ausgegeben. Die Anwendungsgebiete reichen von Grenzkontrollen (Drohnen, Unterwasserroboter, Bojen, Landroboter) über Medizin und Pflege bis zu Verkehr und Katastrophenhilfe.

Internationale Ebene

In Bezug auf gesetzliche Regulierungen sind die USA weltweit eines der wenigen Länder, die spezifische Robotergesetze entwickelt haben, im Fall der USA für Drohnen und autonome Autos.

Zugleich sind einige Initiativen, Firmenkonsortien und -allianzen sowie private Institutionen entstanden, die sich – in erster Linie unter der Überschrift „künstliche Intelligenz“ – der Selbstregulierung widmen. Diese Initiativen beanspruchen zwar meist eine internationale Ausrichtung, befinden sich aber hauptsächlich in der westlichen Hemisphäre. Um einige der prominentesten zu nennen: AI Now, eine interdisziplinäre Forschungsinitiative in New York, bringt namhafte Forscher aus ­Wirtschaft und Wissenschaft zusammen. Amazon, Facebook, Google, Microsoft und IBM haben 2016 Jahr die Partnership on AI gegründet, um Best Practices zum Einsatz künstlicher Intelligenz zu entwickeln und Öffentlichkeitsarbeit zu machen. Seit Anfang 2017 ist auch Apple Mitglied. Um einiges älter ist die International Federation of Robotics, der internationale Verband der Robotik-Industrie und Robotik-Forschungsinstitute sowie internationaler Dachverband aller nationaler Robotik-Verbände. Der Verband veröffentlicht die Statistik World Robotics über die Roboterinstallationen, Anwenderbranchen, Einsatzzwecke und Robotertypen in etwa 50 Ländern. Darüber hinaus veranstaltet er das traditionelle International Symposium on Robotics (ISR).

Die Praxis der Gründung von Konsortien und Allianzen von Wirtschaftsakteuren, um Best Practices oder Verhaltenskodizes und andere standardisierungsähnliche Mechanismen zu etablieren, ist ebenfalls im Themenfeld Internet der Dinge üblich (vgl. hierzu den Beitrag von Jürgen Geuter), sodass sich die Felder hier überschneiden, denn einige der internetfähigen Dinge (Things) sind komplexe algorithmische Systeme.

Eine weitere relevante Initiative ist Open AI, ein Non-Profit-Forschungsunternehmen für die Entwicklung menschenfreundlicher künstlicher Intelligenz, das vom Tesla-Gründer Elon Musk mit initiiert wurde. Open AI strebt Kooperationen mit anderen Institutionen und Forschern auf freiwilliger Basis an, indem Patente und Forschungsergebnisse öffentlich bereitgestellt werden. Daneben gibt es den Ethics and Governance of Artificial Intelligence Fund, eine Non-Profit-Organisation, die sich zum Ziel gesetzt hat, interdisziplinäre, teilweise normative Forschung und Debatten zur politischen und sozialen Dimension von künstlicher Intelligenz zu führen. Verwaltet wird der Fund vom MIT Media Lab, dem Berkman Klein Center an der Harvard-Universität und den Hauptspendern: eBay-Gründer Pierre Omidyar, Linkedin-Gründer Reid Hoffman und der Knight Foundation. In Deutschland gibt es seit vergangenem Jahr die Advocacy-Organisation AlgorithmWatch, die sich zum Ziel gesetzt hat, über gesellschaftliche Auswirkungen ­automatisierter Entscheidungsfindung aufzuklären und Regulierungsvorschläge zu entwickeln (Offenlegung: Autorin und Autor dieses Textes sind ­Mitgründer von AlgorithmWatch).

Auch internationale, nach dem Multistakeholder-Prinzip arbeitende Standardisierungsorganisationen wie das Institute of Electrical and Electronics Engineers (IEEE) haben eigene Initiativen entwickelt (wie die Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems) und im Dezember 2016 die Studie „Ethically Aligned Design“ veröffentlicht. Das IEEE arbeitet an einem Standard mit dem Namen „P7000“. Er soll im Entwicklungsprozess künstlicher Intelligenz Systemen helfen, ethische Faktoren explizit zu integrieren. Der US Public Policy Council der Association for Computing Machinery, einer weltweiten Organisation von Praktikern, Lehrenden und Forschern der Informatik, hat Anfang 2017 eine Stellungnahme und sieben Prinzipien zur Transparenz und Überprüfbarkeit von Algorithmen veröffentlicht.

Mit der ISO 13482 hat die Internationale Organisation für Normung (International Organization for Standardization, ISO) 2013 einen Standard für Haushalts- und Assistenzroboter verabschiedet. Vorarbeiten für die Entwicklung eines Standards bei Medizinrobotern haben begonnen, weitere Arbeiten sind noch notwendig. Die ISO fokussiert sich weiterhin auf die reine Sicherheitsnormierung für Roboter. Autonome Entscheidungen spielen dabei keine große Rolle in Sicherheitsstandards, da nach ISO nach dem derzeitigen Stand der Technik kein hoher Grad an Autonomie möglich sei. Die sensorischen Fähigkeiten beschränken sich nur auf vorgegebene Aufgaben. Es gibt kaum Verständnis für die Umgebung und keine Erfassung von Situationen und menschlichen Absichten.

Auch internationale Konferenzen erleben eine Politisierung. Der bekannte RoboCup-Wettbewerb, der ursprünglich als Wettbewerb für Roboterfußball gegründet wurde, avanciert mehr und mehr zu einem Kongress über Roboter mit einem gesellschaftlichen Mehrwert. So läuft parallel zum Fußballwettbewerb ein Kongress über die neuesten wissenschaftlichen Erkenntnisse zu künstlicher Intelligenz und Robotik. Auch in den Wettbewerbssparten gibt es neue Kategorien, die diese Weiterentwicklung reflektieren: neben Rescue-Wettbewerben gibt es auch Home- und Logistik-Wettbewerbe.

Wie einflussreich solche Initiativen und Foren sind, insbesondere mit Blick auf die oben genannten Konsortien und Allianzen, kann am Beispiel des Future of Life Institute verdeutlicht werden. Mit berühmten Förderern und Unterstützern wie Stephen Hawking und Elon Musk fokussiert sich das Institut auf die Entwicklung von ethischer künstlicher Intelligenz und ist führend in der politischen Debatte zur künstlichen Intelligenz und Politik. Musk und das Institut organisierten die Open Letter on Autonomous Weapons mit namhaften Unterzeichnern. Davor hatte der UN Rapporteur for Extrajudicial Executions für internationale Regeln in Bezug auf bewaffnete Roboter plädiert.

Ein Jahr nach Unterzeichnung des Briefes haben 89 Länder im Verlauf der UN International Convention on Conventional Weapons in Genf entschieden, mit Expertengruppen 2017 ein mögliches Verbot von autonomen Waffen und autonomen bewaffneten Robotern zu prüfen (“UN has decided to tackle the issue of killer robots in 2017”).

Dieser Beitrag ist der soeben veröffentlichten Publikation „Digitalpolitik – eine Einführung“ (PDF, 4,2 MB), entnommen, herausgegeben von Lorena Jaume-Palasí, Julia Pohle und Matthias Spielkamp. Der Text steht unter der Creative-Commons-Lizenz Namensnennung (CC BY 3.0)

Did you find apk for android? You can find new Free Android Games and apps.

Posted by Matthias Spielkamp

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.