Anhörung zu „Künstlicher Intelligenz“ des Ausschusses Digitale Agenda: unsere Antworten

Allgemein


auf das Video klicken, um die Aufzeichnung anzusehen

Matthias Spielkamp vertritt heute AlgorithmWatch als Sachverständiger im Fachgespräch zu künstlicher Intelligenz und Robotik des Ausschusses Digitale Agenda, das von 16 bis 18 Uhr im Sitzungssaal E 700 des Paul-Löbe-Hauses in Berlin stattfindet. Es wird auf Bundestag.de live übertragen. Hier unsere Antworten auf den Fragenkatalog der Fraktionen.
Weiterlesen

Lieber Rechte als Verbote. Eine Antwort auf Steven Hill

Essay

In der ZEIT vom 2. März ist unsere Antwort auf Steven Hill erschienen, der den Verzicht auf Automatisierung und andere digitale Technologien gefordert hat („You’re fired!“ Es gibt digitale Technologien, die man einfach verbieten muss.). Wir dokumentieren den Text hier in voller Länge (er lässt sich hier auch bei Zeit Online lesen).

Als vor einigen Monaten aufflog, dass Facebook sogenannte beliebte Artikel (trending articles) nicht von einem Algorithmus auswählen ließ, sondern von einer Gruppe Journalisten, war die Aufregung groß. »Urteile, die von Menschen getroffen werden, können niemals als wertneutral angesehen werden«, kommentierte etwa ein Experte des Guardian. Seltsam. Computercode dagegen wäre also wertneutral?

Das ist naiv. Wir wissen beispielsweise, dass Suchen nach afroamerikanisch klingenden Namen auf Google öfter Werbung für Auskunftsdienste auslöst, die Personen auf eine mögliche kriminelle Vergangenheit überprüfen, als wenn nach »weiß« klingenden Namen gesucht wird. Jobsuchmaschinen wiederum zeigen Frauen eher Angebote für schlecht bezahlte Stellen an als Männern.
Weiterlesen

Zeitforum Wissenschaft: Die Macht der Algorithmen

Allgemein

Am 23. Februar hat Matthias Spielkamp für AlgorithmWatch beim Zeitforum Wissenschaft in der Berlin-Brandenburgischen Akademie der Wissenschaften über die „Macht der Algorithmen“ diskutiert. Seine Gesprächspartner waren

  • Prof. Verena V. Hafner, Professorin für Adaptive Systeme am Institut für Informatik an der Humboldt-Universität zu Berlin
  • Prof. Michael Pauen, Institut für Philosophie Berlin, School of Mind and Brain an der Humboldt-Universität zu Berlin
  • Prof. Martin Grötschel, Präsident der Berlin-Brandenburgischen Akademie der Wissenschaften.

Das Gespräch wurde moderiert von Andreas Sentker, Leiter Ressort Wissen, DIE ZEIT, und Uli Blumenthal, Ressortleiter „Forschung aktuell“, Deutschlandfunk. Hier kann man die Diskussion in voller Länge hören:

Von links nach rechts: Michael Pauen, Verena Hafner, Matthias Spielkamp, Martin Grötschel; Bildnachweis: Finja Nisse

Es gibt keine digitalen Grundrechte

Essay

bl_ballads_bench_bar1
Der Vorschlag für eine EU-Charta digitaler Grundrechte hat eine intensive Debatte entfacht. Neben positiven Kommentaren, vor allem durch die Initiatoren und Unterzeichner selbst, gibt es Kritik, vor allem am Zustandekommen der Charta und der Art, wie sie in der Öffentlichkeit platziert wurde und wird. Wir fokussieren uns hier auf inhaltliche Fragen, die  die Themen „automatisierte Entscheidungen“, „Algorithmen“ und „künstliche Intelligenz“ betreffen, die in der Charta eine große Rolle spielen.

Unser Fazit: Gut gemeint ist auch hier das Gegenteil von gut gemacht. Was es derzeit braucht, ist keine Digitalcharta mit zweifelhaftem Freund-Feind-Schema, sondern eine intensive und fundierte Auseinandersetzung mit den technischen Entwicklungen und ihren gesellschaftlichen Auswirkungen. Mehr Mittel für Forschung, Analyse, Exploration und Einordnung sind notwendig. Europa hat kein Defizit an Grundrechten, sondern an Erkenntnissen.

Die viel kritisierten USA machen vor, mit welchen Mitteln man sie erlangen kann, etwa dem AI Now Report, einem Bericht zu künstlicher Intelligenz, für den Wissenschaftler und Vertreter zivilgesellschaftlicher Organisationen mit politischen Beamten des Weiße Hauses zusammengearbeitet haben, oder dem „Nationalen Strategiepapier zur Erforschung und Entwicklung künstlicher Intelligenz“ des National Science and Technology Council (Link). Daran sollten sich europäische Politikerinnen und Politiker ein Beispiel nehmen, statt populistische Charta-Entwürfe zu diskutieren.

Hier unsere – als vorläufig zu verstehende – Analyse im Detail:

Durch neue Technologien stellen sich bekannte gesellschaftliche Probleme nicht selten auf neue Art dar. Wir nehmen sie in einem neuen technischen Kontext als neuen Konflikt wahr. Selten werden diese Konflikte von den Technologien selbst verursacht. Eine fortschreitende Digitalisierung der Gesellschaft beeinflusst etwa das Verhältnis von Privatem und Öffentlichem, das sich im Laufe der Geschichte immer wieder gewandelt hat. Sie beeinflusst die Kriterien, nach denen das Private und das Öffentliche reguliert werden: Geographische Bedingungen, auf die sich ethische und juristische Betrachtungen beziehen, sind nunmehr ungeeignete Merkmale. Die Wohnung oder der Marktplatz sind nicht genug, um die Grenzen zwischen Öffentlichem und Privatem zu ziehen: Auch vom Schlafzimmer aus kann man im digitalen Zeitalter öffentlich kommunizieren, etwa über Social Media.

Unsere Vorstellung von Raum wird dadurch nicht geändert (ein Wohnzimmer ist ein Wohnzimmer ist ein Wohnzimmer), aber die Möglichkeiten (Reichweite, Zugang) und Risiken darin verändern sich. Dies kann eine grundlegende Verunsicherung mit sich bringen, da die Faktoren für unsere tägliche Beurteilung von Risiken nicht mehr funktionieren. Das hat im vergangenen Jahrzehnt zu der falschen Annahme geführt, neue Grundrechte wären aufgrund der Digitalisierung notwendig, weil die üblichen räumlichen Kriterien zur Ausübung dieser Grundrechte nicht mehr sinnvoll verwendet werden können.

Diese Sicht ist aus mehreren Gründen verfehlt.
Weiterlesen

1. Fallstudie: Sollte soziale Netzwerkanalyse in der Polizei zur Analyse von Bandenstrukturen verwendet werden?

Fallstudie

11085281435_6d58da07e4_z

AlgorithmWatch hat es sich zur Aufgabe gemacht, Algorithmen zu bewerten, die im Rahmen von algorithmisch unterstützten Entscheidungsprozessen genutzt werden. Dabei geht es uns vor allen Dingen um solche Algorithmen, die lebensentscheidende Konsequenzen haben können, insbesondere natürlich solche, die Bürgerrechte betreffen. Dazu gehören auch alle Arten von Algorithmen, die im Rahmen von Polizei- und Geheimdienstarbeit genutzt werden – von denen wir als Bürger aber auch naturgemäß wenig wissen. In dieser Fallstudie untersuche ich die Verwendung von sozialer Netzwerkanalyse von kriminellen Bandenstrukturen in der Polizeiarbeit wie sie in Großbritannien in einer Studie untersucht wurde und komme zu dem Schluss, dass sie nicht zur quantitativen Analyse verwendet werden sollte, aber zur Hypothesenbildung beitragen kann. Eine Zusammenarbeit mit Expertinnen und Experten der Netzwerkanalyse ist dabei unabdingbar. Weiterlesen

Algorithmentransparenz

Essay

schaarDieser Beitrag von Peter Schaar stammt aus dem Jahrbuch 2015 Informationsfreiheit und Informationsrecht. Er wurde uns freundlicherweise vom Autor und dem Verlag des Jahrbuches, lexxikon, zur Verfügung gestellt. Peter Schaar ist Vorsitzender der Europäischen Akademie für Informationsfreiheit und Datenschutz und war von 2003 bis 2013 Bundesbeauftragter für Datenschutz und Informationsfreiheit.

Informationsfreiheit und Informationsrecht Jahrbuch 2015 – Link
Berlin 2016, 332 Seiten, € 78,00
ISBN 978-3-86965-281-8
Herausgegeben von Alexander Dix, Gregor Franßen, Michael Kloepfer, Peter Schaar, Friedrich Schoch, Andrea Voßhoff und der Deutschen Gesellschaft für Informationsfreiheit

Foto: Alexander Kling (2013) – CC:by – Link

I. Einleitung

Big Data-Ansätze, die auf der Sammlung, Zusammenführung und Auswertung großer Datenmengen beruhen, beinhalten erhebliche Risiken für das Recht auf informationelle Selbstbestimmung. Sie sind mit den bisherigen, auf die jeweiligen Daten fokussierten datenschutzrechtlichen Auskunftsansprüchen nicht hinreichend zu beherrschen. Rechtliche Verpflichtungen zur Offenlegung der bei der Verarbeitung und Bewertung verwendeten Algorithmen können dazu beitragen, diskriminierende Praktiken zu erkennen und negative Auswirkungen des Profilings zu vermeiden.

II. Die Big Data-Gesellschaft

Nach den von Gordon Moore 1965 formulierten Erkenntnissen verdoppelt sich die Verarbeitungskapazität elektronischer Komponenten regelmäßig („Moore’sches Gesetz“) bei unveränderten Komponentenkosten(1). So verdoppeln sich die Kapazitäten von Speichermedien, die Verarbeitungsgeschwindigkeit von Prozessoren alle 18 bis 24 Monate – bei unverändertem Preis. Die IT-Akzeleration hat dramatische Folgen: Bereits heutzutage haben elektronische Komponenten analoge Systeme in nahezu allen Bereichen der Kommunikations-, Antriebs-, Mess- und Steuerungstechnik ersetzt. Informationen werden heute fast durchgängig digital erfasst, gespeichert, übertragen und ausgewertet. Die digital gespeicherte Informationsmenge übersteigt den Umfang der konventionell gespeicherten Informationen um ein Vielfaches(2). Rein mengenmäßig spielen analog erfasste Informationen kaum noch eine Rolle.
Weiterlesen

Einschätzung zur neuen „Partnership on AI“

News

coaguline

Die vorgestern von fünf großen Konzernen verkündete „Partnership on AI“ muss man als Vorwärtsverteidigung und Gründung eines neuen Lobbyverbands verstehen. Acht Grundsätze („tenets“) verkünden Alphabet (Google & Deep Mind), Amazon, Facebook, IBM und Microsoft. Die sind in Teilen redundant – die ersten drei Grundsätze enthalten die Kernpunkte, die dann in den folgenden fünf Punkten ausgeführt werden: Im wesentlichen stellen die Unternehmen fest, dass sie Künstliche Intelligenz (A.I.) entwickeln wollen, die der Menschheit dient und ihr nicht schadet. Weiter will man sich Feedback und Fragen aus der Öffentlichkeit stellen. Drittens sei man offen für Forschung sowie einen Dialog über ethische, soziale und wirtschaftliche Fragen. Weiterlesen

Statusbericht

zum Projekt

11130870514_61ac00880e_o

Einige Monate ist unsere Initiative AlgorithmWatch nun alt. Die positive Resonanz auf unsere Gründung hat uns gefreut. Denn sie belegt, dass nicht nur wir uns die Frage stellen, wie eine Gesellschaft mit automatisierten, auf Algorithmen basierten Entscheidungen umgehen soll. Wir sind als Initiative bereits zu Tagungen und Diskussionsveranstaltungen eingeladen worden, auf denen wir uns mit anderen vernetzt haben, die die gleichen Ziel verfolgen.

Wir haben die letzten Wochen vor allem mit zwei Dingen verbracht: Einen ersten Workshop vorzubereiten, der jetzt im September stattfinden wird und der Frage nachgehen soll, welche Algorithmen überhaupt „gewatchted“ werden sollten (siehe dazu auch diese Sammlung). Zentral wird dafür sein, eine Kategorisierung von ADM (algorithmic decision making) zu entwickeln und ethische Kriterien entlang dieser Kategorien zu formulieren. Besagter Workshop wird durch das Bucerius-Lab der ZEIT-Stiftung unterstützt; es ist das erste Ergebnis von diversen Gesprächen mit potenziellen Geldgebern, die wir führen. Letztlich geht es darum, unserem Manifest und „Mission Statement“ Taten folgen zu lassen.

Zum anderen arbeiten wir daran, AlgorithmWatch einen institutionellen Rahmen zu geben; es wird voraussichtlich auf eine gemeinnützige Gesellschaft hinauslaufen. Wir werden es uns nicht leisten können, sofort eine Geschäftsstelle zu etablieren. Aber wir schauen uns derzeit nach einem Mitarbeiter/ einer Mitarbeiterin um, der/die uns beim Tagesgeschäft und der Website unterstützen kann, aber auch bei der Weiterentwicklung von Themenfeldern, Antragstellung und mehr.

Neben Verweisen auf die Arbeiten anderer, haben wir eine Studie unseres Kooperationspartners Nick Diakopolous  (et al.) übersetzt und veröffentlicht, daneben zwei erste Arbeitspapiere von Katharina Zweig – eine erste Studie folgt in den nächsten Tagen.

Wir schauen also guten Mutes auf die Zeit nach der Sommerpause. Wir hoffen, bald erste Schritte beim praktischen „watchen“ von algorithmenbasierten Entscheidungsprozessen zeigen zu können.

Weiterhin freuen wir uns über Feedback, Kritik und Kooperationsanfragen und wünschen Euch noch einen schönen Spätsommer.

2. Arbeitspapier: Überprüfbarkeit von Algorithmen

Arbeitspapier

Unser zweites Arbeitspapier „Überprüfbarkeit von Algorithmen“ stellt zuerst die fünf möglichen Klassen von Fehlverhalten von Algorithmen vor, aus denen minimale Kriterien an die Transparenz von Algorithmen abgeleitet werden können, um Überprüfbarkeit zu ermöglichen.mikro

Alle Begriffe (kursiv fett gesetzte Worte) werden in der Begriffsklärung  weiter unten erläutert. Das Arbeitspapier schließt mit dem Verweis auf weiterführende Literatur.

Der Text steht unter einer Creative Commons-Lizenz (Creative Commons License CC BY 4.0 Prof. Dr. K.A. Zweig, AlgorithmWatch.org) .


Überprüfbarkeit – Fehlerquellen – Transparenz

Von der Entwicklung eines Algorithmus bis zu seiner Anwendung und den Handlungen, die auf seinen Ergebnissen basieren, sind oftmals eine große Menge verschiedener Subjekte beteiligt (s. Abbildung 1): Die meisten Algorithmen werden von Wissenschaftlern entwickelt, entweder im akademischen Bereich, im öffentlichen Dienst oder in Firmen. Dies sind entweder Wissenschaftler, die aus einem bestimmten Fachgebiet kommen und für die ihnen vorliegenden Daten neue Analysemethoden entwickeln, z.B. BioinformatikerInnen, oder es sind MathematikerInnen und InformatikerInnen, die ganz allgemein mathematische Probleme mit Hilfe von Algorithmen lösen.

Weiterlesen