Want create site? Find Free WordPress Themes and plugins.

In der ZEIT vom 2. März ist unsere Antwort auf Steven Hill erschienen, der den Verzicht auf Automatisierung und andere digitale Technologien gefordert hat („You’re fired!“ Es gibt digitale Technologien, die man einfach verbieten muss.). Wir dokumentieren den Text hier in voller Länge (er lässt sich hier auch bei Zeit Online lesen).

Als vor einigen Monaten aufflog, dass Facebook sogenannte beliebte Artikel (trending articles) nicht von einem Algorithmus auswählen ließ, sondern von einer Gruppe Journalisten, war die Aufregung groß. »Urteile, die von Menschen getroffen werden, können niemals als wertneutral angesehen werden«, kommentierte etwa ein Experte des Guardian. Seltsam. Computercode dagegen wäre also wertneutral?

Das ist naiv. Wir wissen beispielsweise, dass Suchen nach afroamerikanisch klingenden Namen auf Google öfter Werbung für Auskunftsdienste auslöst, die Personen auf eine mögliche kriminelle Vergangenheit überprüfen, als wenn nach »weiß« klingenden Namen gesucht wird. Jobsuchmaschinen wiederum zeigen Frauen eher Angebote für schlecht bezahlte Stellen an als Männern.

Nein, Technologie ist weder gut noch böse, noch ist sie neutral. An dieses »Erste Gesetz der Technologie« des amerikanischen Technikhistorikers Melvin Kranzberg (1917 bis 1995) sollte man sich in der Diskussion über Big Data, künstliche Intelligenz und maschinelles Lernen wieder erinnern. Technologie wird niemals außerhalb eines gesellschaftlichen Zusammenhangs entwickelt und eingesetzt. Sie ist stets das Resultat eines Prozesses, in dem Menschen Urteile darüber treffen, was wünschenswert ist, wofür Ressourcen eingesetzt werden und wer von neuen Technologien profitieren soll.

Nehmen wir die verbreiteten Systeme zur automatisierten Entscheidungsfindung oder -vorbereitung (automated decision making, ADM). In ihnen werden Entscheidungsmodelle in Rechenverfahren (Algorithmen) übersetzt, die dann eine – üblicherweise sehr große – Datenbasis analysieren, um daraus eine Aktion oder einen Handlungsvorschlag abzuleiten. So ein Algorithmus kann beispielsweise ein Filter sein, der entscheidet, welche E-Mail als unerwünschte Werbung aussortiert wird. Er könnte auch eine festgelegte Folge von Prüfungen sein, nach deren Ablauf jemand als terroristischer Gefährder eingeordnet wird. Jedem einzelnen Schritt, der notwendig ist, um ein solches System zu entwickeln, liegen Werturteile zugrunde. Das beginnt mit dem Entschluss, dass ein ADM-System überhaupt zu einem bestimmten Zweck entwickelt werden soll, setzt sich fort mit der Entscheidung, welche Daten die Analysegrundlage darstellen, und hört nicht auf mit der Ausarbeitung des Modells, das dem Algorithmus zugrunde liegt. Jede dieser Entscheidungen beruht auf einem Weltbild. Das macht sie nicht per se gut oder schlecht, aber es sollte klar sein, dass wir hier nicht von einem neutralen Prozess sprechen können, bloß weil das Ergebnis maschinenlesbarer Code ist und der Computer sich nicht verrechnet.

Software ist eben jedes Mal die Übersetzung von sozialen Interessen, Wünschen und Konventionen in eine formale Sprache, die maschinelle Aktionen steuert. Damit ist aber ein entscheidender Schritt getan: Die Vorstellungen der Softwareentwickler, die sie von Vorgängen und Interaktionen in der Welt haben, werden durch die Automatisierung verallgemeinert. Nicht nur das, sie werden auch festgeschrieben: Die Entwickler entwerfen ihr Regelwerk zu einem bestimmten historischen Zeitpunkt und unter bestimmten politisch-ökonomischen Bedingungen.

Sind Menschen von ADM betroffen, bedeutet dies zugleich: Sie werden nach der Datenspur bewertet, die sie hinterlassen. Die Person wird sozusagen an ihrer Vergangenheit festgenagelt. Sie verliert auch die Deutungshoheit über diese Vergangenheit, die haben vielmehr die Techniker hinter dem Algorithmus und der Datenbank. Es ist zwar legitim, derartige Verfahren zu nutzen, um Erkenntnisse zu erlangen; problematisch wird es aber, wenn ADM zur einzigen Methode der Beobachtung, Erklärung und Prognose menschlichen Verhaltens wird. Institutionen und Unternehmen, die sich ausschließlich Algorithmen bedienen, um Verhalten zu prognostizieren, sprechen dem Menschen seine Lernfähigkeit ab.

Es fragt sich, wie darauf politisch zu reagieren ist. In seinem Artikel „You’re fired!“ Es gibt digitale Technologien, die man einfach verbieten muss. (ZEIT Nr. 8/17) schreibt Steven Hill, der Vormarsch neuer digitaler Technologien, kombiniert mit Internet-basierten Crowdsourcing-Plattformen, lege den Schluss nah, dass zum ersten Mal in der jüngeren Geschichte die »kreative Zerstörung« durch Technologie und Innovation eher destruktiv sein werde. Was, fragt Hill, wenn »smarte« Maschinen und Roboter jeden Job ausüben könnten und kein Mensch je wieder einer Erwerbsarbeit nachgehen müsste? Wer würde die Früchte dieses Produktivitätsfortschritts ernten? Wir alle? Oder eine Handvoll »Masters of the Universe« – die Besitzer und Manager dieser Technologien? Alles ungeklärt, »und dennoch steuern wir blind darauf zu und fragen nicht einmal, ob wir diese Technologien nicht strenger regulieren sollten. Ob wir sie womöglich aufhalten sollten, ist noch weniger Gegenstand einer Debatte.« Als Beispiele für Technologien, die wir bereits als Bedrohung menschlicher Gesellschaften identifiziert haben, nennt der Autor atomare und chemische Waffen, das Klonen und die Verwendung von Anabolika im Sport. Die seien schließlich bereits stark reguliert oder sogar schlicht verboten.

Was er beschreibt, sind konkrete Ausformungen ganzer Technologiefelder. Indessen würden wir als Gesellschaft wohl kaum auf die Idee kommen, sämtliche Technologien zu verbieten, die auf Erkenntnissen der Physik, Chemie oder des Ingenieurwesens beruhen, obwohl auf dieser Basis auch Atom- und Chemiewaffen produziert werden. Wir ächten das reproduktive Klonen von Menschen, aber schon beim therapeutischen Klonen ist es mit der Einigkeit vorbei, und niemand würde darauf verfallen, die Gentechnologie insgesamt zu verbieten. Auch die in bestimmten Sportarten verbotenen Anabolika sind lediglich eine kleine Unterklasse der Steroide. Und an Steroiden wird aus gutem Grund intensiv geforscht, denn in Form zahlreicher Medikamente, etwa Cortison-Präparate, lindern sie die Leiden vieler Patienten.

Was genau will Hill also »stark regulieren« oder gar verbieten, wenn er von neuen digitalen Technologien spricht – etwa die Entwicklung von Algorithmen und ihren Einsatz? Sie sind seit Langem fester Bestandteil der Welt, in der wir leben; selbst die Arbeit an künstlicher Intelligenz wurde bereits vor mehr als einem halben Jahrhundert begonnen. Lediglich das Crowdsourcing von Arbeit in globalem Maßstab ist eine neue Entwicklung. Digitale Technologien sind außerdem derart breite Forschungs- und Einsatzfelder, bis hin zur Grundlagenforschung, dass unklar bleibt, was Hill denn da beschränken möchte und wie er sich das vorstellt.

Stattdessen liefert er eine aktualisierte Beschreibung des sogenannten Paradies-Paradoxons, das der russisch-amerikanische Wirtschaftsnobelpreisträger Wassily Leontief noch im vergangenen Jahrhundert formuliert hatte: »Die Geschichte des technologischen Fortschritts der letzten 200 Jahre ist im Grunde die Geschichte der menschlichen Rasse, wie sie langsam, aber sicher versucht, den Weg zum Paradies wiederzufinden. Was würde allerdings geschehen, wenn ihr dies gelänge? Alle Güter und Dienstleistungen wären verfügbar, ohne dass dafür Arbeit notwendig wäre, und niemand würde einer Erwerbsarbeit nachgehen. Nun heißt arbeitslos sein auch, keinen Lohn zu empfangen; also würden die Menschen, wenn sie auf die neue Situation nicht mit einer neuen Politik der Einkommensverteilung reagieren würden, im Paradies verhungern.«

Mit einiger Plausibilität kann man – wie Hill es tut – vermuten, dass die Produktivitätsgewinne digitaler, internetbasierter Technologien diese Entwicklung beschleunigt haben. Nur: Warum sollten wir die Frage, wer etwa von automatisierten Entscheidungssystemen profitieren kann und darf, als eine Frage der Technologieregulierung diskutieren, anstatt sie als das zu formulieren, was sie ist: als eine Frage der gerechten Verteilung von Ressourcen?

Gerade automatisierte Entscheidungsmechanismen und solche zur Entscheidungsvorbereitung bieten eine Vielzahl von Chancen, unsere Gesellschaften zu verbessern. Diese ADMs erledigen schon heute eintönige Tätigkeiten, Navigation im Verkehr zum Beispiel, und räumen damit mehr Zeit für sinnvollere Aktivitäten frei. Sie erhöhen die Sicherheit im Verkehr, etwa in Form von Autopiloten, ohne die der heutige hochfrequente Flugverkehr unmöglich wäre. Sie schonen außerdem Ressourcen, indem sie Routen vorschlagen, auf denen Lkw am wenigsten Sprit verbrauchen.

Vor allem aber, und das wird für viele überraschend klingen: Sie machen durchaus mehr Fairness und Gerechtigkeit möglich – etwa indem sie dazu beitragen, ungerechtfertigte Diskriminierung aufzudecken und zu verhindern. Vergegenwärtigen wir uns, dass in menschliche Entscheidungen immer wieder sachfremde Motive eingehen. So muss beispielsweise ein Bewerber mit einem türkischen Namen – statistisch gesehen – bei gleicher Qualifikation etwa anderthalbmal so viele Bewerbungen schreiben wie ein Mitbewerber mit einem deutschen Namen, bis er zum Vorstellungsgespräch eingeladen wird. Das ist das Ergebnis der Studie Diskriminierung am Ausbildungsmarkt, die im Auftrag des Sachverständigenrats deutscher Stiftungen für Integration und Migration erstellt wurde. Anderes Beispiel: Richter bewilligen mehr Bewährungsanträge direkt nach ihrer Essenspause, als wenn die letzte Mahlzeit lange zurückliegt. Und für Entscheidungen von Ärzten, Managern oder Bankern spielt auch schon mal das Wetter eine Rolle.

Dieser Art von Diskriminierungen oder inkonsistenten Entscheidungen durch Menschen kann man mit dem Einsatz von auf Algorithmen basierten Systemen nicht nur besser auf die Spur kommen, man kann sie auch einschränken. Ein Beispiel dafür sind Start-ups wie das kalifornische Gap Jumpers, das Arbeitgebern seine softwarebasierte blind audition-Bewerberauswahl zur Verfügung stellt. Bei dieser Methode spielen die Fähigkeiten der Kandidaten eine stärkere Rolle als die Frage, an welcher Universität sie ihren Abschluss gemacht haben, womit sie ihre Freizeit verbringen oder ob sie eine Behinderung haben. In den Firmen, die mit Gap Jumpers arbeiten, wurden 60 Prozent der nicht weißen, nicht männlichen, körperlich eingeschränkten Bewerber zu einem Bewerbungsgespräch eingeladen. Vorher waren es, den Angaben von Gap Jumpers zufolge, nur 20 Prozent gewesen.

Um von derartigen Technologien zu profitieren, ist eine Vorstellung davon nötig, nach welchen Prinzipien wir diese Systeme einsetzen wollen, sowie dafür, wie wir Fehlentwicklungen prüfen und korrigieren können. Unsere Organisation AlgorithmWatch fordert daher, Nutzern überhaupt erst einmal mitzuteilen, dass Prozesse algorithmischer Entscheidungsfindung oder -vorbereitung zum Einsatz kommen. Diese Prozesse müssen nachvollziehbar gestaltet sein.

Das kann im Zweifel bedeuten, dass die Nachvollziehbarkeit nur für eine Gruppe von vertrauenswürdigen Experten hergestellt wird, denn die Komplexität erlaubt es oft nicht, sie einer allgemeinen Öffentlichkeit verständlich zu machen. Betroffene müssen das Recht zum Widerspruch oder zur Richtigstellung haben. Derartige Ideen werden weltweit diskutiert, viele müssen sicherlich noch präzisiert werden – in einem Dialog all jener, die solche Systeme entwickeln, verkaufen, einsetzen und nutzen: Wissenschaft und Softwareentwickler, Unternehmen, Zivilgesellschaft, Regierungen und die öffentliche Verwaltung. Foren, in denen das geschehen kann, müssen überwiegend erst geschaffen werden. Andere lassen sich bereits nutzen: Ethikkommissionen etwa wie diejenige des Bundesverkehrsministeriums zum autonomen Fahren oder Wissenschafts-, Technik- und Politikkonferenzen, Diskussionsformate in den Medien, Ausschüsse und Debatten im Bundestag.

Von Systemen zur Prognose von Verbrechen für die Polizei bis zur automatisierten Auswertung von Fluggastdaten – auf vielen Gebieten wird die Gesellschaft hart darum kämpfen müssen, zu erfahren, welche Technologien zu welchem Zweck eingesetzt werden und wie sie funktionieren. Wir Bürger müssen das alles wissen, um zu entscheiden, ob wir mit dem Einsatz einer Technologie einverstanden sind, ob wir versuchen sollten, ihren Einsatz zu regulieren oder sogar ihren Einsatz zu verbieten.

Eine der Gefahren des Modellierens von Prozessen zur Entscheidungsfindung liegt darin, Stellvertreterdaten zu verwenden. Weil man keine exakten Daten zu einer bestimmten Variablen finden kann, etwa zum Verhalten einer Personengruppe, behilft man sich mit Daten über andere Variablen, die eine Näherung erlauben. So verwenden bestimmte Systeme einzig die Notenentwicklung der Schüler als Kriterium, um die Qualität von Lehrern zu beurteilen – obwohl jeder weiß, dass die Fähigkeiten der Lehrerinnen und Lehrer nur einer von sehr vielen Einflussfaktoren für die Leistungen von Schüler sind. Doch genauso, wie sich Modellentwickler davor hüten sollten, Stellvertreterdaten zu verwenden, sollten wir uns davor hüten, Technologien als Stellvertreter misslungener Politikentscheidungen zu verwenden. Sowenig Algorithmen für die Finanzkrise verantwortlich sind, so wenig sind sie es für die Präsidentschaft Donald Trumps oder den Aufstieg der AfD.

Ein Verbot darf in einer freiheitlichen Gesellschaft immer nur die Ultima Ratio sein. Das Ziel eines Verständigungsprozesses über den Einsatz von Technologien sollte darin bestehen, zu entscheiden, wie viel Freiheit wir durch automatisierte Prozesse hinzugewinnen wollen und welchen Preis wir dafür zu zahlen bereit sind. Dann werden wir in der Lage sein, die Gefahren technischer Entwicklungen zu erkennen und einzudämmen, zugleich aber von ihrem Nutzen zu profitieren.

Die Autoren, Lorena Jaume-Palasí, Lorenz Matzat, Matthias Spielkamp und Katharina Anna Zweig, sind Gründer der NGO AlgorithmWatch (AlgorithmWatch.org).

Sie möchten auf dem Laufenden bleiben darüber, was bei AlgorithmWatch passiert? Abonnieren Sie unseren Newsletter.

Did you find apk for android? You can find new Free Android Games and apps.

Posted by AlgorithmWatch

7 Comments

  1. Dr. Katharina Ibrahim 4. März 2017 at 12:09

    Auf den gesellschaftlichen Kontext auch dieser aktuellen Technologie-Entwicklung zu verweisen, ist wertvoll und notwendig. Und ich bin ganz bei Ihnen, dass es aus diesem Grunde mit Verboten und Restriktionen nicht viel zu erreichen gibt. Ob allerdings demokratische Prozesse des Aushandelns von Ziel und Zweck tatsächlich steuernd auf die Richtung der technologischen Entwicklung einwirken können, ist aus meiner Sicht erst noch zu beweisen – im wahrsten Wortsinne, es ist für mich eine absolut unbewiesene These.

    Antworten

  2. […] Zur Vertiefung der technischen Seite nochmals hier der Link auf die BCG-Studie. Interessant ist auch folgender Debattenbeitrag zu diesem Komplex von der Website Algorithmwatch! […]

    Antworten

  3. Bernward Bergmann 8. März 2017 at 12:27

    Automatische Entscheidungssysteme zur „Verbesserung der Gesellschaft“?
    Replik auf den digitalen Naivismus der NGO „AlgorithmWatch“

    1. Wer seine Hoffnung zur Abwendung von Fehlentwicklungen beim Einsatz von ADM auf eine „Gruppe von vertrauenswürdigen Experten“ setzt, weil Bürger selbst nicht mehr in der Lage seien, diese Eingriffe in ihre Lebensvollzüge beurteilen zu können, belegt damit nur, dass diese Entwicklung sich bereits außerhalb demokratischer Kontrolle abspielt.

    2. Wer von „Freiheitsgewinn durch automatisierte Prozesse“ in einer freiheitlichen Gesellschaft spricht, ignoriert die Tatsache, dass in einem neoliberalen Wirtschaftssystem mit Freiheit immer Deregulierung der Märkte und nicht Schutz der Bürgerrechte gemeint ist.

    3. Wer zwar richtig erkennt, dass „Software die Übersetzung sozialer Interessen in Maschinensprache“ bedeutet, um dann aber anhand trivialer Beispiele den Nutzen von ADM zu bewerben, will offenbar vom eigentlichen Problem ablenken: dass jede Softwareentwicklung zuvorderst ein Geschäftsmodell ist, nämlich die Übersetzung von Geschäftsinteressen in Maschinensprache und dass deren Einsatz sich nach Marktgesetzen und Renditeerwartungen richtet und nicht nach dem Bürgerwohl. ADM-Systeme konkurrieren miteinander, ihr Kapital und
    Betriebsgeheimnis ist der Algorithmus. Es ist aus systemimmanenten Gründen eine völlige Illusion, hier einen (nationalen) werteorientierten gesellschaftlichen Diskurs einzufordern, der in gesetzliche Regelungen mündet, die am Ende Betroffenen Widerspruchsrechte einräumen.

    4. Wer bei der Diskussion um automatische Entscheidungssysteme nicht zwischen der Bewertung sachbezogener Daten (z.B. bei der Navigation) und der Beurteilung von personenbezogenen Daten unterscheidet, hat das Problem der juristischen und der moralischen Verantwortung in
    Entscheidungsprozessen nicht verstanden und möchte nicht über
    Technologieregulierung diskutieren. Verantwortung kann nicht an Automaten delegiert werden, ein Entscheider muss Gründe angeben können. Die Möglichkeit, zukünftig aus Effizienzerwägungen algorithmengesteuerte Systeme in die Vorbereitung von juristischen, medizinischen und ökonomischen Entscheidungsfindungsprozessen einzubeziehen, macht die solchermaßen „verbesserte Gesellschaft“ nicht
    gerechter, sondern verantwortungsloser und unmenschlicher. Der
    Flugsicherung dürfen keine Fehler unterlaufen, aber bei Abwägungs-, Beurteilungs- und Einschätzungsfällen gehen Gewissenhaftigkeit, Empathie und Menschenkenntnis vor Effizienz und Automatisierung. Das schließt auch fehlerhafte Beurteilungen mit ein, nicht obwohl, sondern weil Irren menschlich ist.

    5. Bei totalitären Systemen wird treffend von ‚Apparaten‘ gesprochen, die undurchschaubar Macht ausüben. ADM und vergleichbare KI-Systeme sind längst massenhaft im Hintergrund im Einsatz und werden mit der Durchdigitalisierung der Gesellschaft mehr und mehr Einfluss auf und
    Kontrolle über Entscheidungsleistungen übernehmen. Es geht den
    Technologieprofiteuren à la longue auch nicht darum, Maschinen immer menschenförmiger zu machen und damit „ein Paradies der Erwerbslosen“ zu schaffen, sondern umgekehrt, die Menschen immer maschinenförmiger, vorhersehbarer, programmierbarer zu machen. ADM ist der sichere Weg, um in liberalen Gesellschaften Menschen auf Entscheidungen (Kaufentscheidungen, Wahlentscheidungen, Jobentscheidungen, etc.) vorzubereiten und sie so widerstandslos in einen ‚Apparat‘
    einzupassen, der einen totalitären Einfluss ausübt. Das Argument,
    Digitalisierung entlaste Menschen von eintönigen Tätigkeiten und
    lässt ihnen „mehr Zeit für sinnvollere Aktivitäten“, wird in seinem
    Zynismus erst erkennbar, wenn Menschen und ihre Arbeitsleistung wie beim ‚Crowdsourcing‘ nur noch als Datensätze aufgefasst und ‚behandelt‘ werden.

    6. ‚AlgorithmWatch‘ und ‚NGO‘: Name und Attribuierung erwecken den Anschein, aufklärerische Absichten zu verfolgen und suggerieren Unabhängigkeit und demokratische Kontrolle. Die Organisation befördert mit ihrer Verteidigung und Befürwortung kontrollierender Systeme und der illusorischen Einforderung gesetzlicher ‚Leitplanken‘ aber genau das Gegenteil: Autonomieverluste der Bürger. Man fragt sich unwillkürlich, welche und wessen Interessen dahinter stecken.

    Antworten

  4. Sehr geehrter Herr Bergmann,

    zu 1: Aus gutem Grund haben Demokratien das Konzept der Repräsentation entwickelt: “ultra posse nemo obligatur”: Über das Können hinaus wird niemand verpflichtet. Um Algorithmen verstehen und “tricksen” zu können, muss man sehr qualifiziert sein; normalerweise setzt das eine gute Ausbildung und viele Jahre Berufserfahrung voraus.

    Wir verlangen nicht von den Bürgern, dass sie mit einem Chemiebaukasten im Supermarkt die Lebensmittel selbst überprüfen (genauso wenig den Airbag im Auto). Das sind keine Allgemeinkenntnisse. Vom Bürger zu verlangen, darüber zu urteilen, wäre nicht nur für den Bürger kaum machbar, sondern unfair. Genau dasselbe trifft bei Algorithmen zu. Unsere Gesellschaft ist höchst spezialisiert und komplex. Deswegen haben wir eine repräsentative Demokratie. Dies schließt die Möglichkeit der Übertragung von Entscheidungen auf Experten ein, soweit die Legitimationskette zu den Volksvertretern gewahrt wird und sie der demokratischen Kontrolle unterliegt. Eine repräsentative Demokratie versucht, bei komplexen Situationen das Richtige zu wählen und die Gefahr des Populismus zu lindern.

    Der Bürger kann selbstverständlich moralisch differenzieren, aber um Gesetze und Algorithmen subsumieren und die Folgen abschätzen zu können, bedarf es einer langjährigen Ausbildung oder Erfahrung. Es braucht mehr als gesunden Menschenverstand. Algorithmen sind auch regelmäßig zu komplex, als dass jederzeit eine Parallelwertung in der Laiensphäre erfolgen könnte. Diese kann als Korrektiv für Expertenentscheidungen dienen, sie aber nicht ersetzen.

    Zu 2: Freiheit und ungezähmter Kapitalismus kommen nicht Hand in Hand. Das immanente Konzept der Freiheit im Kommentar ist ideologisch verbrämt: Warum sollte Freiheit unmoralischer, menschenunwürdigen Kapitalismus bedeuten? Was ist denn die Alternative zur Freiheit? Was ist mit der sozialen Marktwirtschaft, die das kontinentale Europa geprägt hat? Ist sie weniger freiheitlich? Seit wann ist Freiheit regulierungsfrei? Ganz im Gegenteil, alle Demokratien haben einen negativen Freiheitsbegriff als gemeinsamen Nenner. Anders ausgedrückt: Die Freiheit einer Demokratie ist durch Ausnahmen und Verbote gut eingegrenzt.

    Was die Korrelation zwischen Bürgerrechten und Freiheit angeht: Wir dürfen uns nicht in die Tasche lügen. Eins haben alle befriedeten Gesellschaften gemein: Es gibt keinen Frieden und keine Menschenrechte dort, wo es nichts zum Essen und kein Dach über dem Kopf gibt. Frieden setzt in aller Regel ökonomische Prosperität voraus. Wirtschaftliche Profite generell als Feind der Menschenrechte zu deklarieren ist unsachlich und naiv. Dies heißt nicht, dass nur wirtschaftlicher Profit Menschenrechte bringt. Es soll nur heißen, dass das eine das andere nicht ausschließt und ausschließen darf.

    Zu 3: Wenn zugestanden wird, dass Interessen und Weltvorstellungen in Algorithmen formalisiert werden, dann kann zwei Sätze später dieses Zugeständnis nicht einfach so zurückgenommen werden: Algorithmen werden nicht nur von Firmen verwendet. Der Staat und NGOs verwenden Algorithmen ebenfalls. Algorithmen können ethische, politische, wirtschaftliche oder sogar narzisstische Interessen formalisieren. Sie beinhalten Weltansichten: Die Algorithmen, die von einem weißen männlichen Programmierer entwickelt werden, sind verschieden von den Algorithmen, die eine afroamerikanische Frau programmiert. Ethik oder Moral bedeuten sinngemäß, die “Regel eines Hauses”. Die Programmierung eines Algorithmus reflektiert regelmäßig mehr als nur die ökonomische Vorstellung eines Unternehmens. Es verrät die Konventionen und Erwartungen einer ganz bestimmten Kultur. Eine Reduktion auf reine ökonomische a-kulturelle Interessen ist unterkomplex und lässt Probleme des Ethnischen und weiterer Minderheiten mehrheitlich außen vor.

    Zu 4: Auch hier muss differenziert werden: die kontextuelle Personenbeziehbarkeit fast aller Daten macht die Unterscheidung zwischen personenbezogenen und nicht personenbezogenen Daten mehr und mehr obsolet – wie etliche Verfassungsrechtler im akademischen Diskurs seit über zwanzig Jahren anmerken. Es gibt kaum ein Datum, das nicht einer Person attribuiert und auf sie bezogen werden kann. Automatisierung birgt Diskriminierungsgefahren, keine Frage. Aber auch menschliches Verhalten hat
    ein hohes Diskriminierungspotential. Dabei spielt nicht nur Rassismus oder Sexismus eine Rolle. Auch Inkohärenz ist ein Faktor mit ethischen Folgen: Menschen, die je nach Wetter oder Laune ihre Entscheidungen so oder so fällen, verursachen ungerechte Situationen. Eine Lehrerin, die nach Sympathie die Examensklausuren benotet, wird vielleicht weder rassistisch, noch sexistisch agieren, aber sie wird trotzdem Ungerechtes produzieren. Ein Jobcenter-Mitarbeiter einem “Hartz IV”-Antragsteller gegenüber ebenfalls. Algorithmen können beispielsweise diese zwei letzten Situationen vermeiden. Sie sehen über die Schönheit oder Sympathie der Antragsteller und Klausurabsolventen hinweg. Es ist seit vielen Jahrzehnten nicht nur wissenschaftlich, sondern mittlerweile sogar allgemein anerkannt, dass der Mensch inkohärentes Verhalten (oder kognitiv dissonantes) Verhalten aufweist. Angesichts dessen ist es schleierhaft, warum Algorithmen nicht als Assistenz und faktische Kohärenz-Stützte genutzt werden sollten, wenn das anerkanntermaßen einer ihrer Mehrwerte ist.

    Zu 5: Die vorhandenen Zahlen und Kenntnissen zeigen, dass nur wenige große Institutionen in der Lage sind, Automatisierungsverfahren zu nutzen. Sie sind in der Regel zu kostspielig für Mittelstand und Kleinunternehmen – sowie für Regierungen mittelloser Länder. In unserer Gesellschaft nutzen wir Wörter wie Verantwortung und Freiheit, weil davon ausgegangen wird, dass der Mensch einen freien Willen hat und nicht alles glaubt, was er/sie liest. Entweder hat das Wort Verantwortung einen Sinn und es existiert folglich der freie Wille, oder es gibt keine Verantwortung und Maschinen können deterministisch alle manipulieren (einschließlich der Manager eines Unternehmens) – somit trägt niemand irgendeine Schuld. Wir glauben jedoch, dass das Wort Verantwortung kein überflüssiges Wort ist.

    Zu 6: Bis vor kurzem war AlgorithmWatch eine Initiative ohne Rechtsform; inzwischen sind wir eine gemeinnützige GmbH (i.G.). Dahinter “stecken” die Interessen derjenigen, die hier auf der Website als Initiatoren genannt sind und die diese Initiative ehrenamtlich betreiben. Sollte AlgorithmWatch in Zukunft Förderung bekommen, werden wir das transparent ausweisen – egal, von wem sie stammt. Bisher ist das nicht der Fall. Ihre Annahme, dass gut begründete Einschätzungen, die der eigenen widersprechen, nur deshalb existieren und geäußert werden, weil verdeckte Interessen dahinter stehen, sagt einiges über Sie und Ihre Weltsicht aus, aber nichts über AlgorithmWatch.

    Antworten

    1. Bernward Bergmann 15. März 2017 at 11:39

      Mit einem unspezifisch verwendeten Freiheitsbegriff dürfte man in dieser Debatte nicht weiterkommen, ohne in Ideologie zu verfallen. Vielmehr könnte die von Ihnen angesprochene Komplexität gesellschaftlicher Verhältnisse und die Versuche, sie mittels digitalisierter Systeme zu bewältigen, ein Ansatzpunkt sein, um sich zu fragen, wie die Effizienzansprüche der Wirtschaft und die Autonomieansprüche der Bürger so zur Geltung gebracht werden können, dass am Ende noch von einer liberalen Gesellschaft gesprochen werden kann.

      Man könnte annehmen, digitale Werkzeuge werden erfunden und verbreitet, um Menschen in den Stand zu versetzen, zunehmend komplexe Anforderungen zu bewältigen. Wir wollen den Spieß einmal umdrehen. Digitale Werkzeuge erlauben es, Menschen immer komplexeren Anforderungen auszusetzen, sie damit regelmäßig zu überfordern und so von der Nutzung dieser Werkzeuge abhängig zu machen.

      Was ist passiert? Diese Anforderungen fallen nicht vom Himmel. Digitalisierung eröffnet in einer auf zunehmende Differenzierung und Individualisierung ausgerichteten Gesellschaft in allen Lebensbereichen neue Märkte (vom Stromanbieter- über den Gesundheits- bis zum Heiratsmarkt) und zwingt die Menschen als jeweilige Marktteilnehmer in hochkomplexe Situationen hinein. Das gilt natürlich mehr noch als im privaten im beruflichen Sektor, wo der Konkurrenzdruck vor allem durch eine Ausweitung der Märkte gesteigert ist.

      Systeme sind bekanntlich dann von Komplexität überfordert und in ihrer Stabilität gefährdet, wenn sie nicht in der Lage sind, die Informationen ihrer Umwelt durch Bündeln oder Clustern zu reduzieren und ihre eigene Informationsverarbeitung, also ihre internen Kommunikationsstrukturen zu reorganisieren, um dem Möglichkeitsüberschuss Herr zu werden. Das bedeutet, um handlungsfähig zu bleiben sind die Marktteilnehmer auf die Assistenz von Algorithmen angewiesen, die sowohl Umweltinformationen als auch Entscheidungsfindungsprozesse strukturieren. Man könnte auch davon sprechen, dass hinsichtlich der ‚reflexiven Freiheit‘, nämlich eigene Absichten, Ziele, Vorlieben zu verfolgen und ebenso der ’sozialen Freiheit‘, dies in wechselseitiger Abstimmung mit anderen zu tun, dramatische Einbußen drohen, bzw. bereits zu beklagen sind, wenn automatisierte Systeme unverzichtbarer Bestandteil der Handlungsfähigkeit geworden sind.

      Dass Autonomieverluste womöglich gar nicht wahrgenommen und Autonomieansprüche gar nicht mehr formuliert werden, mag dem Getriebensein von Marktmechanismen und Gefangensein in Konsum- und Effizienznormen geschuldet sein. Es kann aber auch als Hinweis gedeutet werden, dass die Balance zwischen Ökonomie und Liberalität verloren gegangen ist.

      Antworten

  5. Peter Jeitschko 10. März 2017 at 13:50

    Ich finde sowohl den Artikel als auch die Antwort von Herrn Bergmann spannend. Die Authoren des Artikels begehen meiner Meinung nach schon zu Beginn den Fehler zu behaupten, dass Algorithmen nicht frei von menschlichem Einfluss sein können. Abgesehen von trivialen regelbasierten Entscheidungssystemen steht hinter Algorythemen Mathematik/Statistik. Hier zu behaupten, diese Systeme seinen menschlich beeinflusst wäre genauso, als ob man behaupten würde, dass sich jemand aus einer Gefühlsanwandlung heraus einfallen hat lassen, dass 1+1=2 ist. Darüber hinaus halte ich es wie Herr Bergmann für sinnvoll, zwischen der Verabeitung personenbezogener Daten und rein maschinell erzeugten Daten zu unterscheiden. Es gibt unzählige Big Data Anwendungen in unterschiedlichsten Lebensbereichen, bei denen personenbezogene Daten überhaupt gar keine Rolle spielen – warum sollte man diese Anwendungen also mit sinnlosen Datenschutzbestimmungen regulieren? Der Satz „Institutionen und Unternehmen, die sich ausschließlich Algorithmen bedienen, um Verhalten zu prognostizieren, sprechen dem Menschen seine Lernfähigkeit ab“ ist ziemlich naiv. Es ist doch eine Tatsache, dass Menschen nicht lernfäig sind – zumindest nicht im Sinne einer konsitenten Entscheidungsfindung. Selbst die Geschichte zeigt, dass Menschen nicht lernfähig sind – sonst wäre die Welt doch heute eine ohne Kriege oder?

    Antworten

  6. Was mir etwas zu kurz kommt: Volkswirtschaftlich wird das eine riesige Herausforderung, denn wenn kaum noch jemand Einkommen bekommt, werden auch keine Produkte mehr nachgefragt. Sobald in einer Branche ein Unternehmen KI einsetzt, muss die Konkurrenz nachziehen um vergleichbare Leistung zu bringen. Wir erleben also zum Ende der relativ kurzen, 250jährigen Epoche des Kapitalismus erstmals die Entkoppelung von Arbeit und Geld.

    Ich zitiere mal den – und das muss man sich reintun – sich selbst als „geschockt von den Möglichkeiten“ bezeichnenden Google Gründer Sergey Brin, der nach acht Jahren Abstimenz in Davos vor der versammelten Mannschaft der globalen Industrieelite vorsichtig formuliert: “I would hope that, as some of the more mundane tasks are alleviated through technology, that people will find more and more creative and meaningful ways to spend their time.”

    Was viele ünerraschen wird: Das ist eine sehr Positive Nachricht. Denn seit Menschengedenken Arbeiten wir ja am Ende der Arbeit – und am Neustart des Wortbegriffes Beruf in seinem eigentlichen Sinn „Berufung“. Mit Verboten aber kommt man da wirklich nirgendwo hin. 😄

    Antworten

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.