Der Amazonas-Brand und die CO2-Bilanz von Amazon: 2019 im Rückblick

Der Hype um die Künstliche Intelligenz hat sich gelegt, die gesellschaftlichen Auswirkungen von ADM-Systemen wurden dadurch umso sichtbarer. Regierungen, Parlamente und auch die Zivilgesellschaft haben hart darum gerungen, die großen Tech-Konzerne in die Schranken zu weisen. Aber von einem tragfähigen gesellschaftlichen Ausgleich sind wir noch weit entfernt.

Blog

23. Dezember 2019

Read in English

Nicolas Kayser-Bril
Reporter

Zehntausend Quadratkilometer tropischen Regenwalds im gigantischen Amazonas-Delta, verbrannt allein in den ersten neun Monaten des Jahres, waren ein einprägsames Sinnbild für die Beschleunigung der Klimakatastrophe. Zugleich hat der unter demselben Namen bekannte Digital-Gigant, etwas höher im Norden angesiedelt, zum ersten Mal einen Bericht über seine CO2-Bilanz veröffentlicht. Zwischen den Zeilen konnte man herauslesen, dass der Cloud-Computing-Dienst von Amazon, der von zahlreichen Unternehmen genutzt wird, um selbstlernende Algorithmen zu trainieren, für etwa dreimal so hohe CO2-Emissionen pro Umsatzdollar verantwortlich ist wie alle sonstigen Geschäftszweige des Konzerns zusammen.

Klimakosten

Auch verschiedene wissenschaftliche Aufsätze haben im Laufe des Jahres 2019 auf das Ausmaß der Treibhausgasemissionen im Zusammenhang mit Künstlicher Intelligenz hingewiesen. Ein sogenannter „Transformer“, ein neurales Netzwerk, wie es zum Beispiel für automatische Übersetzungen verwendet wird, hat einer Untersuchung zufolge bei seinem Training im Januar über 300 Tonnen CO2 verursacht. Wenn die menschliche Zivilisation das 21. Jahrhundert überleben soll, darf jedoch auf jede·n Einzelne·n maximal eine Tonne CO2 jährlich kommen. So steht es in den Berichten des Weltklimarats (IPCC), dem mehrere tausend Wissenschaftler·innen angehören.

Der Hype um die Künstliche Intelligenz hat sich 2019 abgekühlt und das liegt nicht allein an den wachseneden Bedenken hinsichtlich der Klimafolgen. Im November hat das National Transportation Safety Board, die US-Verkehrsaufsichtsbehörde, ihren Bericht über einen tödlichen Unfall veröffentlicht, an dem ein Uber-Fahrzeug beteiligt war. Die Software, die das Auto steuerte, war anscheinend nicht in der Lage, Fußgänger zu erkennen, die auf der Straße gingen. Dass in naher Zukunft Massen an selbstfahrenden Autos die europäischen Straßen überschwemmen werden, ist vor dem Hintergrund dieser Unfalluntersuchung (und aufgrund einiger weiterer Rückschläge) wohl eher nicht zu erwarten.

Automatisierte Auswahl von Bewerber·innen

Andere Sektoren scheinen von solchen Rückschlägen weniger betroffen zu sein. Für das Personalmanagement bieten mittlerweile zahlreiche Firmen die automatisierte Bewertung von Bewerbungen an. Dabei werden aus Video- oder Text-Ausschnitten “psychometrische” Profile erstellt, mit denen sich angeblich die Leistung im Job vorhersagen lässt. Kritiker·innen wie Princeton-Professor Arvind Narayanan sprechen in diesem Zusammenhang allerdings von “raffinierten Zufallsgeneratoren”. AlgorithmWatch berichtete über einige Beispiele aus Deutschland.

Auch im öffentlichen Sektor ist ADM-Systeme auf dem Vormarsch, durchaus auch in Europa. Schon heute setzt beispielsweise in vielen Ländern die Polizei Gesichtserkennungstechnologie ein, etwa in Frankreich, dem Vereinigten Königreich, den Niederlanden und Deutschland. In den USA hat eine im Mai veröffentlichte Recherche gezeigt, dass Polizist·innen, wenn sie die Software dazu bringen wollen, einen Treffer auszuspucken, offenbar sehr weit gehen. Es gab einen Fall, bei dem ein Foto eines berühmten Schauspielers verwendet wurde, der dem Verdächtigen ähnlich sah, nachdem die Suche mit dem Originalbild ergebnislos geblieben war.

Unterstützungsleistungen

Nirgends verbreitet sich der Einsatz automatisierter Entscheidungssysteme derzeit so schnell wie im Bereich der Sozial- und Unterstützungsleistungen. Zum Teil werden Anträge auf solche Leistungen nicht mehr von Fallmanager·innen, sondern von Algorithmen bearbeitet, wie AlgorithmWatch an Beispielen aus Spanien, Österreich und Schweden zeigen konnte.

Unser im Januar veröffentlichter Bericht Automating Society gab erstmals einen Überblick über die Situation in 12 europäischen Ländern. Die zweite Ausgabe erscheint 2020. Die meisten Beispiele, die wir untersucht haben, weisen Defizite in Sachen Transparenz sowie bei Fragen der Verantwortlichkeit und Haftung auf.

Gegengewichte

2019 war aber auch das Jahr, in dem die Zivilgesellschaft allmählich ein Gegengewicht zu anderen Stakeholdern im ADM-Bereich entwickeln konnte. AlgorithmWatch, von ursprünglich sieben auf mittlerweile 13 Teammitglieder angewachsen, war beispielsweise an einer Recherche beteiligt, die dazu führte, dass eine zweifelhafte Software für die Auswahl von Bewerber·innen in Finnland mittlerweile nicht mehr angeboten wird.

In den Niederlanden gab es eine Klage mehrerer gemeinnütziger Organisationen gegen die Regierung, wegen des Einsatzes einer Software namens SyRI. Es handelt sich um ein Tool, das auf Basis einer Analyse multipler Datenquellen automatisch Personen herausfischt, die möglicherweise Sozialbetrug begehen.

Niederländische Richter·innen werden sich wohl eher nicht gegen SyRI aussprechen, erfuhr AlgorithmWatch von Mercedes Bouter. Die Juristin ist auf Rechtsfragen im Zusammenhang mit dem Schutz der Privatsphäre im Tech-Bereich spezialisiert. Bouter geht aber davon aus, dass der Europäische Gerichtshof für Menschenrechte die Software als Werkzeug für eine “unverhältnismäßige Überwachung” einstufen würde. Ihr Einsatz würde dann einen Verstoß gegen Artikel 8 der Europäischen Menschenrechtskonvention darstellen (Recht auf Achtung des Privat- und Familienlebens).

Sollte es dazu in den nächsten Jahren tatsächlich kommen, hätte das auch Auswirkungen auf andere bereits anhängige Fälle. In Schweden hat beispielsweise die Gewerkschaft SSR ein Verfahren gegen die Stadt Trelleborg eingeleitet, die einen Algorithmus bei Entscheidungen über staatliche Unterstützungsleistungen für Bedürftige einsetzt. Die verwendeten Daten stammen unter anderem aus Steuerbescheiden, aus Beschäftigungsnachweisen oder von Verkehrsunternehmen. Dies dürfte dann ebenfalls als “unverhältnismäßige” Datensammlung und damit als Verstoß gegen den erwähnten Artikel 8 angesehen werden, so Mercedes Bouter.

Register

Ein erster Schritt auf dem Weg zu einer besseren Kontrolle von ADM-Systemen könnte darin bestehen, sie in ein Verzeichnis aufzunehmen. Verpflichtende Register algorithmischer Systeme, die in der öffentlichen Verwaltung zum Einsatz kommen, werden auch von AlgorithmWatch befürwortet. In den Niederlanden hat die Zweite Kammer des Parlaments bereits im September einem entsprechenden Antrag zugestimmt, die Regierung soll in den kommenden Monaten einen Vorschlag machen.

In einem nächsten Schritt müssten effiziente Kontrollmechanismen entwickelt werden, im öffentlichen oder auch im privaten Bereich. Sowohl in Frankreich als auch in Deutschland liegen dafür Vorschläge vor, wobei zum Teil eher an kleine Task Forces, zum Teil auch an größere Aufsichtsbehörden gedacht wird.

Konkret ist das alles noch nicht, aber die neue Europäische Kommission hat die “KI Regulierung” zu einer ihrer Prioritäten erklärt. 2020 werden im Bereich automatischer Entscheidungsfindung also voraussichtlich wichtige Weichen gestellt.

Übersetzung: Ilja Braun