Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung

Aktuelle ethische Debatten über die Folgen von Automatisierungsprozessen konzentrieren sich auf die Rechte von Individuen. Doch algorithmisch gesteuerte Prozesse haben eine kollektive Dimension. Wie kann man ihr besser gerecht werden? Ein Vorschlag.

Laden Sie hier das Arbeitspapier als PDF herunter.

Von Algorithmen gesteuerte, automatisierte Entscheidungsprozesse (automated decision-making, ADM) nehmen schon heute breiten Raum in unserer Gesellschaft ein. Diese Entwicklung steht gerade erst an ihrem Anfang. In wenigen Jahren werden alle Bürgerinnen und Bürger täglich auf die eine oder andere Art von Entscheidungen dieser Systeme betroffen sein. Automatisierung wird alle politischen und rechtlichen Felder erfassen.

Die gegenwärtige ethische Debatte um die Folgen von Automatisierung fokussiert auf individualrechtliche Aspekte. Jedoch weisen algorithmische Prozesse, die die Automatisierung vor allem ausmachen, primär eine kollektive Dimension auf. Diese kann nur partiell individualrechtlich adressiert werden. Die bestehenden ethischen und rechtlichen Kriterien sind aus diesem Grund für eine allgemeine Betrachtung nicht geeignet oder zumindest unzulänglich. Sie führen daher zu begrifflichen Vermischungen, wie etwa bei den Themen Privatheit und Diskriminierung, indem Informationen, die potentiell für illegitime Diskriminierung missbraucht werden können, als private Informationen deklariert werden.

Unser Beitrag versucht hier zum einen, Ordnung in die Debatte zu bringen, damit diese Vermischungen in Zukunft vermieden werden können. Zum anderen befassen wir uns mit ethischen Kriterien der Technik, die als allgemeine abstrakte Prinzipien auf alle gesellschaftlichen Kontexte anzuwenden sind.

Allerdings ist die Frage der Ethik immer eine Frage des Handelns und der Verantwortung für dieses Handeln – und folglich unabdingbar von einer strukturellen und situativen Kontextualisierung abhängig: So können die Regeln, die für den Staat gelten, kaum für den Bürger gelten. Diese Differenzierung, die klassisch in der Ethik und im Konstitutionalismus verwendet werden, fehlt bislang in der Debatte über Automatisierung.

Das vorliegende Arbeitspapier will mit einer Taxonomie einen Beitrag für eine differenzierte ethische und rechtliche Debatte leisten. Diese Taxonomie ist sowohl auf die Frage des Handelns, als auch auf die Frage der Dimensionen potentieller Schäden in der Automatisierung fokussiert.

Zunächst wird der Bedarf für eine technikneutrale Ethik begründet. Darauf folgend wird die Frage des Handelns und Entscheidens in der Automatisierung betrachtet und schließlich eine Taxonomie vorgeschlagen, die als Struktur die verschiedenen Risiken und Konflikten adäquater einordnet und damit eine differenzierte Entwicklung ethischer Kriterien ermöglicht. Als Kategorien schlagen wir Individualgüter und gesellschaftliche Güter vor, wobei gesellschaftliche Güter wiederum unterteilt sind in den gesellschaftlichen Rahmen und Kollektivgüter.

Diese Taxonomie strukturiert das Öffentliche als Dimension in ihrer Gänze als komplexe Struktur, die sich nicht auf Meinungen und Informationen reduzieren lässt, sondern einerseits Kollektivgüter erfasst und andererseits individuelle und kollektive Interaktionen betrachtet. Somit wird eine bessere ethische Kontextualisierung für die Ausarbeitung differenzierter ethischer Kriterien angeboten, die eine technikneutrale, an Werten orientierte Betrachtung wieder in Mittelpunkt stellt.

[su_note note_color=„#c6f7ca“ text_color=„#a7000c“]Download des Arbeitspapiers als PDF.[/su_note]

Update 6. Juni 2017: Der vergangene Woche veröffentlichten Version fehlte leider das Literaturverzeichnis. Wir bitten den Fehler zu entschuldigen.

Die Entstehung dieses Arbeitspapiers wurde durch ein Fellowship des Bucerius Labs der ZEIT-Stiftung Ebelin und Gerd Bucerius ermöglicht.

Abonniere jetzt unseren Community Newsletter!


Mehr Informationen findest du in unserer Datenschutzerklärung.