Want create site? Find Free WordPress Themes and plugins.

von Minna Ruckenstein & Lorenz Matzat

Es klingt absurd, in Finnland keinen Kredit zu bekommen, weil man Finnisch spricht. Doch in Finnland spricht das Establishment Schwedisch; Die Angabe von Finnisch als Erstsprache führte bei einem Finnen daher offenbar dazu, dass der Finanzdienstleiter Svea Ekonomi AB* seinen Kreditantrag ablehnte. Der Mann, der anonym bleiben will, ist zwischen 30 und 40 Jahre alt und lebt in einer ländlichen Gegend Finnlands. Er gab als Erstsprache Finnisch an, als er 2015 Baumaterialien im Internet auf Kredit erwerben wollte. Als ihm der Kredit verweigert wurde und er Svea Ekonomi nach dem Grund dafür fragte, wurde ihm erklärt, die Entscheidung beruhe auf der Bewertung durch einen externen Scoring-Dienstleister.

Der Betroffene beschwerte sich beim zuständigen Ombudsmann, einer unparteiischen Schiedsperson. Der stellte nach Einsicht in interne Unterlagen von Svea Ekonomi fest, dass der Mann den Kredit erhalten hätte, wenn er Schwedisch gesprochen hätte, er eine Frau oder älter als 50 Jahre gewesen wäre. Denn das statistische Modell habe nicht sein individuelles Verhalten berücksichtigt, sondern ihn lediglich aufgrund seiner Sprache, seines Wohnorts, Alters und  Geschlechts beurteilt und somit diskriminiert. Die Bank räumte zwar ein, dass die Regelung diskriminierend für den Betroffenen wirken könne, wies die Vorwürfe aber zurück. Der Ombudsmann leitete schließlich ein Verfahren ein und rief das entsprechende Gericht** (Tribunal für Nichtdiskriminierung und Gleichstellung) an.

Das Gericht untersagte Svea Ekonomi, auf Basis des von ihr eingesetzten statistischen Modells Personen einen Kredit zu verweigern, und verhängte eine Strafe von 100.000 Euro. Begründung: Svea Ekonomi AB habe gegen Gleichheitsgrundsätze der Verfassung – Geschlechtergerechtigkeit und Freizügigkeit –, aber auch gegen das Antidiskriminierungsgesetz verstoßen.

Die Begründung des Gerichts: Entsprechende Kreditentscheidungen dürfen nicht allein auf Modellen basieren, die auf Wahrscheinlichkeitsberechnungen beruhen, die aus Statistiken über Verhalten und Charakteristika von Anderen abgeleitet werden (“models formed on the basis of probability assessments created with statistical methods using the behaviour and characteristics of others, to the individual applying for the credit in the credit  decision in such a way that assessment is solely based on such models”).

Folgt man dieser Ansicht, würde das bedeuten, dass für die Kreditvergabe nur Scores verwendet werden dürfen, die auch Informationen zum Zahlungsverhalten konkreter Personen beinhalten. Liegen solche Informationen über eine Person nicht vor, könnte zwar ein Score errechnet werden, der aber nicht als Entscheidungsgrundlage dafür dienen dürfte, ob ein Kredit vergeben wird.

Hier ist fraglich, wie eine Bewertung von Personen aussehen könnte, über die noch keine Informationen zum individuellen Zahlungsverhalten vorliegen – z.B. junge Menschen oder Zugezogene, etwa auch Migranten. Je nachdem, wie etwa Banken und Telekommunikationsunternehmen entscheiden, diese Personen zu behandeln, könnte eine Benachteiligung dieser Bevölkerungsgruppe die Folge sein – etwa, indem sie sie mangels anderer verwertbarer Informationen grundsätzlich als eher riskante Kunden klassifizieren.

Auch wenn man davon ausgeht, dass Finnisch sprechende junge Männer erwiesenermaßen häufiger ihren Zahlungsverpflichtungen nicht nachkommen als Angehörige anderer Gruppen, etwa Schwedisch sprechende ältere Frauen (was von Ombudsmann und Tribunal nicht bezweifelt wird), kann man dennoch nicht davon ausgehen, dass hier eine Kausalität vorliegt – dass sie es also tun, weil sie Finnisch sprechende junge Männer sind. Es ist vielmehr wahrscheinlich, dass gesellschaftliche Verhältnisse vorliegen, die zu diesem Verhalten führen. Hier wäre also zu diskutieren, ob Firmen, die Scoring-Modelle entwickeln oder verwenden, die die Pflicht haben sollten, vorhandene gesellschaftliche Diskriminierung zu mildern oder sie zumindest nicht zu verstärken. Diese Frage muss allerdings der Gesetzgeber beantworten; und das nicht nur in Finnland.

Eine Beschreibung des Falles und die Begründung des Urteils finden sich – auf Englisch – auf der Website des Gerichts.

Dieser Beitrag wurde ermöglicht durch die Förderung der Bertelsmann Stiftung

 

 

Dieser Artikel ist ein Auszug aus dem Report Automating Society – Taking Stock of Automated Decision Making in the EU, der im Januar 2019 erscheint. Darin untersucht AlgorithmWatch in Zusammenarbeit mit Reaseachern aus zwölf EU-Mitgliedstaaten, welche Systeme automatisierter Entscheidungsfindung (ADM) in Europa zum Einsatz kommen und welche Maßnahmen für ihre Regulierung in den jeweiligen Ländern existieren oder diskutiert werden. Der Report entsteht in Zusammenarbeit mit der Bertelsmann-Stiftung und wird gefördert von Open Society Foundations.

 

* Svea Ekonomi AB ist ein schwedisches Unternehmen, das sogenanntes Factoring als Dienstleistung anbiete. Beim Factoring wird u.a. die Bonität von Kunden geprüft. Weitere Information zum Unternehmen und zu Factoring auf der deutschen Website von Svea Ekonomi AB.
** Beim finnischen Tribunal für Nichtdiskriminierung und Gleichstellung handelt es sich nicht um ein Gericht im Sinne des deutschen Rechtssystems. Das Tribunal ist gleichwohl  eine ” unparteiische und unabhängige Justizbehörde, die von der Regierung ernannt wird” und wird in diesem Artikel als Gericht bezeichnet.
Did you find apk for android? You can find new Free Android Games and apps.

Posted by AlgorithmWatch

Leave a reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.