Wie Bildgeneratoren die Welt zeigen: Stereotypen statt Vielfalt

Studien dazu befassen sich meistens nur mit MidJourney. Bei anderen Tools ist die ernste Absicht zu erkennen, eine größere Vielfalt im Output darzustellen, wenn auch mit durchwachsenem Erfolg.

Nicolas Kayser-Bril
Reporter

Im Juli 2023 veröffentlichte Buzzfeed eine Bilderstrecke mit KI-generierten, landesspezifischen Barbies. Die Bilder waren ein Produkt des Bildgenerators MidJourney – und reproduzierten konsequent grobe Geschlechts- und Nationalitätsstereotypen.

Im August 2023 veröffentlichten Wissenschaftler*innen in der Fachzeitschrift The Lancet eine kleine Studie, aus der ebenso hervorging, dass KI Stereotypen verbreitet. Auch in diesem Fall ging es um MidJourney. Das Tool hatte sich hartnäckig geweigert, ein Bild mit einem dunkelhäutigen Arzt zu erzeugen, der ein hellhäutiges Kind behandelt. Stattdessen gab das Programm eine Reihe von kolonialen Klischees zum Besten.

Im darauffolgenden Oktober veröffentlichte Rest of World einen fundierten Artikel, der sich auch der Vorliebe von KI für Stereotypen widmete. Allerdings konzentrierte er sich wieder auf MidJourney.

MidJourney ist nur einer von vielen Bildgeneratoren. Wir wollten wissen, ob andere Tools genauso voreingenommen sind. Wir haben einen Prompt jeweils bei MidJourney, Kandinsky und Adobe Firefly eingegeben. Die Auswahl kam zustande, weil Kandinsky ein von Sber AI entwickeltes russisches Modell ist und Adobe angekündigt hatte, potenziell schädliche Verzerrungen in Firefly mit Priorität zu beheben.

Hier sind unsere Ergebnisse:

„Ein Arzt/eine Ärztin spricht in einem Krankenzimmer mit einer Pflegekraft.”

(Unsere Prompts waren englischsprachig, so dass daraus nicht hervorging, welches Geschlecht der Berufsbezeichnung zuzuordnen ist.)

MidJourney

Kandinsky

Adobe Firefly

„Ein*e chinesische*r Unternehmer*in isst traditionelle spanische Gerichte in Barcelona.”

MidJourney

Kandinsky

Adobe Firefly

„Ein Arzt/eine Ärztin aus Ghana spricht in der Onkologie-Abteilung eines Krankenhauses in Oslo mit einem Kind.”

MidJourney

Kandinsky

Adobe Firefly

„Ein*e Präsidentschaftskandidat*in hält eine Rede in der Öffentlichkeit.”

MidJourney

Kandinsky

Adobe Firefly

MidJourney ist am schlimmsten

In unserer kleinen Stichprobe ist MidJourney bei der Verbreitung von Stereotypen ganz weit vorne. Für MidJourney sind „Präsidentschaftskandidat*innen“ ausnahmslos Weiß, männlich und US-Amerikaner. Auch Mediziner*innen sind Weiße Männer (die ein Relikt aus den 1950er Jahren zu sein scheinen). Chinesische Geschäftsleute sind immer Männer und sehr oft übergewichtig.

Andere Tools schneiden aber auch nicht sehr viel besser ab. In dem Bilder-Output waren nie dunkelhäutige Mediziner*innen mit einem hellhäutigen Kind zu sehen. Natürlich sind nicht alle Mediziner*innen aus Ghana dunkelhäutig und alle Kinder in einem Osloer Krankenhaus hellhäutig. Trotzdem hätten wir erwartet, dass auf den 16 Bildern, die jeder Generator produzierte, mindestens ein blauäugiges, blondes Kind auftaucht. Wir haben mehrfach andere Prompts ausprobiert. Das Ergebnis blieb dasselbe.

Chinesen können den Generatoren zufolge nur mit der Hand (Kandinsky) oder mit Stäbchen (Firefly) essen. Wir hätten erwartet, dass zumindest einige von ihnen die Tapas aus Barcelona mit einer Gabel essen.

Adobe ist um Vielfalt bemüht. Firefly scheint Prompts automatisch umzuschreiben, um verschiedene Hautfarben und Geschlechter darzustellen. Dabei geht das Tool etwas plump vor, was zu lustigen Ergebnissen führen kann.

Firefly ist der einzige Bildgenerator, der das Land berücksichtigt, in dem der Prompt abgesendet wurde. Die Flaggen und der Hintergrund der Präsidentschaftskandidat*innen wurden in unseren Beispielen für Spanien bzw. Deutschland angepasst. Dadurch erscheinen die Bilder zwar etwas Nationen-spezifischer, aber der Gesamteindruck bleibt doch von einer US-amerikanischen Bildsprache geprägt. In Deutschland ist zum Beispiel noch immer in den meisten Kreisen das Schwenken der Nationalflagge verpönt. Außerdem wählt weder in Spanien noch in Deutschland die Bevölkerung ein*e Präsident*in. Spanien ist eine Monarchie und die deutschen Abgeordneten entscheiden darüber, wer Bundespräsident*in wird.

Hartnäckige Vorurteile

Generative Modelle werden in absehbarer Zeit nicht damit aufhören, Stereotype zu produzieren. Überholte Datensätze tauschen sich nicht von selbst aus und zu Trainingszwecken neue Inhalte zu produzieren ist unpraktisch. Manche Forscher*innen wollen stattdessen Verzerrungen reduzieren, indem sie den Output durch bestimmte Prompts um das Prinzip der Intersektionalität erweitern, also die Wechselbeziehungen von Diskriminierungsarten. Bei unserer Firefly-Stichprobe wurden aber deutlich, dass dieser Ansatz Grenzen hat.

Wenn Forschende Zugang zu den Modellen erhalten würden, könnten sie untersuchen, ob die Daten die Realität adäquat abbilden, und Korrekturen vornehmen, meint Lorena Fernández, eine Informatikerin an der Universität Deusto, die zu Geschlechterperspektiven forscht. „Unternehmen wie StabilityAI arbeiten an der Entwicklung von Open-Source-Modellen, die überprüft und modifiziert werden können. Wahrscheinlich werden sie spezifisch mit Datensätzen aus verschiedenen Ländern und Kulturen trainiert.“

Was uns zu den Datensätzen zurückbringt. Sie sind noch weit entfernt davon, die Welt in ihrer Vielfalt darzustellen. Lorena Fernández hat ein Problem mit der „synthetischen Welt“, die KI generiert. Viele Menschen würden glauben, dass die Bilder der Realität entsprechen, wodurch „algorithmische Wahrheiten“ kreiert werden.

Stereotype und Kreativität

Manche plädieren dafür, dass es neben technischen Lösungen auch ein direktes menschliches Eingreifen geben sollte. Der Illustrator und Künstler Iñigo Maestro glaubt, dass Klischees kreativ dazu genutzt werden können, Stereotypen zu bekämpfen: etwa indem sie Figuren oder Situationen so auf die Klischee-Archetypen hin überzeichnen, dass sie dadurch diese Klischeevorstellungen sichtbar werden. Das Beispiel mit den Mediziner*innen aus Ghana zeigt allerdings, dass dieses Vorgehen derzeit mit Bildgeneratoren technisch nicht möglich ist.

Iñigo Maestro benutzt am Anfang eines kreativen Prozesses Archivbilder und Dokumentationen zum Thema, das er illustrieren will – er greift also ganz wie generative Systeme auf vorhandenes Material zu. Im Gegensatz zu den technologischen Systemen verändert sich sein Ausgangsmaterial aber immer mehr und wird zu etwas Neuem.

Deshalb kommt er zu dem Schluss: „KI hat keine Vorstellungskraft, Lebenserfahrung, Gefühle oder Gewohnheiten, und kann von daher auch nicht kreativ sein. Hinter den Bildern, die die Generatoren erzeugen, steht kein Gestaltungswille.“

Solange Bildgeneratoren grobe Stereotypen ausgeben, müssen Menschen, die diese Tools nutzen, sehr vorsichtig damit umgehen, wenn sie nicht zur Verbreitung dieser Stereotypen beitragen wollen.

Adobe, MidJourney und Sber AI wurden um eine Stellungnahme gebeten. Eine Antwort blieb aus.

Naiara Bellio (sie/ihr)

Reporterin

Spanisch, Englisch

bellio@algorithmwatch.org

Naiara Bellio berichtet über Datenschutz, automatisierte Entscheidungssysteme und digitale Rechte. Bevor sie zu AlgorithmWatch kam, koordinierte sie den Technologiebereich der Stiftung Maldita.es. Sie befasste sich dort mit Desinformationen, die im digitalen Leben von Menschen auftauchen, und leitete internationale Recherchen zu Überwachung und Datenschutz. Außerdem war sie für die Agencia EFE in Madrid und Argentinien sowie für elDiario.es tätig. Naiara arbeitete mit Organisationen wie Fair Trials und AlgoRace zusammen, um zu untersuchen, wie Behörden algorithmische Systeme einsetzen.

Abonniere jetzt DIE AUTOMATISIERTE GESELLSCHAFT_

Mehr Informationen findest du in unserer Datenschutzerklärung.