Das Jahr, in dem wir auf Taten warteten: 2023 im Rückblick

Vor genau einem Jahr habe ich geschrieben, dass automatisierte Systeme im Laufe des Jahres 2023 möglicherweise endgültig reguliert werden könnten. Es hat sich gezeigt, dass meine Prognose zu optimistisch war. Die europäischen Institutionen haben es nicht geschafft, die KI-Verordnung zu verabschieden, auch nicht in einer abgeschwächten Version. Mit dem Aufstieg generativer Modelle haben derweil die Probleme zugenommen.

"Waiting for Godot" from 1963. University of Michigan.
Nicolas Kayser-Bril
Head of Journalism (in Elternzeit)

2023 stand für mich im Zeichen des Wartens. Ende 2022 habe ich den Gesichtserkennungsdienst PimEyes darum gebeten, alle Bilder von mir zu löschen. Die Datenschutz-Grundverordnung (DSGVO) räumt allen Bürger*innen ein Recht auf den Zugang und das Löschen ihrer personenbezogenen Daten ein. Nachdem das Unternehmen meiner Aufforderung nicht nachgekommen war, reichte ich bei der Berliner Beauftragten für Datenschutz und Informationsfreiheit (BlnBDI) eine Beschwerde ein. Das war am 10. Januar. Zwei Wochen später erhielt ich eine Empfangsbestätigung, in der mir mitgeteilt wurde, dass ich auf dem Laufenden gehalten werde. Seitdem habe ich nichts mehr von ihnen gehört, und mein Gesicht ist immer noch auf PimEyes zu finden.

Nicht nur die Löschung meines Gesichts bei PimEyes ließ 2023 auf sich warten. Nachdem ein antisemitischer Milliardär Ende 2022 Twitter gekauft hatte, warnte ihn der EU-Kommissar Thierry Breton im Oktober 2023 bekanntlich mit den Worten: „In Europa fliegt der Vogel nach unseren Regeln“. Seitdem ist Twitter mehreren seiner rechtlichen Verpflichtungen nicht nachgekommen. Das Unternehmen stieg aus dem freiwilligen Verhaltenskodex der EU-Kommission zur Bekämpfung von Desinformation aus, woraufhin eine hohe EU-Beamtin ankündigte, dass die Kommission dem „Konflikt“ nicht aus dem Weg gehen werde. Im Oktober ließ die Kommission Twitter einen offiziellen Fragenkatalog zur Moderation von Online-Inhalten zukommen, nachdem die Plattform während des Krieges zwischen Israel und der Hamas nichts gegen die Verbreitung von Lügen und Propaganda getan hatte. Ein Sprecher der Kommission sagte mir zwar, dass Twitter geantwortet habe, wollte aber nicht weiter ins Detail gehen. Desinformationen verbreiten sich weiterhin ungehindert auf der Plattform und Twitter (das inzwischen „X“ heißt) bezahlt inzwischen sogar manche Nutzer*innen dafür, dass sie absolut haarsträubende Behauptungen in die Welt setzen. Im Konflikt zwischen der EU-Kommission und Twitter ist Europa ins Hintertreffen geraten. Nicht nur scheitert die Kommission daran, die Vorgaben des Gesetzes über digitale Dienste (Digital Services Act, DSA) durchzusetzen, mit dem große Online-Plattformen reguliert werden sollen. Sie versorgt Twitter auch noch weiterhin mit kostenlosen Inhalten. Alle EU-Konten und alle Kommissar*innen sind unverändert auf der Plattform aktiv. Die Kommission hat sogar noch Ende November auf Twitter Werbung geschaltet.

Und dann warte ich auf die Abschlussfassung der KI-Verordnung (AI Act). 2019 versprach die neu eingesetzte Europäische Kommission, die Regulierung Künstlicher Intelligenz zu einer Priorität zu machen. Nach jahrelangen Verhandlungen und dem bahnbrechenden DSA im Jahr 2022 hätte 2023 das Jahr des AI Act werden sollen. Dieses Gesetz sollte bis Ende des Jahres fertiggestellt werden und den Bereich Künstlicher Intelligenz in den kommenden Jahren regeln. Der Europäische Rat, das EU-Parlament und die EU-Kommission trafen sich am 7. und 9. Dezember und einigten sich hinter verschlossenen Türen auf die Grundsätze des Textes. Wir wissen allerdings noch nichts über die Einzelheiten. Nach unseren bisherigen Informationen sieht es so aus, als würde die Verordnung weit hinter den Erwartungen zurückbleiben und die Europäer*innen nur unzureichend vor missbräuchlich eingesetzten automatisierten Systemen schützen. Live-Gesichtserkennungssysteme, die massenhaft Daten sammeln, sollen etwa nur bei drohenden Terroranschlägen oder zum Auffinden vermisster Personen erlaubt sein – das klingt wie ein Freifahrtschein zu einer allgegenwärtigen Dauerüberwachung.

Angekratzte Glaubwürdigkeit

Keine Frage, diese drei Geschichten haben nicht in gleichem Ausmaß Folgen für uns. Aber sie alle zeigen, dass die Macht der Gesetze ihre Grenzen hat: wenn die EU-Gesetzgeber*innen versäumen, KI zu regulieren, die EU-Kommission einer Konfrontation mit Twitter aus dem Weg geht oder die Berliner Datenschutzbehörde die Datenschutz-Grundverordnung nicht durchsetzen kann.

Diese fehlende Durchsetzungsfähigkeit ist Wasser auf die Mühlen von denjenigen, die kein Interesse daran haben, den Einsatz automatisierter Systeme in Einklang mit den Grundrechten zu bringen, und generell die Rechtsstaatlichkeit missachten. Im November haben Journalist*innen darüber berichtet, dass die französische Nationalpolizei und viele kommunale Polizeikräfte die Software BriefCam verwenden. In das automatische Videoüberwachungstool ist ein Gesichtserkennungsfeature integriert, was absolut rechtswidrig ist und sogar strafrechtlich verfolgt werden könnte. Das Innenministerium lässt die Angelegenheit intern untersuchen, allerdings hat die Sache einen Haken: Der Minister will, dass der Bericht Beweise dafür liefert, dass das Gesichtserkennungsfeature nicht verwendet wurde. Andere Polizeibehörden in Frankreich nutzten den Chatbot Google Bard, um über Visumanträge zu entscheiden, was sogar unabhängig von der Datenschutz-Grundverordnung illegal sein dürfte.

Die Landesregierungen in Hessen und Hamburg preschen mit automatischen Videoüberwachungssystemen vor, die „abnormale“ Situationen erkennen sollen. Im Juli haben wir aufgedeckt, dass ein ähnliches System in Mannheim die Polizei alarmiert, wenn sich Menschen auf der Straße umarmen. So eine krasse Fehleinschätzung lässt Bedenken darüber aufkommen, ob der Einsatz dieser Technik wirklich gesetzkonform ist. Das Bundesverfassungsgericht urteilte im Februar, dass die automatisierte Verarbeitung personenbezogener Daten für die algorithmische Polizeiarbeit rechtswidrig ist. Es ging zwar um ein Tool des Unternehmens Palantir, das Datenbanken durchsucht, und nicht um Videoüberwachung, das Urteil dürfte aber auch darauf anwendbar sein. Die Begeisterung für die Technologie wurde aber auch durch das Bundesverfassungsgericht nicht gedämpft. Die bayerische Polizei verwendet eine ähnlich funktionierende Palantir-Software einfach weiter.

Nicht nur die Polizei nimmt es mit Gesetzen nicht so genau. Im Juni deckten Journalist*innen auf, dass automatisierte Überwachungssysteme in Frankreich in Tausenden von Supermärkten illegal in Betrieb sind. In Spanien und Österreich wurden Fälle von algorithmischen Preisabsprachen bekannt, die verhindern, dass ein richtiger Wettbewerb stattfindet, von dem die Kundschaft profitieren könnte.

Wir wissen natürlich nicht, wie viele Organisationen sich an das Gesetz halten und wie viele nicht. Aber diese Beispiele zeigen, dass Gesetze zahnlos bleiben, wenn diejenigen Stellen unterfinanziert sind, die sie durchsetzen sollen.

Hat Wahrheit ausgedient?

Die populärste KI-Technologie des Jahres versetzt der ohnehin schwindenden Glaubwürdigkeit einen weiteren Schlag. Generatoren erstellen Texte, Bilder und Videos, die fast genauso aussehen wie menschliche Kreationen, aber völlig zufällig zustande kommen. ChatGPT, MidJourney und Co. haben inzwischen Hunderte Millionen Nutzer*innen. Es hatte weniger mit der Technologie als mit dem Marketing zu tun, dass sie 2023 ihren Durchbruch hatten. Durch die einfach zu bedienenden Schnittstellen ­― insbesondere das Ende November 2022 veröffentlichte ChatGPT von OpenAI ― können alle ohne Weiteres Inhalte generieren lassen. Aber nicht nur das: Die Tools haben dazu beigetragen, dass der KI-Hype auch Tausende von Journalist*innen und Politiker*innen ergriffen hat, die bis dahin nichts mit dem Thema zu tun hatten.

Es gibt sicherlich Wege, die Technologie für sich zu nutzen, ohne anderen zu schaden. Politiker*innen nutzen sie, um Reden oder Gesetze zu entwerfen, Richter*innen bereiten damit ihre Urteile und iranische Kleriker ihre Fatwas vor. Auch viele Unternehmen haben die Tools für sich entdeckt: Sie ersetzen damit die freiberuflichen Texter*innen und Designer*innen, die bislang für sie gearbeitet haben.

Diese Einsatzfelder spiegeln einige seit Langem bestehende Missstände in unserer Gesellschaft wider. Die mit ChatGPT erstellten Gesetzentwürfe richten auch nicht mehr Schaden an als die Tausende von Änderungsanträgen, mit denen regelmäßig Sand ins Getriebe der parlamentarischen Arbeit gestreut wird. Automatisch generierte Bilder sind immerhin nicht so langweilig wie die Fotos aus den einschlägigen Datenbanken. Auf der anderen Seite zersetzen die frei verfügbaren generativen Tools einen gesellschaftlichen Konsens und könnten eine gemeinsame Realitätswahrnehmung zerstören.

Generative Modelle sind inzwischen in den beiden weltweit größten Suchmaschinen integriert, Google und Bing. Die Konzerne, die sie betreiben, halten menschliche Aufsicht für entbehrlich. Und so werden etliche Witze, die in den Trainingsdatensätzen vorkommen, bei Suchanfragen als ernsthafte Informationen angezeigt. Die Google-Suchmaschine behauptet, dass es in Afrika kein Land gäbe, dessen Namen mit einem K anfängt, was die Folge eines idiotischen Wortspiels auf Reddit ist. Bing antwortet auf die Frage „Gibt es Australien?“ mit einem entschiedenen „Nein“, was aus einer Pseudo-Verschwörungstheorie hervorgeht. Immerhin zeigen sowohl Google als auch Bing Bielefeld an. Es existiert also. Vielleicht können sich deutsche Nutzer*innen an dieser Gewissheit festhalten.

Da große Sprachmodelle auch für ihre Entwickler undurchsichtig sind, sind solche Output-Pannen (die Software-Anbieter verharmlosend „Halluzinationen“ nennen) nicht leicht zu beheben. Fast sechs Monate nach Bekanntwerden des Fehlers hält die Google-Suchmaschine daran fest, dass Kenia auf Englisch nicht mit K geschrieben wird. Es liegt im Charakter generativer Tools, dass sie Bullshit-Schleudern sind und die unangefochtenen Spitzenreiter im Verbreiten von Falschinformationen. Eine Studie von AlgorithmWatch im Vorfeld der Wahlen in Hessen, Bayern und der Schweiz zeigte im Oktober, dass Bing auf ganz einfache und grundlegende Fragen zu Kandidat*innen und Umfragewerten viele falsche Antworten gibt.

Kein Entkommen

Auch wenn Nutzer*innen solche Chatbots verschmähen (der Marktanteil von Bing sank 2023 trotz Microsofts gigantischer Investitionen in generative Modelle), verbreiten sich diese Modelle ungebremst. Tausende Bücher sind bereits automatisch geschrieben worden. Ehemals zuverlässige Nachrichtensender veröffentlichen automatisch generierte Inhalte, ohne dass jemand sie gewissenhaft kontrollieren würde. Ein wirksames Tool, um maschinell erstellte Texte zu erkennen, lässt weiterhin auf sich warten.

Das alles betrifft nicht nur Texte. Google stellte im Oktober den Magic Editor vor, ein neues Feature für Smartphones, mit dem sich leicht Bilder bearbeiten lassen. In iPhones sind andere automatisierte Systeme integriert, um Bilder zu bearbeiten. Als eine Frau sich einmal vor einem Spiegel fotografieren ließ, nahm auf dem Foto ihr Spiegelbild eine andere Pose ein als sie selbst. Ihre Realität sei ins Wanken geraten, sagte sie dazu. Wesentlich bedenklicher ist, dass Adobe automatisch generierte Bilder des Krieges zwischen Israel und der Hamas an Medien verkauft hat, ohne die Bilder entsprechend zu kennzeichnen. Audio- und Videogeneratoren, die solche „Deepfakes“ produzieren (realistisch wirkende Medieninhalte, die künstlich erstellt wurden), lassen sich so einfach wie noch nie benutzen. Am meisten haben Frauen darunter zu leiden. Schüler können jetzt mit ihnen Bilder von Klassenkameradinnen in realistische Aktfotos umwandeln. Das hat in Spanien und New Jersey für Aufregung gesorgt, kommt aber wahrscheinlich überall vor.

Generative KI wurde auch bei Wahlen eingesetzt. In Polen und Argentinien haben Parteien mit automatisch generierten Bildern und Videos Plakate und gefälschte Videos von ihren politischen Gegner*innen erstellt. In der Slowakei wurde Stunden vor der Wahl ein gefälschter Soundclip veröffentlicht, um einen Kandidaten zu diskreditieren.

Solche Trends sind nicht neu. KI ist seit 2016 in Smartphones zu finden, um deren Fotoqualität zu verbessern. Schon seit deren Anfängen in den späten 2010er Jahren sind Deepfakes gegen Frauen gerichtet. Journalist*innen warnten schon 2015 davor, dass die Gesellschaft durch Verschwörungstheorien in alternative Realitäten zersplittert werde. 2023 hat sich nichts Wesentliches an solchen Phänomenen geändert, nur deren Vorkommen hat ein neues Niveau erreicht.

Es ist gar nicht so wichtig, welche Absichten hinter generativen Modellen stecken. Immer mehr Menschen zweifeln generell am Wahrheitsgehalt von Informationen, weil sie die schiere Menge an Inhalten überfordert und sie nicht ohne Weiteres herausfinden können, wer für die Inhalte verantwortlich ist. Das machen sich politische Bewegungen zunutze, die sich nicht für eine faktische Realität interessieren und wissenschaftliche Erkenntnisse ablehnen. Hannah Arendt schrieb vor über 70 Jahren: „Der ideale Untertan totalitärer Herrschaft ist nicht der überzeugte Nazi oder engagierte Kommunist, sondern Menschen, für die der Unterschied zwischen Fakten und Fiktion, wahr und falsch, nicht länger existiert.“

Die Zivilgesellschaft schläft nicht

Wir können etwas dagegen tun, dass automatische Generatoren die Realität in Geiselhaft nehmen. Forscher*innen arbeiten bereits daran, die Auswirkungen von großen Plattformen auf die Gesellschaft zu untersuchen. Der DSA räumt ihnen nämlich ein neues Zugangsrecht zu Plattforminformationen ein. Es noch nicht absehbar, ob Meta, TikTok und die anderen der Forschung wie vom DSA vorgesehen wirklich zutreffende und nützliche Daten liefern werden. Bisher scheinen sie sich aber daran zu halten. Sogar Twitter/X hat ein Formular eingerichtet, mit dem Akademiker*innen den Zugang zu Daten beantragen können.

Die Rechte, die die Datenschutz-Grundverordnung einräumt, könnten ebenfalls helfen. Der Europäische Gerichtshof entschied im Dezember, dass der Kreditscore der Schufa als Profiling einzustufen sei. Die EU-Richtlinie untersage grundsätzlich eine automatisierte Entscheidung im Einzelfall“. Die Entscheidung, ob ein Kredit genehmigt wird oder nicht, darf also nicht Algorithmen überlassen werden, es sei denn, der nationale Gesetzgeber sieht Ausnahmen von der allgemeinen Regel vor. Das Zustandekommen von Kreditscores wird nicht sofort transparent werden, aber das Urteil bietet der Bevölkerung und zivilgesellschaftlichen Organisationen neue Möglichkeiten, Transparenz und Erklärungen einzufordern.

In anderen Bereichen hat die Zivilgesellschaft schon wirkungsvolle Methoden und Strategien entwickelt, um gegen den schlimmsten Missbrauch automatisierter Entscheidungen vorzugehen. Nachdem Journalist*innen aufgedeckt hatten, dass die französische Polizei ein Instrument zur automatischen Videoüberwachung einsetzt, reichten mehrere Organisationen Klage ein. In einem Fall wurde ihnen bereits Recht gegeben: Die Stadt Deauville wurde angewiesen, die Verwendung des Tools einzustellen.

Dank Lighthouse Reports, einem investigativen Projekt in den Niederlanden, hat die europäische Berichterstattung über Algorithmen und die damit verbundene Rechenschaftspflicht deutlich an Qualität und Tiefe zugenommen. Lighthouse Reports reichte in ganz Europa etliche Anträge gemäß dem Informationsfreiheitsgesetz ein. Daraufhin erhielt das Magazin Informationen über Algorithmen zur Vergabe von Sozialleistungen in Rotterdam und in Frankreich. Die Redaktion arbeitete mit Nachrichtensendern in den jeweiligen Ländern zusammen, damit die gewonnen Erkenntnisse öffentlich werden. In Rotterdam hatte das zur Folge, dass ein diskriminierender Algorithmus nicht mehr eingesetzt wird.

Wie soll das alles weitergehen?

Im Vergleich zum Aufwand, der für die Entwicklung und den Einsatz automatisierter Systeme in Europa aufgewendet wird, sind solche Erfolge Tropfen auf den heißen Stein. Am 13. September erklärte die Präsidentin der EU-Kommission in ihrer Rede zur Lage der Union, es müsse eine globale Priorität werden zu verhindern, dass die Menschheit wegen einer außer Kontrolle geratenen KI ausstirbt. Dieser Satz mag an sich harmloser Unsinn sein. Er zeigt jedoch, dass die Ideologie, die KI als gottgleiches Wesen begreift, in die höchsten Ebenen der politischen Macht vorgedrungen ist. Eines der Probleme an dieser Ideologie besteht darin, dass sie aktuelle und reale Risiken und Fehler automatisierter Systeme überschattet, was es viel schwieriger macht, Lösungen zu finden und Betroffenen zu helfen.

Wie können wir unter solchen Bedingungen etwas ändern? Es ist nicht sehr wahrscheinlich, dass KI und algorithmische Systeme im Jahr 2024 Gerechtigkeit, Demokratie und Nachhaltigkeit stärken werden (wie AlgorithmWatch es fordert). Ich erwarte nicht, dass PimEyes meine Bilder löschen wird. Und ich kann mir nicht vorstellen, dass Spitzenpolitiker*innen damit aufhören werden, ein soziales Netzwerk zu nutzen, dessen Algorithmen automatisch rechtsextremistische Inhalte bevorzugen.

Ein tschechoslowakischer Dramatiker schrieb 1978 unter wohl noch schwierigeren Umständen: Es sei ein Grund zur Hoffnung, dass manche Menschen nicht damit aufhören, an scheinbar aussichtslosen Aufgaben zu arbeiten. Dieser Dramatiker war Václav Havel, und er wurde elf Jahre später Präsident.

Abonniere jetzt DIE AUTOMATISIERTE GESELLSCHAFT_

Mehr Informationen findest du in unserer Datenschutzerklärung.