10 Fragen zu KI und Wahlen

2024 ist ein Super-Wahljahr. Wähler*innen auf der ganzen Welt denken darüber nach, wem sie ihre Stimme geben, machen sich aber auch Sorgen über KI: Sind Chatbots und „Deepfake“-Videos eine Gefahr für die Demokratie? Können wir Online-Inhalten noch trauen? Wir erklären, warum der Hype um KI und Wahlen teilweise übertrieben ist und auf welche Risiken wir stattdessen reagieren sollten.

Clara Helming
Senior Advocacy & Policy Manager
Oliver Marsh
Head of Tech Research
Ganz allgemein: Wie wirken sich die neuen Technologien auf Wahlen aus?

Es wird viel darüber geredet, wie neue Technologie Wahlen beeinflussen kann. Aber bisher gibt es kaum Beweise dafür, dass Falschnachrichten und andere irreführende Inhalte – ob KI-generiert oder nicht – bei Wahlen ein anderes Ergebnis herbeigeführt hätten.

Wahlen sind eine sehr komplexe Sache. Auf ihren Ausgang nehmen weitaus stärkere Faktoren als Online-Inhalte Einfluss.

Menschen sind keine Marionetten, die sich willenlos von mächtigen Strippenziehern und deren Technologien manipulieren lassen. Wenn über Deepfakes, Fälle wie Cambridge Analytica oder russische Bots berichtet wird, besteht die Gefahr, Wähler*innen als Menschen darzustellen, die sich leicht an der Nase rumführen lassen, ungern unabhängig denken und Entscheidungen lieber anderen überlassen.

Wähler*innen denken über Dinge nach, die sich direkt auf ihr Leben auswirken, die Wirtschaft oder die Sicherheit zum Beispiel. Sie haben starke Meinungen und treten für bestimmte Werte ein. Sie ändern ihre Werte und Meinungen nicht einfach über Nacht, weil sich wegen neuer Technologien die Online-Berichterstattung ändert.

Das bedeutet aber nicht unbedingt, dass die neuen Technologien auch eine große Wirkung auf das Wahlergebnis haben. Nicht selten schenken wir aber bestimmten Themen zu viel Aufmerksamkeit, während wir wesentlich schwerwiegendere Probleme ausblenden. Algorithmen können zu einer immer größeren Polarisierung in der Gesellschaft beitragen und Entscheidungen einzelner Menschen beeinflussen. Das kann das Funktionieren der Demokratie beeinträchtigen – auch wenn gerade keine Wahlen anstehen.

Wird es die Wahlen beeinflussen, dass Wähler*innen auf Deepfakes reinfallen?

Wahrscheinlich nicht. Deepfakes erhalten sehr viel Aufmerksamkeit. Solche Fälschungen werden zwar verbreitet. Das bedeutet aber nicht unbedingt, dass sie auch eine große Wirkung haben.

Generative KI wird durchaus schon eingesetzt, um Wähler*innen in die Irre zu führen. In der Slowakei wurden Audiodateien mit gefälschten KI-Stimmen im Wahlkampf eingesetzt und in den USA machten automatisierte Anrufe mit der KI-generierten Stimme von Joe Biden die Runde. Noch häufiger kommen aber ältere Manipulationstaktiken zum Einsatz, etwa echte Bilder aus dem Kontext zu reißen. Bislang gibt es keine Hinweise darauf, dass die neuen technologischen Möglichkeiten Wahlen tatsächlich nachhaltig beeinflussen. Die KI-Manipulationsversuche wurden meistens schnell aufgedeckt.

Natürlich sollten wir weiter generell aufpassen, keinen Falschnachrichten auf den Leim zu gehen. Durch Faktenchecks und guten Journalismus können solche Inhalte richtiggestellt werden. Wenn Menschen aber unbedingt an etwas glauben wollen, werden sie sich nicht durch Fakten davon abhalten lassen.

Welche Rolle spielen Social-Media-Empfehlungssysteme bei der Verbreitung von falschen Informationen und Deepfakes?

Nicht nur KI-generierte Online-Inhalte sind das eigentliche Problem, sondern die Verbreitung von falschen Informationen im Allgemeinen. Dafür sorgen Social-Media-Empfehlungssysteme, die das Engagement von Plattform-Nutzer*innen optimieren sollen. Die Metriken der Plattformen besagen, dass aufwiegelnde und emotionalisierende Inhalte am verlässlichsten auf Nutzer*innen wirken.

Es ist selbst mit guten Argumenten oft schwer, Menschen von ihrer Meinung abzubringen. Aber es ist vergleichsweise einfach, mit ihren Gefühlen zu spielen, sie aufzustacheln und sogar Hass zu entfachen. Je größer die (negativen) Gefühle, desto größer das Engagement.

Plattformen könnten sich also polarisierende Äußerungen von politischen Akteur*innen und anderen Menschen zunutze machen, um sie algorithmisch zu verbreiten und damit Reaktionen von Nutzer*innen zu provozieren. So ein negatives Engagement kann weiter um sich greifen, wenn politische Akteure die erzeugte Empörung aufgreifen, um mehr Aufmerksamkeit in anderen Medien zu erhalten. So gelangen auch falsche Behauptungen in Umlauf, die bei vielen Anklang finden.

Könnten politische Debatten durch KI populistischer und verleumderischer werden?

Schon lange vor KI und sogar dem Internet wurden Bilder gefälscht, Lügen verbreitet und Menschen bewusst getäuscht. Generative KI verursacht also keine neuen Probleme, auch wenn sie trotzdem Schäden anrichtet.

Statt auf den KI-Hype aufzuspringen, sollten wir uns die ganze Tech-Industrie genauer anschauen, die Einfluss auf die Meinungsbildung hat. Wenige Tech-Giganten teilen die Macht unter sich auf: Dazu gehören Social-Media-Plattformen, Anbieter generativer KI und IT-Anbieter für öffentliche Dienste. Von Eigeninteressen gesteuerte Unternehmen finanzieren oft Medien und die Forschung. Damit untergraben sie die für eine gesunde Demokratie unerlässliche Vielfalt von Perspektiven.

Solche grundlegenden Probleme könnten längerfristig den demokratischen Diskurs stärker gefährden als einzelne falsche Informationen.

Welchen Schaden richten Deepfakes wirklich an, unabhängig von Falschnachrichten zu Wahlthemen?

Das Thema „Wähler*innentäuschung durch KI“ erfährt trotz seiner begrenzten Relevanz aktuell viel Aufmerksamkeit. Chatbots und Bildgeneratoren richten gerade jedoch woanders tatsächlich Schäden an.

Um ein Beispiel zu nennen: Es ist inzwischen ein Kinderspiel, Deepfake-Pornos mit Politikerinnen, Künstlerinnen oder unbekannten Frauen und Mädchen zu erstellen. Die Anbieter der entsprechenden Technologien sollten Verantwortung dafür übernehmen, dass ihre Produkte so verwendet werden, und Missbrauch verhindern. In der Gesellschaft bereits an den Rand gedrängte Menschen werden durch Deepfakes am meisten gefährdet. Wir sollten auf ihre Erfahrungen eingehen und sie schützen.

Neue Technologien werden verfrüht und ohne angemessene Risikobewertung auf den Markt gebracht. Bislang haben Regierungen die Technologiekonzerne dafür nicht zur Rechenschaft gezogen.

Warum sind besonders Randgruppen von der Polarisierung auf Social-Media-Plattformen betroffen?

Social-Media-Plattformen schützen ihre Nutzer *innen nicht genug vor den Folgen polarisierender Beiträge. Es ist leicht, online Menschen zu belästigen und zu bedrohen, auch Politiker*innen und andere öffentliche Personen. Das treibt Menschen von der Politik weg, besonders Menschen aus marginalisierten Gruppen, die auf den Plattformen häufig das Ziel von verbalen Angriffen werden.

Im schlimmsten Fall kann Hetzrede im Internet Nutzer*innen sogar so sehr radikalisieren, dass sie wie in Christchurch und Halle bestimmte Gruppen töten.

Solche Entwicklungen schwächen die Demokratie, führen zu sozialer Spaltung und machen die Politik zu einem aggressiven und unsicheren Raum.

Können wir uns darauf verlassen, dass KI-Chatbots korrekte Informationen über Wahlen liefern?

Nein. KI-Textgeneratoren produzieren systematisch falsche Behauptungen. Wähler*innen sollten sich deshalb besser nicht mit KI-Diensten über Wahlen informieren. Große Sprachmodelle generieren Texte, indem sie auf der Grundlage von Wahrscheinlichkeiten Wörter aneinanderreihen. So entstehen plausibel klingende Texte, die jedoch keinen Bezug zur Wahrheit haben.

Wir haben dieses Thema wissenschaftlich untersucht und festgestellt, dass Chatbots Nutzer*innen häufig falsch über Wahlereignisse und Standpunkte von Parteien informieren. Es kam sogar vor, dass sie Politiker*innen Skandale andichteten.

In Demokratien müssen Wähler*innen zuverlässige Informationen erhalten. Wenn KI-gesteuerte Chatbots wie ChatGPT oder Microsoft Copilot Suchmaschinen als Informationsquellen ersetzen, könnten häufiger falsche oder verzerrte Informationen in Umlauf gebracht werden. Davon wären allerdings eher einzelne Wähler*innen als ganze Wählergruppen betroffen.

Was unternimmt die EU gegen solche Probleme?

Mit dem Gesetz über digitale Dienste (Digital Services Act, DSA) und der KI-Verordnung (AI Act) hat die EU rechtliche Rahmenbedingungen eingeführt, um Tech-Konzerne stärker zu regulieren. In der KI-Verordnung werden die Unternehmen zukünftig dazu verpflichtet, Risikobewertungen durchzuführen, bevor sie ihre Systeme auf den Markt bringen. Viele Plattformrisiken ergeben sich daraus, dass es den Unternehmen wichtiger ist, ihre Produkte schnell zu entwickeln, statt sicher und unter ethisch vertretbaren Bedingungen. Genauso ist den Unternehmen wichtiger, das Engagement der Nutzer*innen zu steigern, statt die von den Nutzer*innen produzierten Inhalte gewissenhaft zu prüfen und zu moderieren.

Das Gesetz über digitale Dienste soll die großen Online-Plattformen und Suchmaschinen so regulieren, dass deren Funktionsweise transparent wird und der Zugang zu Plattformdaten geregelt ist. Der DSA wird gerade umgesetzt. Die Umsetzung liegt derzeit weit hinter dem Zeitplan zurück. Trotzdem eröffnet das Gesetz einige neue Möglichkeiten, Plattformen zu erforschen und zu überprüfen.

Es muss verlässliche Verfahren geben, um Gesetze durchzusetzen. Außerdem müssen Forschende, zivilgesellschaftliche Organisationen und Journalist*innen ein starkes Netzwerk bilden und dafür sorgen, dass alte und neue Risiken aufgedeckt, diskutiert und eingedämmt werden.

Was sollten die Tech-Konzerne tun?

Social-Media-Plattformen müssen transparenter werden und Zugang zu ihren Daten gewähren, damit wir verstehen können, wie die Plattformen funktionieren und welche Konsequenzen das für Nutzer*innen hat. Stattdessen werden sie immer undurchsichtiger: X verlangt inzwischen 42.000 Dollar pro Monat für einen Datenzugang, der früher kostenlos war; im August wird Meta das Crowdtangle-Tool abschalten, mit dem Forschende bis dahin Zugang zu Facebook- und Instagram-Daten erhalten haben.

Anbieter von KI-Modellen müssen die Verantwortung für Schäden übernehmen, die ihre Produkte verursachen. Technische Lösungen wie Wasserzeichen oder das Verbot einzelner Suchbegriffe (wie „Trump“ oder „Biden“) sind nicht genug. Die meisten Anbieter von KI-Modellen haben bisher selektiv reagiert, indem sie beispielsweise ausschließlich bei US-Wahlen Schutzmaßnahmen ergriffen haben.

Wir brauchen allerdings eine Rechenschaftspflicht, die sich auf alle Wahlen erstreckt, alle Inhalte berücksichtigt und ihre gesamte Verbreitung abdeckt.

Wie kann Technologie die Demokratie fördern, anstatt sie zu untergraben?

Eine starke Demokratie setzt voraus, dass die Menschen daran glauben, wirklich etwas bewirken zu können. Sie müssen das Gefühl haben, autonome und aktive Mitglieder der Gesellschaft zu sein. Die größten Technologiekonzerne haben aber inzwischen teilweise so viel Macht wie Regierungen, versuchen Gesetze zu umgehen und verweigern eine Zusammenarbeit. (Das gilt natürlich nicht für alle Tech-Beschäftigten.)

Auch die sehr großen Unternehmen sollten Menschen ihre Rechte zugestehen und sie nicht als reine Nutzer*innen betrachten. Sie sollten Systeme bauen, die den zivilen und demokratischen Diskurs erleichtern, statt ihn zu polarisieren. Für sie sollte es wichtiger sein, Risiken zu minimieren, statt möglichst schnell neue Produkte auf den Markt zu werfen. Und sie sollten mit Regierungen, Forschenden und allen zusammenarbeiten, die durch ihre Systeme gefährdet sind.

Die Demokratie wird durch Machtgefälle, eine unzureichende Regulierung und ungelöste Haftungsfragen untergraben. Der Einsatz von bestimmten Technologien ist nur ein Aspekt solcher übergeordneten Probleme. Wir sollten uns stärker damit auseinandersetzen, wie Technologie besser für die Demokratie genutzt werden kann.

Lesen Sie mehr zu unserer Policy & Advocacy Arbeit zu ADM und öffentlicher Meinungsbildung.