KI und Wahlen: Was muss ich beachten?
Bald ist die Bundestagswahl und viele Menschen denken noch darüber nach, wem sie ihre Stimme geben. Das Internet kann bei der Entscheidung helfen, doch Warnungen vor Chatbots und „Deepfake“-Videos verunsichern. Ist KI wirklich eine Gefahr für die Demokratie? Wir ordnen ein, welche Rolle KI und Algorithmen bei Wahlen aktuell spielen und wie Wähler*innen sich zuverlässig informieren können.

Vorab:Bisher gibt es kaum Beweise dafür, dass KI-generierte Falschnachrichten und andere irreführende Inhalte Wahlen bedeutend beeinflusst haben. Denn Wahlentscheidungen sind komplex und werden von mehr Faktoren beeinflusst als nur von Online-Inhalten.
Neue Technologie ja, aber keine neuen Probleme - bisher
Generative KI wird durchaus schon eingesetzt, um Wähler*innen in die Irre zu führen. In der Slowakei kursierten im Wahlkampf Audiodateien mit gefälschten KI-Stimmen und in den USA machten automatisierte Anrufe mit der KI-generierten Stimme von Joe Biden die Runde. Auch in Deutschland werden falsche oder irreführende KI-Inhalte zur Wahl erstellt und verbreitet. Gleichzeitig kommen weiterhin ältere Manipulationstaktiken zum Zuge, etwa echte Bilder aus dem Kontext zu reißen. Schon lange vor KI und sogar dem Internet wurden Bilder gefälscht, Lügen verbreitet und Menschen bewusst getäuscht.
Die neue Technologie verursacht also keine neuen Probleme, auch wenn sie trotzdem Schäden anrichtet, beispielsweise indem sie die Verbreitung von Falschinformationen zu Wahlen erleichtert. Das zeigen Untersuchungen von AlgorithmWatch zu Landtagswahlen der letzten zwei Jahre: https://algorithmwatch.org/de/sprachmodelle_landtagswahlen/
Algorithmen beeinflussen die Meinungsbildung
Dennoch können Social Media und andere Online-Plattformen Meinungen beeinflussen, vor allem durch ihre Algorithmen – also die Regeln, nach denen Nutzer*innen Inhalte angezeigt und auch verborgen werden. In Rumänien soll sogar eine Wahl mit Hilfe von TikTok entschieden worden sein. Hier war zwar keine KI im Spiel, aber die Algorithmen der Plattformen haben bestimmte Inhalte bevorzugt.
Diese Algorithmen orientieren sich daran, wie intensiv Menschen mit einzelnen Inhalten interagieren – je häufiger Beiträge kommentiert, gelikt oder weitergeleitet werden, desto höher ist die Wahrscheinlichkeit, dass diese Inhalte vielen weiteren Menschen angezeigt werden. Werden Inhalte wenig beachtet, stufen die Algorithmen sie als eher uninteressant ein und zeigen sie weniger Nutzer*innen an. Inhalte, die besonders viele Emotionen auslösen, verursachen tendenziell mehr Interaktionen, werden also auch eher häufiger angezeigt. Das hat zur Folge, dass besonders polarisierende Inhalte auf den Plattformen im Allgemeinen viel Reichweite bekommen. Das kann die Meinungsbildung und die Stimmung gegenüber bestimmten Themen beeinflussen. Langfristig kann so die Demokratie beeinträchtigt werden – auch wenn gerade keine Wahlen anstehen. Social-Media-Plattformen verdienen an diesem polarisierten Diskurs. Denn wenn Nutzer*innen länger auf den Plattformen bleiben, sehen sie auch mehr Werbung – darauf basiert das Geschäftsmodell der Unternehmen.
Social-Media-Plattformen schützen ihre Nutzer *innen daher auch nicht genug vor den Folgen polarisierender Beiträge. Außerdem werden neue Technologien zu oft verfrüht und ohne angemessene Risikobewertung auf den Markt gebracht. Bislang haben Regierungen die Technologiekonzerne dafür nicht genügend zur Rechenschaft gezogen.
Wie hoch ist das Risiko in Deutschland, auf Deepfakes hereinzufallen?
Das Risiko, auf Deepfakes hereinzufallen und daher eine falsche Wahlentscheidung zu treffen, ist gering. Solche oft mit KI generierten Fälschungen werden zwar verbreitet, aber auch schnell als Täuschung entlarvt. Sie haben daher bisher keine große Wirkung. Jedoch sollten Online-Nutzer*innen aufmerksam bleiben, zumal Anbieter wie Meta und X angekündigt haben, ihre Faktenchecks zu reduzieren.
AlgorithmWatch hat Tipps zusammengestellt, die Wähler*innen dabei helfen, sich online zuverlässig zu informieren:
- ChatGPT und andere Chatbots nicht als Informationsquellen benutzen: KI-Textgeneratoren wie ChatGPT produzieren systematisch falsche Behauptungen oder verzerren Inhalte. Diese Sprachmodelle generieren Texte, indem sie auf der Grundlage von Wahrscheinlichkeiten Wörter aneinanderreihen. So entstehen plausibel klingende Texte, die jedoch oft keinen Bezug zur Wahrheit haben. Sie sind daher nicht mit Suchmaschinen zu verwechseln.
- Prüfen, ob Suchmaschinen KI-Generatoren verwenden: Immer mehr Suchmaschinen integrieren trotzdem KI-basierte Sprachmodelle. Dabei fließen jedoch die Fehler und Verzerrungen, die von diesen Systemen systematisch produziert werden, in die Ergebnisse der Suchmaschinen ein. Meistens können Nutzer*innen auswählen, ob sie KI-basierte Suchergebnisse angezeigt bekommen wollen oder nicht.
- Stark emotionalisierende Inhalte kritisch hinterfragen: Die Algorithmen der Plattformen bevorzugen emotionalisierende und polarisierende Inhalte. Wenn es um Politik geht und eine Nachricht Empörung oder sogar Wut auslöst, sollte die Nachricht über andere Quellen geprüft werden. Hierfür eignen sich Websites etablierter Medien, die nach anerkannten journalistischen Standards und gesetzlichen Vorgaben arbeiten.
- Vielfältige Informationsquellen nutzen: Demokratie bedeutet auch, verschiedene Meinungen und Perspektiven darzustellen und zu akzeptieren. Mehrere Zeitungen zu lesen, Fernsehbeiträge zu schauen oder Plattformen zu nutzen erleichtert es, diese Vielfalt wahrzunehmen und auch die eigene Meinung durch verschiedene Fakten und Einschätzungen abzusichern. Und: Politiker*innen und Abgeordnete antworten in der Regel auch auf Fragen von Wähler*innen. Auf ihren Websites finden sich Kontaktmöglichkeiten.
- Erst lesen und prüfen, dann teilen: Auf Social Media und in Messengern kursieren viele Falschinformationen und auch gefälschte Quellen. Ein unbedachtes Weiterleiten trägt zu ihrer Verbreitung bei. Daher gilt grundsätzlich: Inhalte sollten vor dem Weiterleiten immer erst gelesen und genau daraufhin geprüft werden, ob es sich um die Wahrheit, um Werbung oder um unbewiesene Behauptungen handelt. Das geht am besten über eine zweite Quelle. Bei Klicks auf Links in Messengern besteht aber auch immer das Risiko, sich Schadsoftware einzufangen. Im Zweifel lohnt es sich also, einen Inhalt einfach zu ignorieren.
Fazit: Plattformbetreiber können sich polarisierende Äußerungen zunutze machen und mithilfe von Algorithmen Reaktionen von vielen Nutzer*innen provozieren. Damit untergraben sie die für eine gesunde Demokratie unerlässliche Vielfalt von Perspektiven. Wirksam vor Manipulation schützt, zur persönlichen Meinungsbildung verschiedene Informationsquellen zu nutzen und „Aufreger-Inhalte“ kritisch zu hinterfragen.