KI und Wahlen: Was muss ich beachten?

Bald ist die Bundestagswahl und viele Menschen denken noch darüber nach, wem sie ihre Stimme geben. Das Internet kann bei der Entscheidung helfen, doch Warnungen vor Chatbots und „Deepfake“-Videos verunsichern. Ist KI wirklich eine Gefahr für die Demokratie? Wir ordnen ein, welche Rolle KI und Algorithmen bei Wahlen aktuell spielen und wie Wähler*innen sich zuverlässig informieren können.

Blog

13. Februar 2025

Vorab:Bisher gibt es kaum Beweise dafür, dass KI-generierte Falschnachrichten und andere irreführende Inhalte Wahlen bedeutend beeinflusst haben. Denn Wahlentscheidungen sind komplex und werden von mehr Faktoren beeinflusst als nur von Online-Inhalten.

Neue Technologie ja, aber keine neuen Probleme - bisher

Generative KI wird durchaus schon eingesetzt, um Wähler*innen in die Irre zu führen. In der Slowakei kursierten im Wahlkampf Audiodateien mit gefälschten KI-Stimmen und in den USA machten automatisierte Anrufe mit der KI-generierten Stimme von Joe Biden die Runde. Auch in Deutschland werden falsche oder irreführende KI-Inhalte zur Wahl erstellt und verbreitet. Gleichzeitig kommen weiterhin ältere Manipulationstaktiken zum Zuge, etwa echte Bilder aus dem Kontext zu reißen. Schon lange vor KI und sogar dem Internet wurden Bilder gefälscht, Lügen verbreitet und Menschen bewusst getäuscht.

Die neue Technologie verursacht also keine neuen Probleme, auch wenn sie trotzdem Schäden anrichtet, beispielsweise indem sie die Verbreitung von Falschinformationen zu Wahlen erleichtert. Das zeigen Untersuchungen von AlgorithmWatch zu Landtagswahlen der letzten zwei Jahre: https://algorithmwatch.org/de/sprachmodelle_landtagswahlen/

Algorithmen beeinflussen die Meinungsbildung

Dennoch können Social Media und andere Online-Plattformen Meinungen beeinflussen, vor allem durch ihre Algorithmen – also die Regeln, nach denen Nutzer*innen Inhalte angezeigt und auch verborgen werden. In Rumänien soll sogar eine Wahl mit Hilfe von TikTok entschieden worden sein. Hier war zwar keine KI im Spiel, aber die Algorithmen der Plattformen haben bestimmte Inhalte bevorzugt.

Diese Algorithmen orientieren sich daran, wie intensiv Menschen mit einzelnen Inhalten interagieren – je häufiger Beiträge kommentiert, gelikt oder weitergeleitet werden, desto höher ist die Wahrscheinlichkeit, dass diese Inhalte vielen weiteren Menschen angezeigt werden. Werden Inhalte wenig beachtet, stufen die Algorithmen sie als eher uninteressant ein und zeigen sie weniger Nutzer*innen an. Inhalte, die besonders viele Emotionen auslösen, verursachen tendenziell mehr Interaktionen, werden also auch eher häufiger angezeigt. Das hat zur Folge, dass besonders polarisierende Inhalte auf den Plattformen im Allgemeinen viel Reichweite bekommen. Das kann die Meinungsbildung und die Stimmung gegenüber bestimmten Themen beeinflussen. Langfristig kann so die Demokratie beeinträchtigt werden – auch wenn gerade keine Wahlen anstehen. Social-Media-Plattformen verdienen an diesem polarisierten Diskurs. Denn wenn Nutzer*innen länger auf den Plattformen bleiben, sehen sie auch mehr Werbung – darauf basiert das Geschäftsmodell der Unternehmen.

Social-Media-Plattformen schützen ihre Nutzer *innen daher auch nicht genug vor den Folgen polarisierender Beiträge. Außerdem werden neue Technologien zu oft verfrüht und ohne angemessene Risikobewertung auf den Markt gebracht. Bislang haben Regierungen die Technologiekonzerne dafür nicht genügend zur Rechenschaft gezogen.

Wie hoch ist das Risiko in Deutschland, auf Deepfakes hereinzufallen?

Das Risiko, auf Deepfakes hereinzufallen und daher eine falsche Wahlentscheidung zu treffen, ist gering. Solche oft mit KI generierten Fälschungen werden zwar verbreitet, aber auch schnell als Täuschung entlarvt. Sie haben daher bisher keine große Wirkung. Jedoch sollten Online-Nutzer*innen aufmerksam bleiben, zumal Anbieter wie Meta und X angekündigt haben, ihre Faktenchecks zu reduzieren.

AlgorithmWatch hat Tipps zusammengestellt, die Wähler*innen dabei helfen, sich online zuverlässig zu informieren:  

Fazit: Plattformbetreiber können sich polarisierende Äußerungen zunutze machen und mithilfe von Algorithmen Reaktionen von vielen Nutzer*innen provozieren. Damit untergraben sie die für eine gesunde Demokratie unerlässliche Vielfalt von Perspektiven. Wirksam vor Manipulation schützt, zur persönlichen Meinungsbildung verschiedene Informationsquellen zu nutzen und „Aufreger-Inhalte“ kritisch zu hinterfragen.