#wahlen (6 Ergebnisse)

OpenAI bricht eigene Regeln: Generatoren produzieren täuschende KI-Bilder zur EU-Wahl

AlgorithmWatch hat getestet, welche Bilder sich kurz vor der EU-Wahl von den großen KI-Systemen generieren lassen: Zwei der größten Anbieter halten sich nicht an Sicherheitsmaßnahmen, die sie selbst angekündigt haben.

10 Fragen zu KI und Wahlen

2024 ist ein Super-Wahljahr. Wähler*innen auf der ganzen Welt denken darüber nach, wem sie ihre Stimme geben, machen sich aber auch Sorgen über KI: Sind Chatbots und „Deepfake“-Videos eine Gefahr für die Demokratie? Können wir Online-Inhalten noch trauen? Wir erklären, warum der Hype um KI und Wahlen teilweise übertrieben ist und auf welche Risiken wir stattdessen reagieren sollten.

Schlussbericht: Untersuchung zu Microsoft Bing Chat

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

Bing Chat, der in Microsofts Suchmaschine Bing integrierte KI-Chatbot, erfindet Skandale, denkt sich Umfragewerte aus und gibt den Wahltermin falsch an. Microsoft scheint nicht in der Lage oder nicht willens zu sein, das Problem zu beheben. Das zeigt eine Studie von AlgorithmWatch und AI Forensics, deren Schlussbericht nun vorliegt. Darin haben wir das Antwortverhalten des Chatbots zu Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023 untersucht.

Pressemitteilung

Studie zu KI-basierter Microsoft-Suche: Gefährlich unzuverlässig

Wer sich vor Wahlen bei Bing Chat informiert, muss mit irreführenden, falschen und einseitigen Antworten rechnen. Die Microsoft-Suchmaschine mit integrierter Chatbot-Funktion erfindet Skandale und denkt sich Umfragewerte aus. Das zeigt eine Studie von AlgorithmWatch und AI Forensics zu den Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023, deren Schlussbericht nun vorliegt. Microsoft scheint keine Lösung für das Problem zu haben.

Zwischenergebnisse: Untersuchung zu Microsoft Bing Chat

Große KI-Sprachmodelle im Kontext von Wahlen

Wie zuverlässig beantwortet der Chatbot der Microsoft-Suchmaschine Bing Fragen zu den anstehenden Wahlen in Hessen, Bayern und der Schweiz? Unsere Forschung belegt: Das dahinter stehende große Sprachmodell GPT-4 erzeugt und verbreitet ausgedachte und irreführende Informationen. Das könnte zur Gefahr für die Demokratie werden.

Neue Recherche

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.