#wahlen (11 Ergebnisse)

Symbolbild Agenda PM

Pressemitteilung

Gewaltige Aufgaben: Agenda für gemeinwohl­orientierte KI

Egal wie die nächste Bundesregierung aussieht, auf sie kommen gewaltige Aufgaben zu. Die rasante Entwicklung der Künstlichen Intelligenz ist eine weitere „industrielle“ Revolution. Wir befinden uns am Scheideweg: Wird der KI-Fortschritt auch ein Fortschritt für die Menschen sein oder nur dem Fort- und Einkommen des bestehenden Tech-Adels dienen? Setzen wir Menschen die neuen Technologien nachhaltig ein? Oder werden mit ihnen weiter rücksichtslos Mensch und Natur ausgebeutet?

Pressemitteilung

KI zur Bundestagswahl: Untersuchung der Risiken großer Sprachmodelle hängt am Forschungszugang

Sprachmodelle sind weiterhin unzuverlässig und nicht geeignet für sensible Themen. Das ergibt eine erneute Untersuchung von AlgorithmWatch zu KI und Wahlen.

Gedruckte Broschüre als Mocjup

Schlussbericht: Untersuchung zu Chatbots im Vorfeld der Landtagswahlen 2024

Große Sprachmodelle in Bezug auf Wahlen nach wie vor unzuverlässig

Große Sprachmodelle sind in Bezug auf Wahlen nach wie vor unzuverlässig. Unsere Forschung konnte die Zuverlässigkeit der Schutzmaßnahmen im Microsoft Copilot Chatbot gegen falsche Wahlinformationen in deutscher Sprache erheblich verbessern. Die Barrieren für den Datenzugang schränkten unsere Untersuchungen an anderen Chatbots jedoch stark ein.

AlgorithmWatch diskutiert:

KI und Demokratie – Welchen Einfluss haben Chatbots auf Wahlentscheidungen?

AlgorithmWatch hat erneut getestet, ob KI-Chatbots Fragen zu Wahlen korrekt und unvoreingenommen beantworten. Die Chatbots sind zwar in einzelnen Aspekten besser geworden, taugen aber immer noch nicht als zuverlässige Informationsquelle. Am Donnerstag, den 12. September 2024 um 19:30 diskutierten wir mit Expert*innen aus Wissenschaft und Politik über die Ergebnisse unserer Recherche sowie über den Einfluss, den Chatbots auf Wahlentscheidungen haben können.

Im Vorfeld der Landtagswahlen:

Chatbots bringen noch immer viele Falschinformationen in Umlauf

Im September 2024 finden in den Bundesländern Thüringen, Sachsen und Brandenburg Landtagswahlen statt. AlgorithmWatch und CASM Technology haben getestet, ob KI-Chatbots Fragen zu diesen Wahlen korrekt und unvoreingenommen beantworten. Das Ergebnis: Sie sind nicht verlässlich.

OpenAI bricht eigene Regeln: Generatoren produzieren täuschende KI-Bilder zur EU-Wahl

AlgorithmWatch hat getestet, welche Bilder sich kurz vor der EU-Wahl von den großen KI-Systemen generieren lassen: Zwei der größten Anbieter halten sich nicht an Sicherheitsmaßnahmen, die sie selbst angekündigt haben.

10 Fragen zu KI und Wahlen

2024 ist ein Super-Wahljahr. Wähler*innen auf der ganzen Welt denken darüber nach, wem sie ihre Stimme geben, machen sich aber auch Sorgen über KI: Sind Chatbots und „Deepfake“-Videos eine Gefahr für die Demokratie? Können wir Online-Inhalten noch trauen? Wir erklären, warum der Hype um KI und Wahlen teilweise übertrieben ist und auf welche Risiken wir stattdessen reagieren sollten.

Schlussbericht: Untersuchung zu Microsoft Bing Chat

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

Bing Chat, der in Microsofts Suchmaschine Bing integrierte KI-Chatbot, erfindet Skandale, denkt sich Umfragewerte aus und gibt den Wahltermin falsch an. Microsoft scheint nicht in der Lage oder nicht willens zu sein, das Problem zu beheben. Das zeigt eine Studie von AlgorithmWatch und AI Forensics, deren Schlussbericht nun vorliegt. Darin haben wir das Antwortverhalten des Chatbots zu Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023 untersucht.

Pressemitteilung

Studie zu KI-basierter Microsoft-Suche: Gefährlich unzuverlässig

Wer sich vor Wahlen bei Bing Chat informiert, muss mit irreführenden, falschen und einseitigen Antworten rechnen. Die Microsoft-Suchmaschine mit integrierter Chatbot-Funktion erfindet Skandale und denkt sich Umfragewerte aus. Das zeigt eine Studie von AlgorithmWatch und AI Forensics zu den Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023, deren Schlussbericht nun vorliegt. Microsoft scheint keine Lösung für das Problem zu haben.

Zwischenergebnisse: Untersuchung zu Microsoft Bing Chat

Große KI-Sprachmodelle im Kontext von Wahlen

Wie zuverlässig beantwortet der Chatbot der Microsoft-Suchmaschine Bing Fragen zu den anstehenden Wahlen in Hessen, Bayern und der Schweiz? Unsere Forschung belegt: Das dahinter stehende große Sprachmodell GPT-4 erzeugt und verbreitet ausgedachte und irreführende Informationen. Das könnte zur Gefahr für die Demokratie werden.

Neue Recherche

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.