Publikation

Schlussbericht: Untersuchung zu Microsoft Bing Chat

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

Bing Chat, der in Microsofts Suchmaschine Bing integrierte KI-Chatbot, erfindet Skandale, denkt sich Umfragewerte aus und gibt den Wahltermin falsch an. Microsoft scheint nicht in der Lage oder nicht willens zu sein, das Problem zu beheben. Das zeigt eine Studie von AlgorithmWatch und AI Forensics, deren Schlussbericht nun vorliegt. Darin haben wir das Antwortverhalten des Chatbots zu Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023 untersucht.

KI und Nachhaltigkeit

SustAIn-Magazin #3 – KI anders denken: Wie wir selber entscheiden, mit welcher KI wir leben wollen

Die dritte und letzte Ausgabe des SustAIn-Magazins befasst sich mit der Frage, wer dafür Verantwortung übernehmen könnte, Irrfahrten bei der KI-Entwicklung wieder in die richtige Richtung zu lenken.

Zwischenergebnisse: Untersuchung zu Microsoft Bing Chat

Große KI-Sprachmodelle im Kontext von Wahlen

Wie zuverlässig beantwortet der Chatbot der Microsoft-Suchmaschine Bing Fragen zu den anstehenden Wahlen in Hessen, Bayern und der Schweiz? Unsere Forschung belegt: Das dahinter stehende große Sprachmodell GPT-4 erzeugt und verbreitet ausgedachte und irreführende Informationen. Das könnte zur Gefahr für die Demokratie werden.

Was folgt aus dem Digital Services Act

Plattformregulierung: Wie lassen sich systemische Risiken für die Demokratie erkennen?

Wie sollen die Betreiber von großen Plattformen und Suchmaschinen dem Digital Services Act (DSA) zufolge „systemische Risiken“ erkennen? AlgorithmWatch hat eine Methodik entworfen, an der wir uns als zivilgesellschaftliche Watchdog-Organisation orientieren werden, um die gerade stattfindenden Risikobewertungen kritisch zu begleiten.

Digital Autonomy Policy Brief #9

Biometrische Überwachung

Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie biometrische Erkennungssysteme Grundrechte beschneiden können.

Pressemitteilung

Neue Studie zu KI im Personalwesen: Beschäftigten fehlt Kontrolle und Mitbestimmung

Beschäftigte müssen mitreden können, wenn am Arbeitsplatz sogenannte Künstliche Intelligenz (KI) eingesetzt wird. Unternehmen verwenden immer häufiger automatische Entscheidungssysteme (automated decision-making, ADM), die auf Maschinellem Lernen, einem KI-Verfahren, beruhen. Die KI-Verordnung der EU allein wird nicht ausreichen, um beim Einsatz dieser Systeme die Rechte der Beschäftigten zu sichern. Eine von der Hans-Böckler-Stiftung geförderte Studie von AlgorithmWatch erläutert, wie sich Mitsprache konkret umsetzen lässt.

Neue Ausgabe des SustAIn-Magazins: KI und ihre Folgen für die Nachhaltigkeit

In der zweiten Ausgabe des SustAIn-Magazins zeigen wir, wann KI nicht nachhaltig ist und wie bessere Lösungen aussehen könnten.

AlgorithmWatch stellt vor: Ein KI-Transparenzregister für die öffentliche Verwaltung

Ein KI-Register würde die Digitalkompetenz von Behörden fördern und die Rechte der Bürger*innen stärken. Die Grünen im Bundestag greifen unsere Idee nun auf.

Neue Studie beleuchtet die entscheidende Rolle der Gewerkschaften im Hinblick auf algorithmische Transparenz in der Arbeitswelt

Unser neuer Bericht zeigt, dass die Gewerkschaften jetzt aufgefordert sind, praktische Ratschläge und Leitlinien für Gewerkschaftsvertreter*innen bereitzustellen, um den Herausforderungen zu begegnen, die die Automatisierung den Arbeitnehmenden stellt.

Digital Autonomy Policy Brief #8: Automatisiertes Personalmanagement und Selbstbestimmung

Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie Arbeitnehmende angesichts zunehmend automatisierter Personalmanagementsysteme für ihre Rechte einstehen können.

Digital Autonomy Policy Brief #7: Digitale Selbstbestimmung und Nachhaltigkeit

Im Umgang mit digitalen Produkten oder Umgebungen haben Verbraucher*innen kaum eine Chance, selbstbestimmt nachhaltig zu handeln. In diesem Policy Brief zeigen wir, dass wir in der Digitalpolitik mehr Transparenz, Regulierung und Anreize für methodische Innovation brauchen.

Kurzstudie: Nachhaltige KI und digitale Selbstbestimmung

Voraussetzungen für einen selbstbestimmten und nachhaltigen Umgang mit KI im Alltag – eine Auftragsarbeit für das Netzwerk CO:DINA

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Digital Autonomy Policy Brief #6 zu Online-Plattformen: Unabhängige Forschung braucht Datenzugang

Um große Online-Plattformen wie Facebook und YouTube zur Verantwortung zu ziehen, brauchen Forscher*innen einen unabhängigen Zugang zu Plattformdaten. In neuen Policy Brief des Digital Autonomy Hub erklären wir, warum der neue Digital Services Act ein Schritt nach vorn ist.

SustAIn-Magazin #1 zu nachhaltiger KI in der Praxis

KI hat ökologische, soziale und wirtschaftliche Kosten zur Folge. Wissenschaft, Industrie, Zivilgesellschaft und Politik müssen dringend auf der Grundlage von Fakten über diese Kosten sprechen und handeln. Mit dem ersten SustAIn-Magazin wollen wir unseren Beitrag zu solch einem Austausch leisten.

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Digital Autonomy Policy Brief #5: Algorithmenbasierte Diskriminierung

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Die EU und Datenspenden: Eine gute Idee im Keim erstickt

In einem neuen Diskussionspapier von AlgorithmWatch nimmt der Datenschutz-Experte Winfried Veil zum „Data Governance Act“ Stellung. Er sieht darin ein bürokratisches Ärgernis und eine verpasste Gelegenheit, Daten für einen guten Zweck einzusetzen.

Der Artificial Intelligence Act der EU: Ein risikobasierter Ansatz zur Regulierung von KI – was er vorschlägt und wozu er taugt

In ihrem Beitrag in der Zeitschrift für Europarecht erläutert Angela Müller den KI-Verordnungsentwurf („AI Act“) der EU-Kommission und beleuchtet diesen kritisch.

Nachhaltigkeitskriterien für Künstliche Intelligenz – Bewertungsansatz vorgelegt

Um die Nachhaltigkeit von KI-Systemen ist es mitunter nicht gut bestellt. Es geht dabei unter anderem um Diskriminierung, hohe Energie- und Ressourcenverbräuche sowie die Reproduktion gesellschaftlicher Ungleichheiten. Das Projekt „SustAIn“ hat in einer neuen Publikation umfassende Kriterien für eine systematische Nachhaltigkeitsbewertung von KI-basierten Systemen vorgelegt – mit dem Ziel diese nachhaltiger zu gestalten.

Digital Autonomy Policy Brief #4 – Digitale Selbstbestimmung

Im vierten Digital Autonomy Policy-Brief legen wir dar, warum wir die Diskussion über digitale Selbstbestimmung befürworten, warum wir dringend eine Abgrenzung vom Begriff der „digitalen Souveränität“ brauchen, welche digitalpolitischen Leitlinien sich hieraus ergeben und wie eine neue Bundesregierung diese ab sofort umsetzen sollte.

Tracing The Tracers-Report 2021: Die automatisierte Bekämpfung der COVID-Pandemie

In diesem Abschlussbericht liefern wir eine erste umfassende Einschätzung der wichtigsten Trends und Entwicklungen bei den ADM-gestützten Maßnahmen gegen COVID-19.

Digital Autonomy Policy Brief #3 – Tools zur Folgenabschätzung

Automatisierte Entscheidungsfindungssysteme (ADM) sind im öffentlichen Sektor angekommen. Sie etablieren sich auch in öffentlichen Verwaltungen zunehmend als Instrumente, die Entscheidungsverfahren und Dienstleistungen effizienter, einfacher und nutzerfreundlicher gestalten sollen. Im dritten Policy Brief des Digital Autonomy Hubs legen wir dar, warum ihr Einsatz in der Verwaltung besondere Herausforderungen aufwirft und wie ihnen begegnet werden kann. Hierfür stellen wir ein Instrument vor, mit dem die Folgen von ADM-Systemen eingeschätzt, Risiken identifiziert und gegebenenfalls die Systeme angepasst werden können.

Automatisierte Entscheidungssysteme im öffentlichen Sektor – Ein Impact-Assessment-Tool für die öffentliche Verwaltung

Wie können wir gewährleisten, dass die öffentliche Verwaltung automatisierte Entscheidungssysteme vertrauenswürdig einsetzt? AlgorithmWatch und AlgorithmWatch Schweiz haben ein Instrument zur Folgenabschätzung (Impact Assessment Tool) erarbeitet, das Behörden verschiedener Verwaltungsebenen für die Analyse spezifischer Systeme verwenden können. Das Dokument ist jetzt auch auf Deutsch verfügbar.

Towards accountability in the use of Artificial Intelligence for Public Administrations

Michele Loi und Matthias Spielkamp analysieren den Regelungsgehalt von 16 Richtliniendokumenten über den Einsatz von KI im öffentlichen Sektor, indem sie deren Anforderungen mit den Kriterien unserer philosophischen Darstellung von Rechenschaftspflicht abgleichen. Sie kommen zu dem Schluss, dass einige Richtlinien zwar auf Prozesse verweisen, die auf eine Prüfung hinauslaufen, die Debatte jedoch von mehr Klarheit über die Art der Berechtigung von Prüfern und die Ziele der Prüfung profitieren würde. Dies diene nicht zuletzt dazu, ethisch sinnvolle Standards zu entwickeln, anhand derer verschiedene Formen der Prüfung bewertet und verglichen werden können.