Publikation

Automatisierte Polizeiarbeit: Wie Algorithmen in Deutschland Straftaten „voraussehen“ sollen

Die Polizei, Strafverfolgungsbehörden und Justizvollzugsanstalten in Deutschland versuchen immer stärker, Straftaten digital „vorherzusagen“ und zu „verhindern“. Der Bericht „Automating Injustice“ gibt einen Überblick über solche algorithmischen Systeme, die in Deutschland entwickelt und eingesetzt werden.

Gedruckte Broschüre als Mocjup

Schlussbericht: Untersuchung zu Chatbots im Vorfeld der Landtagswahlen 2024

Große Sprachmodelle in Bezug auf Wahlen nach wie vor unzuverlässig

Große Sprachmodelle sind in Bezug auf Wahlen nach wie vor unzuverlässig. Unsere Forschung konnte die Zuverlässigkeit der Schutzmaßnahmen im Microsoft Copilot Chatbot gegen falsche Wahlinformationen in deutscher Sprache erheblich verbessern. Die Barrieren für den Datenzugang schränkten unsere Untersuchungen an anderen Chatbots jedoch stark ein.

Schlussbericht: Untersuchung zu Microsoft Bing Chat

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

Bing Chat, der in Microsofts Suchmaschine Bing integrierte KI-Chatbot, erfindet Skandale, denkt sich Umfragewerte aus und gibt den Wahltermin falsch an. Microsoft scheint nicht in der Lage oder nicht willens zu sein, das Problem zu beheben. Das zeigt eine Studie von AlgorithmWatch und AI Forensics, deren Schlussbericht nun vorliegt. Darin haben wir das Antwortverhalten des Chatbots zu Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023 untersucht.

KI und Nachhaltigkeit

SustAIn-Magazin #3 – KI anders denken: Wie wir selber entscheiden, mit welcher KI wir leben wollen

Die dritte und letzte Ausgabe des SustAIn-Magazins befasst sich mit der Frage, wer dafür Verantwortung übernehmen könnte, Irrfahrten bei der KI-Entwicklung wieder in die richtige Richtung zu lenken.

Zwischenergebnisse: Untersuchung zu Microsoft Bing Chat

Große KI-Sprachmodelle im Kontext von Wahlen

Wie zuverlässig beantwortet der Chatbot der Microsoft-Suchmaschine Bing Fragen zu den anstehenden Wahlen in Hessen, Bayern und der Schweiz? Unsere Forschung belegt: Das dahinter stehende große Sprachmodell GPT-4 erzeugt und verbreitet ausgedachte und irreführende Informationen. Das könnte zur Gefahr für die Demokratie werden.

Was folgt aus dem Digital Services Act

Plattformregulierung: Wie lassen sich systemische Risiken für die Demokratie erkennen?

Wie sollen die Betreiber von großen Plattformen und Suchmaschinen dem Digital Services Act (DSA) zufolge „systemische Risiken“ erkennen? AlgorithmWatch hat eine Methodik entworfen, an der wir uns als zivilgesellschaftliche Watchdog-Organisation orientieren werden, um die gerade stattfindenden Risikobewertungen kritisch zu begleiten.

Digital Autonomy Policy Brief #9

Biometrische Überwachung

Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie biometrische Erkennungssysteme Grundrechte beschneiden können.

Pressemitteilung

Neue Studie zu KI im Personalwesen: Beschäftigten fehlt Kontrolle und Mitbestimmung

Beschäftigte müssen mitreden können, wenn am Arbeitsplatz sogenannte Künstliche Intelligenz (KI) eingesetzt wird. Unternehmen verwenden immer häufiger automatische Entscheidungssysteme (automated decision-making, ADM), die auf Maschinellem Lernen, einem KI-Verfahren, beruhen. Die KI-Verordnung der EU allein wird nicht ausreichen, um beim Einsatz dieser Systeme die Rechte der Beschäftigten zu sichern. Eine von der Hans-Böckler-Stiftung geförderte Studie von AlgorithmWatch erläutert, wie sich Mitsprache konkret umsetzen lässt.

Neue Ausgabe des SustAIn-Magazins: KI und ihre Folgen für die Nachhaltigkeit

In der zweiten Ausgabe des SustAIn-Magazins zeigen wir, wann KI nicht nachhaltig ist und wie bessere Lösungen aussehen könnten.

AlgorithmWatch stellt vor: Ein KI-Transparenzregister für die öffentliche Verwaltung

Ein KI-Register würde die Digitalkompetenz von Behörden fördern und die Rechte der Bürger*innen stärken. Die Grünen im Bundestag greifen unsere Idee nun auf.

Neue Studie beleuchtet die entscheidende Rolle der Gewerkschaften im Hinblick auf algorithmische Transparenz in der Arbeitswelt

Unser neuer Bericht zeigt, dass die Gewerkschaften jetzt aufgefordert sind, praktische Ratschläge und Leitlinien für Gewerkschaftsvertreter*innen bereitzustellen, um den Herausforderungen zu begegnen, die die Automatisierung den Arbeitnehmenden stellt.

Digital Autonomy Policy Brief #8: Automatisiertes Personalmanagement und Selbstbestimmung

Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie Arbeitnehmende angesichts zunehmend automatisierter Personalmanagementsysteme für ihre Rechte einstehen können.

Digital Autonomy Policy Brief #7: Digitale Selbstbestimmung und Nachhaltigkeit

Im Umgang mit digitalen Produkten oder Umgebungen haben Verbraucher*innen kaum eine Chance, selbstbestimmt nachhaltig zu handeln. In diesem Policy Brief zeigen wir, dass wir in der Digitalpolitik mehr Transparenz, Regulierung und Anreize für methodische Innovation brauchen.

Kurzstudie: Nachhaltige KI und digitale Selbstbestimmung

Voraussetzungen für einen selbstbestimmten und nachhaltigen Umgang mit KI im Alltag – eine Auftragsarbeit für das Netzwerk CO:DINA

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Digital Autonomy Policy Brief #6 zu Online-Plattformen: Unabhängige Forschung braucht Datenzugang

Um große Online-Plattformen wie Facebook und YouTube zur Verantwortung zu ziehen, brauchen Forscher*innen einen unabhängigen Zugang zu Plattformdaten. In neuen Policy Brief des Digital Autonomy Hub erklären wir, warum der neue Digital Services Act ein Schritt nach vorn ist.

SustAIn-Magazin #1 zu nachhaltiger KI in der Praxis

KI hat ökologische, soziale und wirtschaftliche Kosten zur Folge. Wissenschaft, Industrie, Zivilgesellschaft und Politik müssen dringend auf der Grundlage von Fakten über diese Kosten sprechen und handeln. Mit dem ersten SustAIn-Magazin wollen wir unseren Beitrag zu solch einem Austausch leisten.

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Digital Autonomy Policy Brief #5: Algorithmenbasierte Diskriminierung

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Die EU und Datenspenden: Eine gute Idee im Keim erstickt

In einem neuen Diskussionspapier von AlgorithmWatch nimmt der Datenschutz-Experte Winfried Veil zum „Data Governance Act“ Stellung. Er sieht darin ein bürokratisches Ärgernis und eine verpasste Gelegenheit, Daten für einen guten Zweck einzusetzen.

Der Artificial Intelligence Act der EU: Ein risikobasierter Ansatz zur Regulierung von KI – was er vorschlägt und wozu er taugt

In ihrem Beitrag in der Zeitschrift für Europarecht erläutert Angela Müller den KI-Verordnungsentwurf („AI Act“) der EU-Kommission und beleuchtet diesen kritisch.

Nachhaltigkeitskriterien für Künstliche Intelligenz – Bewertungsansatz vorgelegt

Um die Nachhaltigkeit von KI-Systemen ist es mitunter nicht gut bestellt. Es geht dabei unter anderem um Diskriminierung, hohe Energie- und Ressourcenverbräuche sowie die Reproduktion gesellschaftlicher Ungleichheiten. Das Projekt „SustAIn“ hat in einer neuen Publikation umfassende Kriterien für eine systematische Nachhaltigkeitsbewertung von KI-basierten Systemen vorgelegt – mit dem Ziel diese nachhaltiger zu gestalten.

Digital Autonomy Policy Brief #4 – Digitale Selbstbestimmung

Im vierten Digital Autonomy Policy-Brief legen wir dar, warum wir die Diskussion über digitale Selbstbestimmung befürworten, warum wir dringend eine Abgrenzung vom Begriff der „digitalen Souveränität“ brauchen, welche digitalpolitischen Leitlinien sich hieraus ergeben und wie eine neue Bundesregierung diese ab sofort umsetzen sollte.

Tracing The Tracers-Report 2021: Die automatisierte Bekämpfung der COVID-Pandemie

In diesem Abschlussbericht liefern wir eine erste umfassende Einschätzung der wichtigsten Trends und Entwicklungen bei den ADM-gestützten Maßnahmen gegen COVID-19.

Digital Autonomy Policy Brief #3 – Tools zur Folgenabschätzung

Automatisierte Entscheidungsfindungssysteme (ADM) sind im öffentlichen Sektor angekommen. Sie etablieren sich auch in öffentlichen Verwaltungen zunehmend als Instrumente, die Entscheidungsverfahren und Dienstleistungen effizienter, einfacher und nutzerfreundlicher gestalten sollen. Im dritten Policy Brief des Digital Autonomy Hubs legen wir dar, warum ihr Einsatz in der Verwaltung besondere Herausforderungen aufwirft und wie ihnen begegnet werden kann. Hierfür stellen wir ein Instrument vor, mit dem die Folgen von ADM-Systemen eingeschätzt, Risiken identifiziert und gegebenenfalls die Systeme angepasst werden können.