Publikation

Umfrage: Ressourcenverbrauch von Rechenzentren

Mehrheit besorgt über Energie- und Wasserverbrauch von Rechenzentren

Die Mehrheit der Menschen macht sich Sorgen über den Energie- und Wasserverbrauch von Rechenzentren, die unter anderem für Entwicklung und Betrieb von Künstlicher Intelligenz benötigt werden. Das zeigt eine repräsentative Umfrage in mehreren europäischen Ländern, an der auch AlgorithmWatch beteiligt war.

Mockup einer aufgeschlagene Broschüre des technischen Gutachtens 'Braucht die Polizei eine Datenbank zum biometrischen Abgleich?'.

Gutachten

Braucht die Polizei eine Datenbank zum biometrischen Abgleich?

Ist ein biometrischer Abgleich zwischen Aufnahmen von Überwachungskameras und im Internet verfügbaren Bildern ohne Verwendung einer Datenbank möglich?

Die Illustration zeigt die KI-Liferkette anhand von 5 Stationen. Rohstoff-Abbau, Hardware-Erstellung, Training von Modellen, Systemnutzung und Entsorgung.

Einfach erklärt

Die Umweltkosten der KI-Lieferkette

Die KI-Lieferkette vom Rohstoff-Abbau bis zur Entsorgung.

MockUp der Publikation Konzept für ein KI-Transparenzregister

Ein verbindliches KI-Transparenzregister für Deutschland

Die öffentliche Verwaltung setzt zunehmend auf Künstliche Intelligenz – doch mit dem Einsatz wachsen auch die Risiken. Ein nationales KI-Register muss für Transparenz sorgen. In zwei Publikationen zeigen wir, wie das rechtlich, technisch und organisatorisch gelingen kann.

Automatisierte Polizeiarbeit: Wie Algorithmen in Deutschland Straftaten „voraussehen“ sollen

Die Polizei, Strafverfolgungsbehörden und Justizvollzugsanstalten in Deutschland versuchen immer stärker, Straftaten digital „vorherzusagen“ und zu „verhindern“. Der Bericht „Automating Injustice“ gibt einen Überblick über solche algorithmischen Systeme, die in Deutschland entwickelt und eingesetzt werden.

Gedruckte Broschüre LLM-Report als Mockup

Schlussbericht: Untersuchung zu Chatbots im Vorfeld der Landtagswahlen 2024

Große Sprachmodelle in Bezug auf Wahlen nach wie vor unzuverlässig

Große Sprachmodelle sind in Bezug auf Wahlen nach wie vor unzuverlässig. Unsere Forschung konnte die Zuverlässigkeit der Schutzmaßnahmen im Microsoft Copilot Chatbot gegen falsche Wahlinformationen in deutscher Sprache erheblich verbessern. Die Barrieren für den Datenzugang schränkten unsere Untersuchungen an anderen Chatbots jedoch stark ein.

Schlussbericht: Untersuchung zu Microsoft Bing Chat

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

Bing Chat, der in Microsofts Suchmaschine Bing integrierte KI-Chatbot, erfindet Skandale, denkt sich Umfragewerte aus und gibt den Wahltermin falsch an. Microsoft scheint nicht in der Lage oder nicht willens zu sein, das Problem zu beheben. Das zeigt eine Studie von AlgorithmWatch und AI Forensics, deren Schlussbericht nun vorliegt. Darin haben wir das Antwortverhalten des Chatbots zu Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023 untersucht.

KI und Nachhaltigkeit

SustAIn-Magazin #3 – KI anders denken: Wie wir selber entscheiden, mit welcher KI wir leben wollen

Die dritte und letzte Ausgabe des SustAIn-Magazins befasst sich mit der Frage, wer dafür Verantwortung übernehmen könnte, Irrfahrten bei der KI-Entwicklung wieder in die richtige Richtung zu lenken.

Zwischenergebnisse: Untersuchung zu Microsoft Bing Chat

Große KI-Sprachmodelle im Kontext von Wahlen

Wie zuverlässig beantwortet der Chatbot der Microsoft-Suchmaschine Bing Fragen zu den anstehenden Wahlen in Hessen, Bayern und der Schweiz? Unsere Forschung belegt: Das dahinter stehende große Sprachmodell GPT-4 erzeugt und verbreitet ausgedachte und irreführende Informationen. Das könnte zur Gefahr für die Demokratie werden.

Was folgt aus dem Digital Services Act

Plattformregulierung: Wie lassen sich systemische Risiken für die Demokratie erkennen?

Wie sollen die Betreiber von großen Plattformen und Suchmaschinen dem Digital Services Act (DSA) zufolge „systemische Risiken“ erkennen? AlgorithmWatch hat eine Methodik entworfen, an der wir uns als zivilgesellschaftliche Watchdog-Organisation orientieren werden, um die gerade stattfindenden Risikobewertungen kritisch zu begleiten.

Digital Autonomy Policy Brief #9

Biometrische Überwachung

Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie biometrische Erkennungssysteme Grundrechte beschneiden können.

Pressemitteilung

Neue Studie zu KI im Personalwesen: Beschäftigten fehlt Kontrolle und Mitbestimmung

Beschäftigte müssen mitreden können, wenn am Arbeitsplatz sogenannte Künstliche Intelligenz (KI) eingesetzt wird. Unternehmen verwenden immer häufiger automatische Entscheidungssysteme (automated decision-making, ADM), die auf Maschinellem Lernen, einem KI-Verfahren, beruhen. Die KI-Verordnung der EU allein wird nicht ausreichen, um beim Einsatz dieser Systeme die Rechte der Beschäftigten zu sichern. Eine von der Hans-Böckler-Stiftung geförderte Studie von AlgorithmWatch erläutert, wie sich Mitsprache konkret umsetzen lässt.

Neue Ausgabe des SustAIn-Magazins: KI und ihre Folgen für die Nachhaltigkeit

In der zweiten Ausgabe des SustAIn-Magazins zeigen wir, wann KI nicht nachhaltig ist und wie bessere Lösungen aussehen könnten.

AlgorithmWatch stellt vor: Ein KI-Transparenzregister für die öffentliche Verwaltung

Ein KI-Register würde die Digitalkompetenz von Behörden fördern und die Rechte der Bürger*innen stärken. Die Grünen im Bundestag greifen unsere Idee nun auf.

Neue Studie beleuchtet die entscheidende Rolle der Gewerkschaften im Hinblick auf algorithmische Transparenz in der Arbeitswelt

Unser neuer Bericht zeigt, dass die Gewerkschaften jetzt aufgefordert sind, praktische Ratschläge und Leitlinien für Gewerkschaftsvertreter*innen bereitzustellen, um den Herausforderungen zu begegnen, die die Automatisierung den Arbeitnehmenden stellt.

Digital Autonomy Policy Brief #8: Automatisiertes Personalmanagement und Selbstbestimmung

Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie Arbeitnehmende angesichts zunehmend automatisierter Personalmanagementsysteme für ihre Rechte einstehen können.

Digital Autonomy Policy Brief #7: Digitale Selbstbestimmung und Nachhaltigkeit

Im Umgang mit digitalen Produkten oder Umgebungen haben Verbraucher*innen kaum eine Chance, selbstbestimmt nachhaltig zu handeln. In diesem Policy Brief zeigen wir, dass wir in der Digitalpolitik mehr Transparenz, Regulierung und Anreize für methodische Innovation brauchen.

Kurzstudie: Nachhaltige KI und digitale Selbstbestimmung

Voraussetzungen für einen selbstbestimmten und nachhaltigen Umgang mit KI im Alltag – eine Auftragsarbeit für das Netzwerk CO:DINA

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Digital Autonomy Policy Brief #6 zu Online-Plattformen: Unabhängige Forschung braucht Datenzugang

Um große Online-Plattformen wie Facebook und YouTube zur Verantwortung zu ziehen, brauchen Forscher*innen einen unabhängigen Zugang zu Plattformdaten. In neuen Policy Brief des Digital Autonomy Hub erklären wir, warum der neue Digital Services Act ein Schritt nach vorn ist.

SustAIn-Magazin #1 zu nachhaltiger KI in der Praxis

KI hat ökologische, soziale und wirtschaftliche Kosten zur Folge. Wissenschaft, Industrie, Zivilgesellschaft und Politik müssen dringend auf der Grundlage von Fakten über diese Kosten sprechen und handeln. Mit dem ersten SustAIn-Magazin wollen wir unseren Beitrag zu solch einem Austausch leisten.

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Digital Autonomy Policy Brief #5: Algorithmenbasierte Diskriminierung

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Die EU und Datenspenden: Eine gute Idee im Keim erstickt

In einem neuen Diskussionspapier von AlgorithmWatch nimmt der Datenschutz-Experte Winfried Veil zum „Data Governance Act“ Stellung. Er sieht darin ein bürokratisches Ärgernis und eine verpasste Gelegenheit, Daten für einen guten Zweck einzusetzen.

Der Artificial Intelligence Act der EU: Ein risikobasierter Ansatz zur Regulierung von KI – was er vorschlägt und wozu er taugt

In ihrem Beitrag in der Zeitschrift für Europarecht erläutert Angela Müller den KI-Verordnungsentwurf („AI Act“) der EU-Kommission und beleuchtet diesen kritisch.