AlgorithmWatch ist eine Menschenrechtsorganisation mit Sitz in Berlin und Zürich. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie und Nachhaltigkeit stärken, statt sie zu schwächen.

Die algorithmische Verwaltung: Automatisierte Entscheidungssysteme im öffentlichen Sektor

Eine Automatisierung der Verwaltung verspricht Effizienz, benachteiligt Menschen aber nicht selten, wie Beispiele aus ganz Europa beweisen. Wir erklären, warum die öffentliche Verwaltung ein besonders heikles Einsatzfeld für automatisierte Systeme ist und wie sich Risiken frühzeitig erkennen lassen könnten.

Blog

19. Februar 2024

#aiact #generativeki #ki

„KI“ und die falsche Balance

„Jede hinreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.” Wir sollten uns diesen Satz des legendären Science-Fiction-Autors Arthur C. Clarke immer wieder in Erinnerung rufen, wenn wir Debatten über Technologien auf dem Höhepunkt von Hype-Zyklen führen, wie das derzeit der Fall ist. Ein Kommentar.

Foto von Maxime Gilbert auf Unsplash

Blog

14. Februar 2024

#dsa #publicsphere

DSA Day und Plattformrisiken

Social-Media-Konto gesperrt oder Forschungsdaten gesucht? – Ab jetzt gibt es (theoretisch) Hilfe

Das EU-Gesetz über digitale Dienste (Digital Services Act, DSA) soll Risiken durch Online-Plattformen und Suchmaschinen regulieren. Es ist seit 2023 in Kraft, aber erst ab dem 17. Februar 2024, dem „DSA-Day“, gelten einige der wichtigsten Bestimmungen.

Explainer

Nachhaltige KI: Ein Widerspruch in sich?

Ist KI ein Mittel, um die Klimakrise zu bewältigen, oder eine schlimmere Umweltsünde als das Fliegen? Wir erklären, wie viel Energie KI-Systeme wirklich fressen, warum wir bessere Messungen brauchen, wie KI nachhaltiger werden kann und was das alles mit der KI-Verordnung der EU zu tun hat.

Schlussbericht: Untersuchung zu Microsoft Bing Chat

KI-Chatbot liefert falsche Antworten auf Fragen zu demokratischen Wahlen

Bing Chat, der in Microsofts Suchmaschine Bing integrierte KI-Chatbot, erfindet Skandale, denkt sich Umfragewerte aus und gibt den Wahltermin falsch an. Microsoft scheint nicht in der Lage oder nicht willens zu sein, das Problem zu beheben. Das zeigt eine Studie von AlgorithmWatch und AI Forensics, deren Schlussbericht nun vorliegt. Darin haben wir das Antwortverhalten des Chatbots zu Wahlen in Bayern, Hessen und der Schweiz im Oktober 2023 untersucht.

KI und Nachhaltigkeit

SustAIn-Magazin #3 – KI anders denken: Wie wir selber entscheiden, mit welcher KI wir leben wollen

Die dritte und letzte Ausgabe des SustAIn-Magazins befasst sich mit der Frage, wer dafür Verantwortung übernehmen könnte, Irrfahrten bei der KI-Entwicklung wieder in die richtige Richtung zu lenken.

Blog

15. Oktober 2023

#newsroom

Online-Spiel

Kannst du den Algorithmus knacken?

So geht Berichterstattung über Algorithmen und Plattformaufsicht: AlgorithmWatch präsentiert ein Online-Spiel, in dem eine Journalistin einem Social-Media-Algorithmus auf den Grund gehen soll.

mit MidJourney unter Aufsicht von Alexandre Grilletta erstellt

Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen

Foto von rawpixel.com auf Freepik

5. Oktober 2023

Zwischenergebnisse: Untersuchung zu Microsoft Bing Chat

Große KI-Sprachmodelle im Kontext von Wahlen

Wie zuverlässig beantwortet der Chatbot der Microsoft-Suchmaschine Bing Fragen zu den anstehenden Wahlen in Hessen, Bayern und der Schweiz? Unsere Forschung belegt: Das dahinter stehende große Sprachmodell GPT-4 erzeugt und verbreitet ausgedachte und irreführende Informationen. Das könnte zur Gefahr für die Demokratie werden.

Weiterlesen

Stories

Wie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu unseren Stories

4. März 2024

Wie Bildgeneratoren die Welt zeigen: Stereotypen statt Vielfalt

Studien dazu befassen sich meistens nur mit MidJourney. Bei anderen Tools ist die ernste Absicht zu erkennen, eine größere Vielfalt im Output darzustellen, wenn auch mit durchwachsenem Erfolg.

Weiterlesen

Positionen

Lesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Unsere Positionen

Foto von Maximalfocus auf Unsplash

13. März 2024

Offener Brief

AI Act: Nachbessern beim Schutz vor Massenüberwachung im öffentlichen Raum

Das Europäische Parlament stimmt heute über die KI-Verordnung ab. Das Gesetz weist beim Schutz vor KI-gestützter Massenüberwachung im öffentlichen Raum eklatante Lücken auf. Deswegen fordern wir die Bundesregierung und Abgeordnete des Bundestags gemeinsam mit 16 weiteren Organisationen heute dazu auf, das Versprechen des Koalitionsvertrages zu halten und biometrische Erkennung im öffentlichen Raum zu verbieten.

Weiterlesen

Blog

Aktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch. Zum Blog

18. März 2024

Pressemitteilung

Europarat: KI-Konvention wird Menschenrechte nicht angemessen schützen

Ende letzter Woche hat sich der Europarat auf eine Konvention zu Künstlicher Intelligenz (KI) geeinigt – und damit den Weg frei gemacht für den ersten bindenden internationalen Vertrag zu KI. Ausnahmen und Schlupflöcher für Unternehmen und Sicherheitsbehörden lassen befürchten, dass die Konvention Menschenrechte, Demokratie und Rechtsstaatlichkeit nicht umfassend zu schützen vermag.

Weiterlesen

Projekte

Ob Nachhaltigkeit, COVID-19, Social-Media-Plattformen oder Arbeit - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen!
Projekte ansehen

Khari Slaughter for AlgorithmWatch

5. Oktober 2023

Neue Recherche

ChatGPT und Co: Gefährden KI-getriebene Suchmaschinen demokratische Wahlen?

Sich mithilfe großer KI-Sprachmodelle wie Bing Chat darüber zu informieren, wie man wählen sollte, ist eine sehr schlechte Idee. Das zeigen die Ergebnisse einer Untersuchung von AlgorithmWatch und AI Forensics zu den Landtagswahlen in Bayern und Hessen und den nationalen Wahlen in der Schweiz. Die Antworten, die große Sprachmodelle auf wichtige Fragen geben, sind zum Teil komplett falsch, zum Teil irreführend. Bing Chat und Co. können so der öffentlichen Meinungsbildung in einer Demokratie gefährlich werden.

Weiterlesen