AlgorithmWatch ist eine gemeinnützige Forschungs- und Advocacy-Organisation mit dem Ziel, Systeme automatisierter Entscheidungsfindung (ADM) und deren Auswirkungen auf die Gesellschaft zu beobachten und zu analysieren.

Position

26. September 2022

#aiact

AlgorithmWatch beim Digitalausschuss des Bundestages: Unsere Stellungnahme zur EU-Verordnung zu Künstlicher Intelligenz

Am 26. September fand eine öffentliche Anhörung des Digitalausschusses im Bundestag zur EU-Verordnung zu Künstlicher Intelligenz statt. Angela Müller, Leiterin des Policy-Teams von AlgorithmWatch, war als Sachverständige eingeladen. Hier finden Sie unsere Stellungnahme.

Deutscher Bundestag | Screenshot Live-Stream

Automatisierte Entscheidungssysteme im öffentlichen Sektor – Ein Impact-Assessment-Tool für die öffentliche Verwaltung

Wie können wir gewährleisten, dass die öffentliche Verwaltung automatisierte Entscheidungssysteme vertrauenswürdig einsetzt? AlgorithmWatch und AlgorithmWatch Schweiz haben ein Instrument zur Folgenabschätzung (Impact Assessment Tool) erarbeitet, das Behörden verschiedener Verwaltungsebenen für die Analyse spezifischer Systeme verwenden können. Das Dokument ist jetzt auch auf Deutsch verfügbar.

Grenzwertige Drohn-Gebärden: Griechenlands EU-finanzierte Überwachungstechnik

Die griechische Einwanderungsbehörde hat angekündigt, dass EU-finanzierte „KI-Drohnen“ fortan Migrant*innen beim Überqueren der Grenze aufspüren sollen. Sie sollen auch bei Such- und Rettungsaktionen eingesetzt werden, aber das eher theoretisch.

Offener Brief gegen das Speichern von IP-Daten

Am 20. September verkündet der EU-Gerichtshof seine Entscheidung über das deutsche Gesetz zur Vorratsdatenspeicherung. AlgorithmWatch positioniert sich gegen das Gesetz.

Story

15. September 2022

#gesichtserkennung

Datensätze ohne Verfallsdatum: Wie im Namen der Wissenschaft Grundrechte verletzt werden

Ein US-amerikanischer Informatiker hat mit Bildern von trans* Menschen ohne ihre Zustimmung einen Datensatz zum Trainieren von Gesichtserkennungssoftware erstellt. Jetzt haben sich die wahren Dimensionen seiner fahrlässigen Herangehensweise gezeigt.

Foto: EFF Photos auf flickr

Blog

13. September 2022

#newsroom

Ein neuer europäischer Newsroom untersucht automatisierte Systeme

AlgorithmWatch freut sich sehr, ankündigen zu dürfen, dass die Deutsche Postcode Lotterie einen dezentralen Newsroom sponsort, der automatisierte Systeme in Europa untersuchen wird.

Story

5. September 2022

#bamf #spracherkennung

Kontroverse Dialekterkennung: Das BAMF und sein Pilotprojekt

Nach einer Kleinen Anfrage im Bundestag gibt es Neuigkeiten zur Dialekterkennungssoftware des Bundesamts für Migration und Flüchtlinge (BAMF). Selbst die Einrichtung, aus der das BAMF seine Trainingsdaten bezieht, sieht die Entwicklung kritisch.

Position

2. September 2022

#publicsector

Deutschlands Digitalstrategie: KI als Allheilmittel (mit erheblichen Nebenwirkungen)

Das Bundeskabinett hat diese Woche im Rahmen der Klausurtagung auf Schloss Meseberg seine Digitalstrategie beschlossen. Was KI-gestützte Systeme betrifft, fällt die Strategie hinter ihren Möglichkeiten zurück.

Foto: e-MagineArt.com, Lizenz unter CC BY 2.0

Publikationen

Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen

7. September 2022

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Weiterlesen

Stories

Wie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu unseren Stories

Joannii, Adobe (bearbeitet)

Recherche, 8. September 2022

Hauptsache gesund? Wie der Berliner Senat die Daten von Impfwilligen verscherbelte

Das Land Berlin beauftragte auf dem Höhepunkt der Corona-Pandemie den Software-Anbieter Doctolib damit, Impftermine digital zu verwalten. Neue Dokumente zeigen: Für Berliner*innen war das ein denkbar schlechter Deal.

Weiterlesen

Positionen

Lesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Unsere Positionen

Photo by @felipepelaquim on Unsplash

29. Juni 2022

Der neue Vorschlag für ein Gesetz über digitale Märkte: Erst bei seiner Umsetzung wird Big Tech in die Schranken gewiesen

AlgorithmWatch und 17 andere zivilgesellschaftliche Organisationen appellieren in einem offenen Brief an das Europäische Parlament: Die Kommission muss zügig die notwendigen Ressourcen erhalten, um das Gesetz über digitale Märkte wirksam durchzusetzen.

Weiterlesen

Blog

Aktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch. Zum Blog

Foto: AbsolutVision on Unsplash

26. September 2022

Ein Leitfaden zum AI Act: Wie die EU KI regulieren will und was das für uns alle bedeutet

Die EU will Künstliche Intelligenz (KI) über alle Bereiche hinweg regulieren. Im laufenden Verhandlungsprozess stehen die Interessen großer Tech-Konzerne jenen der Verfechter*innen von Grundrechten gegenüber. In diesem Leitfaden erklären wir, was das neue Gesetz bringt, welche Systeme bald verboten sein könnten und warum es uns alle angeht.

Weiterlesen

Projekte

Ob Nachhaltigkeit, COVID-19, Social-Media-Plattformen oder Arbeit - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen!
Projekte ansehen

Mehr über das Projekt, 1. April 2021

SustAIn: Der Nachhaltigkeitsindex für Künstliche Intelligenz

Wie nachhaltig ist Künstliche Intelligenz? Wir wissen, dass in der Entwicklung und Anwendung von KI viel Energie benötigt wird, dass Menschen als sogenannte Clickworker unter sehr schlechten Arbeitsbedingungen Trainingsdatensätze für KI-Systeme bearbeiten und diese nicht selten bestehende Diskriminierungsmuster verstärken. Angesichts einer steigenden Zahl an KI-Systemen, braucht es daher dringend eine Diskussion, wie KI nachhaltiger gestaltet werden kann. Hier setzt unser Projekt SustAIn an.

Weiterlesen