11. Oktober 2022
Kurzstudie: Nachhaltige KI und digitale Selbstbestimmung
Voraussetzungen für einen selbstbestimmten und nachhaltigen Umgang mit KI im Alltag – eine Auftragsarbeit für das Netzwerk CO:DINA
WeiterlesenAlgorithmWatch ist eine gemeinnützige Forschungs- und Advocacy-Organisation mit dem Ziel, Systeme automatisierter Entscheidungsfindung (ADM) und deren Auswirkungen auf die Gesellschaft zu beobachten und zu analysieren.
Hintergrundberichte, Analysen und Arbeitspapiere - gemeinsam mit anderen Wissenschaftler·innen forschen wir zu den Auswirkungen algorithmischer Entscheidungen und ihren ethischen Fragestellungen. Zu unseren Publikationen
Voraussetzungen für einen selbstbestimmten und nachhaltigen Umgang mit KI im Alltag – eine Auftragsarbeit für das Netzwerk CO:DINA
WeiterlesenWie beeinflussen automatische Entscheidungssysteme unser aller Alltag? Wo werden sie konkret eingesetzt und was läuft dabei schief? Unsere journalistischen Recherchen zu aktuellen Fälle und Fehlern automatischer Entscheidungssysteme. Zu unseren Stories
Die EU-Behörden Frontex und eu-LISA entwickeln gerade das automatische „Risikoprüfungssystem“ ETIAS für die Einreise in die EU. Der Algorithmus, der die Kategorisierung vornimmt, wird zum Teil mit früheren Entscheidungen von Grenzbeamten trainiert.
WeiterlesenLesen Sie unsere Stellungnahmen zu laufenden politischen Entwicklungen und Regulierungsprozessen rund um automatisierte Entscheidungsprozesse. Unsere Positionen
Das Bündnis F5 hat einen Parlamentarischen Austausch veranstaltet, wo unzulässige Ausnahmen beim AI Act und nötige Anpassungen der Antidiskriminierungsgesetzgebung (AGG) diskutiert wurden. Matthias Spielkamp von AlgorithmWatch erläuterte, inwiefern die Bundesregierung beim AI Act frühere Versprechen bricht und was bei der AGG-Novellierung in puncto algorithmischer Diskriminierung zu beachten ist.
WeiterlesenAktuelle Veranstaltungen, Kampagnen und Neuigkeiten über unser Team – hier finden Sie die Updates von AlgorithmWatch. Zum Blog
Teilzeit mit 30-32 Wochenstunden | Start im März oder April 2023 | Bewerbungsfrist: 13. Februar 2023
WeiterlesenOb Nachhaltigkeit, COVID-19, Social-Media-Plattformen oder Arbeit - mit konkreten Forschungsprojekten untersuchen wir die Risiken und Auswirkungen von automatisierten Entscheidungssystemen auf bestimmte gesellschaftliche Bereiche. Und Sie können mitmachen!
Projekte ansehen
Die Prüfung algorithmischer Systeme ist unbedingt notwendig, wenn Demokratie, Menschenrechte und Rechtstaatlichkeit geschützt werden sollen. Noch ist völlig ungeklärt, wie das geschehen könnte und sollte. Die Alfred Landecker Foundation unterstützt uns darin, dafür Verfahren, Vorschläge und Best Practices zu entwickeln. Wir werden diese Vorschläge in der Praxis erproben und dafür eintreten, dass sie an den richtigen Stellen übernommen werden.
Weiterlesen