Digital Autonomy Policy Brief #9
Biometrische Überwachung
Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie biometrische Erkennungssysteme Grundrechte beschneiden können.
Als Policy & Advocacy Managerin beschäftigt sich Pia bei AlgorithmWatch mit der Regulierung von ADM-Systemen in Deutschland, insbesondere im Bereich ADM im öffentlichen Sektor. Pia hat einen Masterabschluss in Soziokulturellen Studien von der Europa-Universität Viadrina in Frankfurt (Oder). Bevor sie zu AlgorithmWatch kam, war sie als politische Bildnerin bei der Schwarzkopf-Stiftung Junges Europa tätig. Advocacy-Luft hatte Pia zuvor bei Organisationen wie Human Rights Watch, INKOTA-netzwerk e.V. und European Alternatives geschnuppert.
Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie biometrische Erkennungssysteme Grundrechte beschneiden können.
Der neue Policy Brief des Digital Autonomy Hub zeigt auf, wie Arbeitnehmende angesichts zunehmend automatisierter Personalmanagementsysteme für ihre Rechte einstehen können.
Das Bündnis F5 hat einen Parlamentarischen Austausch veranstaltet, wo unzulässige Ausnahmen beim AI Act und nötige Anpassungen der Antidiskriminierungsgesetzgebung (AGG) diskutiert wurden. Matthias Spielkamp von AlgorithmWatch erläuterte, inwiefern die Bundesregierung beim AI Act frühere Versprechen bricht und was bei der AGG-Novellierung in puncto algorithmischer Diskriminierung zu beachten ist.
Im Umgang mit digitalen Produkten oder Umgebungen haben Verbraucher*innen kaum eine Chance, selbstbestimmt nachhaltig zu handeln. In diesem Policy Brief zeigen wir, dass wir in der Digitalpolitik mehr Transparenz, Regulierung und Anreize für methodische Innovation brauchen.