#publicsector

Stanford University Libraries via Public Domain Review

Blog, 20. Mai 2022

Europarat schafft Rahmenbedingungen für Künstliche Intelligenz

Der Europarat hat die Aufgabe, Menschenrechte, Demokratie und Rechtsstaatlichkeit in Europa zu wahren. Seine Mitgliedsstaaten arbeiten aktuell daran, unsere Grundrechte beim Einsatz von Künstlicher Intelligenz besser zu schützen. Wir geben hier einen Überblick zu den Entwicklungen.

Weiterlesen
Aliane Schwartzhaupt | Unsplash

Position, 10. Mai 2022

Zivilgesellschaft reagiert auf Entwurfsbericht zum AI Act der EU

Gemeinsam mit Partner*innen aus der Zivilgesellschaft nehmen wir in unserer Einschätzung den Entwurfsbericht der beiden wichtigsten EU-Parlamentsausschüsse zur geplanten KI-Verordnung der EU (AI Act) unter die Lupe. Wir zeigen die wichtigen Schritte auf, die der Entwurf vorsieht – und die Lücken, die er noch schließen muss, damit der AI Act tatsächlich unsere Grundrechte zu schützen vermag.

Weiterlesen
Hans Reniers | Unsplash

Position, 11. April 2022

Forderungen von AlgorithmWatch in den Verhandlungen zum Artificial Intelligence Act der EU

Der AI Act wird derzeit in Brüssel verhandelt. AlgorithmWatch fordert einen Regulierungsrahmen, der unsere Grundrechte zu schützen vermag.

Weiterlesen
Tingey Injury Law | Unsplash

Position, 4. April 2022

Gemeinsame Erklärung im Vorfeld der Verhandlungen über einen Rechtsrahmen zu KI im Europarat

Heute nimmt das Committee on Artificial Intelligence (CAI) des Europarats die Verhandlungen zu einem neuen Rechtsrahmen für Systeme der Künstlichen Intelligenz (KI) auf. In einer gemeinsamen Erklärung fordern AlgorithmWatch und andere zivilgesellschaftliche Organisationen die Mitgliedstaaten auf, einen Rechtsrahmen für KI zu schaffen, der sich am Mandat des Europarates orientiert: dem Schutz der Menschenrechte, der Demokratie und der Rechtsstaatlichkeit.

Weiterlesen
Jonas Augustin | Unsplash

Blog, 25. März 2022

Algorithmenbasierte Diskriminierung oder nachhaltige Rechenzentren? Kaum Pläne der Bundesregierung nach 100 Tagen im Amt

Die Ampelregierung ist seit 100 Tagen im Amt – bisher lässt sich nicht erkennen, ob und wie sie auf die Risiken algorithmischer Diskriminierung eingehen will. Auch bei nachhaltiger Digitalisierung zeigt sich dringender Handlungsbedarf, Vorstöße auf Regierungsseite sind aber kaum zu sehen.

Weiterlesen

Position, 23. März 2022

Algorithmenbasierte Diskriminierung – Anpassung des Allgemeinen Gleichbehandlungsgesetzes (AGG) notwendig

Im Koalitionsvertrag haben die Regierungsparteien angekündigt, das AGG evaluieren zu wollen. Diese Gelegenheit muss genutzt werden, um Betroffene besser vor algorithmenbasierter Diskriminierung zu schützen. Deshalb fordern wir in Bezug auf das AGG, ein Verbandsklagerecht einzuführen, mehr Transparenz zu schaffen und die Anwendungsbereiche des Gesetzes auszuweiten.

Weiterlesen
Mathias P.R. Reding | Unsplash

Position, 28. Februar 2022

Große Tech-Konzerne und Menschenrechte: Regierungen müssen handeln

Wenn Technologieunternehmen algorithmische Systeme entwickeln und einsetzen, kann dies Menschenrechte gefährden: Es kann zu Diskriminierung kommen oder der Grundsatz der Gleichbehandlung vor dem Gesetz verletzt werden. In unserer Einreichung beim UNO-Hochkommissariat für Menschenrechte legen wir dar, dass Staaten verpflichtet sind, ihre Bevölkerung vor diesen Risiken zu schützen.

Weiterlesen
shawnanggg | Unsplash

Position, 25. Februar 2022

Automatisierte Entscheidungssysteme im öffentlichen Sektor – einige Empfehlungen

Beim Einsatz von automatisierten Entscheidungssystemen im öffentlichen Sektor tragen Behörden eine besondere Verantwortung den Menschen gegenüber, die von diesen Entscheidungen betroffen sind. Deshalb sollte ihre Verwendung strikten Transparenzpflichten unterworfen sein, etwa durch öffentliche Verzeichnisse und eine verpflichtende Folgenabschätzung.

Weiterlesen
Max Gruber | Better Images of AI | Clickworker 3d-printed | CC-BY 4.0

Publikation, 10. Februar 2022

Digital Autonomy Policy Brief #5 – Algorithmenbasierte Diskriminierung

Im fünften Digital Autonomy Policy-Brief beschreiben wir die Besonderheiten algorithmenbasierter Diskriminierung. Wir zeigen, dass gegenwärtige Antidiskriminierungsgesetze rund um ADM-Systeme Rechtslücken aufweisen und skizzieren, welche Anpassungen es geben muss, damit Betroffene ihr Recht auf Nichtdiskriminierung auch im digitalen Raum durchsetzen können.

Weiterlesen

Blog, 7. Februar 2022

Don't smile for the camera: Jetzt kostenlos Stofftaschen bestellen!

Bestellen Sie jetzt kostenlos Stofftaschen und setzen Sie ein Zeichen gegen biometrische Massenüberwachung!

Weiterlesen
Gertruda Valaseviciute | Unsplash

Publikation, 26. Januar 2022

Der Artificial Intelligence Act der EU: Ein risikobasierter Ansatz zur Regulierung von KI – was er vorschlägt und wozu er taugt

In ihrem Beitrag in der Zeitschrift für Europarecht erläutert Angela Müller den KI-Verordnungsentwurf („AI Act“) der EU-Kommission und beleuchtet diesen kritisch.

Weiterlesen
Gilles Lambert | Unsplash

Publikation, 24. Januar 2022

Digital Autonomy Policy Brief #4 – Digitale Selbstbestimmung

Im vierten Digital Autonomy Policy-Brief legen wir dar, warum wir die Diskussion über digitale Selbstbestimmung befürworten, warum wir dringend eine Abgrenzung vom Begriff der „digitalen Souveränität“ brauchen, welche digitalpolitischen Leitlinien sich hieraus ergeben und wie eine neue Bundesregierung diese ab sofort umsetzen sollte.

Weiterlesen
Jill Robidoux | flickrCC BY 2.0

Blog, 27. Dezember 2021

Das Jahr, in dem automatisierte Systeme kein Teil der Lösung waren – 2021 im Rückblick

Das verheerende Hochwasser in Rheinland-Pfalz und die Enthüllungen der „Facebook Files“ haben eines gemeinsam: Die Verantwortlichen hatten zwar alle Informationen, trafen aber die falschen Entscheidungen. Auch 2021 wurden den Algorithmen keine Zügel angelegt – aber es gibt die Hoffnung, dass es 2022 endlich dazu kommt.

Weiterlesen
Beatriz Perez

Position, 21. Dezember 2021

AlgorithmWatch nimmt Stellung zum Entwurf des Digitalisierungsgesetzes für Schleswig-Holstein

Der Entwurf für ein Digitalisierungsgesetz des Landes Schleswig-Holstein zeigt den deutlichen Willen der Landesregierung, die öffentliche Verwaltung in die Lage zu versetzen, die Digitalisierung zum Wohl der Menschen einzusetzen. Im Detail erkennen wir allerdings einige offene Fragen und auch Fehleinschätzungen.

Weiterlesen

Blog, 7. Dezember 2021

Statuen gegen automatisierte Gesichtserkennung

Heute verhüllten Aktivist·innen in mehreren Städten in Deutschland und der Schweiz Statuen im öffentlichen Raum mit Papiertüten. Sie setzen damit ein Zeichen gegen automatisierte Gesichtserkennung.

Weiterlesen

Position, 30. November 2021

Für eine KI-Verordnung der EU mit Grundrechten im Fokus

AlgorithmWatch hat mit anderen zivilgesellschaftlichen Organisationen (u. a. European Digital Rights (EDRi), Access Now) eine Stellungnahme zur geplanten KI-Verordnung der EU verfasst, mit dem Appell die Grundrechte ins Zentrum der Verordnung zu stellen.

Weiterlesen
Christian Lue | Unsplash

Position, 25. November 2021

Digitaler Aufbruch? – Ampel-Koalitionsvertrag zeigt gute Ansätze, Klärungsbedarf bleibt

Der Koalitionsvertrag von SPD, Bündnis 90/Die Grünen und FDP ist da. Viele gute Ideen sind enthalten: Die digitale Zivilgesellschaft soll gestärkt werden, Digitalisierung soll die Bedürfnisse der Menschen in den Mittelpunkt stellen, digitale Grundrechte werden geschützt. Der Grundton ist ermutigend. Aber bei der konkreten Ausgestaltung ist Luft nach oben – insbesondere mit Blick auf Systeme des automatisierten Entscheidens (ADM-Systeme).

Weiterlesen

Position, 23. November 2021

AlgorithmWatch Schweiz fordert ein Verbot von Gesichtserkennung im öffentlichen Raum

Der Einsatz von Gesichtserkennungssystemen breitet sich derzeit in Europa rasant aus. Gesetzliche Schranken gegen die Überwachung mittels Gesichtserkennung fehlen. Gemeinsam mit Amnesty International und der Digitalen Gesellschaft fordern wir ein Verbot von automatischer Gesichtserkennung und biometrischer Massenüberwachung in der Schweiz und lancieren eine Petition. Unterzeichnen Sie jetzt die Petition auf der Webseite unserer Schweizer Kolleg·innen.

Weiterlesen

Blog, 27. September 2021

Video: Digital nach der Wahl – Wie geht es weiter für gemeinwohlorientierte Digitalisierung?

Wenige Tage nach der Bundestagswahl hat das Bündnis F5 (bestehend aus AlgorithmWatch, der Gesellschaft für Freiheitsrechte, der Open Knowledge Foundation Deutschland, Reporter ohne Grenzen und Wikimedia Deutschland) zum digitalpolitischen Gespräch eingeladen.

Weiterlesen
Unsplash

Position, 23. September 2021

Digitale Selbstbestimmung und die Bundestagswahl 2021: Der Digital Autonomy Hub skizziert eine mensch-zentrierte Digitalpolitik nach der Wahl

Mit Blick auf die Bundestagswahl 2021 hat der Digital Autonomy Hub, der gemeinsam von AlgorithmWatch und der Gesellschaft für Informatik koordiniert wird, die Positionen der Parteien zur digitalen Selbstbestimmung geprüft – und fordert digitalpolitische Weichenstellungen für die kommende Legislaturperiode.

Weiterlesen

Blog, 13. September 2021

F5: AlgorithmWatch gründet mit Partner-Organisationen Bündnis für eine gemeinwohlorientierte Digitalisierung

AlgorithmWatch, die Gesellschaft für Freiheitsrechte, die Open Knowledge Foundation Deutschland, Reporter ohne Grenzen und Wikimedia Deutschland schließen sich zum Bündnis F5 zusammen. Ziel der Kooperation ist es, für eine neue Digitalpolitik (F5 - Refresh) zu werben: Das Gemeinwohl muss im Mittelpunkt der Digitalisierung stehen, nicht die Einnahmen von Tech-Unternehmen oder die Interessen von Sicherheitsbehörden.

Weiterlesen

Position, 23. August 2021

Wir unterstützen den Bündnisaufruf von LobbyControl für mehr Lobbytransparenz!

AlgorithmWatch schließt sich dem Bündnisaufruf von LobbyControl an. Gemeinsam mit über 50 anderen Organisationen fordern wir einen Lobby-Fußabdruck für alle Gesetze, die Reform und Begrenzung der Parteienfinanzierung und die Offenlegung aller Lobbykontakte der deutschen Bundesregierung.

Weiterlesen

Position, 5. August 2021

Entwurf der EU-Kommission für eine KI-Verordnung: Die EU muss ihren eigenen Ansprüchen in Bezug auf Governance und Durchsetzung gerecht werden

Die Europäische Kommission hat im April 2021 einen Regulierungsvorschlag für Anwendungen Künstlicher Intelligenz vorgelegt. Lesen Sie unsere Stellungnahme zum Vorschlag der Kommission, die im Rahmen des offiziellen öffentlichen Konsultationsverfahrens eingereicht wurde.

Weiterlesen
Jonas Tebbe | Unsplash

Publikation, 27. Juli 2021

Digital Autonomy Policy Brief #3 – Tool zur Folgenabschätzung.

Automatisierte Entscheidungsfindungssysteme (ADM) sind im öffentlichen Sektor angekommen. Sie etablieren sich auch in öffentlichen Verwaltungen zunehmend als Instrumente, die Entscheidungsverfahren und Dienstleistungen effizienter, einfacher und nutzerfreundlicher gestalten sollen. Im dritten Policy Brief des Digital Autonomy Hubs legen wir dar, warum ihr Einsatz in der Verwaltung besondere Herausforderungen aufwirft und wie ihnen begegnet werden kann. Hierfür stellen wir ein Instrument vor, mit dem die Folgen von ADM-Systemen eingeschätzt, Risiken identifiziert und gegebenenfalls die Systeme angepasst werden können.

Weiterlesen

Publikation, 10. Juni 2021

Automatisierte Entscheidungssysteme im öffentlichen Sektor – Ein Impact-Assessment-Tool für die öffentliche Verwaltung

Wie können wir gewährleisten, dass automatisierte Entscheidungssysteme (automated decision-making systems, ADMS) in der öffentlichen Verwaltung vertrauenswürdig eingesetzt werden? AlgorithmWatch und AlgorithmWatch Schweiz haben ein Instrument zur Folgenabschätzung (Impact Assessment Tool) erarbeitet, das von Behörden verschiedener Verwaltungsebenen für die Analyse spezifischer ADMS verwendet werden kann.

Weiterlesen

Blog, 8. Juni 2021

Piazza Konferenz – Call for Workshops

Am 2. Dezember 2021 findet die Konferenz »PIAZZA« statt – eine Plattform für den Austausch von neuen Ideen für die Digitalisierung von Staat und Gesellschaft. Bis zum 23. Juli können Ideen für Workshops eingereicht werden.

Weiterlesen

Position, 7. Juni 2021

Offener Brief: Wir fordern ein weltweites Verbot von Technologien zur biometrischen Erkennung

AlgorithmWatch und AlgorithmWatch Schweiz schließen sich 177 zivilgesellschaftlichen Organisationen, Aktivist·innen und Expert·innen auf der ganzen Welt an, um ein vollständiges Verbot des Einsatzes von Gesichtserkennungs- und biometrischen Fernerkennungs-Technologien zu fordern, die Massenüberwachung und gezielte diskriminierende Überwachung ermöglichen.

Weiterlesen
Chris Barbalis | Unsplash

Publikation, 18. Mai 2021

Towards accountability in the use of Artificial Intelligence for Public Administrations

Michele Loi und Matthias Spielkamp analysieren den Regelungsgehalt von 16 Richtliniendokumenten über den Einsatz von KI im öffentlichen Sektor, indem sie deren Anforderungen mit den Kriterien unserer philosophischen Darstellung von Rechenschaftspflicht abgleichen. Sie kommen zu dem Schluss, dass einige Richtlinien zwar auf Prozesse verweisen, die auf eine Prüfung hinauslaufen, die Debatte jedoch von mehr Klarheit über die Art der Berechtigung von Prüfern und die Ziele der Prüfung profitieren würde. Dies diene nicht zuletzt dazu, ethisch sinnvolle Standards zu entwickeln, anhand derer verschiedene Formen der Prüfung bewertet und verglichen werden können.

Weiterlesen
Reclaim your face

Kampagne, 4. Mai 2021

Reclaim Your Face – Europäische Bürgerinitiative für ein Verbot von biometrischer Massenüberwachung

Zahlreiche zivilgesellschaftliche Organisationen aus ganz Europa, darunter AlgorithmWatch und AlgorithmWatch Schweiz, haben sich zu einer Koalition gegen Massenüberwachung zusammengeschlossen. Fordern Sie jetzt mit uns ein Verbot von biometrischen Überwachungstechnologien, wie z.B. dem Einsatz von automatischer Gesichtserkennung an öffentlichen Plätzen!

Weiterlesen
Farnoosh AbdollahiUnsplash

Position, 3. Mai 2021

AlgorithmWatchs Antwort auf die Pläne der EU-Kommission zur Regulierung von Künstlicher Intelligenz – Ein großer Schritt mit großen Lücken

Am Mittwoch stellte die EU-Kommission ihren lang erwarteten Gesetzentwurf zur Regulierung von Künstlicher Intelligenz (KI) in Europa vor. Sehr wahrscheinlich wird dieses Gesetz die KI-Regulierung der nächsten Jahrzehnte maßgeblich prägen, nicht nur in Europa, sondern weltweit. Der Entwurf verfolgt das Ziel, Grundrechte zu schützen und gleichzeitig Innovationen im Feld der künstlichen Intelligenz zu fördern. Geplant…

Weiterlesen
Jonathan SimcoeUnsplash

Publikation, 21. April 2021

Einsatz Künstlicher Intelligenz in der Verwaltung: ethische und rechtliche Fragen

Neue Studie im Auftrag des Kantons Zürich, durchgeführt von Prof. Dr. Nadja Braun Binder, Juristische Fakultät der Universität Basel, und ihrem Team in Zusammenarbeit mit AlgorithmWatch Schweiz

Weiterlesen

Story, 27. März 2021

Impfen in Berlin: Riskante Terminvergabe-Software [Update]

Der Berliner Gesundheitssenat setzt zur Terminvergabe für Corona-Impfungen einen Dienst für Arztpraxen ein, der sich für Impfzentren mit tausenden Terminen am Tag offenbar nicht eignet. Möglicherweise haben dadurch zahlreiche Berliner·innen einen späteren Impftermin erhalten – obwohl deutlich früher eigentlich Termine für sie frei gewesen wären.

Weiterlesen

Blog, 3. Februar 2021

Präsentation der Automating-Society-Länderreports Frankreich und Spanien

Wir freuen uns auf das Erscheinen der französischen und der spanischen Länderausgabe des Automating Society Reports 2020 von AlgorithmWatch und der Bertelsmann Stiftung. Beide Ausgaben veröffentlichen wir mit einem Online-Launch-Event in der jeweiligen Landessprache. / Französische Länderausgabe Am 9. Februar präsentiert der Projektmanager Fabio Chiusi die französische Edition des Reports und anschließend diskutieren Caroline Lequesne…

Weiterlesen

Blog, 18. Januar 2021

Jetzt anmelden: Launch-Event der deutschen Ausgabe des Automating Society Reports am 25. Januar 2021

25. Januar 2021, 16:30 Uhr: Online-Launch-Event der deutschen Ausgabe des Automating Society Reports 2020 von AlgorithmWatch und der Bertelsmann Stiftung, mit Anna Christmann (MdB Grüne, Obfrau Enquete KI), Wolfgang Teves (BMJV/CAHAI), Tino Eilenberger (ITDZ Berlin), Ralph Müller-Eiselt (Bertelsmann Stiftung) und Matthias Spielkamp (AW)

Weiterlesen

Publikation, 6. Dezember 2020

Die Vereinbarkeit von Data Trusts mit der Datenschutzgrundverordnung (DSGVO)

Gutachten zur Frage, ob und, falls ja, in welcher Form sog. „Data Trusts“ mit dem geltenden Datenschutzrecht, insbesondere der DSGVO, vereinbar sind und – soweit dies nicht der Fall ist – welche Änderungen im Datenschutzrecht erforderlich wären, um Data Trusts zu ermöglichen.

Weiterlesen

Story, 4. Dezember 2020

Minuspunkte für Hautfarbe: Algorithmen diskriminieren Schwarze Patient·innen in der Schweiz

Algorithmen sollen die Nierenfunktion berechnen oder ein Herzversagen vorhersagen und verwenden dabei die Hautfarbe als zentrales Kriterium. Lesen Sie die Story auf der Website von AlgorithmWatch Schweiz.

Weiterlesen

Publikation, 13. November 2020

Veröffentlichung des Automating-Society-2020-Länderreports Italien

Der Automating Society Report 2020 von AlgorithmWatch und der Bertelsmann Stiftung ist ab sofort als italienische Spezialausgabe verfügbar. Laden Sie das PDF hier herunter: Am 14. November stellt der Projektmanager Fabio Chiusi den Länderreport Italien auf der Biennale Tecnologia vor und diskutiert die Ergebnisse mit Antonella Napolitano (Policy Officer, Privacy International) und Juan Carlos De…

Weiterlesen
Nigel Tadyanehondo | Unsplash

Op-Ed, 10. November 2020

Männer fahren LKW, Frauen erziehen Kinder – diskriminierendes Gendertargeting durch Facebook

Dieser Artikel nimmt Bezug auf die AlgorithmWatch-Story vom 18.10.2020 und wurde zuerst auf Verfassungsblog.de veröffentlicht. Mit freundlicher Genehmigung der Autorin. Facebook spielt Stellenanzeigen in diskriminierender Weise an die Nutzer:innen seiner Plattformen aus. Untersuchungen von AlgorithmWatch zeigen, dass sich Facebook an groben Genderstereotypen zu orientieren scheint, um die Zielgruppe von Anzeigen zu bestimmen – auch wenn…

Weiterlesen
© DBT/Werner Schüring

Position, 4. November 2020

Stellungnahme zum Abschlussbericht der Enquete-Kommission “Künstliche Intelligenz”

Der Abschlussbericht der Enquete-Kommission Künstliche Intelligenz ist eine hilfreiche Bestandsaufnahme, aber leider nicht viel mehr. Konkrete Vorschläge, was zu tun ist, fehlen weitgehend. Dabei liegen bereits zahlreiche Handlungsempfehlungen vor. Stellungnahme als PDF lesen Am Mittwoch, den 28. Oktober 2020, hat die vom Deutschen Bundestag eingesetzte Enquete-Kommission Künstliche Intelligenz (KI) ihren Abschlussbericht vorgelegt. Auf mehr als…

Weiterlesen

Publikation, 28. Oktober 2020

Jetzt lesen: Automating Society Report 2020

Wie werden KI-basierte Systeme von privaten Unternehmen und öffentlichen Behörden in Europa genutzt? Der neue Report von AlgorithmWatch und der Bertelsmann Stiftung beleuchtet, welche Rolle automatisierte Entscheidungsfindungssysteme (ADM) in unserem Leben spielen. Als Ergebnis der bisher umfassendsten Recherche zu diesem Thema in Europa deckt der Bericht den Einsatz von und die politischen Debatten über ADM-Systeme in 16 europäischen Ländern sowie auf EU-Ebene ab.

Weiterlesen

Publikation, 1. September 2020

Europa will ein Vorbild für technologische Antworten auf COVID-19 sein. Aber es ist kompliziert.

Unser neuer Bericht über den Einsatz automatisierter Entscheidungssysteme in der COVID-19-Pandemie

Weiterlesen
Eric Kilby| flickr

Story, 29. April 2020

Im Reich der Papiertiger – Von “ethischer KI” und zahnlosen Richtlinien

Vor einem Jahr hat AlgorithmWatch begonnen, Richtlinien für "ethische KI" in einem Verzeichnis zusammenzustellen. Von den mehr als 160 Richtlinien, die wir inzwischen in unserem komplett überarbeiteten AI Ethics Guidelines Global Inventory erfasst haben, verfügt nur ein Bruchteil über angemessene Aufsichts- und Durchsetzungsmachnismen. Die überwältigende Mehrheit stammt aus dem globalen Norden.

Weiterlesen
Tim Reckmann| flickr

Story, 17. April 2020

Unsere Untersuchung der Hartz-IV-Algorithmen zeigt: Hier diskriminiert der Mensch und nicht die Maschine

Die Bundesagentur für Arbeit (BA) und die Jobcenter setzen Algorithmen ein, um zu berechnen, wie viel Arbeitslosengeld II – besser bekannt als Hartz IV – ein·e Antragsteller·in bekommt. Anders als in den USA oder in Österreich geschehen, konnten wir in den deutschen Sozialhilfe-Algorithmen keine diskriminierenden Muster nachweisen. Das Problem sind eher Sachbearbeiter·innen und das Gesetz.

Weiterlesen
Martin Sanchez | Unsplash

Position, 2. April 2020

Automatisierte Entscheidungssysteme und der Kampf gegen COVID-19 – unsere Position

Angesichts der weltweiten Ausbreitung des COVID-19-Virus fragen sich viele, ob und wie man Systeme automatisierter Entscheidungsfindung zur Eindämmung der Pandemie einsetzen kann. Lesen Sie 11 Positionen von AlgorithmWatch zum Einsatz von ADMS im Kampf gegen das Coronavirus.

Weiterlesen
ev | Unsplash

Story, 11. Dezember 2019

AlgorithmWatch deckt auf: In mindestens zehn EU-Ländern nutzt die Polizei automatisierte Gesichtserkennung

Die Mehrheit der nationalen Polizeibehörden, die an einer Befragung durch AlgorithmWatch teilnahmen, gaben an, Software zur Gesichtserkennung bereits einzusetzen oder ihren Einsatz zu planen. Verschiedene Staaten nutzen die Technologie unterschiedlich, doch fast überall mangelt es an Transparenz.

Weiterlesen
Parker Coffman| Unsplash

Story, 11. November 2019

Palantir, die Datenkrake aus dem Umfeld der Trump-Administration, zieht es nach Europa

Das Datenanalyse-Unternehmen, bekannt durch sein Mitwirken an der Abschiebe-Maschinerie der US-Regierung, stößt mit einer aggressiven Expansionsstrategie auf den europäischen Kontinent vor. Wer sind seine Kunden?

Weiterlesen

Position, 23. Oktober 2019

Bericht der Datenethikkommission: Steilvorlage für die Zivilgesellschaft

Umfangreiche Regulierungsvorschläge für automatisierte Entscheidungen vorgelegt.

Weiterlesen

Publikation, 22. Oktober 2019

Neuer Bericht von AlgorithmWatch: Identitätsmanagement und Citizen-Scoring in Ghana, Ruanda, Tunesien, Uganda, Simbabwe und China

Eine neue Untersuchung zur digitalen Identitätsfeststellung in fünf afrikanischen Ländern zeigt, dass sich ein Großteil des Kontinents sich darauf vorbereitet, umfangreiche biometrische Registrierungen einzurichten. Dies könnte in naher Zukunft das umfassende Scoring von Bürger*innen Bürgerbewertung oder eine automatisierte Überwachung ermöglichen. Der AlgorithmWatch-Bericht Identity-management and citizen scoring in Ghana, Rwanda, Tunisia, Uganda, Zimbabwe and China entstand im…

Weiterlesen
Paweł Czerwiński| Unsplash

Story, 16. Oktober 2019

Entscheiden Algorithmen bald über die Bewilligung von Therapien?

Algorithmen sollen die Medizin revolutionieren. Doch die Technologie noch weit davon entfernt, verlässlich zu arbeiten und automatisierte Systeme als alleinige Entscheidungsinstanz sind mit dem Recht auf Leben und auf Selbstbestimmung nicht zu vereinbaren.

Weiterlesen
Linh Do| flickr (bearbeitet)

Story, 16. Oktober 2019

UN-Sonderberichterstatter prangert “menschenrechtsfreie Zonen” an

Der von den Vereinten Nationen ernannte Sonderberichterstatter für extreme Armut und Menschenrechte hat einen Bericht veröffentlicht, der auf das Schärfste verurteilt, wie Regierungen die Sozialsysteme privatisieren und automatisieren.

Weiterlesen
Nikola Johnny Mirkovic| Unsplash

Story, 12. August 2019

Spanien: Rechtsstreit um den Code eines Algorithmus

In Spanien ist einer halben Million Menschen ein Stromkosten-Zuschuss verweigert worden, auf den sie unter Umständen einen Anspruch gehabt hätten. Eine Software hat über die Anträge entschieden. Die Non-Profit-Organisation Civio zieht jetzt vor Gericht, um den Quellcode zu erhalten.

Weiterlesen
Daan Stevens | Unsplash

Story, 11. Juni 2019

Schlechte Daten und Gesundheit: Müll rein, Mist raus

Ein Designfehler in einer Software, die im zweitgrößten Krankenhaus Frankreichs zum Einsatz kommt, setzt das Leben von Patientinnen und Patienten aufs Spiel. Das berichteten vor kurzem Journalisten des französischen investigativen Nachrichtenmagazins Mediacités. Da die Daten der Software auch dazu genutzt werden, Systeme maschinellen Lernens zu trainieren, wirft der Einsatz erhebliche Fragen darüber auf, was der Einsatz von KI-Lösungen für die Sicherheit von Patient*innen bedeutet.

Weiterlesen
Luke Chesser / Unsplash (bearbeitet)

Story, 6. Juni 2019

Automatisierte Tarifgestaltung in der Krankenversicherung – Schreckgespenst oder plausibles Szenario?

Die Idee des „Gläsernen Patienten“ geistert immer wieder durch die Medien, befeuert durch neue Möglichkeiten, die Gesundheit durch Smartwatches, Fitnesstracker und Apps zu überwachen. Das Schreckensszenario: Wer sich dem entzieht, muss um seine Krankenversicherung fürchten. Doch was ist da dran – werden in Zukunft tatsächlich nur diejenigen versichert, die sich umfassend durchleuchten lassen?

Weiterlesen
Stefanie Loos/re:publica

Video, 10. Mai 2019

#rp19-Vortrag: Citizen Scoring in the EU – it happens at home, not only in China!

Am 7. Mai präsentierten Kristina Penner und Matthias Spielkamp die wichtigsten Ergebnisse des Report Automating Society – Taking Stock of Automated Decision-Making in the EU auf der re:publica 2019 in Berlin vor. Das Video der Session (in englischer Sprache) ist auf YouTube verfügbar. Short thesis Several EU governments use automated decision-making systems to score citizens, either to spot welfare fraud, detect…

Weiterlesen
Marie Bellando-Mitjans | Unsplash

Story, 16. April 2019

Polen: Regierung schafft umstrittenes Scoring-System für Arbeitslose ab

Aufgrund der Kritik von Aktivisten, Richtern und einer Menschenrechtsorganisation ist die polnische Regierung gezwungen, ein umstrittenes Bewertungssystem für Arbeitslose zu streichen. Das automatisierte System wird eingesetzt, um grundlegende Entscheidungen darüber zu treffen, welche Unterstützung Menschen vom Arbeitsamt erhalten. Grundlage sind die persönlichen Daten der Betroffenen sowie deren Antworten auf Interviews, die in den Jobcentern durchgeführt werden. Kritiker sagen, das System sei diskriminierend, intransparent und verletze Datenschutzrechte. Infolgedessen hat die Regierung beschlossen, ihr Experiment zum Profiling von Arbeitslosen zu beenden und das System bis Dezember 2019 abzuschaffen.

Weiterlesen

Publikation, 11. April 2019

Atlas der Automatisierung

Der ‘Atlas der Automatisierung‘ von AlgorithmWatch liefert einen Überblick über teilhaberelevante ADM-Systeme, die in Deutschland im Einsatz sind. Er ist eine Sammlung – in diesem Fall nicht von Landkarten und Grafiken, sondern von Themen, die relevant sind für die Beantwortung der Frage, inwiefern diese Systeme den Zugang zu öffentlichen Gütern und Leistungen sowie die Wahrnehmung…

Weiterlesen

Kommentar, 26. März 2019

Güte gemeint

Das unlängst vorgestellte Gütesiegel des KI Bundesverbandes ist unzureichend. Es mangelt ihm an Schärfe, Deutlichkeit sowie mess- oder bezifferbaren Zielvorgaben.

Weiterlesen
Alireza Badiee | Unsplash

Story, 28. Februar 2019

Schweden: Fehlerhafter Algorithmus stoppt Zahlungen für über 70.000 Arbeitslose

Automatisierte Entscheidungsfindung ist in Schweden zum nationalen Gesprächsthema geworden, nachdem ein Bericht des staatlichen Senders aufgedeckt hat, dass Tausenden Arbeitslosen durch einen blindwütigen Verwaltungscomputer zu Unrecht die Auszahlung ihrer Sozialleistungen verweigert wurde. Die Sprecher des schwedischen Arbeitsamtes (Arbetsförmedlingen) fingen an, das System zu untersuchen, nachdem sie bemerkt hatten, dass es Briefe an Antragsteller nicht wie…

Weiterlesen

Publikation, 29. Januar 2019

Jetzt lesen: “Automating Society 2019” – Unser Report zu ADM in der EU

Am 29. Januar haben wir unseren neuen Report Automating Society - Taking Stock of Automated Decision-Making in the EU veröffentlicht, der in Zusammenarbeit mit der Bertelsmann Stiftung und mit Unterstützung  der Open Society Foundations entstanden ist. Der Report ist ab sofort (in englischer Sprache) verfügbar unter www.algorithmwatch.org/en/automating-society-2019/ Launch-Event im Europäischen Parlament Auf Einladung der Europaabgeordneten Liisa Jaakonsaari (S&D), Julia Reda (Greens/EFA) und…

Weiterlesen

Story, 21. November 2018

Kreditscoring: Urteil aus Finnland wirft Fragen zur Diskriminierung auf

In einem außerhalb Finnlands wenig bekannten Fall verurteilte das finnische Nichtdiskriminierungs- und Gleichheitstribunal im April dieses Jahres den Finanzdienstleister Svea Ekonomi AB zu einer Geldstrafe von 100.000 Euro, weil er mit seinen statistischen Verfahren einen Mann diskriminiert habe. Die Begründung des Gerichts lässt Fragen offen.

Weiterlesen

Story, 4. Juli 2018

Risikobürger

In den Niederlanden filtert eine Software automatisch potentielle Sozialbetrüger heraus. Wie sie funktioniert, verrät der Staat nicht. Bürgerrechtler klagen dagegen.

Weiterlesen

Position, 3. Juli 2017

Diskriminierung hängt nicht vom Medium ab

AlgorithmWatch-Mitgründerin Lorena Jaume-Palasí kommentiert die Pläne von Bundesjustizminister Heiko Maas, eine Digitalagentur – eine Art Algorithmen Behörde – schaffen zu wollen.

Weiterlesen

Publikation, 1. Juni 2017

Ethik und algorithmische Prozesse zur Entscheidungsfindung oder -vorbereitung

Aktuelle ethische Debatten über die Folgen von Automatisierungsprozessen konzentrieren sich auf die Rechte von Individuen. Doch algorithmisch gesteuerte Prozesse haben eine kollektive Dimension. Wie kann man ihr besser gerecht werden? Ein Vorschlag.

Weiterlesen

Publikation, 22. März 2017

3. Arbeitspapier: Unsere Antworten zur Anhörung zu „Künstlicher Intelligenz“ des Ausschusses Digitale Agenda

Unsere Antworten auf den Fragenkatalog der Bundestag-Fraktionen stellen gleichzeitig unser 3. Arbeitspapier dar.

Weiterlesen

Blog, 2. März 2017

Lieber Rechte als Verbote. Eine Antwort auf Steven Hill

In der ZEIT vom 2. März ist unsere Antwort auf Steven Hill erschienen, der den Verzicht auf Automatisierung und andere digitale Technologien gefordert hat ("You’re fired!" Es gibt digitale Technologien, die man einfach verbieten muss.). Wir dokumentieren den Text hier in voller Länge (er lässt sich hier auch bei Zeit Online lesen). Als vor einigen Monaten aufflog, dass…

Weiterlesen

Blog, 2. Dezember 2016

Es gibt keine digitalen Grundrechte

Der Vorschlag für eine EU-Charta digitaler Grundrechte hat eine intensive Debatte entfacht. Neben positiven Kommentaren, vor allem durch die Initiatoren und Unterzeichner selbst, gibt es Kritik, vor allem am Zustandekommen der Charta und der Art, wie sie in der Öffentlichkeit platziert wurde und wird. Wir fokussieren uns hier auf inhaltliche Fragen, die  die Themen „automatisierte…

Weiterlesen

Fallstudie, 26. November 2016

1. Fallstudie: Sollte soziale Netzwerkanalyse in der Polizei zur Analyse von Bandenstrukturen verwendet werden?

AlgorithmWatch hat es sich zur Aufgabe gemacht, Algorithmen zu bewerten, die im Rahmen von algorithmisch unterstützten Entscheidungsprozessen genutzt werden. Dabei geht es uns vor allen Dingen um solche Algorithmen, die lebensentscheidende Konsequenzen haben können, insbesondere natürlich solche, die Bürgerrechte betreffen. Dazu gehören auch alle Arten von Algorithmen, die im Rahmen von Polizei- und Geheimdienstarbeit genutzt…

Weiterlesen

Interview, 31. Mai 2016

Wir müssen Maßstäbe für Verantwortlichkeit definieren

Natali Helberger ist Professorin für Informationsrecht am Institut für Informationsrecht (IVIR) der Universität Amsterdam. Sie untersucht die Schnittstellen von Technologie und Informationsrecht und der sich wandelnden Rolle des Nutzers. Wir sprachen mit ihr über die Fragen, wie gut der Begriff "Algorithmus" geeignet ist, neue Entwicklungen zu fassen, welchen rechtlichen Herausforderungen wir gegenüber stehen und wie wir Beurteilungskriterien für unseren Umgang mit algorithmisch gesteuerten Prozessen…

Weiterlesen
Wenn Sie mehr zu unserer Policy & Advocacy Arbeit zu ADM im öffentlichen Sektor erfahren möchten, wenden Sie sich an:
Anne Mollen
Senior Policy & Advocacy Managerin
Nikolett Aszódi
Junior Policy & Advocacy Managerin
Sarah Michot
Junior Advocacy & PR Managerin