Automatisierte Polizeiarbeit: Wie Algorithmen in Deutschland Straftaten „voraussehen“ sollen
Die Polizei, Strafverfolgungsbehörden und Justizvollzugsanstalten in Deutschland versuchen immer stärker, Straftaten digital „vorherzusagen“ und zu „verhindern“. Der Bericht „Automating Injustice“ gibt einen Überblick über solche algorithmischen Systeme, die in Deutschland entwickelt und eingesetzt werden.

Ob geografische Kriminalitätsvoraussagen oder individuelle Profile von potenziellen Straftäter*innen: KI-gestützte Datenanalysen durch Polizei und Strafverfolgungsbehörden haben in den letzten Jahren deutlich zugenommen. Auch deutsche Justizvollzugsanstalten setzen „voraussagende“ algorithmische Systeme ein.
In dem Bericht „Automating Injustice“ werden ausgewählte Systeme untersucht, die in Deutschland von der Polizei, Strafverfolgungsbehörden und Gefängnissen entwickelt oder eingesetzt werden. Außerdem werden öffentlich zugängliche Informationen über solche Praktiken analysiert, um zu erklären, wie die Systeme funktionieren, welche Daten sie verwenden, weshalb sie zu einer stärkeren Diskriminierung führen können und generell eine Gefahr für die Grundrechte sind.
Viele der umstrittenen Systeme werden entwickelt, getestet und betrieben, ohne dass es eine Rechtsgrundlage dafür gibt. Um diese Entwicklung zu stoppen und in Deutschland stärkere Schutzmaßnahmen für algorithmische Polizeipraktiken anzuregen, schließt der Bericht mit politischen Handlungsempfehlungen ab, die aus empirischen Fällen in Deutschland abgeleitet wurden.
Begleitend zu dieser Publikation haben wir einen Explainer zum Thema veröffentlicht.
Mehr über unsere Policy- und Advocacy-Arbeit zu biometrischen Erkennungssystemen.