#sozialhilfe (4 Ergebnisse)

Unsere Untersuchung der Hartz-IV-Algorithmen zeigt: Hier diskriminiert der Mensch und nicht die Maschine

Die Bundesagentur für Arbeit (BA) und die Jobcenter setzen Algorithmen ein, um zu berechnen, wie viel Arbeitslosengeld II – besser bekannt als Hartz IV – ein·e Antragsteller·in bekommt. Anders als in den USA oder in Österreich geschehen, konnten wir in den deutschen Sozialhilfe-Algorithmen keine diskriminierenden Muster nachweisen. Das Problem sind eher Sachbearbeiter·innen und das Gesetz.

Polen: Regierung schafft umstrittenes Scoring-System für Arbeitslose ab

Aufgrund der Kritik von Aktivisten, Richtern und einer Menschenrechtsorganisation ist die polnische Regierung gezwungen, ein umstrittenes Bewertungssystem für Arbeitslose zu streichen. Das automatisierte System wird eingesetzt, um grundlegende Entscheidungen darüber zu treffen, welche Unterstützung Menschen vom Arbeitsamt erhalten. Grundlage sind die persönlichen Daten der Betroffenen sowie deren Antworten auf Interviews, die in den Jobcentern durchgeführt werden. Kritiker sagen, das System sei diskriminierend, intransparent und verletze Datenschutzrechte. Infolgedessen hat die Regierung beschlossen, ihr Experiment zum Profiling von Arbeitslosen zu beenden und das System bis Dezember 2019 abzuschaffen.

Schweden: Fehlerhafter Algorithmus stoppt Zahlungen für über 70.000 Arbeitslose

Risikobürger

In den Niederlanden filtert eine Software automatisch potentielle Sozialbetrüger heraus. Wie sie funktioniert, verrät der Staat nicht. Bürgerrechtler klagen dagegen.