#diskriminierung (25 Ergebnisse)

„A Dream Deterred”. Ein Migrant wird an einem Grenzübergang mit massiver Überwachung konfrontiert und an seine ungewisse Zukunft erinnert. Aktivist*innen setzen sich gegen diese Überwachungssysteme ein.

Advocacy-Briefing zur Verteidigung der Rechte von Geflüchteten, Asylsuchenden und Migrant*innen im digitalen Zeitalter

Dieses Dokument bietet eine menschenrechtliche Einordnung und Grundsätze, anhand derer die Auswirkungen neuer und bestehender Technologien auf Geflüchtete, Asylsuchende und Migrant*innen analysiert werden können. Zudem enthält es Empfehlungen für Staaten, Unternehmen, internationale Organisationen und Dienstleister*innen.

Sag nie, du kommst aus Neapel

Heute beleuchte ich geografische Vorurteile bei vier open-weight LLMs. Nach dem Lesen werden vielleicht einige ihr Lebenslauf überarbeiten und alles, was mit Stockholm oder Amsterdam zu tun hat, stärker hervorheben.

Foto von der Südfassade des Palais Royal in Paris

Pressemitteilung

AlgorithmWatch schließt sich Klage gegen französischen Bewertungsalgorithmus an

AlgorithmWatch schließt sich 24 weiteren zivilgesellschaftlichen Organisationen an, die gegen den diskriminierenden Risikobewertungsalgorithmus der Familienabteilung des französischen Sozialsystems (CNAF) vorgehen.

The collage shows 4 archival images of women. In these of the images, the women are nude. There is also one portrait of a woman with yellow shapes and bounding boxes on her face.

Sexualisierte Deepfakes auf X: Was wir dagegen tun und was die EU tun sollte

Elon Musks Chatbot „Grok“ erzeugt auf der Plattform X Bilder echter Menschen in Bikinis ohne deren Zustimmung, darunter auch Kinder. Das Problem dieser sexualisierten Darstellungen durch KI geht jedoch weit über X hinaus, wie unsere Untersuchungen zeigen. X selbst hat unsere Forschungen jedoch blockiert. Die EU-Kommission muss viel entschlossener vorgehen, um Menschen vor dieser Art von Gewalt zu schützen.

Illustration auf orangefarbenem, texturiertem Hintergrund zeigt mehrere stilisierte Figuren mit verschiedenen Mobilitätshilfen: zwei Personen im Gespräch, eine Person mit Blindenstock, eine Person mit Gehhilfe und Hund, sowie eine Person im Rollstuhl. Die Figuren sind in warmen Rottönen gezeichnet. Im unteren Bildbereich befinden sich gelbe geometrische Linienformen, die an ein Netzwerk oder verbundene Strukturen erinnern.

KI & Behinderung

KI im Leben von Menschen mit Behinderungen: Von Assistenz bis Ausschluss

KI-Anwendungen können den Alltag von Menschen mit Behinderungen erleichtern, andere jedoch ihre Grundrechte tangieren. Ein Überblick über die Chancen und Risiken Künstlicher Intelligenz für Menschen mit Behinderungen.

Weißer Regenschirm mit Binärcode-Muster auf gelbem Hintergrund

Explainer: Diskriminierung im Recruiting

Automatisch aussortiert? Wenn KI-Systeme in Bewerbungsprozessen diskriminieren

KI-unterstützte Systeme in der Personalauswahl können Bewerbungen vorsortieren und bewerten oder Kandidat*innen empfehlen. Solche auf Algorithmen basierende Systeme mögen Personalverantwortlichen Zeit sparen, sie bergen aber auch das Risiko einer systematischen Diskriminierung – die oft unbemerkt bleibt.

Pressemitteilung

Diskriminierende KI bei Job-Bewerbungen: AlgorithmWatch CH zeigt mit Forschungsprojekt neue Lösungen

Bei der Personalauswahl nutzen immer mehr Unternehmen KI-gestützte Bewerbungssysteme. Solche Systeme bergen das Risiko der Diskriminierung. AlgorithmWatch CH veröffentlicht im Rahmen des Horizon-Europe-Projekts „FINDHR – Fairness and Intersectional Non-Discrimination in Human Recommendation“ neue Tools, Trainings und Empfehlungen, um Diskriminierung durch KI-Systeme in der Personalauswahl zu reduzieren.

Projekt „FINDHR“

Just Hiring! So vermeiden wir Diskriminierung durch Algorithmen in Einstellungsverfahren

KI, die Bewerbungen vorsortiert? Im Rahmen des Horizon-Europe-Projekts „FINDHR“ haben wir Algorithmen, Methoden und Trainings entwickelt, um Diskriminierung zu vermeiden, wenn KI bei der Personalauswahl zum Einsatz kommt.

Dieses Bild zeigt eine Menschenmenge, die an einer Veranstaltung im Freien teilnimmt. Im Vordergrund sieht man zwei Hände, die Regenbogenfahnen hochhalten.

Pressemitteilung

Wie Algorithmen LGBTQIA+-Menschen diskriminieren

A couple of ATM machines sitting next to each other

Können Algorithmen automatisch Bankkonten sperren?

Kleines Computer-Icon im Pixel-Style, daneben der Text: “Algorithmische Diskriminierung melden”

Pressemitteilung

Wohnung, Job oder Kredit nicht bekommen? AlgorithmWatch sammelt Fälle algorithmischer Diskriminierung.

Mit einem Online-Meldeformular möchte AlgorithmWatch Fälle algorithmischer Diskriminierung sammeln, um das Thema stärker ins öffentliche Bewusstsein zu rücken.

Themenseite

Was ist algorithmische Diskriminierung?

Diskriminierung und Künstliche Intelligenz (KI): Wir geben einen Überblick über das Thema.

Überwachungskamera blickt auf gesprühten oder projizierte CDU/CSU und SPD Logos an einer Wand

Pressemitteilung

Koalitionsvertrag: Bundesregierung darf KI-Regulierung nicht aus den Augen verlieren

A rock embedded with intricate circuit board patterns, held delicately by pale hands drawn in a ghostly style. The contrast between the rough, metallic mineral and the sleek, artificial circuit board illustrates the relationship between raw natural resources and modern technological development. The hands evoke human involvement in the extraction and manufacturing processes.

Digitalthemen in den Koalitionsverhandlungen: AlgorithmWatch bezieht Stellung

Die ersten Zwischenergebnisse der Koaltionsverhandlungen zwischen der Union und SPD sind da. AlgorithmWatch hat sich die Verhandlungspapiere der „AG Digitales“ und der „AG Innen, Recht, Migration und Integration“ genauer angeschaut. Hier ist unsere Reaktion auf die Positionen zu zentralen Digitalthemen.

AlgorithmWatch erhält den Bundespreis Verbraucherschutz 2024

Aufklärung und Forschung zu Algorithmen und Künstlicher Intelligenz (KI), Engagement und Forderungen für mehr Gerechtigkeit in der digitalen Welt: Dafür hat AlgorithmWatch den Bundespreis Verbraucherschutz der Deutschen Stiftung Verbraucherschutz (DSV) 2024 erhalten. Eine vierzehnköpfige Jury wählte AlgorithmWatch aus 40 Vorschlägen als Sieger aus.

Geschlechtsangleichende Transition: Auch im digitalen Leben schwierig

Nur eine Formalität? Für die Transgender-Community ist der Wechsel der Online-Identität kein simpler Verwaltungsakt. Eine mangelhafte Datenarchitektur macht es nur schlimmer.

Explainer: Algorithmische Diskriminierung

Wie und warum Algorithmen diskriminieren

Automatisierte Entscheidungssysteme können diskriminieren. Wir erklären, welche Ursachen das hat, was in solchen Fällen passieren kann und warum die bestehenden Gesetze nicht ausreichend vor algorithmischer Diskriminierung schützen.

EU-Migrationspakt: Die Europäische Gemeinschaft der Überwachung

An den EU-Grenzen und den dortigen Abschiebelagern werden immer mehr Technologien eingesetzt, die die Privatsphäre verletzen. Der neue Migrations- und Asylpakt ermutigen geradezu, die gesellschaftlich bereits am stärksten Ausgegrenzten mit gefährlichen digitalen Systemen noch intensiver zu überwachen - auch Kinder.

Pressemitteilung

Schutz vor Diskriminierung: Auch ein Zeichen gegen Rechts

Berlin, 15. Februar 2024. Die Reform des Allgemeinen Gleichbehandlungsgesetzes (AGG) lässt weiterhin auf sich warten. Die Bundesregierung hatte sie im Koalitionsvertrag angekündigt, schiebt das Vorhaben jetzt aber auf. Dabei könnte sie mit dieser Reform ein klares gesellschaftliches Zeichen setzen.

Plattformregulierung

Diskriminierende Anzeigen: KI ist auch keine Lösung

Ein neues System von Meta sollte dafür sorgen, dass auf Facebook und Instagram Wohnungsanzeigen in den USA weniger diskriminierend sind. In einem Compliance-Bericht wird behauptet, dass die KI-Lösung funktioniere, aber dafür fehlen Beweise einer neutralen Instanz.

Ungerechtigkeit vorprogrammiert: Wenn Algorithmen diskriminieren

Algorithmische Entscheidungssysteme sind inzwischen in allen Lebensbereichen zu finden. Mit der Technik sind allerdings nicht alle Probleme gelöst, manchmal werden Menschen sogar durch sie benachteiligt.

Pressemitteilung

Menschenrechtsorganisationen fordern Reform des Allgemeinen Gleichbehandlungsgesetzes

Offener Brief: Jetzt algorithmenbasierte Diskriminierung anerkennen und Schutzlücken schließen!

Das Allgemeine Gleichbehandlungsgesetz (AGG) weist in seiner heutigen Form wesentliche Schutzlücken auf. AlgorithmWatch und 20 weitere zivilgesellschaftliche Organisationen fordern die Bundesregierung auf, diese Lücken zu schließen und die Bevölkerung zukünftig vor algorithmenbasierter Diskriminierung zuverlässig zu schützen.

AutoCheck-Workshops zu automatisierten Entscheidungssystemen und Diskriminierung

Ursachen verstehen, Fälle erkennen, Betroffene unterstützen: AlgorithmWatch stellt Unterlagen zur Durchführung eines Workshops bereit.

Was tun, wenn Algorithmen diskriminieren? Ein Ratgeber von AutoCheck

In Deutschland werden womöglich täglich Menschen durch algorithmische Systeme diskriminiert, ohne es zu wissen. Eine neue Handreichung hilft dabei, Fälle zu erkennen und zu bekämpfen. Dabei legt sie auch Lücken in der Gesetzeslage offen.

Seite 1 von 2