Pressemitteilung
Wie Algorithmen LGBTQIA+-Menschen diskriminieren

Am Wochenende zieht der Christopher Street Day (CSD) wieder durch Berlin, Stuttgart, Chemnitz und viele andere Städte in ganz Deutschland. Während die Community auf den Straßen Sichtbarkeit und Vielfalt feiert, ist sie in digitalen Räumen oft unsichtbar oder wird von den Algorithmen der sozialen Medien in Reichweite und Präsenz begrenzt. Denn Algorithmen sind nicht neutral und können Vorurteile und Diskriminierung in vielen Lebensbereichen der LGBTQIA+-Personen verstärken. Um algorithmische Diskriminierung sichtbar zu machen und zu bekämpfen, ruft AlgorithmWatch seit Mai 2025 in einer Kampagne Betroffene dazu auf, Fälle von algorithmischer Diskriminierung zu melden: https://algorithmwatch.org/de/algorithmische-diskriminierung-melden/
Verschärfte Sicherheitskontrollen am Flughafen
Sogenannte Automated Gender Recognition-Systeme (AGR) versuchen, das Geschlecht automatisiert zu erkennen. Etwa anhand von Gesichtszügen, Make-up, der Stimme, der Körperform oder der Gangart.
So ist es schon vorgekommen, dass das Flughafenpersonal bei den Bodyscannern in der Sicherheitskontrolle vorab das Geschlecht an der Maschine einstellen musste und dabei nur die Auswahl zwischen männlich und weiblich hatte. Die Scanner schlugen dann Alarm bei widersprüchlichen Geschlechtsmerkmalen, weil sie auf einem binären Geschlechterverständnis basierten und daher Trans- und nicht binäre Personen nicht richtig erkennen konnten – mit entwürdigenden Folgen für diese Personen, wenn sie bei Zusatzkontrollen ihr Geschlecht nachweisen mussten. Viele Betroffene berichteten von wachsender Unsicherheit und Angst vor Flugreisen.
Shadow-Banning und Zensur queerer Inhalte in Social Media
Plattformen wie Instagram oder Facebook setzen automatisierte Moderationssysteme ein, um Inhalte zu filtern, die Gewalt oder kriminelle Handlungen zeigen – oder schlicht Dinge, die nicht in das Wertesystem der Plattform-Betreiber passen. Doch dabei passieren oft Fehler: Queere Creators berichten, dass ihre Sichtbarkeit und Reichweite eingeschränkt, Inhalte blockiert oder als „nicht empfehlenswert“ eingestuft werden, selbst wenn sie in aufklärerischem oder aktivistischem Kontext stattfinden.
Seit den massiven Kürzungen menschlicher Moderationsteams auf Meta oder X übernimmt KI-basierte Moderation noch stärker die Kontrolle. Das heißt, dass Fehlentscheidungen noch seltener korrigiert werden, weil kein Mensch mehr draufschaut.
Gesichtserkennung als Überwachungsinstrument gegen queere Menschen
Zuletzt schränkte Ungarn die LGBTQIA+-Rechte aktiv ein und drohte damit, Gesichtserkennung gegen Teilnehmende der Pride-Veranstaltung in Budapest einzusetzen. Die LGBTQIA+-Community in Ungarn sollte so gezielt eingeschüchtert und kriminalisiert werden.
Studien zeigen, dass Gesichtserkennung bei Gender-diversen oder nicht-weißen Personen besonders fehleranfällig ist und daher zu automatisiertem Misgendering oder häufiger zur Einstufung führen kann, kriminell zu sein. Glücklicherweise hat Ungarns Polizei zu diesem Anlass davon wieder Abstand genommen, aber es ist nicht gesichert, dass biometrische Erkennungsverfahren nicht an anderen Orten bei anderen Veranstaltungen wieder zur Bedrohung werden. Deswegen setzt sich AW für ein vollständiges Verbot von Gesichtserkennung im öffentlichen Raum ein und sammelt aktuell Unterschriften für eine entsprechende Online-Petition: https://algorithmwatch.org/de/pridewithpride/
Die Kampagne: Algorithmische Diskriminierung muss sichtbar werden
AlgorithmWatch will algorithmische Diskriminierung ins öffentliche Bewusstsein rücken und Betroffenen helfen. Mit einem eigens geschaffenen Meldeformular gibt die Berliner NGO Menschen die Möglichkeit, solche Fälle zu melden. Den eingehenden Meldungen wird AlgorithmWatch nachgehen, um algorithmische Diskriminierung aufzudecken und so Druck auf Anbieter entsprechender Systeme und politische Entscheidungsträger*innen auszuüben.
Das Meldeformular für algorithmische Diskriminierungsfälle ist hier hinterlegt:
https://algorithmwatch.org/de/algorithmische-diskriminierung-melden/
Über AlgorithmWatch
AlgorithmWatch ist eine gemeinnützige Nichtregierungsorganisation in Berlin und Zürich. Wir setzen uns dafür ein, dass Algorithmen und Künstliche Intelligenz (KI) Gerechtigkeit, Demokratie, Menschenrechte und Nachhaltigkeit stärken, statt sie zu schwächen. Hierfür untersucht und beobachtet AlgorithmWatch algorithmische Entscheidungssysteme und -prozesse und ihre Auswirkungen auf Menschen und Gesellschaften, erklärt Strukturen, Systeme und Prozesse und entwickelt Vorschläge und Handlungsempfehlungen für die Regulierung des Einsatzes von KI-Systemen und Automatisierungswerkzeugen. AlgorithmWatch wurde 2016 gegründet. 2023 wurde AlgorithmWatch mit dem Brandenburger Freiheitspreis und 2024 mit dem Bundespreis Verbraucherschutz ausgezeichnet.