Dr. Nicolas Kayser-Bril

Head of Journalism

Foto: Julia Bornkessel, CC BY 4.0

Nicolas arbeitet für AlgorithmWatch als Reporter. Nach einem Studium der Wirtschaftswissenschaften entwickelte er 2009 interaktive, datengesteuerte Anwendungen für Le Monde. Anschließend baute er das Datenjournalismus-Team bei OWNI auf, bevor er von 2011 bis 2017 Journalism++ mitbegründete und leitete. Nicolas hält regelmäßig Vorträge auf internationalen Konferenzen, unterrichtet an französischen Journalismusschulen und leitet Schulungen für Redaktionen. Er ist einer der Hauptverfasser des Datajournalism Handbook.

Beiträge für AlgorithmWatch

Prunksaal der Österreichischen Nationalbibliothek

Große Sprachmodelle als staatliche Statussymbole

Je eifriger Regierungen sich für KI einsetzen, desto mehr werden Entwicklung und Kontrolle großer Sprachmodelle (Large Language Models, LLM) zu Staatsangelegenheiten. Zahlreiche europäische Länder investieren massiv in sogenannte „Sprachressourcen“, und darüber liegt stets ein großer geopolitischer Schatten.

Eine Werbung für Palmona, eine Marke von künstlicher Butter.

Was künstliche Butter mit künstlicher Intelligenz zu tun hat

Eine Person reinigt das Lobby eines Bürohauses.

Regulierung von Plattformarbeit lässt Reinigungskräfte im Regen stehen

Ich werde häufig gefragt, warum es nur wenige positive Visionen von KI gibt. Schließlich können Maschinen die Arbeit erträglicher machen und, vorausgesetzt, die sich aus ihrem Einsatz ergebenden Vorteile werden gerecht verteilt, zum Nutzen aller sein. Doch ganz so funktioniert generative KI leider nicht.

Das 3-Pfeile Symbol mit rotem-lilanem Hintergrund.

Warum linke Parteien mit generativer KI fremdeln

Ich werde häufig gefragt, warum es nur wenige positive Visionen von KI gibt. Schließlich können Maschinen die Arbeit erträglicher machen und, vorausgesetzt, die sich aus ihrem Einsatz ergebenden Vorteile werden gerecht verteilt, zum Nutzen aller sein. Doch ganz so funktioniert generative KI leider nicht.

close-up photo of Goosebumps Slappy the Dummy ventriloquist doll

Alle gleich? Praxistest zeigt Bandbreite der Unterschiedlichkeit von Sprachmodellen auf

Egal welches Modell zum Einsatz kommt, KI‑generierter Text weist häufig eine gewisse Monotonie und Eintönigkeit auf. Dieses Phänomen lässt sich zwar mathematisch analysieren, wie ein Experiment zeigt, aber Unterschiede in der Bedeutung lassen sich letztlich kaum quantifizieren.

A photographic rendering of a simulated middle-aged white woman against a black background, seen through a refractive glass grid and overlaid with a distorted diagram of a neural network.

Wie KI-Slop-Farms Identitäten stehlen

KI‑Slop ist allgegenwärtig. Einer Schätzung zufolge wird etwa jeder fünfte Artikel, der über Google Discover angezeigt wird, automatisch erzeugt. Weniger bekannt ist, dass KI‑Slop-Farms die Identität bereits bestehender Journalist*innen und Influencer*innen stehlen, um ihre Chancen zu erhöhen, von diesen Algorithmen ausgewählt zu werden.

Excerpt from Fingerprints by Francis Galton

Biometrische Fernidentifizierung als kolonialer Bumerang

Viele sind zu Recht empört darüber, wie sehr Live-Gesichtserkennung und andere Formen der biometrischen Fernidentifizierung unsere Freiheit im öffentlichen Raum einschränken. Durch diese Empörung übersehen sie meiner Meinung nach aber teilweise den Sinn dieser Technologie. Ein Blick auf die Kolonialgeschichte hilft uns zu verstehen, weshalb sie ein beliebtes Herrschaftsinstrument ist.

Der TikTok-Algorithmus als Sündenbock für die Politik

Ein parlamentarischer Bericht über TikTok hat in den letzten Wochen in Frankreich mediale Wellen geschlagen. Er ist schon an sich interessant, aber außerdem ein Paradebeispiel für den Reflex vieler europäische Politiker*innen, wenn sie sich mit einem Thema beschäftigen, das mit Algorithmen zu tun hat.

Ein Waschbär auf einem Bildschirm in einer Kirche.

KI-Jesus: Was bleibt von Papst Franziskus’ Lehre?

In einer Kirche in Österreich war eine KI-generierte Ausstellung zu sehen. Dies entspricht nicht ganz den KI-Richtlinien des Vatikans.

OpenAI bricht eigene Regeln: Generatoren produzieren täuschende KI-Bilder zur EU-Wahl

AlgorithmWatch hat getestet, welche Bilder sich kurz vor der EU-Wahl von den großen KI-Systemen generieren lassen: Zwei der größten Anbieter halten sich nicht an Sicherheitsmaßnahmen, die sie selbst angekündigt haben.

Wie Bildgeneratoren die Welt zeigen: Stereotypen statt Vielfalt

Studien dazu befassen sich meistens nur mit MidJourney. Bei anderen Tools ist die ernste Absicht zu erkennen, eine größere Vielfalt im Output darzustellen, wenn auch mit durchwachsenem Erfolg.

Das Jahr, in dem wir auf Taten warteten: 2023 im Rückblick

Vor genau einem Jahr habe ich geschrieben, dass automatisierte Systeme im Laufe des Jahres 2023 möglicherweise endgültig reguliert werden könnten. Es hat sich gezeigt, dass meine Prognose zu optimistisch war. Die europäischen Institutionen haben es nicht geschafft, die KI-Verordnung zu verabschieden, auch nicht in einer abgeschwächten Version. Mit dem Aufstieg generativer Modelle haben derweil die Probleme zugenommen.

AlgorithmWatch begrüßt seine ersten Stipendiat*innen

Nach unserer Ankündigung, dass wir Stipendien vergeben, um journalistische Berichte über den Einsatz von automatisierten Entscheidungssystem in Europa zu fördern, haben wir über hundert Bewerbungen erhalten. Wir freuen uns nun sehr darüber, unsere ersten sechs Stipendiat*innen ankündigen zu dürfen, eine illustre Gruppe aus Journalist*innen, Akademikerinnen und einem Menschenrechtsaktivisten.

War es das Jahr, in dem die Regulierung automatisierter Systeme ihren Anfang nahm? – 2022 im Rückblick

Automatisierte Systeme tauchten 2022 in den Nachrichten überraschenderweise nur am Rande auf. Die europäischen Institutionen haben trotzdem beim Versuch, die großen Plattformen zu regulieren, die Zügel angezogen. Wie weit sie damit kommen, wird von ihrer Entschlossenheit abhängen. Es ist bereits absehbar, wo die erste große Herausforderung lauert.

Über Algorithmen in unserer Gesellschaft schreiben: AlgorithmWatch vergibt 5 Stipendien

Die Stipendiat*innen erhalten sechs Monate lang 1.200 € pro Monat und berichten über den Einsatz von automatisierten Entscheidungssystemen in Europa.

Meta angeklagt: Algorithmen als Nährboden für Betrug?

Die australische Wettbewerbsbehörde wirft Meta vor, den Betrug von Nutzer*innen zu begünstigen. Da die Betrugsfälle weltweit stattfinden, könnte die Rechtsprechung dazu globale Konsequenzen haben.

Datensätze ohne Verfallsdatum: Wie im Namen der Wissenschaft Grundrechte verletzt werden

Ein US-amerikanischer Informatiker hat mit Bildern von trans* Menschen ohne ihre Zustimmung einen Datensatz zum Trainieren von Gesichtserkennungssoftware erstellt. Jetzt haben sich die wahren Dimensionen seiner fahrlässigen Herangehensweise gezeigt.

Ein neuer europäischer Newsroom untersucht automatisierte Systeme

AlgorithmWatch freut sich sehr, ankündigen zu dürfen, dass die Deutsche Postcode Lotterie einen dezentralen Newsroom sponsort, der automatisierte Systeme in Europa untersuchen wird.

Das Jahr, in dem automatisierte Systeme kein Teil der Lösung waren – 2021 im Rückblick

Das verheerende Hochwasser in Rheinland-Pfalz und die Enthüllungen der „Facebook Files“ haben eines gemeinsam: Die Verantwortlichen hatten zwar alle Informationen, trafen aber die falschen Entscheidungen. Auch 2021 wurden den Algorithmen keine Zügel angelegt – aber es gibt die Hoffnung, dass es 2022 endlich dazu kommt.

Süddeutsche veröffentlicht Ergebnisse unseres Instagram-Forschungsprojekts zur Bundestagswahl

Inhalte der AfD landen im Instagram-Newsfeed weiter oben als die von anderen Parteien. Das zeigt eine Analyse der Süddeutschen Zeitung, die im Projekt #wahlfilter mit Hilfe eines Browser-Add-ons von AlgorithmWatch über 200.000 Datenspenden ausgewertet hat.

LinkedIn: Bewerber·innen aus dem Ausland „nicht geeignet“

LinkedIn stuft Bewerber·innen, die sich für einen Job in einem anderen EU-Land bewerben, zum Teil automatisch als „nicht geeignet“ ein. Das könnte illegal sein. Ich habe sechs nationale und europäische Agenturen darauf aufmerksam gemacht. Keine scheint ein Interesse daran zu haben, geltendes Recht durchzusetzen.

Wie Big Tech europäische Politik, Presse und Forschung umgarnt und bedrängt

Unter dem Deckmantel, Forschung und Journalismus zu fördern, haben Google, Facebook und andere große Technologieunternehmen ein umfassendes Lobby-System aufgebaut – und damit ein komplexes Netz von Abhängigkeiten und Einflussnahme gesponnen. Transparenz ist längst überfällig.

In Berlin verleiten Google Maps und TomTom Autofahrer·innen zu Gesetzesverstößen

Navigationsdienste wie TomTom und Google Maps empfehlen Autofahrer·innen, Fahrradstraßen zu benutzen und damit gegen die Verkehrsregeln zu verstoßen. Beide Unternehmen kündigten an, ihre Datenbanken zu aktualisieren. Davon ist jedoch kaum eine endgültige Lösung des Problems zu erwarten.

Die Insta-Mafia: Kleinkriminelle melden Nutzer·innen massenhaft für Profit

Teenager-Gruppen nutzen Schwachstellen in den Meldesystemen von Facebook und Instagram, um Konten zu kapern und Nutzer·innen zu belästigen. Die geplante DSA-Verordnung spricht das Problem an, wird aber wahrscheinlich zu kurz greifen.

Das Jahr, in dem die Algorithmen der Quarantäne entkamen: 2020 im Rückblick

Im Zuge der Covid-Pandemie haben Regierungen und Firmen den Ausbau automatischer Systeme beschleunigt. Initiativen der Zivilgesellschaft haben versucht, einige davon unter Kontrolle zu halten.