Verantwortungsvolle Nutzung von generativer KI: AlgorithmWatch schlägt diese Richtlinien vor

Ob ChatGPT, Claude oder Gemini, Copilot oder Perplexity – generative KI wirft massive Probleme auf: Viele Ergebnisse sind fehlerhaft und politisch problematisch, der Verbrauch von Energie und Wasser ist enorm. Zugleich sind sie aus dem Alltag nicht mehr wegzudenken. AlgorithmWatch hat eine Richtlinie entwickelt, die dabei hilft, generative KI verantwortungsvoll zu verwenden.

A collage that merges circuit board patterns with textile motifs in a grid-like background of alternating black, grey, and white. Two hand-drawn arms are on each side of the image, positioned as if gently pulling on thin, white strings that cross the image diagonally. The hands appear soft and somewhat translucent, contrasting with the rigid lines of the circuit board patterns behind them. The strings are woven through both the hands and the background, symbolising the connection between traditional weaving and modern technology. The overall colour palette features muted earth tones, including browns, beiges, and grays, creating a sense of both history and continuity between the natural and technological worlds.

Als Organisation kämpfen wir dagegen, dass digitale Technologien unverantwortlich und unkontrolliert entwickelt und eingesetzt werden. Allerdings können uns Technologien auch dabei unterstützen, unsere Ziele zu erreichen, wenn sie verantwortungsbewusst eingesetzt werden. Generative KI ist ein besonders prominentes Beispiel einer Technologie, die die Frage aufwirft, ob und wie wir sie verantwortungsbewusst nutzen und Risiken gegeneinander abwägen können.

Wir hoffen, dass diese Richtlinien anderen Organisationen als nützliches Modell dienen können, wenn sie überlegen, wie sie generative KI verantwortungsbewusst einsetzen können.

Dieses Dokument beschreibt interne Grundsätze und aktuelle Praktiken, die wir umsetzen, wenn wir generative KI verwenden. Es dient ausschließlich zu Informationszwecken und stellt weder rechtlich bindende Verpflichtungen oder Garantien dar, noch ersetzt oder ergänzt es andere Dokumente von AlgorithmWatch (z. B. unsere Datenschutzerklärung).

Es war herausfordernd, eine solche Richtlinie zu entwickeln und einzuführen, denn es gibt eine große Bandbreite möglicher Anwendungsfälle, Risiken und Vorteile sowie verschiedener Ansichten zu generativer KI (die sich zudem jeweils schnell ändern).

Unser Ansatz begann mit einer Umfrage unter unseren Kolleg*innen, um

Darauf aufbauend haben wir die Richtlinie entwickelt. Sie soll Team-Mitgliedern als Leitfaden dienen, wenn sie entscheiden müssen, ob und wie sie generative KI so einsetzen können, dass es mit unseren Werten und Zielen im Einklang steht.

Die Richtlinie basiert auf vier Grundsätzen. Der Einsatz generativer KI muss

Die Richtlinie umfasst einen strukturierten Prozess, der beschreibt, wie wir Anwendungsfälle und Werkzeuge sammeln, diskutieren und die Richtlinie fortlaufend aktualisieren. Das ist notwendig, um sie den vielfältigen Einsatzmöglichkeiten und den ständigen Veränderungen der Technologie anzupassen.

Aus unseren bisherigen Erfahrungen und Diskussionen können wir sagen, dass

Vollständige Richtlinie herunterladen

Abonniere unseren Newsletter und lade die komplette Richtlinie herunter – inklusive Einblick in die teaminterne Datenerhebung und einem Beispiel für eine Transparenz-Notiz.

Wenn du bereits für unseren Community-Newsletter angemeldet bist, aber jetzt die vollständige Richtlinie herunterladen möchtest, melde dich bitte trotzdem erneut über das Formular an. Sobald du dein Abonnement bestätigt hast, kannst du die Datei auf der Bestätigungsseite herunterladen.

Wir sehen die Richtlinie nicht als fertiges Produkt. Wir setzen sie um, testen sie und lernen dabei. Wir würden uns freuen, von anderen Organisationen zu hören, die ähnliche Bemühungen unternehmen – gerne per Mail an info@algorithmwatch.org.


Unsere Richtlinie zum Einsatz generativer KI

Als Organisation kämpft AlgorithmWatch gegen jeden unverantwortlichen Umgang mit digitalen Technologien, bei ihrer Entwicklung ebenso wie bei ihrer Nutzung. Werden sie jedoch verantwortungsbewusst eingesetzt, können viele solcher Technologien einen bedeutenden Beitrag dazu leisten, unsere Ziele zu erreichen. Generative KI ist dafür ein besonders wichtiges Beispiel. Um festzulegen, wie wir verantwortungsvoll damit umgehen, wie wir Nutzen und Risiken balancieren können, haben wir eine Richtlinie zum Einsatz generativer KI erstellt.

Generative KI umfasst bestimmte Werkzeuge, die auf Basis von Eingaben der Nutzer*innen neue Inhalte erstellen. Dazu zählen Texte oder andere Medien, die auf eine Eingabe hin (einen „Prompt“) generiert werden. Der Begriff generative KI wird im Folgenden weit ausgelegt und umfasst beispielsweise Dienste, die übersetzen, ebenso wie solche, die Sprache erkennen oder Audiodaten in Text umwandeln.

Im Mai 2025 haben wir unsere Mitarbeiter*innen befragt, um zu erfahren, welche nützlichen Anwendungsmöglichkeiten sie für generative KI sehen, aber auch, welche Bedenken und Risiken sie für die Arbeit von AlgorithmWatch erkennen. Daraus ist die vorliegende KI-Richtlinie entstanden, die

  1. unserem Team als interne Orientierungshilfe dienen soll, um sicherzustellen, dass generative KI ausschließlich im Einklang mit unseren Werten eingesetzt wird, die auf vier Prinzipien beruhen: ⚖️ Verhältnismäßigkeit, 🗝️ Sicherheit, 💯 Qualitätssicherung und 🪟Transparenz.
  2. erklärt, wie wir verschiedene Aspekte dieser Richtlinie weiterentwickeln werden, nämlich auf Basis eines Prozesses, der im LEITFADEN definiert ist – siehe den Abschnitt zum Leitfaden weiter unten;
  3. wir in Form des vorliegenden Dokuments veröffentlichen, um transparent zu machen, wie wir als Organisation, der ein verantwortungsvoller Umgang mit Technologien besonders wichtig ist, unseren eigenen Einsatz generativer KI abwägen.

Der folgende Text erläutert die genannten vier Prinzipien sowie den Prozess, mit dem wir bestimmte Aspekte unserer Richtlinie aktualisieren. Dieser Prozess ist in einem LEITFADEN festgehalten. Wenn Sie sich bei Ihrem eigenen organisationsinternen Umgang mit generativer KI an unserem Beispiel orientieren möchten, begrüßen wir das, regen aber an, dass Sie zunächst Ihre Mitarbeiter*innen über deren konkrete Anwendungsszenarien und -bedarfe befragen, sowie über ihre Meinungen und Bedenken zu dem Thema.

Nach Anmeldung zum Newsletter wird die vollständige Richtlinie zum Download bereitgestellt, einschließlich der verwendeten einzelnen Fragen unserer Datenerhebung im Team und eines anpassbaren Transparenzhinweises für eine verantwortungsvolle KI-Strategie.

Bitte beachten Sie auch: Dieser Leitfaden ist für Organisationen geeignet, die Technologie in ethisch verantwortlicher Weise einsetzen wollen (auch wenn das mit sich bringt, die Nutzung der Technologie einzuschränken), dies als Ausdruck ihres organisationellen Wertesystems betrachten und Mitarbeiter*innen beschäftigen, die sich dessen bewusst sind und sich daran orientieren. Er gibt keine harten Regeln vor, die geeignet wären, unverantwortlichem Verhalten von Mitarbeiter*innen vorzubeugen, die solche Werkzeuge ohne angemessene Vorsichtsmaßnahmen einsetzen wollen. Vielmehr zielt sie darauf ab, Mitarbeiter*innen eigenverantwortliche Entscheidungen über den Einsatz generativer KI zu ermöglichen, indem ihnen bestimmte Prinzipien anheimgestellt werden – und einen Prozess einzuführen, der zu Diskussionen über Anwendungsmöglichkeiten und -grenzen einlädt und dadurch eine immer bessere Orientierungshilfe wird. Aus unserer Sicht entspricht ein solches Vorgehen am ehesten den Ansprüchen verantwortungsbewusster Organisationen, die einen angemessenen Umgang mit generativer KI sicherstellen und dabei beachten wollen, dass es viele verschiedene Nutzungsszenarien gibt, die sich erst nach und nach herausbilden.

Prinzip 1: ⚖️ Verhältnismäßigkeit

Wir raten Beschäftigten dringend davon ab, generative KI nur deshalb einzusetzen, weil das als die einfachste Lösung erscheint, obwohl es Alternativen gibt. Generative KI übermäßig einzusetzen, birgt eine ganze Reihe systemischer Risiken, von schleichender Entqualifizierung („De-Skilling“) über Arbeitsplatzabbau und steigenden Energiebedarf bis hin dazu, dass Unternehmen Angebote für problematische Nutzung damit rechtfertigen, dass viele Menschen einen Bedarf dafür sehen.

Gleichwohl hat unsere interne Befragung auch gezeigt, dass Mitarbeiter*innen in einigen Anwendungsszenarien beträchtlichen Nutzen aus generativer KI ziehen. Hinzu kommt ein Inklusionsgedanke: Beschäftigte haben unterschiedliche Bedürfnisse, und bestimmte Anwendungsfälle, die der einen lediglich „recht nützlich“ erscheinen, helfen dem anderen, größere Barrieren zu überwinden.

Das Prinzip der Verhältnismäßigkeit trägt dem Rechnung. Verhältnismäßigkeit bedeutet, dass Mitarbeiter*innen ermutigt werden, darüber nachzudenken, warum sie für einen bestimmten Zweck generative KI statt eventueller Alternativen einsetzen.

In bestimmten Fällen erwarten wir von unseren Mitarbeiter*innen, dass sie Entscheidungen reflektieren und begründen, sodass wir sie intern diskutieren können:

Die oben beschriebenen Fälle werden in unserem LEITFADEN dokumentiert und zur Diskussion gestellt. Mittelfristig entsteht so eine Sammlung von Präzedenzfällen, über die im Team Einigkeit erzielt wurde und die Mitarbeiter*innen als Anhaltspunkte für zukünftige eigene Entscheidungen darüber, ob ein Einsatz verhältnismäßig ist, zur Verfügung stehen. Einstweilen (also solange dies noch nicht ausreichend gewährleistet ist) gehen wir davon aus, dass die Mitarbeiter*innen sich auf ihr eigenes Urteil verlassen beziehungsweise sich mit ihrer Teamleitung abstimmen.

Prinzip 2: 🗝️ Sicherheit

Welche Informationen wir guten Gewissens in generative KI-Werkzeuge eingeben können, war laut unserer Befragung eines der schwierigsten Themen, da alle eingegebenen Daten möglicherweise gespeichert und dafür verwendet werden, Modelle weiter zu trainieren. Das wirft Fragen auf: Ist die Privatsphäre geschützt, ist Vertraulichkeit garantiert – oder eignen sich Unternehmen Daten auf illegitime Art an? Trainingsdaten können „versehentlich“ anderen Nutzerinnen oder Nutzern zugänglich gemacht werden, und die menschliche Arbeit, die bei der Eingabe anfällt, wird üblicherweise nicht bezahlt.

Zwar bieten einige Werkzeuge höhere Sicherheitsstandards an oder versprechen, eingegebene Daten nicht beziehungsweise nur unter bestimmten Bedingungen zu Trainingszwecken zu nutzen (etwa wenn eine Bezahlversion verwendet wird). Derartige Zusagen können zwar die Rechenschaftspflichten der Anbieter erhöhen, bieten aber angesichts zahlreicher Datenpannen der Technologiekonzerne keine absolute Sicherheit.

Wir unterscheiden deshalb drei Kategorien von Inhalten:

Mitarbeiter*innen sollten anhand von Richtlinie und Leitfaden entscheiden, welche Art von Inhalt in welche Kategorie fällt und welche Werkzeuge für Inhalte der Kategorie 2 empfohlen werden. Entsprechend sollten sie das Werkzeug wählen, das sie verwenden möchten, und die Daten gegebenenfalls vor der Eingabe manuell anpassen, etwa indem sie bestimmtes Material entfernen.

Reichen die vorliegenden Orientierungshilfen nicht aus, sollten Mitarbeiter*innen dies der Teamleitung melden, die eine vorläufige Entscheidung trifft und sich dafür, wenn nötig, mit anderen Teamleitungen bespricht oder anderen Sachverstand nutzt (etwa von Datenschutzbeauftragten). Vorläufige Entscheidungen werden im LEITFADEN festgehalten und möglichst bald besprochen – mit dem Ziel, ein klares Ergebnis festzulegen, das als zukünftige Orientierungshilfe dienen kann.

Fragen, Anfragen und Vorschläge von Mitarbeiter*innen zu Werkzeugen, die für Kategorie 2 ungeeignet erscheinen, werden ebenfalls im LEITFADEN festgehalten.

Prinzip 3: 💯 Qualitätssicherung

Jedes von generativer KI erzeugte Ergebnis sollte vor der Verwendung kritisch überprüft werden. Es muss üblicherweise redaktionell überarbeitet und kritisch reflektiert werden. Die generierten Inhalte ohne Weiteres zu akzeptieren, zeugt in aller Regel von einem Mangel an kritischer Wachsamkeit. Wir ermutigen unsere Mitarbeiter*innen nachdrücklich zu aktiver Qualitätssicherung.

Qualitätssicherung ist mehr als nur ein Faktencheck. Beispielsweise ist zu überprüfen,

Generative KI sollte nicht eingesetzt werden, um Material zu einem Thema zu produzieren, zu dem Autor*in und Redakteur*in nicht bereits eigene Expertise besitzen oder sich auf andere Weise auseinandergesetzt haben – etwa, indem sie Expert*innen befragt oder ohne KI-Unterstützung dazu recherchiert haben.

Nach Möglichkeit sollte auch bei begrenzten Arbeitsressourcen mindestens ein weiteres Teammitglied in diesen Prüfprozess einbezogen werden, sei es auch nur, indem man ihm das eigene Vorgehen erläutert.

Mitarbeiter*innen sollten die Maßnahmen, die sie in bestimmten Fällen ergriffen haben, in 🪟Transparenzhinweisen festhalten (siehe nächster Abschnitt) und diese Hinweise in den LEITFADEN aufnehmen, ebenso wie Anregungen oder Überlegungen zur Qualitätssicherung, die darüber hinausgehen.

Prinzip 4: 🪟 Transparenz

Um unseren Prinzipien, die in dieser Richtlinie festgelegt sind, gerecht zu werden, müssen wir transparent nach innen und nach außen sein.

Wenn wir Material veröffentlichen, bei dessen Erstellung generative KI eine wesentliche Rolle gespielt hat, besprechen wir vorab, ob wir einen Transparenzhinweis anbringen.

Arbeitsergebnisse, die nicht veröffentlicht werden sollen, können (auf freiwilliger Basis) ebenfalls mit solchen Transparenzhinweisen versehen werden, wenn sie in wesentlichem Maße mithilfe generativer KI erzeugt wurden. Bei solchen Produkten kann es sich um interne und für Partner*innen erstellte Dokumente handeln, oder auch um Funktionsbeschreibungen von Systemen, die wir für interne Zwecke einsetzen.

Die Transparenzhinweise werden in den LEITFADEN aufgenommen, weil sie die praktische Anwendung unserer Prinzipien veranschaulichen.

Beispiele für Fälle, in denen wir davon ausgehen, dass generative KI für unsere Arbeit eine „wesentliche“ Rolle spielt, werden dokumentiert und im LEITFADEN eingeordnet. Sie dienen als Orientierungshilfe für individuelle Entscheidungen. Bei der Bandbreite möglicher Anwendungsfälle wäre es sehr problematisch, voreilig unumstößliche Regeln festzulegen.

Hier zwei Beispiele für Fälle, in denen generative KI für unsere Arbeit eine „wesentliche“ Rolle spielt – also solche, bei denen Mitarbeiter*innen ggf. einen Transparenzhinweis verfassen sollten:

Nach Anmeldung zum Newsletter wird die vollständige Richtlinie zum Download bereitgestellt, einschließlich der verwendeten einzelnen Fragen unserer Datenerhebung im Team und eines anpassbaren Transparenzhinweises für eine verantwortungsvolle KI-Strategie.

Der LEITFADEN

Unser allen Mitarbeiter*innen zugänglicher LEITFADEN enthält

Der Blick in den LEITFADEN und seine Diskussion sind ein fester Tagesordnungspunkt in unserem monatlichen Teamleitungstreffen. Von Teamleitungen getroffene Entscheidungen können nach diesen Meetings in den LEITFADEN aufgenommen werden. Einwände von Mitarbeiter*innen gegen solche Entscheidungen werden wiederum von den Teamleitungen diskutiert, entweder in ihrem nächsten Meeting oder, falls es dringend ist, ad hoc. Können sich die Teamleitungen nicht einigen, trifft die letzte Entscheidung die Geschäftsführung. Regelmäßige interne Fortbildungen sollen dabei helfen, die Richtlinie praktisch anzuwenden.