Verantwortungsvolle Nutzung von generativer KI: AlgorithmWatch schlägt diese Richtlinien vor
Ob ChatGPT, Claude oder Gemini, Copilot oder Perplexity – generative KI wirft massive Probleme auf: Viele Ergebnisse sind fehlerhaft und politisch problematisch, der Verbrauch von Energie und Wasser ist enorm. Zugleich sind sie aus dem Alltag nicht mehr wegzudenken. AlgorithmWatch hat eine Richtlinie entwickelt, die dabei hilft, generative KI verantwortungsvoll zu verwenden.

Als Organisation kämpfen wir dagegen, dass digitale Technologien unverantwortlich und unkontrolliert entwickelt und eingesetzt werden. Allerdings können uns Technologien auch dabei unterstützen, unsere Ziele zu erreichen, wenn sie verantwortungsbewusst eingesetzt werden. Generative KI ist ein besonders prominentes Beispiel einer Technologie, die die Frage aufwirft, ob und wie wir sie verantwortungsbewusst nutzen und Risiken gegeneinander abwägen können.
Wir hoffen, dass diese Richtlinien anderen Organisationen als nützliches Modell dienen können, wenn sie überlegen, wie sie generative KI verantwortungsbewusst einsetzen können.
Dieses Dokument beschreibt interne Grundsätze und aktuelle Praktiken, die wir umsetzen, wenn wir generative KI verwenden. Es dient ausschließlich zu Informationszwecken und stellt weder rechtlich bindende Verpflichtungen oder Garantien dar, noch ersetzt oder ergänzt es andere Dokumente von AlgorithmWatch (z. B. unsere Datenschutzerklärung).
Es war herausfordernd, eine solche Richtlinie zu entwickeln und einzuführen, denn es gibt eine große Bandbreite möglicher Anwendungsfälle, Risiken und Vorteile sowie verschiedener Ansichten zu generativer KI (die sich zudem jeweils schnell ändern).
Unser Ansatz begann mit einer Umfrage unter unseren Kolleg*innen, um
- vorteilhafte Anwendungsfälle für generative KI zu ermitteln und
- Bedenken und Risiken zu identifizieren, die sie sehen, wenn sie generative KI für die Arbeit von AlgorithmWatch verwenden.
Darauf aufbauend haben wir die Richtlinie entwickelt. Sie soll Team-Mitgliedern als Leitfaden dienen, wenn sie entscheiden müssen, ob und wie sie generative KI so einsetzen können, dass es mit unseren Werten und Zielen im Einklang steht.
- vorteilhafte Anwendungsfälle für generative KI zu ermitteln und
- Bedenken und Risiken zu identifizieren, die sie sehen, wenn sie generative KI für die Arbeit von AlgorithmWatch verwenden.
Die Richtlinie basiert auf vier Grundsätzen. Der Einsatz generativer KI muss
- ⚖️ verhältnismäßig,
- 🗝️ sicher und
- 🪟 transparent sein,
- die 💯 Qualität der Ergebnisse muss geprüft werden.
Die Richtlinie umfasst einen strukturierten Prozess, der beschreibt, wie wir Anwendungsfälle und Werkzeuge sammeln, diskutieren und die Richtlinie fortlaufend aktualisieren. Das ist notwendig, um sie den vielfältigen Einsatzmöglichkeiten und den ständigen Veränderungen der Technologie anzupassen.
Aus unseren bisherigen Erfahrungen und Diskussionen können wir sagen, dass
- es sinnvoll ist, zunächst eine Umfrage zu den aktuellen Verwendungszwecken und Einstellungen in der Organisation durchzuführen und die Ergebnisse mit den Mitarbeiter*innen zu teilen, am besten in zusammengefasster Form. So kann sichergestellt werden, dass eine Richtlinie die Bandbreite der Ansichten und Verwendungszwecke in der Organisation widerspiegelt, und diese Voraussetzungen allen Beteiligten deutlich werden.
- unsere Richtlinie Leitlinien für individuelle Entscheidungen enthält, die Flexibilität ermöglichen und sich an viele Anwendungsfälle anpassen lassen. Dies funktioniert jedoch nur, wenn sicher ist, dass die Mitarbeiter*innen sich der Risiken generativer KI bewusst sind und sie nur in einer Weise nutzen möchten, die Risiko und Nutzen in Einklang bringt. Andernfalls sind strengere Regeln, die weniger Auslegung erlauben, möglicherweise der bessere Ansatz.
- es gut ist, eine klare Vorgehensweise zu haben, um die Richtlinie anzupassen, etwa weil sich Umstände in der Organisation oder die Werkzeuge verändern.
Vollständige Richtlinie herunterladen
Abonniere unseren Newsletter und lade die komplette Richtlinie herunter – inklusive Einblick in die teaminterne Datenerhebung und einem Beispiel für eine Transparenz-Notiz.
Wenn du bereits für unseren Community-Newsletter angemeldet bist, aber jetzt die vollständige Richtlinie herunterladen möchtest, melde dich bitte trotzdem erneut über das Formular an. Sobald du dein Abonnement bestätigt hast, kannst du die Datei auf der Bestätigungsseite herunterladen.
Wir sehen die Richtlinie nicht als fertiges Produkt. Wir setzen sie um, testen sie und lernen dabei. Wir würden uns freuen, von anderen Organisationen zu hören, die ähnliche Bemühungen unternehmen – gerne per Mail an info@algorithmwatch.org.
Unsere Richtlinie zum Einsatz generativer KI
Als Organisation kämpft AlgorithmWatch gegen jeden unverantwortlichen Umgang mit digitalen Technologien, bei ihrer Entwicklung ebenso wie bei ihrer Nutzung. Werden sie jedoch verantwortungsbewusst eingesetzt, können viele solcher Technologien einen bedeutenden Beitrag dazu leisten, unsere Ziele zu erreichen. Generative KI ist dafür ein besonders wichtiges Beispiel. Um festzulegen, wie wir verantwortungsvoll damit umgehen, wie wir Nutzen und Risiken balancieren können, haben wir eine Richtlinie zum Einsatz generativer KI erstellt.
Generative KI umfasst bestimmte Werkzeuge, die auf Basis von Eingaben der Nutzer*innen neue Inhalte erstellen. Dazu zählen Texte oder andere Medien, die auf eine Eingabe hin (einen „Prompt“) generiert werden. Der Begriff generative KI wird im Folgenden weit ausgelegt und umfasst beispielsweise Dienste, die übersetzen, ebenso wie solche, die Sprache erkennen oder Audiodaten in Text umwandeln.
Im Mai 2025 haben wir unsere Mitarbeiter*innen befragt, um zu erfahren, welche nützlichen Anwendungsmöglichkeiten sie für generative KI sehen, aber auch, welche Bedenken und Risiken sie für die Arbeit von AlgorithmWatch erkennen. Daraus ist die vorliegende KI-Richtlinie entstanden, die
- unserem Team als interne Orientierungshilfe dienen soll, um sicherzustellen, dass generative KI ausschließlich im Einklang mit unseren Werten eingesetzt wird, die auf vier Prinzipien beruhen: ⚖️ Verhältnismäßigkeit, 🗝️ Sicherheit, 💯 Qualitätssicherung und 🪟Transparenz.
- erklärt, wie wir verschiedene Aspekte dieser Richtlinie weiterentwickeln werden, nämlich auf Basis eines Prozesses, der im LEITFADEN definiert ist – siehe den Abschnitt zum Leitfaden weiter unten;
- wir in Form des vorliegenden Dokuments veröffentlichen, um transparent zu machen, wie wir als Organisation, der ein verantwortungsvoller Umgang mit Technologien besonders wichtig ist, unseren eigenen Einsatz generativer KI abwägen.
Der folgende Text erläutert die genannten vier Prinzipien sowie den Prozess, mit dem wir bestimmte Aspekte unserer Richtlinie aktualisieren. Dieser Prozess ist in einem LEITFADEN festgehalten. Wenn Sie sich bei Ihrem eigenen organisationsinternen Umgang mit generativer KI an unserem Beispiel orientieren möchten, begrüßen wir das, regen aber an, dass Sie zunächst Ihre Mitarbeiter*innen über deren konkrete Anwendungsszenarien und -bedarfe befragen, sowie über ihre Meinungen und Bedenken zu dem Thema.
Nach Anmeldung zum Newsletter wird die vollständige Richtlinie zum Download bereitgestellt, einschließlich der verwendeten einzelnen Fragen unserer Datenerhebung im Team und eines anpassbaren Transparenzhinweises für eine verantwortungsvolle KI-Strategie.
Bitte beachten Sie auch: Dieser Leitfaden ist für Organisationen geeignet, die Technologie in ethisch verantwortlicher Weise einsetzen wollen (auch wenn das mit sich bringt, die Nutzung der Technologie einzuschränken), dies als Ausdruck ihres organisationellen Wertesystems betrachten und Mitarbeiter*innen beschäftigen, die sich dessen bewusst sind und sich daran orientieren. Er gibt keine harten Regeln vor, die geeignet wären, unverantwortlichem Verhalten von Mitarbeiter*innen vorzubeugen, die solche Werkzeuge ohne angemessene Vorsichtsmaßnahmen einsetzen wollen. Vielmehr zielt sie darauf ab, Mitarbeiter*innen eigenverantwortliche Entscheidungen über den Einsatz generativer KI zu ermöglichen, indem ihnen bestimmte Prinzipien anheimgestellt werden – und einen Prozess einzuführen, der zu Diskussionen über Anwendungsmöglichkeiten und -grenzen einlädt und dadurch eine immer bessere Orientierungshilfe wird. Aus unserer Sicht entspricht ein solches Vorgehen am ehesten den Ansprüchen verantwortungsbewusster Organisationen, die einen angemessenen Umgang mit generativer KI sicherstellen und dabei beachten wollen, dass es viele verschiedene Nutzungsszenarien gibt, die sich erst nach und nach herausbilden.
Prinzip 1: ⚖️ Verhältnismäßigkeit
Wir raten Beschäftigten dringend davon ab, generative KI nur deshalb einzusetzen, weil das als die einfachste Lösung erscheint, obwohl es Alternativen gibt. Generative KI übermäßig einzusetzen, birgt eine ganze Reihe systemischer Risiken, von schleichender Entqualifizierung („De-Skilling“) über Arbeitsplatzabbau und steigenden Energiebedarf bis hin dazu, dass Unternehmen Angebote für problematische Nutzung damit rechtfertigen, dass viele Menschen einen Bedarf dafür sehen.
Gleichwohl hat unsere interne Befragung auch gezeigt, dass Mitarbeiter*innen in einigen Anwendungsszenarien beträchtlichen Nutzen aus generativer KI ziehen. Hinzu kommt ein Inklusionsgedanke: Beschäftigte haben unterschiedliche Bedürfnisse, und bestimmte Anwendungsfälle, die der einen lediglich „recht nützlich“ erscheinen, helfen dem anderen, größere Barrieren zu überwinden.
Das Prinzip der Verhältnismäßigkeit trägt dem Rechnung. Verhältnismäßigkeit bedeutet, dass Mitarbeiter*innen ermutigt werden, darüber nachzudenken, warum sie für einen bestimmten Zweck generative KI statt eventueller Alternativen einsetzen.
In bestimmten Fällen erwarten wir von unseren Mitarbeiter*innen, dass sie Entscheidungen reflektieren und begründen, sodass wir sie intern diskutieren können:
- indem sie einen 🪟Transparenzhinweis schreiben oder
- wenn ein Fall auftritt, bei dem die Frage nach der Verhältnismäßigkeit wegen persönlicher Wertvorstellungen besonders herausfordernd erscheint, oder
- wenn ein Fall für AlgorithmWatch kaum als verhältnismäßig zu rechtfertigen erscheint.
Die oben beschriebenen Fälle werden in unserem LEITFADEN dokumentiert und zur Diskussion gestellt. Mittelfristig entsteht so eine Sammlung von Präzedenzfällen, über die im Team Einigkeit erzielt wurde und die Mitarbeiter*innen als Anhaltspunkte für zukünftige eigene Entscheidungen darüber, ob ein Einsatz verhältnismäßig ist, zur Verfügung stehen. Einstweilen (also solange dies noch nicht ausreichend gewährleistet ist) gehen wir davon aus, dass die Mitarbeiter*innen sich auf ihr eigenes Urteil verlassen beziehungsweise sich mit ihrer Teamleitung abstimmen.
Prinzip 2: 🗝️ Sicherheit
Welche Informationen wir guten Gewissens in generative KI-Werkzeuge eingeben können, war laut unserer Befragung eines der schwierigsten Themen, da alle eingegebenen Daten möglicherweise gespeichert und dafür verwendet werden, Modelle weiter zu trainieren. Das wirft Fragen auf: Ist die Privatsphäre geschützt, ist Vertraulichkeit garantiert – oder eignen sich Unternehmen Daten auf illegitime Art an? Trainingsdaten können „versehentlich“ anderen Nutzerinnen oder Nutzern zugänglich gemacht werden, und die menschliche Arbeit, die bei der Eingabe anfällt, wird üblicherweise nicht bezahlt.
Zwar bieten einige Werkzeuge höhere Sicherheitsstandards an oder versprechen, eingegebene Daten nicht beziehungsweise nur unter bestimmten Bedingungen zu Trainingszwecken zu nutzen (etwa wenn eine Bezahlversion verwendet wird). Derartige Zusagen können zwar die Rechenschaftspflichten der Anbieter erhöhen, bieten aber angesichts zahlreicher Datenpannen der Technologiekonzerne keine absolute Sicherheit.
Wir unterscheiden deshalb drei Kategorien von Inhalten:
- Kategorie 1 (geringe Sicherheitsanforderungen): Inhalte, die auch ohne besondere Schutzmaßnahmen bedenkenlos in ein generatives KI-Werkzeug eingegeben werden können.
- Beispiel: öffentlich zugängliche Informationen.
- Kategorie 2 (durchschnittliche Sicherheitsanforderungen): Inhalte, die weitgehend bedenkenlos in ausgewählte generative KI-Werkzeuge eingegeben werden können, die zusichern, Privatsphäre und Vertraulichkeit ausreichend zu schützen – vorausgesetzt, dass auch im Fall einer möglichen Datenpanne keine vertraulichen oder personenbezogenen Informationen unbefugt zugänglich würden.
- Beispiel: interne Strategiedokumente von AlgorithmWatch, die keine sensiblen Informationen enthalten.
- Kategorie 3 (hohe Sicherheitsanforderungen): Inhalte, die auf keinen Fall in generative KI-Werkzeuge eingegeben werden sollten, auch nicht in solche, die angeben, Schutzmaßnahmen implementiert zu haben.
- Beispiel: personenbezogene Daten.
Mitarbeiter*innen sollten anhand von Richtlinie und Leitfaden entscheiden, welche Art von Inhalt in welche Kategorie fällt und welche Werkzeuge für Inhalte der Kategorie 2 empfohlen werden. Entsprechend sollten sie das Werkzeug wählen, das sie verwenden möchten, und die Daten gegebenenfalls vor der Eingabe manuell anpassen, etwa indem sie bestimmtes Material entfernen.
Reichen die vorliegenden Orientierungshilfen nicht aus, sollten Mitarbeiter*innen dies der Teamleitung melden, die eine vorläufige Entscheidung trifft und sich dafür, wenn nötig, mit anderen Teamleitungen bespricht oder anderen Sachverstand nutzt (etwa von Datenschutzbeauftragten). Vorläufige Entscheidungen werden im LEITFADEN festgehalten und möglichst bald besprochen – mit dem Ziel, ein klares Ergebnis festzulegen, das als zukünftige Orientierungshilfe dienen kann.
Fragen, Anfragen und Vorschläge von Mitarbeiter*innen zu Werkzeugen, die für Kategorie 2 ungeeignet erscheinen, werden ebenfalls im LEITFADEN festgehalten.
Prinzip 3: 💯 Qualitätssicherung
Jedes von generativer KI erzeugte Ergebnis sollte vor der Verwendung kritisch überprüft werden. Es muss üblicherweise redaktionell überarbeitet und kritisch reflektiert werden. Die generierten Inhalte ohne Weiteres zu akzeptieren, zeugt in aller Regel von einem Mangel an kritischer Wachsamkeit. Wir ermutigen unsere Mitarbeiter*innen nachdrücklich zu aktiver Qualitätssicherung.
Qualitätssicherung ist mehr als nur ein Faktencheck. Beispielsweise ist zu überprüfen,
- ob generative KI die Wahrnehmung des Gegenstands in spezifischer Weise beeinflusst („framed“), also etwa die Aufmerksamkeit auf bestimmte Aspekte hin- und von anderen ablenkt;
- ob der Output der generativen KI bestimmte Perspektiven überbetont, sie unterbetont oder sie ganz vermissen lässt;
- ob Zitate korrekt wiedergegeben wurden;
- ob das Ergebnis mit früheren Arbeiten von AlgorithmWatch zu dem Thema zusammenpasst, auch in Tonfall und Stil.
Generative KI sollte nicht eingesetzt werden, um Material zu einem Thema zu produzieren, zu dem Autor*in und Redakteur*in nicht bereits eigene Expertise besitzen oder sich auf andere Weise auseinandergesetzt haben – etwa, indem sie Expert*innen befragt oder ohne KI-Unterstützung dazu recherchiert haben.
Nach Möglichkeit sollte auch bei begrenzten Arbeitsressourcen mindestens ein weiteres Teammitglied in diesen Prüfprozess einbezogen werden, sei es auch nur, indem man ihm das eigene Vorgehen erläutert.
Mitarbeiter*innen sollten die Maßnahmen, die sie in bestimmten Fällen ergriffen haben, in 🪟Transparenzhinweisen festhalten (siehe nächster Abschnitt) und diese Hinweise in den LEITFADEN aufnehmen, ebenso wie Anregungen oder Überlegungen zur Qualitätssicherung, die darüber hinausgehen.
Prinzip 4: 🪟 Transparenz
Um unseren Prinzipien, die in dieser Richtlinie festgelegt sind, gerecht zu werden, müssen wir transparent nach innen und nach außen sein.
Wenn wir Material veröffentlichen, bei dessen Erstellung generative KI eine wesentliche Rolle gespielt hat, besprechen wir vorab, ob wir einen Transparenzhinweis anbringen.
Arbeitsergebnisse, die nicht veröffentlicht werden sollen, können (auf freiwilliger Basis) ebenfalls mit solchen Transparenzhinweisen versehen werden, wenn sie in wesentlichem Maße mithilfe generativer KI erzeugt wurden. Bei solchen Produkten kann es sich um interne und für Partner*innen erstellte Dokumente handeln, oder auch um Funktionsbeschreibungen von Systemen, die wir für interne Zwecke einsetzen.
Die Transparenzhinweise werden in den LEITFADEN aufgenommen, weil sie die praktische Anwendung unserer Prinzipien veranschaulichen.
Beispiele für Fälle, in denen wir davon ausgehen, dass generative KI für unsere Arbeit eine „wesentliche“ Rolle spielt, werden dokumentiert und im LEITFADEN eingeordnet. Sie dienen als Orientierungshilfe für individuelle Entscheidungen. Bei der Bandbreite möglicher Anwendungsfälle wäre es sehr problematisch, voreilig unumstößliche Regeln festzulegen.
Hier zwei Beispiele für Fälle, in denen generative KI für unsere Arbeit eine „wesentliche“ Rolle spielt – also solche, bei denen Mitarbeiter*innen ggf. einen Transparenzhinweis verfassen sollten:
- Veröffentlichungen, bei denen generative KI eingesetzt wurde, um längere Textpassagen zu entwerfen, also ganze Absätze oder Abschnitte – selbst wenn der Text danach noch redigiert wird. (Hier ist der Kontext wichtig. Die Vorgabe gilt beispielsweise nicht für kurze Social-Media-Posts. Sie gilt auch nicht für längere Texte, die von einem Menschen geschrieben und lediglich mithilfe von generativer KI übersetzt wurden. Solche Texte sollten zwar noch einen Qualitätscheck durchlaufen, aber ein Transparenzhinweis wäre hier nicht nötig.)
- Wenn generative KI eingesetzt wird, um Ideen oder Forschungs- und Recherche-Ansätze zu entwickeln, sodass die inhaltliche Tendenz mindestens ganzer Abschnitte eines Produkts oder Projekts (etwa eines Analyse-Werkzeugs) davon beeinflusst wird. (Hier geht es nicht um die Recherche einzelner Details, die ohnehin überprüft werden müssen. Eine Eingabe wie „Liste alle Geschäftsführer der GAFAM-Konzerne auf“ ist ausreichend konkret, um einfach überprüft zu werden, sodass hierfür kein Transparenzhinweis nötig wäre. Eine Frage wie „Welche entscheidenden Wendepunkte gab es in der Geschichte der GAFAM-Konzerne?“ und eine entsprechende ausführlichere Diskussion mit einem Chatbot würden hingegen einen solchen Hinweis erfordern, da die Wendepunkte, die der Chatbot auswählen würde, möglicherweise die Tendenz des Produkts beeinflussen.)
Transparenzhinweise müssen kein bestimmtes Format haben, wenngleich es sinnvoll erscheint, darin auf die anderen drei Prinzipien ( ⚖️🗝️💯) einzugehen. Ein Transparenzhinweis sollte möglichst kurz gehalten werden. Es ist beispielsweise nicht nötig, die verwendeten Prompts aufzulisten. Von jedem Transparenzhinweis ist eine nicht für die Öffentlichkeit bestimmte Version aufzubewahren, die den Namen und die Kontaktdaten der Mitarbeiter*in für etwaige interne Rückfragen enthält. Ein Muster für einen Transparenzhinweis findet sich unten.
Nach Anmeldung zum Newsletter wird die vollständige Richtlinie zum Download bereitgestellt, einschließlich der verwendeten einzelnen Fragen unserer Datenerhebung im Team und eines anpassbaren Transparenzhinweises für eine verantwortungsvolle KI-Strategie.
Der LEITFADEN
Unser allen Mitarbeiter*innen zugänglicher LEITFADEN enthält
- 🪟Transparenzhinweise
- Beispiele mit Bezug zum Prinzip der ⚖️Verhältnismäßigkeit, insbesondere weitverbreitete Anwendungsfälle, die wir grundsätzlich für unverantwortlich halten, sowie besonders schwierige Fälle;
- Entscheidungen mit Bezug zum Prinzip der 🗝️ Sicherheit: Welche Art von Inhalt fällt in welche Kategorie? Wie sicher sind bestimmte Werkzeuge?
- Diskussionen über Anwendungsfälle, bei denen unklar ist, ob generative KI eine „wesentliche“ Rolle gespielt hat und die deshalb einen Transparenzhinweis erfordern.
Der Blick in den LEITFADEN und seine Diskussion sind ein fester Tagesordnungspunkt in unserem monatlichen Teamleitungstreffen. Von Teamleitungen getroffene Entscheidungen können nach diesen Meetings in den LEITFADEN aufgenommen werden. Einwände von Mitarbeiter*innen gegen solche Entscheidungen werden wiederum von den Teamleitungen diskutiert, entweder in ihrem nächsten Meeting oder, falls es dringend ist, ad hoc. Können sich die Teamleitungen nicht einigen, trifft die letzte Entscheidung die Geschäftsführung. Regelmäßige interne Fortbildungen sollen dabei helfen, die Richtlinie praktisch anzuwenden.