AlgorithmWatch ist eine gemeinnützige Organisation mit dem Ziel, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die eine gesellschaftliche Relevanz haben - die also entweder menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen.

Unser Leitbild haben wir als Vision, Mission & Values in dem folgenden Text zusammengefasst. Der Text liegt momentan nur auf Englisch vor. Eine deutsche Fassung werden wir demnächst veröffentlichen. Das Leitbild ergänzt das ADM-Manifest, das unsere Arbeit seit der Gründung von AlgorithmWatch anleitet. Das Manifest finden Sie (auf Deutsch) weiter unten auf dieser Seite.

Vision, Mission & Values

Our vision

We envision a world where technology in general, and algorithmic systems in particular, are used to protect and benefit individuals and to make societies more just, democratic, inclusive and sustainable, be it with regard to ethnicity, gender and sexual orientation, abilities, age, wealth, class, or resource consumption.

Our mission

To ensure that the use of algorithmic systems benefits the many, not the few, we advocate for algorithmic systems that protect democracy and the rule of law instead of authoritarianism, freedom instead of surveillance, human rights instead of dehumanization, autonomy instead of power asymmetries, justice and equality instead of favoritism and disparity, and a sustainable instead of an exploitative way of living.

To achieve this mission, we

  • develop and use tools to unpack and analyze the use of algorithmic decision-making processes and their effects on humans and societies;
  • explain the characteristics of and power structures behind these complex algorithmic decision-making processes. We point out their risks, conflicts and possible harms to a general public and decision-makers and help them distinguish between applications grounded in scientifically solid, ethically responsible research and snake oil;
  • develop effective frameworks governing the use of algorithmic systems, based on our research and scientific evidence, by ensuring transparency, individual and democratic control, and accountability;
  • publicly call out misuses and negative impacts of algorithmic systems on human rights and the public good, and campaign for effective transparency and accountability mechanisms. We advocate for the recognition and inclusion of diverse perspectives into all aspects of the use of and the oversight over algorithmic systems, including decisions about whether their application is justified for a given purpose;
  • build a community of people and organizations from different backgrounds, cultures and disciplines to collaborate towards these goals;
  • promote the broader debate on whether there should be limits to the use of computation-based approaches to human problems, and on how they irreducibly differ from non-computation-based approaches.

Our values

At AlgorithmWatch, we practice what we expect from others: respect, fairness, solidarity, integrity, inclusivity, diversity, transparency, accountability. We live a culture of both rigor and forgiveness. We give our best and accept that mistakes are a necessary part of learning, both individually and as an organization. We believe in encouragement, not degradation. We stand by each other.

Our positions and demands are based on evidence gained by professional analysis and high standards of research. We are politically non-partisan and non-sectarian. We call out nonsense no matter where it comes from, stand up to power, and are ourselves open to being challenged from anyone with a reasoned argument. We engage with anyone who exhibits genuine goodwill towards solving problems, be it civil society, governments, public authorities, academia, or private companies.

We are convinced that civil society and individuals and groups affected by algorithmic systems must be a key voice in this debate, and we strive to be a convincing and respectful representative of the public interest.

We only accept funding that does not compromise our ability to address issues freely, thoroughly and objectively. We produce and publish accurate and timely reports of our activities and funding.

As a team, we acknowledge people as individuals with dignity, not as human resources whose value can be quantified and measured by performance metrics. We understand that being a diverse and inclusive team is a continuous process. To make it a successful one, we have to be willing to listen and learn, to see and question privilege and act upon the results. We strive for balanced and diverse representation on our governing bodies and our team.

We don't take ourselves more seriously than necessary. We believe that a day without laughing together and about ourselves is a wasted day.

Das ADM-Manifest

Prozesse algorithmischer Entscheidungsfindung (algorithmic decision making, ADM) gehören längst zum täglichen Leben; zukünftig werden sie noch eine viel größere Rolle spielen. Sie bergen enorme Gefahren und bieten enorme Chancen. Dass ADM-Prozesse dem Blick derjenigen entzogen werden, die von ihnen betroffen sind, ist kein Naturgesetz. Es muss sich ändern

  1. ADM ist niemals neutral.
  2. Die Schöpfer von ADM-Prozessen sind verantwortlich für ihre Resultate. ADM-Prozesse werden nicht nur von ihren Entwicklern erschaffen.
  3. ADM-Prozesse müssen nachvollziehbar sein, damit sie demokratischer Kontrolle unterworfen werden können.
  4. Demokratische Gesellschaften haben die Pflicht, diese Nachvollziehbarkeit herzustellen: durch eine Kombination aus Technologien, Regulierung und geeigneten Aufsichtsinstitutionen.
  5. Wir müssen entscheiden, wie viel unserer Freiheit wir an ADM übertragen wollen.

Algorithmische Entscheidungsfindung setzt sich aus den folgenden Bestandteilen zusammen:

  • Prozesse zur Datenerfassung zu entwickeln,
  • Daten zu erfassen,
  • Algorithmen zur Datenanalyse zu entwickeln, die die
    • Daten analysieren,
    • auf der Basis eines menschengmachten Deutungsmodells interpretieren,
    • automatisch handeln, indem die Handlung mittels eines menschengemachten Entscheidungsmodells aus dieser Interpretation abgeleitet wird.

Über AlgorithmWatch

AlgorithmWatch wurde 2016 von Lorena Jaume-Palasí, Lorenz Matzat, Matthias Spielkamp und Katharina Anna Zweig gegründet. Seit Februar 2017 sind wir eine gemeinnützige GmbH (Gesellschafter sind Christina Elmer, Lorenz Matzat und Matthias Spielkamp); Geschäftsführer ist Matthias Spielkamp.