Wo die Armee keine KI einsetzt
Wargames erlauben es dem Militär, verschiedene Szenarien durchzuspielen und Entscheidungen wie im Kampfeinsatz zu treffen. Obwohl Expert*innen bereits darüber nachgedacht haben, besteht bislang keine Eile, diese Spiele mit KI auszustatten.

Kriegsspiel. Seit über zwei Jahrhunderten verwenden Offizier*innen eine Methode, für die das Militär eher wenig bekannt ist: Spiele. Wargames haben jedoch nichts mit dem Brettspiel RISIKO zu tun. In einem Wargame steuern Offizier*innen eine Einheit in einem vorgegebenen Szenario. Die Regeln sind locker und ein Schiedsrichter mit umfassenden militärischen Kenntnissen entscheidet über den Ausgang einer Aktion der Spieler*innen. (Wenn ihr zu Hause etwas Ähnliches ausprobieren möchtet, könnt ihr “Neustart” spielen, ein Brettspiel, bei dem ihr während eines stadtweiten Stromausfalls die Rettungskräfte koordiniert. Es wird an einigen Militärakademien eingesetzt.)
Heutzutage wird der Begriff „Wargame“ verwendet, um ihn von seinem Vorgänger zu differenzieren – dem Kriegsspiel, das im 19. Jahrhundert in Preußen entwickelt wurde. Die Methode, Krieg in einem Spiel zu simulieren, war so effektiv, dass externe Beobachter die preußischen Siege von 1864, 1866 und 1870 den Fähigkeiten zuschrieben, die die Offiziere beim Spielen erworben hatten. In den 1920er und 1930er Jahren nutzte die US-Marine Wargames, um zu simulieren, wie ein Krieg im Pazifik aussehen würde. Einige Historiker*innen gehen davon aus, dass das US-Militär beim Eintritt in den Zweiten Weltkrieg Ende 1941 Pläne befolgte, die am Brettspieltisch ausgeheckt worden waren. Heutzutage verfügen die meisten NATO-Streitkräfte über Handbücher und spezielles Personal für Wargames.
Automatisierung. Obwohl es sich im Kern um ein Spiel handelt, dient das Wargame zwei konkreten Zielen: der Schulung von Kadett*innen in der Entscheidungsfindung und in der Gewinnung von Erkenntnissen darüber, welche Taktiken und Strategien in der realen Welt anzuwenden sind. Wenn KI beides schneller und effizienter gestalten kann, dann sollten der Generalstab – und übergeordneten Politiker*innen – doch sicherlich interessiert sein. Allerdings spielt KI in Wargames nur eine sehr geringe Rolle, wie mir Jan Landsiedel, ein Spezialist für Wargames im Planungsamt der Bundeswehr, erklärte.
Dafür gibt es mehrere Gründe: Zum einen funktionieren Wargames größtenteils analog. Da ein Spiel darauf abzielt, eine Frage zu beantworten (zum Beispiel: „Wie würden die Japaner vorgehen, um den Pazifik zu erobern?“ für die US-Marine der 1930er Jahre), ist jedes Spiel zudem einzigartig und die Digitalisierung kostspielig. Noch wichtiger ist, dass KI nicht gut darin ist, Politik zu simulieren, wie eine Universitätsstudie von 2020 herausfand. Die seitdem entwickelten großen Sprachmodelle (LLMs) haben die Software für das Spielen von Open-ended Games nicht wesentlich verbessert.
Der Spaßfaktor. KI wird allerdings für kleinere Aufgaben eingesetzt, erklärte mir Landsiedel. Dazu gehört beispielsweise die Automatisierung des Verhaltens bestimmter Einheiten auf dem virtuellen Schlachtfeld oder die Auswertung von Spielberichten.
Als ich fragte, ob Kadett*innen oder Offizier*innen während eines Spiels auf ChatGPT zurückgreifen, um zu schummeln, sagte mir Landsiedel, dass dies nicht der Fall sei – aus gutem Grund: Sie haben Spaß und nehmen die Übung ernst. Ohnehin sind Smartphones in den meisten Situationen verboten, da geheime Informationen verwendet werden.
GPS. Wargames sind bei weitem nicht der einzige Bereich, in dem das Militär auf den Einsatz von KI verzichtet. Die Orientierung ohne Navigations-Apps ist beispielsweise eine Schlüsselkompetenz für Soldat*innen und Offizier*innen gleichermaßen und Teil jeder militärischen Ausbildung. Seit der groß angelegten Invasion in der Ukraine im Jahr 2022 und dem Einsatz von GPS-Spoofing (der Manipulation von GPS-Signalen) haben alle Armeeeinheiten das Training in Navigierung ohne algorithmische Hilfsmittel wieder eingeführt, wie mir ein Offizier einer großen NATO-Streitkraft berichtete.
Wargames und Orientierungsübungen sind zweifellos bereichsspezifisch und sicher nicht für alle Organisationen relevant. Die Tatsache, dass das Militär die Grenzen automatisierter Tools erkennt und diese in manchen Fällen sogar gänzlich verbietet, veranschaulicht allerdings, wie Institutionen mit der KI-Welle umgehen können. LLMs haben zwar einen gewissen Nutzen – es hat sich jedoch gezeigt, dass sie die Nutzer*innen weniger kompetent und anfälliger für Irreführungen machen. Andere Institutionen, beispielsweise im Bildungs- und Gesundheitswesen, sollten dies zur Kenntnis nehmen.
Dies ist ein Auszug aus dem Newsletter „Die automatisierte Gesellschaft“, einer zweiwöchentlichen Zusammenfassung von Neuigkeiten zur automatisierten Systemen in Europa. Hier abonnieren.
