Verteidigungsplattformen als Streitkräfte der Zukunft

Wenn künstliche Intelligenz die Möglichkeit eröffnet, die Zukunft zu antizipieren, wird das Ausbrechen von Gewaltkonflikten nicht mehr hingenommen. Die Streitkräfte der Zukunft werden in derartige Vorhersagen investieren und vor allem neue Kooperationen mit der Wirtschaft, Politik und Zivilgesellschaft suchen, um diese Konflikte zu verhindern.

Streitkräfte werden sich in Richtung von Plattformen entwickeln, die mithilfe ihres Ökosystems diese Fähigkeiten schnell und punktgenau kombinieren und aufbauen können. Gerade Staaten wie Deutschland, die nicht die Möglichkeiten von Großmächten beim Aufbau derartiger Plattformen haben, stehen vor Herausforderungen, haben aber auch einzigartige Möglichkeiten, weil sie mehr auf Kooperation und Diversität setzten müssen.

Konflikte im digitalen Zeitalter und die Rolle der Verteidigungsplattformen

Seit dem Irakkrieg sind die Chancen hoch, dass keine unterlegene Macht mehr eine offene Feldschlacht gegen einen hoch entwickelten Staat suchen wird. Wenn auch die Wahrscheinlichkeit nicht ausgeschlossen ist, dass es zu großen Konflikten kommt, die mit entsprechenden Truppenteilen ausgetragen werden, muss man wohl eher damit rechnen, dass durch die Digitalisierung die Anzahl der Konflikte in den Ländern des Südens zunehmen wird, etwa weil ganze traditionelle Industrien durch Roboter obsolet werden und sich auch die globalen Wertschöpfungsketten ändern werden. Der Westen wird dann möglicherweise in diese Konflikte involviert oder mit deren Auswirkungen konfrontiert. Verteidigungskräfte werden deshalb folgende Aufgaben meistern müssen:

Man muss wohl damit rechnen, dass durch die Digitalisierung die Anzahl der Konflikte in den Ländern des Südens zunehmen wird.

Antizipieren: Mithilfe von Big Data und Algorithmen können Konflikte mit entsprechenden Wahrscheinlichkeiten vorhergesagt werden. Verteidigungskräfte können heatmaps von Ländern oder Regionen errechnen und Informationen über die Kontrahenten auswerten, damit entsprechende Strategien entwickelt und – fast wichtiger noch – auch early actions gesetzt werden können: Schwache Signale werden verdichtet, und auf Basis von historischen Daten und Erfahrungen werden Maßnahmen definiert.

Auflösen: Ist das wahrscheinliche Bedrohungs- beziehungsweise Konfliktpotenzial erkennbar, können Verteidigungsorganisationen in Kooperationen mit zivilen nationalen und internationalen Partnern Gegenmaßnahmen entwickeln und über Plattformen zur Verfügung stellen. Hierzu zählt etwa der Aufbau von neuen politischen Narrativen über Partnern, die den Konfliktdiskurs unterwandern der Aufbau von Dienstleistungen im Bereich Sicherheit, Medizin, Bildung und auch Nahrungsversorgung, der teils auch die betroffenen Bürger und Parteien zu Produzenten dieser Leistungen macht und so eine neue Art von Kollaboration und Vertrauensbildung zwischen passiven oder antagonistischen Parteien fördert. Weiters könnten Entscheidungsfindungsprozesse und -verfahren virtuell angeboten und gesteuert werden, die die betroffenen Parteien nutzen können und die zudem Lernprozesse auslösen.

Abriegeln: Die Digitalisierung wird zu mannigfaltigen Konflikten führen. Besonders hoch scheint die Sorge zu sein, dass ganze Regionen nicht mehr beherrschbar werden. Dieses Szenario kann ganze Länder betreffen (Somalia, Afghanistan) oder aber auch die großen Metropolen dieser Welt, die ein durch die Digitalisierung »nutzlos« gewordenes Proletariat beherbergen werden, welches sich staatlicher Ordnung widersetzt. In diesen Situationen werden Verteidigungskräfte derartige »No go«-Areas isolieren, mit automatisierten Sperranlagen eingrenzen und mittels Drohnen überwachen.

Welche Arten von Technologien und Organisationen sind in der Lage, derartige komplexe und umfassende Aufgabe umzusetzen? Militärinstitutionen herkömmlicher Art werden hierfür nicht ausreichen.

Aktivieren: Wenn Konflikte trotz der vorangegangenen Stufen ausbrechen, werden Verteidigungsplattformen Maschinen und Menschen aufbieten, die in den Konflikt eingreifen. Zunächst wird dies wohl ein virtueller Kampf der Plattformen untereinander (Hackingangriffe und -gegenangriffe, die auch auf die physische Welt Auswirkungen haben werden beziehungsweise auch keine Unterscheidung zwischen militärischen und zivilen Zielen mehr erlauben (Zerstörung ziviler Infrastruktur et cetera)) Möglicherweise wird dann auch der Einsatz physischer Kräfte notwendig, bei dem der Mensch aber durch Maschinen unterstützt und geschützt »sparsam« eingesetzt wird (hybride Kriegsführung).

Neue Kooperationen mit Wirtschaft, Politik und Zivilgesellschaft

Die drei Ebenen von Verteidigungsplattformen

Welche Arten von Technologien und Organisationen sind in der Lage, derartige komplexe und umfassende Aufgabe umzusetzen? Militärinstitutionen herkömmlicher Art werden hierfür nicht ausreichen. Analog zu den Veränderungen der Wirtschaftsorganisation (»Industrie 4.0«, Internet der Dinge) kommen für die skizzierten Aufgaben vor allem Plattformen infrage. Verteidigungsplattformen sind komplexe, zum Teil virtuelle Organisationsformen, die aus einem großen Ökosystem an Kooperationspartnern bestehen und Maschinenlernen (ML) zum Steuern ihrer Abläufe und zum Vorhersagen verwenden

Neue Beziehungen

Obschon das »Industrie 4.0«-Zielbild hier noch mehr als vage ist, lassen sich doch einige technologische und strukturelle Eckpunkte herausheben. Dieses Konzepte besteht zunächst aus der Verbindung von Elementen, welche Software, Rechner, aber auch mechanische und elektronische Komponenten beinhalten (cyber-physical systems), sich im Extremfall über die gesamte Welt verteilen können und über das Internet verbunden sind. Eine Neuerung betrifft Gestalt und Wandelbarkeit solcher Systeme: Während der Mensch aus einer festen Anzahl von »Komponenten«, etwa Gliedmaßen, Sinnesorganen et cetera, besteht, bilden nun mit einer Teilautonomie ausgestattete Komponenten eine Art »Community«, deren Mitglieder »kommen und gehen«, wie sie wollen beziehungsweise wie es die Gegebenheiten erlauben. Darüber hinaus können einzelne Komponenten gleichzeitig zu mehreren, also verschiedenen cyber-physical systems gehören – intelligente »Maschinen« haben damit Fähigkeiten der »Eigengestaltung« und darauf basierender Optimierung in einem bis dato in der Technik unbekannten Maße.

Allerdings zeigt sich bereits, dass der Mensch in hochechtzeitfähigen Anwendungen schon zu langsam für die Maschine ist.

Neben Maschinen, die untereinander kommunizieren, werden natürlich auch Menschen in dieses Konzept integriert, die mit den Maschinen via Schnittstellen interagieren. Die menschliche Rolle in diesen Technikkonzepten ist manchmal nicht ganz klar. Dies hat mit dem Technikfokus dieser Konzepte zu tun, aber auch mit der Unklarheit darüber, welche Fähigkeiten Maschinen erreichen werden und welche Tätigkeiten dann für den Menschen sinnvoll sind Selbst im Bereich der Steuerung dieser Konstrukte ist eine eindeutige Rollenverteilung nicht einfach. Obwohl sich Maschinen nun auch untereinander steuern und selbst aktiv werden können (smart machines, smart devices), kann dieses komplexe Konstrukt wohl nicht mehr allein durch den Menschen gelenkt werden. Hierzu bedarf es der Technik des Maschinellen Lernens (ML) beziehungsweise der »schwachen« künstlichen Intelligenz (artificial intelligence, AI), welche in definierten Situationen mithilfe einer vorgegebenen Zielfunktion Muster auf Basis gespeicherter ähnlicher Fälle erkennen und Entscheidungen treffen kann beziehungsweise diese dem Menschen vorschlägt. Allerdings zeigt sich bereits, dass der Mensch in hochechtzeitfähigen Anwendungen schon zu langsam für die Maschine ist (Bremsautomat, Trading). Neben den bekannten – und niemals unproblematischen – Beziehungen zwischen den menschlichen Akteuren in Organisationen kommen also neue Ebenen hinzu, die, übertragen auf die Situation von Streitkräften, wie folgt skizziert werden können:

Beziehung Maschine-Maschine

Mithilfe von Sensoren können Maschinen, oder auch nur Dinge (smart objects), selbstständig Aktivitäten auslösen (ein Lastkraftwagen fordert zum Beispiel Betankung oder Wartungsaktivitäten an). Andere Maschinen können selbstständig tätig werden, um diese Aktivitäten zu erledigen (selbstfahrender Tankwagen). Man kann sich leicht vorstellen, welche mannigfaltigen Beispiele sich im Verteidigungsbereich finden lassen: Sperren erkennen zum Beispiel Aktivitäten und fordern Drohnen an, um die Situation zu klären; Maschinen antizipieren mittels ML Wartungsnotwendigkeiten und lassen einen 3-D-Drucker Ersatzteile ausdrucken oder in einer weitgehend automatisierten Roboterfabrik (lights-out factory) herstellen, und diese werden mit Drohnen zum Fahrzeug geflogen.11 Damit kann dann das hohe Verhältnis von Unterstützungskräften (Logistik, Sanitätsdienst et cetera) und Kampftruppen verändert werden.

Beziehung Mensch-Maschine

Hier erteilt der Mensch der Maschine Zielvorgaben, die diese umzusetzen hat. Die Kommunikation erfolgt über unterschiedliche Interfaces (Sprachkommando, Tastatur, Visor et cetera). Auf der anderen Seite wird die Maschine dem Menschen als seine persönliche künstliche Intelligenz, als sogenannter software agent, Vorschläge machen, wie bestimmte Situationen (Ressourcenallokationen, Personalentscheidungen, aber auch taktische und strategische Entscheidungen) zu deuten sind, welche Handlungsoptionen mit welchen Erfolgschancen zur Verfügung stehen. Und natürlich kann der Mensch mit der Maschine den Ernstfall üben: Die Rolle des Gegners wird von der KI übernommen und so der Schwierigkeits- beziehungsweise Realitätsgrad durch ein selbstlernendes System gesteigert.

Schnittstellen zur Umwelt

Damit Maschinen derartig funktionieren, benötigen sie beständig Informationen sowie Skills, die in der Organisation selbst nicht immer ausreichend zu finden sind. Hierzu sieht das Konzept eine gewisse Öffnung der Plattformen vor, damit externe Informationen, aber auch bestimmte Fähigkeiten (point skills) an die Plattform situativ angeschlossen werden können. Hier ist insbesondere an Informationen zu denken, welche etwa im Zuge von open source intelligence-Ansätzen (OSINT) von offenen Quellen (Wissenschaft, Wirtschaft, Politik, Medien et cetera) eingespeist werden und somit die Entscheidungsbasis – etwa über die Wahrscheinlichkeit von Konflikten oder gegnerisches Verhalten – allgemein verbessern sollen. Ein weiterer Grund für die Öffnung von militärischen Plattformen für andere Partner und auch zivile Plattformen ist der Zugriff auf Leistungen, Produkte und Fähigkeiten dieser Kooperationspartner, die die eigenen Kapazitäten steigern werden. Etwa auch die Möglichkeit, Expertenwissen problembezogen und über spezifische Plattformen zu nutzen und zu integrieren, wie dies Crowdworking-Plattformen tun. Die zugrunde liegende Technologie, insbesondere ML, wird zudem in beiden Bereichen eingesetzt, und es gibt Synergien (und Kämpfe um knappe Ressourcen), welche natürlich von jenen Staaten effizient adressiert werden, die beide Sektoren unter Kontrolle haben.

Schnelle und flexible Kooperation von Organisationen

Bei Verteidigungsplattformen werden traditionelle Verteidigungsorganisationen den Kern ausmachen. Es kommen aber eine Vielzahl von externen Akteuren und vor allem neue Steuerungsinstrumente hinzu. Plattformen sind für derartige umfassende Aufgaben geeignet, weil sie eine große Anzahl von Akteuren beziehungsweise deren Ressourcen über definierte oder standardisierte Schnittstellen anlassbezogen und über die Grenzen der traditionellen Organisation hinweg organisieren können. Plattformen können also Leistungen für bestimmte Aufgabenstellungen auswählen, bündeln und virtuell anbieten. Plattformen sind »offen« im Gegensatz zu herkömmlichen Organisationen, die exklusiv sind und Barrieren und komplexe Protokolle für eine etwaige Kooperation auferlegen. Die dargestellten Aufgaben verlangen in einem drohenden Konfliktfall die schnelle und flexible Kooperation einer Vielzahl von Organisationen. Für die umfassende Aufgabe der Konfliktvorhersage und -auflösung werden Verteidigungsplattformen sich gegenüber den unterschiedlichen Bereichen der Gesellschaft öffnen und Kooperationen eingehen: mit der Wissenschaft, Kultur, Medien, Verwaltungen, der Zivilgesellschaft et cetera. Die Verteidigungsplattform schafft somit ein eigenes Ökosystem, welches sich um den traditionellen Kern anlagert und anlassbezogen genutzt wird:

Für die umfassende Aufgabe der Konfliktvorhersage und -auflösung werden Verteidigungsplattformen sich gegenüber den unterschiedlichen Bereichen der Gesellschaft öffnen und Kooperationen eingehen.

»Können wir uns Planungsprozesse zur Verteidigungsfähigkeit vorstellen, die nicht nur ihre ›eigenen‹ Fähigkeiten berücksichtigen, sondern auch ein besseres Gleichgewicht zwischen diesen ›eigenen‹ Fähigkeiten und solchen anstreben, die verschiedenen Akteuren des Ökosystems mehr Handlungsmacht verleihen? Wobei unter ›Verteidigung‹ nicht mehr nur der Akteur zu verstehen ist, der massiv, physisch und spät in eine Konfliktdynamik interveniert (wir sehen weiterhin einen Bedarf für diese Sicherheitsfunktion); sondern es ist eher ein strategischer Administrator, der nach Möglichkeiten sucht, zu einem frühen Zeitpunkt mit digitalen Mitteln in den Prozess einzugreifen. Ein Kurator, der überlegt vorgeht und sich für ein besseres Gleichgewicht zwischen konflikt- und resilienzorientierten Anstrengungen einsetzt, um das Nutzenversprechen der Verteidigung zu maximieren.«

Hilfsgüter in Roboterfabriken erstellt

Die aus diesen Kooperationen resultierende Komplexität muss dann auch entsprechend gesteuert werden. Hierzu verwenden Plattformen nicht die Top-down-Kommandobrücke der traditionellen Hierarchie, sondern algorithmisch unterstützte Steuerung. Die Technik des ML identifiziert dann in einer konkreten Aufgabenstellung mithilfe einer vorgegebenen Zielfunktion Muster auf Basis gespeicherter ähnlicher Fälle und kann so Entscheidungen treffen beziehungsweise diese dem Menschen vorschlagen. ML antizipiert also auf Basis vergangener Erfahrungen zukünftige Situationen. Algorithmen können Muster in der Kommunikation sozialer Medien auswerten und so auf drohende Konflikte schließen, sie können dann relevante menschliche Akteure, aber auch Maschinen auf Basis ihrer Erfahrungen in ähnlichen Situationen auswählen, die diese Konfliktsituation auflösen können. Sie können dann die Kooperation mit diesen Akteuren (Menschen und Maschinen) autonom oder teilautonom steuern. Also etwa Hilfsgüter von Kooperationspartnern spezifizieren, welche dann in Roboterfabriken erstellt oder vor Ort »ausgedruckt« werden beziehungsweise mit Drohnen an den richtigen Ort befördert werden. In Fällen, in denen der Algorithmus unsicher ist oder ethische Gründe vorliegen, kann vorgesehen werden, dass der Mensch das letzte Wort (human-in-the-loop) hat. Diese Entwicklung ist noch nicht abgeschlossen, doch es zeigt sich bereits, dass maschinelles Lernen auch schon ohne menschliche Vorgaben, durch Trial-and-Error-Verfahren erfolgen kann (reinforcement learning).

Verteidigungsplattformen als digitales HQ

Analog zu der Diskussion in der Wirtschaft, in der angenommen wird, dass der Mensch zukünftig in der Entscheidungsfindung zunächst durch ML unterstützt und später zunehmend ersetzt wird, es also zu Robo-Bossen kommen wird, kann man annehmen, dass auch Verteidigungsplattformen eine Art digitales HQ oder zumindest eine zentrale digitale Leitstelle beziehungsweise Gehirn haben werden. Vieles spricht dafür, dass Polizeiführungsstellen, die im Rahmen von predictive policing entstehen, hier illustrativ sein können. So etwa in Los Angeles die »Real-Time Analysis Critical Response«-Einheit (RACR):

»Ein Notruf. Ein möglicher Bandenkrieg ist im Gange. Die RACR-Kommandozentrale leitet die Streifen zum Tatort und überwacht gleichzeitig ihr Vorankommen in Echtzeit. Daten über die Auseinandersetzung werden an die Mobiltelefone der Polizisten weitergeleitet. Warnmeldungen über vergangene Schießereien und Bandenkonflikte bereiten sie auf Gefahren vor, die sie noch nicht vor Augen haben (…) Die Beamten wischen über Fotos, um sich ein Bild von der Gegend zu machen, bevor sie dort ankommen. (…) Appell. Montagmorgen. Die Streifenpolizisten erhalten Karten mit der Kriminalitätsvorhersage für den heutigen Tag. Kleine rote Kästchen kennzeichnen Bereiche, wo sich Straftaten ereignen könnten. Diese Kästchen sind Resultat einer algorithmischen Vorhersage erhöhter krimineller Aktivität. Lange Jahre des Verbrechens, von leistungsstarken Computern zerlegt und aufbereitet, damit sich zielgenau einzelne Häuserblocks vornehmen lassen.«

Der Nationalstaat wird zum »Zuschauer« einer technischen Auseinandersetzung.

Schlussendlich ist dies ja auch der Endpunkt der Vernetzungsanstrengungen, die unter Überschriften wie etwa »netcentric warfare« und »Vernetzte Operationsführung« schon um die Jahrtausendwende begannen, ohne dass man damals die Möglichkeiten von ML vollständig erfassen konnte.

Derartige Verteidigungsplattformen und ihr umfassendes Ökosystem sind der Ausdruck politischer Macht im internationalen System. Die Möglichkeiten, Menschen, Organisationen und Maschinen mithilfe von KI zu steuern, bestimmen den Platz, den eine Nation oder eine Koalition im Machtgefüge einnimmt. Und damit wird auch erkennbar, dass derartige Plattformen und ihre Maschinen die Stellung eines Landes gegenüber der jetzigen Position massiv verändern können, da diese nicht mehr von der Anzahl der Bewaffneten, den ökonomischen Möglichkeiten oder den Einwohnern abhängt: »(…) wie in der ersten industriellen Revolution wird sich staatliche Macht viel weniger an der Größe der Bevölkerung messen lassen. Kleine Länder, die in der KI-Technologie einen deutlichen Vorsprung haben, werden weit oberhalb ihrer Gewichtsklasse boxen.«

Machtpositionen werden dann also konsequenterweise auch zwischen einzelnen Plattformen »ausgehandelt«. Wenn die Erfahrungen von zivilen Plattformen irgendeine Art von Hinweis erlauben, dann ist davon auszugehen, dass sich die Verteidigungsplattformen in einer Art von permanentem Konfliktzustand mit anderen, vielleicht sogar nominell verbündeten Verteidigungsplattformen befinden werden. Die gegnerische Plattform muss penetriert werden, man muss sich dort einnisten, um Informationen zu erlangen, Informationen zu verändern und damit die Entscheidungsfindung des Gegners zu erschweren und seine Abläufe zu stören. Die heutigen Übergriffe und Attacken im Cyberspace geben einen guten Ausblick darauf, wie dieser permanente Reibungszustand aussehen wird:

Sind derartige Plattformen nicht der höchste Ausdruck eines Militärzynismus, welcher den Wunsch abbildet, zu gewinnen, und zwar ohne eigenen Einsatz und Gefährdung?

»Wie alle anderen können wir auch nicht genau vorhersagen, ab wann die Nutzung von KI im Angriffsvektor sehr häufig sein wird. Vor etwa sechs Monaten hatten wir einen Fall, der ein Netzwerk in Indien betraf. Die Sache war nicht besonders durchdacht. Ich würde es keinen ausgereiften KI-Angriff nennen. Aber dabei kam maschinelles Lernen zum Einsatz, um herauszufinden, was sich normalerweise in dem Netzwerk tut, und um ins Hintergrundgeräusch einzutauchen. Zum Glück entdeckten wir das Vorkommnis anhand des ungewöhnlichen Verhaltens und Bewegungen, was unsere Modelle deutlich zeigten. Vielleicht war die Absicht dahinter gar nicht der Diebstahl von Daten, vielleicht wollte hier jemand nur eine Weile herumhängen und etwas lernen. Ist das nicht denkbar? Wenn Sie etwas über neue medizinische Forschung oder alternative Energiequellen erfahren möchten, dann sollten Sie vielleicht einfach mal in einem Netzwerk ihr Lager aufschlagen und zugucken. Aber vielleicht geht es auch darum, Daten, Patientenakten, Blutgruppen, Kontostände fast unmerklich zu verändern. Was fürchterliches Chaos verursachen wird, weil am Ende keiner mehr weiß, welchen Daten er noch trauen kann.«

Und vielleicht übernehmen globale Technikplattformen diese Art der Auseinandersetzung. Anlässlich der internen Diskussion bei Google, ob Rüstungsaufträge übernommen werden sollten oder nicht, wurde die intermediäre Rolle dieser Plattformen als Argument aufgeführt: »(…) es wäre besser für den Frieden, wenn die Militärs der Welt mit internationalen Organisationen wie Google verflochten wären, statt nur mit nationalistischen Verteidigungsunternehmen zusammenzuarbeiten«.

Duellierende Maschinen

Diese Verschiebung der Auseinandersetzungen auf die Techniksphäre ist durchaus etwas, was die Fantasie schon lange anregt. So skizzierte Nikola Tesla die Maschinenduelle bereits um 1900 und betrachtete sie als Ausweg aus blutigen Auseinandersetzungen: Solange der Mensch noch Teil der Auseinandersetzung ist, werden seine Emotionen immer neue Konflikte produzieren. Die Maschine muss also den Platz des Menschen übernehmen, dieser beziehungsweise der Nationalstaat wird zum »Zuschauer« einer technischen Auseinandersetzung:

Möglicherweise besteht nun der Ausblick, ethisch konstruierte und handelnde Plattformen zu entwickeln, die alles tun, damit Konflikte nicht ausgetragen werden.

»Aber was ist nun die nächste Phase in dieser Entwicklung? Noch nicht der Frieden, gewiss nicht. Was sich als Nächstes aus den modernen Entwicklungen ergibt, wird sicher sein, dass sich die Anzahl von Personen, die an Kampfhandlungen teilnehmen, kontinuierlich verringern wird. Die Kriegsmaschinerie wird zu höchsten Leistungen fähig sein, aber nur noch wenige Personen zu ihrer Bedienung benötigen. Diese Evolution wird dazu führen, dass die Maschinen oder Mechanismen, die mit den wenigsten Menschen auskommen, Vorrang in der Kriegsführung erhalten. Ein Verzicht auf große Einheiten, die schwerfällig sind, nur langsam vorankommen und sich nicht kontrollieren lassen, wird unausweichlich Folge davon sein. Größtmögliche Geschwindigkeit und maximales Tempo der Energiezufuhr durch den Kriegsapparat werden zum Hauptziel. Der Verlust an Menschenleben wird immer kleiner, und schließlich wird die Zahl der beteiligten Menschen immer mehr abnehmen, bis sich lediglich Maschinen in einem Wettkampf ohne Blutvergießen treffen, während die Nationen als Zuschauer mitfiebern.«

Die Rolle des Menschen

Ähnlich wie beim »Industrie 4.0«-Konzept stellt sich auch beim Konzept der Verteidigungsplattform die Frage nach dem Ausmaß und Wesen menschlicher Rollen und Aufgaben. Diese werden natürlich vom Fortschritt des ML-Konzeptes abhängig sein. An der Zielsetzung, den Menschen physische Kampfhandlungen zu ersparen und damit das, was Clausewitz als »Anstrengungen« bezeichnete (insbesondere die Angst, getötet oder verwundet zu werden), kann es aber kaum Zweifel geben. Der Akt des Tötens ist den allermeisten Menschen zuwider und hinterlässt traumatische Spuren. Gelang es bis zum Vietnamkrieg etwa, die »Bereitschaft zum Töten« massiv zu erhöhen (von 25 Prozent im Zweiten Weltkrieg auf nunmehr über 90 Prozent der Kombattanten), so sind die negativen Folgewirkungen selbst bei Drohnenpiloten damit nicht überwunden. Des Weiteren werden sich vor allem die Staaten des Westens bei vielen Konflikten, insbesondere in den Ländern des Südens, in moralischen Dilemmata befinden, und hier ermöglichen Maschinen einen auf den ersten Blick »einfachen Ausweg«, was sich etwa im Afghanistankonflikt bereits zeigt.

Auf der anderen Seite wird die Maschine dem Menschen als seine persönliche künstliche Intelligenz, als sogenannter software agent, Vorschläge machen, wie bestimmte Situationen zu deuten sind.

Insofern kann davon ausgegangen werden, dass nach wie vor Menschen auf Verteidigungsplattformen aktiv sein werden, allerdings vielleicht eher in zweiter Reihe hinter beziehungsweise geschützt durch autonome Maschinen der Plattform. Die Zielsetzung des russischen Militärs, in den nächsten Jahren etwa 30 Prozent der Kampfkapazitäten durch Maschinen abzubilden, erscheint in diesem Kontext also nicht abwegig.

Die hier geschilderten Militärplattformen – so viel kann man bei aller Unsicherheit sagen – werden komplexe und schwer aufzulösende Implikationen mit sich bringen und nicht nur die Wirtschaftsstrukturen und die Axiometer der internationalen Politik verschieben. Würden denn derartig ausgetragene Konflikte nicht auch das Problem der Verantwortung offenlassen?

Sind »tugendhafte« Konflikte mit Maschinen möglich?

Sind derartige Plattformen nicht der höchste Ausdruck eines Militärzynismus, welcher den Wunsch abbildet, zu gewinnen, und zwar ohne eigenen Einsatz und Gefährdung? Würden denn Konflikte und der Verlust an Menschenleben damit ernsthaft verhindert, oder würde nur die Umsetzung an Maschinen übergeben, ohne die Wurzeln des Konfliktes zu beheben? Wären denn »tugendhafte« oder »heilige« Konflikte mit Maschinen überhaupt möglich, solange etwa die Verluste, insbesondere in der zivilen Bevölkerung des technisch unterlegenen Gegners, so hoch bleiben? Schlussendlich: Ist die maschinelle Plattform nur eine weitere Facette des Menschheitstraums von der Superwaffe, die endlich den Frieden bringen und sichern soll, aber immer nur zu weiteren Konflikten führt?

Möglicherweise besteht nun der Ausblick, ethisch konstruierte und handelnde Plattformen zu entwickeln, die alles tun, damit Konflikte nicht ausgetragen werden. Und dies, und nur dies, scheint eine Perspektive zu sein, die die Technologie mit der menschlichen Zivilisation in Einklang bringt: »Die Militärgeschichte der Zukunft wird an einer völlig neuen Front geschrieben werden: dort, wo der Kampf um das Unterlassen der Kämpfe geführt werden wird. Die entscheidenden Schläge werden diejenigen sein, die nicht geschlagen werden.«

 

Streitkräfte der Zukunft 

Wie wir handeln müssen

Beim Aufbau derartiger Plattformen scheinen Länder, die zentrale und damit gleichzeitig immer auch globale Plattformen bauen können, einen Vorteil zu haben, da sie hierzu entsprechend umfassende Steuerungen, Datenstrukturen und -registraturen vorsehen können, die auch im militärischen Bereich verwendbar sind. Mithilfe vernetzter Verteidigungsökosysteme könnte der »Nachteil« Deutschlands und Europas kompensiert werden, und die Vielfalt könnte zu Maschinen und Plattformen führen, die klüger und ethischer sind als jene der Großmächte.

  • Forcierung des ML-Sektors in Deutschland und Europa. Wenn Maschinenlernen der Schlüssel der ökonomischen, politischen und militärischen Positionierung eines Landes ist, müssen die Prioritäten entsprechend gesetzt werden. Die Maßnahmen müssen darin bestehen, Investitionen und Forschungen auch auf nationaler, besser noch auf EU-Ebene zu bündeln, zu vernetzen und mit einer mittel- und langfristigen Perspektive zu versehen: Technologieentwicklung und -führerschaft müssen verstärkt als geopolitischer Faktor erkannt und genutzt werden.42
  • Intensivierung der militärisch-zivilen Kooperation. Die Kooperation zwischen militärischen und zivilen Plattformen ist essenziell. Ohne zivile Plattformen mit globaler Wirkung ist die Position eines Landes nicht zu halten. Militärische Plattformen brauchen zudem Dienstleistungen und Produkte ziviler Plattformen, um ihre Aufgaben im Bereich der Konflikterkennung und -auflösung erfüllen zu können.
  • Gesellschaftlicher Buy-in. Maschinen, Roboter und Algorithmen spiegeln immer auch die Werte derer wider, die sie programmieren. Es ist zu erwarten, dass diese ethische Programmierung eine Sache auf »Leben und Tod« für die digitale Zivilisation werden wird. Die in die Maschinen eingebauten Werte müssen deshalb auf Basis eines breiten Diskurses entwickelt werden.

Prof. Dr. Dr. Ayad Al-Ani (54) forscht am Alexander von Humboldt Institut für Internet und Gesellschaft, Berlin, ist Lehrbeauftragter an der Universität Basel, außerordentlicher Professor an der School of Public Leadership der Universität Stellenbosch, Südafrika, und Visiting Professor an der FernUniversität in Hagen. Er war Executive Partner bei Accenture, Rektor und Professor an der ESCP Europe Wirtschaftshochschule in Berlin sowie Professor an der Hertie School of Governance.

Jörg Stenzel (42) ist studierter Offizier der Bundeswehr. Hier gibt er ausschließlich seine persönliche Meinung wider.