Anmerkung des Herausgebers:

In der Zeitschrift The National Interest argumentieren General Lori Robinson (a.D.) und Michael O’Hanlon, dass die Vereinigten Staaten „sich mehr anstrengen müssen, um zu verstehen, was das eigentlich ist – und auch, um darüber nachzudenken, wie man ihrer künftigen Entwicklung und Nutzung ethische Grenzen setzen kann.“

Künstliche Intelligenz ist heutzutage in aller Munde. In den populären Medien scheinen reguläre Cyber-Systeme fast schon passé zu sein, denn die Autoren konzentrieren sich auf die künstliche Intelligenz und beschwören Bilder von realen Terminator-Robotern bis hin zu harmloseren Gefährten herauf. In Geheimdienstkreisen suggeriert Chinas Einsatz von Videoüberwachung, Gesichtserkennungstechnologie und anderen Überwachungssystemen die Ankunft des Großen Bruders – wenn nicht ganz 1984, dann nur etwa vierzig Jahre später. Im Pentagon sprechen Heerscharen von Offizieren und Analysten über den Wettlauf mit China im Bereich der künstlichen Intelligenz, oft mit der bedrohlichen Mahnung, dass die Vereinigten Staaten es sich nicht leisten können, in diesem aufstrebenden Bereich der Technologie zweitklassig zu sein. In politischen Kreisen stellt man sich die Frage nach der Ethik der KI – etwa, ob wir Robotern wirklich die Fähigkeit übertragen können, tödliche Gewalt gegen Amerikas Feinde anzuwenden, wie böse sie auch sein mögen. Ein neuer Bericht des Defense Innovation Board legt allgemeine Grundsätze für die künftige Ethik der KI fest, allerdings nur in allgemeiner Form, so dass noch viel Arbeit zu leisten ist.

Was bedeutet das alles wirklich, und ist es wahrscheinlich, dass die KI alles ist, was sie zu sein verspricht? Wir sind der Meinung, dass die Antwort komplex ist und dass man das Thema mit einer bescheidenen Dosis kalten Wassers abtropfen lassen sollte. Viele der heute angedachten KI-Systeme werden Jahrzehnte brauchen, um sich zu entwickeln. Außerdem wird KI oft mit Dingen verwechselt, die sie gar nicht ist. Wenn wir in den kommenden Jahren intelligente Diskussionen darüber führen wollen, wie KI erforscht, entwickelt und reguliert werden soll, ist eine präzise Definition des Konzepts unabdingbar.

KI-Systeme sind im Grunde Computer, die durch einen Prozess von Versuch und Irrtum „lernen“ können, wie sie Dinge tun können, wobei sie über einen Mechanismus verfügen, der ihnen mitteilt, wann sie richtig und wann sie falsch liegen – wie z. B. das Erkennen von Raketen auf Fotos oder von Menschen in Menschenmengen, wie beim „Project Maven“ des Pentagons – und dann das Gelernte zur Diagnose künftiger Daten anwenden. Mit anderen Worten: Bei der KI wird die Software von der Maschine selbst erstellt. Der allgemeine Berechnungsansatz für ein bestimmtes Problem wird im Voraus von echten, altmodischen Menschen festgelegt, aber der eigentliche Algorithmus wird durch einen Prozess von Versuch und Irrtum vom Computer erstellt, während er riesige Datenmengen aufnimmt und verarbeitet. Der Denkprozess der Maschine ist in Wirklichkeit nicht sehr ausgefeilt. Sie entwickelt eher künstliche Instinkte als Intelligenz – sie prüft riesige Mengen von Rohdaten und findet heraus, wie sie eine Katze auf einem Foto oder einen Raketenwerfer auf einer überfüllten Autobahn erkennen kann, als dass sie tiefgründig denkt (zumindest in absehbarer Zukunft).

Anhand dieser Definition können wir schnell einige Arten von Computersystemen erkennen, die in Wirklichkeit keine KI sind. Sie mögen wichtig, beeindruckend und entscheidend für den Kampfeinsatz sein, aber sie sind keine künstliche Intelligenz, weil sie keine eigenen Algorithmen aus Daten und mehreren Iterationen erstellen. Es gibt kein maschinelles Lernen, um es anders auszudrücken. Wie unser Kollege Tom Stefanick hervorhebt, besteht ein grundlegender Unterschied zwischen fortschrittlichen Algorithmen, die es seit Jahrzehnten gibt (auch wenn sie ständig verbessert werden, da die Computer immer schneller werden), und künstlicher Intelligenz. Es gibt auch einen Unterschied zwischen einem autonomen Waffensystem und KI-gesteuerter Robotik.

Die Computer, die beispielsweise einen Marschflugkörper oder eine Drohne steuern, zeigen keine KI. Sie folgen einem ausgeklügelten, aber vorher festgelegten Skript, indem sie mit Hilfe von Sensoren Daten erfassen und diese dann in Computer eingeben, die dann mit Hilfe von (von Menschen im Voraus entwickelter) Software den richtigen nächsten Schritt und den richtigen Ort für die Zündung von Waffen bestimmen. Das ist Autonomie. Es ist keine KI.

Verwandt

  • Foto: U.S. Chairman of the Joint Chiefs of Staff General Mark Milley hält eine Rede während der 19. jährlichen Gedenkfeier zum 11. September im Pentagon in Arlington, Virginia, USA, 11. September 2020 REUTERS/Erin Scott/File Photo
    Ordnung aus dem Chaos

    Russland, China und die Risiken eines Krieges: Mein Gespräch mit General Mark Milley

    Mittwoch, 23. Dezember 2020

  • U.S. Marine Corps Lance Corporal Briar Purty testet Drone Killer Counter-UAS Technology während der Urban Advanced Naval Technology Exercise 2018 (ANTX-18) auf der Marine Corps Base Camp Pendleton, Kalifornien, 21. März 2018. Foto vom 21. März 2018. U.S. Marine Corps/Lance Cpl. Rhita Daniel/Handout via REUTERS. ACHTUNG REDAKTIONEN - DIESES BILD WURDE VON EINER DRITTEN PARTEI ZUR VERFÜGUNG GESTELLT - RC130534DFC0
  • Eine Nationalgarde sichert die Twerskaja-Straße, während Armeeangehörige ihr Militärfahrzeug vor einer Probe für die Parade zum Tag des Sieges in Moskau, Russland, am 18. Juni 2020 bereit machen. Die Militärparade anlässlich des 75. Jahrestages des Sieges über Nazi-Deutschland im Zweiten Weltkrieg war für den 9. Mai geplant und wurde aufgrund des Ausbruchs der Coronavirus-Krankheit (COVID-19) verschoben. REUTERS/Shamil Zhumatov
    Ordnung aus dem Chaos

    Wie man den Verteidigungshaushalt kürzt (und nicht kürzt)

    Donnerstag, 9. Juli 2020

Oder, um ein Beispiel zu verwenden, das den meisten Menschen näher liegt: Wenn Ihr Smartphone eine App wie Google Maps oder Waze verwendet, um die schnellste Route zwischen zwei Punkten zu empfehlen, ist das auch nicht unbedingt KI. Es gibt nur eine bestimmte Anzahl möglicher Routen zwischen zwei Orten. Ja, es können Dutzende oder Hunderte sein, aber die Anzahl ist endlich. Der Computer in Ihrem Mobiltelefon kann also im Wesentlichen jede vernünftige Möglichkeit einzeln betrachten und dabei Daten aus dem breiteren Netz, das viele andere Mobiltelefone beisteuern, einbeziehen, um die Verkehrsbedingungen in die Berechnung einzubeziehen. Aber die Art und Weise, wie die Berechnungen durchgeführt werden, ist einfach und vorgegeben.

Warum ist das wichtig? Zum einen sollte es uns dazu bringen, weniger atemlos über KI zu sein und sie als ein Element einer breiteren Computerrevolution zu sehen, die in der zweiten Hälfte des 20. Jahrhunderts begann und in diesem Jahrhundert an Fahrt aufnahm. Außerdem sollte sie uns helfen zu erkennen, was im Bereich der künftigen Kriegsführung realistisch und wünschenswert ist und was nicht.

Der ehemalige stellvertretende Vorsitzende der Generalstabschefs, General Paul Selva, hat kürzlich behauptet, dass die Vereinigten Staaten etwa ein Jahrzehnt davon entfernt sein könnten, einen autonomen Roboter zu bauen, der entscheiden könnte, wann er schießt und wen er tötet – obwohl er auch behauptete, dass die Vereinigten Staaten keine Pläne hätten, ein solches Wesen tatsächlich zu bauen. Aber wenn man es anders betrachtet, haben wir in gewisser Weise schon seit einer Generation autonome Tötungsmaschinen. Der oben erwähnte Marschflugkörper ist seit den 1970er Jahren im Einsatz. Er hat die Anweisung, eine bestimmte Route zu fliegen und dann seinen Sprengkopf zu zünden, ohne dass ein Mensch im Spiel ist. Und in den 1990er Jahren wussten wir bereits, wie man Submunitionen baut, die über einem Schlachtfeld schweben und nach warmen Objekten wie Panzern Ausschau halten können, wobei die Software entscheidet, wann sie diese zerstören. Die Killermaschine entschied also bereits selbst.

Selbst wenn General Selvas Terminator nicht gebaut wird, wird die Robotik in einigen Fällen wahrscheinlich eine größere Entscheidungsbefugnis erhalten, um zu entscheiden, wann Gewalt angewendet werden soll, da wir diese Schwelle im Grunde bereits überschritten haben. Dieses äußerst heikle Thema erfordert natürlich eine sorgfältige ethische und rechtliche Überwachung, und die damit verbundenen Risiken sind ernst. Die Geschwindigkeit, mit der militärische Operationen durchgeführt werden müssen, wird jedoch Anreize schaffen, in vielen taktischen Situationen keine Person in die Entscheidungsfindung einzubeziehen. Was auch immer die Vereinigten Staaten bevorzugen mögen, Beschränkungen für die automatisierte Anwendung von Gewalt dürften angesichts des wahrscheinlichen Widerstands Russlands und vielleicht auch anderer Nationen sowie der enormen Probleme bei der Verifikation relativ schwer auszuhandeln sein (selbst wenn sie wünschenswert wären).

So könnte beispielsweise kleinen Robotern, die als Schwärme an Land, in der Luft oder im Wasser operieren können, ein gewisser Spielraum bei der Entscheidung eingeräumt werden, wann sie ihre tödlichen Fähigkeiten einsetzen. Indem sie miteinander kommunizieren und Informationen über den Feind in Echtzeit verarbeiten, könnten sie ihre Angriffe dort konzentrieren, wo die Verteidigung am schwächsten ist – eine Form des Kampfes, die John Allen und Amir Husain wegen ihrer Schnelligkeit und Intensität „Hyperwar“ nennen. Andere Arten von Schwärmen könnten geparkte Flugzeuge angreifen; selbst kleine Sprengsätze, die präzise gezündet werden, könnten Tragflächen oder Triebwerke außer Gefecht setzen oder sekundäre und viel größere Explosionen auslösen. Viele Länder werden in den kommenden zwanzig Jahren über die Fähigkeit verfügen, solche Dinge zu tun. Selbst wenn die Vereinigten Staaten versuchen, den Einsatz solcher Schwärme für tödliche und offensive Zwecke zu vermeiden, könnten sie sich dafür entscheiden, sie als Verteidigungsschilde (vielleicht gegen nordkoreanische Artillerieangriffe auf Seoul) oder als Störhilfen zur Begleitung eindringender Flugzeuge einzusetzen. Angesichts der Tatsache, dass Drohnen, die zehn Stunden und hundert Kilometer weit fliegen können, heute nur noch Hunderttausende von Dollar kosten und Quadcopter mit einer Reichweite von einem Kilometer oder weniger im Bereich von Hunderten von Dollar liegen, sind die Trendlinien klar – und die Erschwinglichkeit des organisierten Einsatzes vieler Drohnen ist offensichtlich.

Verwandte Bücher

  • Zielgerichtet auf den Computer

    Von Kenneth Flamm

    1987

  • Zielgerichtet auf den Computer

    Von Kenneth Flamm

    1988

  • Die Regeln ändern

    Herausgegeben von Robert W. Crandall und Kenneth Flamm

    1989

Wo eine Regulierung möglich und ethisch zwingend sein könnte, ist die Begrenzung des geografischen und zeitlichen Raums, in dem von KI oder anderen komplexen Algorithmen gesteuerte Waffen tödliche Gewalt anwenden können. Beispielsweise könnten die oben erwähnten Schwärme nur in der Nähe eines Schiffes, in der Nähe der DMZ in Korea oder in geringer Entfernung zu einem Militärflugplatz eingesetzt werden. Es könnte auch klug sein, Maschinen nicht mehr entscheiden zu lassen, wann sie Menschen töten. Es mag verlockend sein, zukünftige Roboter mit Gesichtserkennungstechnologie auszustatten, damit sie in einer großen Stadt im Nahen Osten den nächsten bin Laden, Baghdadi oder Soleimani jagen. Aber die Gefahr von Fehlern, Hackerangriffen und vielen anderen Störungen ist zu groß, um so etwas zuzulassen. Es ist wahrscheinlich auch sinnvoll, den Einsatz von KI für Angriffe auf die nukleare Kommando- und Kontrollinfrastruktur einer großen Atommacht zu verbieten. Solche Versuche könnten in einer zukünftigen Krise Ängste nach dem Motto „benutze sie oder verliere sie“ auslösen und damit das Risiko eines Atomkrieges erhöhen.

Wir befinden uns in den Anfängen der KI. Wir können noch nicht absehen, wohin sie sich entwickeln wird und was sie in zehn, zwanzig oder dreißig Jahren möglich machen könnte. Aber wir können uns bemühen, besser zu verstehen, was KI eigentlich ist – und auch darüber nachdenken, wie wir ihrer künftigen Entwicklung und Nutzung ethische Grenzen setzen können. Die Zukunft der Kriegsführung steht auf Gedeih und Verderb auf dem Spiel.