In der Zeitschrift The National Interest argumentieren General Lori Robinson (a.D.) und Michael O’Hanlon, dass die Vereinigten Staaten „sich mehr anstrengen müssen, um zu verstehen, was das eigentlich ist – und auch, um darüber nachzudenken, wie man ihrer künftigen Entwicklung und Nutzung ethische Grenzen setzen kann.“
Künstliche Intelligenz ist heutzutage in aller Munde. In den populären Medien scheinen reguläre Cyber-Systeme fast schon passé zu sein, denn die Autoren konzentrieren sich auf die künstliche Intelligenz und beschwören Bilder von realen Terminator-Robotern bis hin zu harmloseren Gefährten herauf. In Geheimdienstkreisen suggeriert Chinas Einsatz von Videoüberwachung, Gesichtserkennungstechnologie und anderen Überwachungssystemen die Ankunft des Großen Bruders – wenn nicht ganz 1984, dann nur etwa vierzig Jahre später. Im Pentagon sprechen Heerscharen von Offizieren und Analysten über den Wettlauf mit China im Bereich der künstlichen Intelligenz, oft mit der bedrohlichen Mahnung, dass die Vereinigten Staaten es sich nicht leisten können, in diesem aufstrebenden Bereich der Technologie zweitklassig zu sein. In politischen Kreisen stellt man sich die Frage nach der Ethik der KI – etwa, ob wir Robotern wirklich die Fähigkeit übertragen können, tödliche Gewalt gegen Amerikas Feinde anzuwenden, wie böse sie auch sein mögen. Ein neuer Bericht des Defense Innovation Board legt allgemeine Grundsätze für die künftige Ethik der KI fest, allerdings nur in allgemeiner Form, so dass noch viel Arbeit zu leisten ist.
- Lori Robinson
- Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
- Michael E. O’Hanlon
- Ko-Direktor – Zentrum für Sicherheit, Strategie und Technologie, Africa Security Initiative
- Verwandt
- Russland, China und die Risiken eines Krieges: Mein Gespräch mit General Mark Milley
- Wie man den Verteidigungshaushalt kürzt (und nicht kürzt)
- Verwandte Bücher
- Zielgerichtet auf den Computer
- Zielgerichtet auf den Computer
- Die Regeln ändern
Lori Robinson
Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
Michael E. O’Hanlon
Ko-Direktor – Zentrum für Sicherheit, Strategie und Technologie, Africa Security Initiative
Was bedeutet das alles wirklich, und ist es wahrscheinlich, dass die KI alles ist, was sie zu sein verspricht? Wir sind der Meinung, dass die Antwort komplex ist und dass man das Thema mit einer bescheidenen Dosis kalten Wassers abtropfen lassen sollte. Viele der heute angedachten KI-Systeme werden Jahrzehnte brauchen, um sich zu entwickeln. Außerdem wird KI oft mit Dingen verwechselt, die sie gar nicht ist. Wenn wir in den kommenden Jahren intelligente Diskussionen darüber führen wollen, wie KI erforscht, entwickelt und reguliert werden soll, ist eine präzise Definition des Konzepts unabdingbar.
KI-Systeme sind im Grunde Computer, die durch einen Prozess von Versuch und Irrtum „lernen“ können, wie sie Dinge tun können, wobei sie über einen Mechanismus verfügen, der ihnen mitteilt, wann sie richtig und wann sie falsch liegen – wie z. B. das Erkennen von Raketen auf Fotos oder von Menschen in Menschenmengen, wie beim „Project Maven“ des Pentagons – und dann das Gelernte zur Diagnose künftiger Daten anwenden. Mit anderen Worten: Bei der KI wird die Software von der Maschine selbst erstellt. Der allgemeine Berechnungsansatz für ein bestimmtes Problem wird im Voraus von echten, altmodischen Menschen festgelegt, aber der eigentliche Algorithmus wird durch einen Prozess von Versuch und Irrtum vom Computer erstellt, während er riesige Datenmengen aufnimmt und verarbeitet. Der Denkprozess der Maschine ist in Wirklichkeit nicht sehr ausgefeilt. Sie entwickelt eher künstliche Instinkte als Intelligenz – sie prüft riesige Mengen von Rohdaten und findet heraus, wie sie eine Katze auf einem Foto oder einen Raketenwerfer auf einer überfüllten Autobahn erkennen kann, als dass sie tiefgründig denkt (zumindest in absehbarer Zukunft).
Anhand dieser Definition können wir schnell einige Arten von Computersystemen erkennen, die in Wirklichkeit keine KI sind. Sie mögen wichtig, beeindruckend und entscheidend für den Kampfeinsatz sein, aber sie sind keine künstliche Intelligenz, weil sie keine eigenen Algorithmen aus Daten und mehreren Iterationen erstellen. Es gibt kein maschinelles Lernen, um es anders auszudrücken. Wie unser Kollege Tom Stefanick hervorhebt, besteht ein grundlegender Unterschied zwischen fortschrittlichen Algorithmen, die es seit Jahrzehnten gibt (auch wenn sie ständig verbessert werden, da die Computer immer schneller werden), und künstlicher Intelligenz. Es gibt auch einen Unterschied zwischen einem autonomen Waffensystem und KI-gesteuerter Robotik.
Die Computer, die beispielsweise einen Marschflugkörper oder eine Drohne steuern, zeigen keine KI. Sie folgen einem ausgeklügelten, aber vorher festgelegten Skript, indem sie mit Hilfe von Sensoren Daten erfassen und diese dann in Computer eingeben, die dann mit Hilfe von (von Menschen im Voraus entwickelter) Software den richtigen nächsten Schritt und den richtigen Ort für die Zündung von Waffen bestimmen. Das ist Autonomie. Es ist keine KI.
Verwandt
-
Ordnung aus dem Chaos
Russland, China und die Risiken eines Krieges: Mein Gespräch mit General Mark Milley
Mittwoch, 23. Dezember 2020 -
Ordnung aus dem Chaos
Wie man den Verteidigungshaushalt kürzt (und nicht kürzt)
Donnerstag, 9. Juli 2020
Warum ist das wichtig? Zum einen sollte es uns dazu bringen, weniger atemlos über KI zu sein und sie als ein Element einer breiteren Computerrevolution zu sehen, die in der zweiten Hälfte des 20. Jahrhunderts begann und in diesem Jahrhundert an Fahrt aufnahm. Außerdem sollte sie uns helfen zu erkennen, was im Bereich der künftigen Kriegsführung realistisch und wünschenswert ist und was nicht.
Der ehemalige stellvertretende Vorsitzende der Generalstabschefs, General Paul Selva, hat kürzlich behauptet, dass die Vereinigten Staaten etwa ein Jahrzehnt davon entfernt sein könnten, einen autonomen Roboter zu bauen, der entscheiden könnte, wann er schießt und wen er tötet – obwohl er auch behauptete, dass die Vereinigten Staaten keine Pläne hätten, ein solches Wesen tatsächlich zu bauen. Aber wenn man es anders betrachtet, haben wir in gewisser Weise schon seit einer Generation autonome Tötungsmaschinen. Der oben erwähnte Marschflugkörper ist seit den 1970er Jahren im Einsatz. Er hat die Anweisung, eine bestimmte Route zu fliegen und dann seinen Sprengkopf zu zünden, ohne dass ein Mensch im Spiel ist. Und in den 1990er Jahren wussten wir bereits, wie man Submunitionen baut, die über einem Schlachtfeld schweben und nach warmen Objekten wie Panzern Ausschau halten können, wobei die Software entscheidet, wann sie diese zerstören. Die Killermaschine entschied also bereits selbst.
Selbst wenn General Selvas Terminator nicht gebaut wird, wird die Robotik in einigen Fällen wahrscheinlich eine größere Entscheidungsbefugnis erhalten, um zu entscheiden, wann Gewalt angewendet werden soll, da wir diese Schwelle im Grunde bereits überschritten haben. Dieses äußerst heikle Thema erfordert natürlich eine sorgfältige ethische und rechtliche Überwachung, und die damit verbundenen Risiken sind ernst. Die Geschwindigkeit, mit der militärische Operationen durchgeführt werden müssen, wird jedoch Anreize schaffen, in vielen taktischen Situationen keine Person in die Entscheidungsfindung einzubeziehen. Was auch immer die Vereinigten Staaten bevorzugen mögen, Beschränkungen für die automatisierte Anwendung von Gewalt dürften angesichts des wahrscheinlichen Widerstands Russlands und vielleicht auch anderer Nationen sowie der enormen Probleme bei der Verifikation relativ schwer auszuhandeln sein (selbst wenn sie wünschenswert wären).
So könnte beispielsweise kleinen Robotern, die als Schwärme an Land, in der Luft oder im Wasser operieren können, ein gewisser Spielraum bei der Entscheidung eingeräumt werden, wann sie ihre tödlichen Fähigkeiten einsetzen. Indem sie miteinander kommunizieren und Informationen über den Feind in Echtzeit verarbeiten, könnten sie ihre Angriffe dort konzentrieren, wo die Verteidigung am schwächsten ist – eine Form des Kampfes, die John Allen und Amir Husain wegen ihrer Schnelligkeit und Intensität „Hyperwar“ nennen. Andere Arten von Schwärmen könnten geparkte Flugzeuge angreifen; selbst kleine Sprengsätze, die präzise gezündet werden, könnten Tragflächen oder Triebwerke außer Gefecht setzen oder sekundäre und viel größere Explosionen auslösen. Viele Länder werden in den kommenden zwanzig Jahren über die Fähigkeit verfügen, solche Dinge zu tun. Selbst wenn die Vereinigten Staaten versuchen, den Einsatz solcher Schwärme für tödliche und offensive Zwecke zu vermeiden, könnten sie sich dafür entscheiden, sie als Verteidigungsschilde (vielleicht gegen nordkoreanische Artillerieangriffe auf Seoul) oder als Störhilfen zur Begleitung eindringender Flugzeuge einzusetzen. Angesichts der Tatsache, dass Drohnen, die zehn Stunden und hundert Kilometer weit fliegen können, heute nur noch Hunderttausende von Dollar kosten und Quadcopter mit einer Reichweite von einem Kilometer oder weniger im Bereich von Hunderten von Dollar liegen, sind die Trendlinien klar – und die Erschwinglichkeit des organisierten Einsatzes vieler Drohnen ist offensichtlich.
Verwandte Bücher
-
Zielgerichtet auf den Computer
Von Kenneth Flamm1987
-
Zielgerichtet auf den Computer
Von Kenneth Flamm1988
-
Die Regeln ändern
Herausgegeben von Robert W. Crandall und Kenneth Flamm1989
Wo eine Regulierung möglich und ethisch zwingend sein könnte, ist die Begrenzung des geografischen und zeitlichen Raums, in dem von KI oder anderen komplexen Algorithmen gesteuerte Waffen tödliche Gewalt anwenden können. Beispielsweise könnten die oben erwähnten Schwärme nur in der Nähe eines Schiffes, in der Nähe der DMZ in Korea oder in geringer Entfernung zu einem Militärflugplatz eingesetzt werden. Es könnte auch klug sein, Maschinen nicht mehr entscheiden zu lassen, wann sie Menschen töten. Es mag verlockend sein, zukünftige Roboter mit Gesichtserkennungstechnologie auszustatten, damit sie in einer großen Stadt im Nahen Osten den nächsten bin Laden, Baghdadi oder Soleimani jagen. Aber die Gefahr von Fehlern, Hackerangriffen und vielen anderen Störungen ist zu groß, um so etwas zuzulassen. Es ist wahrscheinlich auch sinnvoll, den Einsatz von KI für Angriffe auf die nukleare Kommando- und Kontrollinfrastruktur einer großen Atommacht zu verbieten. Solche Versuche könnten in einer zukünftigen Krise Ängste nach dem Motto „benutze sie oder verliere sie“ auslösen und damit das Risiko eines Atomkrieges erhöhen.
Wir befinden uns in den Anfängen der KI. Wir können noch nicht absehen, wohin sie sich entwickeln wird und was sie in zehn, zwanzig oder dreißig Jahren möglich machen könnte. Aber wir können uns bemühen, besser zu verstehen, was KI eigentlich ist – und auch darüber nachdenken, wie wir ihrer künftigen Entwicklung und Nutzung ethische Grenzen setzen können. Die Zukunft der Kriegsführung steht auf Gedeih und Verderb auf dem Spiel.
Schreibe einen Kommentar