Nota redaktora:

Pisząc w The National Interest, generał Lori Robinson (w stanie spoczynku) i Michael O’Hanlon twierdzą, że Stany Zjednoczone „mogą pracować ciężej, aby zrozumieć, czym tak naprawdę jest – a także ciężko myśleć o tym, jak postawić etyczne granice dla jej przyszłego rozwoju i wykorzystania.”

Sztuczna inteligencja jest obecnie wściekła. W popularnych mediach zwykłe systemy cybernetyczne wydają się niemal passe, ponieważ pisarze skupiają się na AI i wyczarowują obrazy wszystkiego, od prawdziwych robotów Terminatorów po bardziej łagodnych towarzyszy. W kręgach wywiadowczych stosowanie przez Chiny telewizji przemysłowej, technologii rozpoznawania twarzy i innych systemów monitorowania sugeruje nadejście Wielkiego Brata – jeśli nie całkiem w 1984 roku, to tylko jakieś czterdzieści lat później. W Pentagonie legiony oficerów i analityków rozmawiają o wyścigu z Chinami w dziedzinie sztucznej inteligencji, często z niepokojącym napomnieniem, że Stany Zjednoczone nie mogą sobie pozwolić na bycie drugim w kolejności w tej wyłaniającej się sferze technologii. W kręgach politycznych ludzie zastanawiają się nad etyką AI – na przykład nad tym, czy naprawdę możemy przekazać robotom zdolność do użycia śmiercionośnej siły przeciwko wrogom Ameryki, niezależnie od tego, jak bardzo są źli. Nowy raport Rady Innowacji Obronnych określa szerokie zasady przyszłej etyki AI, ale tylko w ogólnych zarysach, które pozostawiają wiele do zrobienia.

Co to wszystko tak naprawdę znaczy i czy AI ma szansę być wszystkim, za co się podaje? Sądzimy, że odpowiedź jest złożona i że należy rzucić na ten temat skromną dawkę zimnej wody. W rzeczywistości rozwój wielu z przewidywanych dziś systemów AI zajmie dziesięciolecia. Co więcej, AI jest często mylona z rzeczami, którymi nie jest. Precyzja koncepcji będzie niezbędna, jeśli mamy prowadzić inteligentne dyskusje o tym, jak badać, rozwijać i regulować AI w nadchodzących latach.

Systemy AI to w zasadzie komputery, które mogą „nauczyć się”, jak robić rzeczy poprzez proces prób i błędów z pewnym mechanizmem informującym je, kiedy mają rację, a kiedy się mylą – np. wyłapując pociski na zdjęciach lub ludzi w tłumie, jak w przypadku „Projektu Maven” Pentagonu – a następnie stosując to, czego się nauczyły, do diagnozowania przyszłych danych. Innymi słowy, w przypadku AI oprogramowanie jest w efekcie tworzone przez samą maszynę. Ogólne podejście obliczeniowe do danego problemu jest z góry określone przez prawdziwych, staromodnych ludzi, ale rzeczywisty algorytm jest tworzony w procesie prób i błędów przez komputer, który pobiera i przetwarza ogromne ilości danych. Proces myślowy maszyny naprawdę nie jest aż tak wyrafinowany. Rozwija ona raczej sztuczne instynkty niż inteligencję – analizując ogromne ilości surowych danych i zastanawiając się, jak rozpoznać kota na zdjęciu lub wyrzutnię rakiet na zatłoczonej autostradzie, niż angażując się w głębokie myślenie (przynajmniej w przewidywalnej przyszłości).

Definicja ta pozwala nam szybko zidentyfikować niektóre typy systemów komputerowych, które w rzeczywistości nie są AI. Mogą być ważne, imponujące i kluczowe dla wojsk, ale nie są sztuczną inteligencją, ponieważ nie tworzą własnych algorytmów na podstawie danych i wielokrotnych iteracji. Mówiąc inaczej, nie ma tu mowy o uczeniu maszynowym. Jak zauważa nasz kolega, Tom Stefanick, istnieje zasadnicza różnica między zaawansowanymi algorytmami, które istnieją od dziesięcioleci (choć są stale ulepszane, ponieważ komputery są coraz szybsze), a sztuczną inteligencją. Istnieje również różnica między autonomicznym systemem broni a robotyką kierowaną przez AI.

Na przykład, komputery, które kierują pociskami cruise lub dronem nie wyświetlają AI. Podążają za skomplikowanym, ale z góry ustalonym scenariuszem, używając czujników do pobierania danych, a następnie wprowadzając je do komputerów, które następnie używają oprogramowania (opracowanego przez ludzi, z wyprzedzeniem), aby określić właściwy następny ruch i właściwe miejsce do zdetonowania broni. To jest autonomia. To nie jest AI.

Related

  • FILE PHOTO: Przewodniczący Połączonych Szefów Sztabów USA generał Mark Milley wygłasza uwagi podczas 19. dorocznej ceremonii obchodów 11 września w Pentagonie w Arlington, Wirginia, USA, 11 września 2020 r. REUTERS/Erin Scott/File Photo
    Porządek z chaosu

    Rosja, Chiny i ryzyko wojny: Moja rozmowa z generałem Markiem Milleyem

    Środa, 23 grudnia 2020 roku
  • Korpus Piechoty Morskiej Stanów Zjednoczonych Kapral Briar Purty testuje technologię Drone Killer Counter-UAS podczas Urban Advanced Naval Technology Exercise 2018 (ANTX-18) w Marine Corps Base Camp Pendleton, Kalifornia, 21 marca 2018 roku. Zdjęcie wykonane 21 marca 2018 r. U.S. Marine Corps/Lance Cpl. Rhita Daniel/Handout via REUTERS. ATTENTION EDITORS - THIS IMAGE WAS PROVIDED BY A THIRD PARTY - RC130534DFC0
  • Gwardia Narodowa zabezpiecza ulicę Twerską, gdy wojskowi przygotowują swój pojazd wojskowy przed próbą parady z okazji Dnia Zwycięstwa w Moskwie, Rosja, 18 czerwca 2020 roku. Parada wojskowa z okazji 75. rocznicy zwycięstwa nad nazistowskimi Niemcami w II wojnie światowej była planowana na 9 maja i została przełożona z powodu wybuchu epidemii choroby koronawirusowej (COVID-19). REUTERS/Shamil Zhumatov
    Porządek z chaosu

    Jak ciąć (i nie ciąć) budżet obronny

    Czwartek, 9 lipca 2020

Or, aby użyć przykładu bliższego domu dla większości ludzi, kiedy twój smartfon używa aplikacji takich jak Google Maps lub Waze, aby polecić najszybszą trasę między dwoma punktami, to niekoniecznie jest, AI albo. Istnieje tylko tak wiele możliwych tras między dwoma miejscami. Tak, może być dziesiątki lub setki – ale liczba ta jest skończona. Jako takie, komputer w telefonie może zasadniczo patrzeć na każdej rozsądnej możliwości oddzielnie, biorąc w danych z szerszej sieci, że wiele innych telefonów ludzi przyczyniają się do czynnika warunki ruchu do obliczeń. Ale sposób matematyka jest rzeczywiście zrobić jest proste i predetermined.

Dlaczego to jest ważne? Z jednej strony, powinno to sprawić, że będziemy mniej zdyszani w kwestii AI, i postrzegać ją jako jeden z elementów szerszej rewolucji komputerowej, która rozpoczęła się w drugiej połowie XX wieku i nabrała rozpędu w tym stuleciu. Powinno nam to również pomóc dostrzec, co może być realistyczne i pożądane do uregulowania w sferze przyszłych działań wojennych, a co nie.

Były wiceprzewodniczący połączonych szefów sztabów, gen. Paul Selva, twierdził niedawno, że Stany Zjednoczone mogą być o dekadę oddalone od posiadania zdolności do zbudowania autonomicznego robota, który mógłby decydować, kiedy strzelać i kogo zabić – choć zapewnił również, że Stany Zjednoczone nie mają żadnych planów faktycznego zbudowania takiego stworzenia. Jeśli jednak pomyśleć o tym inaczej, to w pewnym sensie mamy już autonomiczne maszyny do zabijania od pokolenia. Pocisk manewrujący, o którym mówiliśmy powyżej, jest używany od lat 70. Ma instrukcje, by przelecieć określoną trasę, a następnie zdetonować głowicę bojową bez udziału człowieka. W latach 90. wiedzieliśmy już, jak skonstruować amunicję typu „skeet”, która może krążyć nad polem bitwy i wyszukiwać ciepłe obiekty, takie jak czołgi – wykorzystując oprogramowanie do podjęcia decyzji, kiedy je zniszczyć. Nawet jeśli terminator generała Selvy nie zostanie zbudowany, robotyka w niektórych przypadkach prawdopodobnie otrzyma większe uprawnienia do podejmowania decyzji o użyciu siły, ponieważ w efekcie przekroczyliśmy już ten próg. Ten bardzo delikatny temat wymaga z pewnością starannego nadzoru etycznego i prawnego, a związane z nim ryzyko jest poważne. Jednak szybkość, z jaką muszą być prowadzone operacje wojskowe, będzie stwarzać bodźce do tego, aby w wielu sytuacjach taktycznych nie mieć osoby w pętli decyzyjnej. Niezależnie od tego, co wolałyby Stany Zjednoczone, ograniczenia dotyczące zautomatyzowanego użycia brutalnej siły również wydają się stosunkowo trudne do wynegocjowania (nawet jeśli są pożądane), biorąc pod uwagę prawdopodobny sprzeciw Rosji i być może innych narodów, a także ogromne problemy z weryfikacją.

Na przykład, małe roboty, które mogą działać jako roje na lądzie, w powietrzu lub w wodzie, mogą mieć pewną swobodę w podejmowaniu decyzji, kiedy użyć swoich śmiercionośnych zdolności. Komunikując się ze sobą i przetwarzając informacje o wrogu w czasie rzeczywistym, mogłyby one koncentrować ataki tam, gdzie obrona jest najsłabsza w formie walki, którą John Allen i Amir Husain nazywają „hiperwojną” ze względu na jej szybkość i intensywność. Inne rodzaje rojów mogłyby atakować zaparkowane samoloty; nawet niewielkie materiały wybuchowe, precyzyjnie zdetonowane, mogłyby unieruchomić skrzydła lub silniki albo spowodować wtórne i znacznie większe eksplozje. W ciągu najbliższych dwudziestu lat wiele krajów będzie dysponowało zdolnościami do takich działań. Nawet jeśli Stany Zjednoczone będą starały się unikać wykorzystywania takich rojów do celów śmiercionośnych i ofensywnych, mogą zdecydować się na użycie ich jako tarcz obronnych (być może przed północnokoreańskim atakiem artyleryjskim na Seul) lub jako pomocy w zakłócaniu, towarzyszącej penetrującym samolotom. Z UAV, które mogą latać przez dziesięć godzin i sto kilometrów kosztują teraz tylko setki tysięcy dolarów, a quadcoptery o zasięgu kilometra mniej więcej kosztują setki dolarów, linie trendu są jasne – i przystępność wykorzystania wielu dronów w zorganizowany sposób jest oczywista.

Related Books

  • Targeting the Computer

    By Kenneth Flamm

    1987

  • Creating the Computer

    By Kenneth Flamm

    1988

  • Changing the Rules

    Edited by Robert W. Crandall and Kenneth Flamm

    1989

Teren, w którym regulacja może być możliwa i etycznie przekonująca, to ograniczenie przestrzeni geograficznej i czasowej, w której broń kierowana przez AI lub inne złożone algorytmy może użyć śmiercionośnej siły. Na przykład, wspomniane wyżej roje mogą być aktywowane tylko w pobliżu statków, w przestworzach w pobliżu strefy zdemilitaryzowanej w Korei lub w niewielkiej odległości od lotniska wojskowego. Mądrym rozwiązaniem może być również zakazanie maszynom decydowania o tym, kiedy należy zabijać ludzi. Kuszące może być wykorzystanie technologii rozpoznawania twarzy w przyszłych robotach, aby polowały one na kolejnego bin Ladena, Baghdadiego czy Soleimaniego w ogromnym mieście na Bliskim Wschodzie. Ale potencjał błędów, hakowania i wielu innych usterek może być zbyt duży, by pozwolić na coś takiego. Prawdopodobnie sensowne jest również zakazanie wykorzystywania AI do atakowania infrastruktury dowodzenia i kontroli nuklearnej głównego mocarstwa jądrowego. Takie próby mogłyby wywołać obawy typu „wykorzystaj je lub strać” w przyszłym kryzysie, a tym samym zwiększyć ryzyko wojny nuklearnej.

Jesteśmy we wczesnych dniach AI. Nie możemy jeszcze zacząć przewidywać, dokąd ona zmierza i co może uczynić możliwym za dziesięć, dwadzieścia czy trzydzieści lat. Możemy jednak pracować ciężej, aby zrozumieć, czym ona właściwie jest – a także zastanowić się, jak wyznaczyć etyczne granice jej przyszłego rozwoju i wykorzystania. Przyszłość działań wojennych, na dobre i na złe, jest dosłownie zagrożona.