Poznámka redakce:

V časopise The National Interest generálové Lori Robinson (ret.) a Michael O’Hanlon tvrdí, že Spojené státy „mohou usilovněji pracovat na tom, aby pochopily, co to vlastně je – a také usilovně přemýšlet o tom, jak stanovit etické hranice pro její budoucí vývoj a využití.“

Umělá inteligence je dnes v módě. V populárních médiích se běžné kybernetické systémy zdají být téměř pasé, protože spisovatelé se zaměřují na umělou inteligenci a vyvolávají obrazy všeho možného, od skutečných robotů Terminátorů až po vlídnější společníky. Ve zpravodajských kruzích naznačuje používání uzavřeného televizního okruhu, technologie rozpoznávání obličejů a dalších monitorovacích systémů v Číně příchod Velkého bratra – pokud ne úplně v roce 1984, tak až o čtyřicet let později. V Pentagonu hovoří zástupy důstojníků a analytiků o závodě s Čínou v oblasti umělé inteligence, často s předvídavým napomenutím, že Spojené státy si nemohou dovolit být v této nově vznikající technologické sféře druhořadé. V politických kruzích se lidé zamýšlejí nad etikou umělé inteligence – například nad tím, zda skutečně můžeme na roboty delegovat schopnost použít smrtící sílu proti nepřátelům Ameriky, ať už jsou jakkoli špatní. Nová zpráva Rady pro obranné inovace stanoví obecné zásady pro budoucí etiku umělé inteligence, ale pouze v obecné rovině, která ponechává spoustu další práce, kterou je třeba ještě udělat.

Co to všechno doopravdy znamená a je pravděpodobné, že umělá inteligence bude tím, čím se zdá být? Myslíme si, že odpověď je složitá a že je třeba na toto téma hodit mírnou dávku studené vody. Ve skutečnosti bude vývoj mnoha dnes zamýšlených systémů umělé inteligence trvat desítky let. Navíc se AI často zaměňuje s věcmi, kterými není. Přesné vymezení tohoto pojmu bude nezbytné, pokud chceme v následujících letech vést inteligentní diskuse o tom, jak AI zkoumat, vyvíjet a regulovat.

Systémy AI jsou v podstatě počítače, které se mohou „učit“, jak dělat věci prostřednictvím procesu pokusů a omylů s nějakým mechanismem, který jim řekne, kdy mají pravdu a kdy ne – například vybírat rakety na fotografiích nebo lidi v davu, jako je tomu v případě „projektu Maven“ Pentagonu – a pak použít to, co se naučily, k diagnostice budoucích dat. Jinými slovy, v případě umělé inteligence vytváří software v podstatě sám stroj. Široký výpočetní přístup k danému problému je předem určen skutečnými staromódními lidmi, ale skutečný algoritmus je vytvořen procesem pokusů a omylů počítačem, který přijímá a zpracovává obrovské množství dat. Myšlenkový proces stroje ve skutečnosti není tak sofistikovaný. Spíše než inteligenci rozvíjí umělé instinkty – zkoumá obrovské množství nezpracovaných dat a zjišťuje, jak rozpoznat kočku na fotografii nebo raketomet na přeplněné dálnici, než aby se zabýval hlubokým myšlením (alespoň v dohledné budoucnosti).

Tato definice nám umožňuje rychle identifikovat některé typy počítačových systémů, které ve skutečnosti nejsou umělou inteligencí. Mohou být důležité, působivé a klíčové pro bojovníka, ale nejsou umělou inteligencí, protože nevytvářejí vlastní algoritmy z dat a mnohonásobných iterací. Jinak řečeno, nejedná se o žádné strojové učení. Jak upozorňuje náš kolega Tom Stefanick, existuje zásadní rozdíl mezi pokročilými algoritmy, které existují již desítky let (i když se neustále zlepšují, protože počítače jsou stále rychlejší), a umělou inteligencí. Je také rozdíl mezi autonomním zbraňovým systémem a robotikou řízenou umělou inteligencí.

Příklad počítače, které řídí řízenou střelu nebo dron, neprojevují umělou inteligenci. Řídí se propracovaným, ale předem stanoveným scénářem, kdy pomocí senzorů přijímají data a následně je vkládají do počítačů, které pak pomocí softwaru (předem vyvinutého člověkem) určí správný další krok a správné místo pro odpálení případných zbraní. To je autonomie. Není to umělá inteligence.

Související

  • FOTO souboru: Předseda sboru náčelníků štábů USA generál Mark Milley pronáší projev během 19. výroční ceremonie k 11. září v Pentagonu v Arlingtonu ve Virginii, USA, 11. září 2020. REUTERS/Erin Scott/File Photo
    Pořádek z chaosu

    Rusko, Čína a rizika války: Rozhovor s generálem Markem Milleym

    Středa, 23. prosince 2020

  • Desátník námořní pěchoty USA Briar Purty testuje technologii Drone Killer Counter-UAS během cvičení Urban Advanced Naval Technology Exercise 2018 (ANTX-18) na základně námořní pěchoty Camp Pendleton v Kalifornii, 21. března 2018. Snímek pořízený 21. března 2018. U.S. Marine Corps/Lance Cpl. Rhita Daniel/Handout via REUTERS. UPOZORNĚNÍ REDAKTORŮM - TENTO OBRÁZEK POSKYTLA TŘETÍ STRANA - RC130534DFC0
  • Národní garda zabezpečuje Tverskou ulici, zatímco armádní vojáci připravují své vojenské vozidlo před nácvikem na přehlídku ke Dni vítězství v Moskvě, Rusko, 18. června 2020. Vojenská přehlídka u příležitosti 75. výročí vítězství nad nacistickým Německem ve druhé světové válce byla plánována na 9. května a odložena kvůli vypuknutí koronavirové nákazy (COVID-19). REUTERS/Shamil Zhumatov
    Pořádek z chaosu

    Jak snížit (a nesnížit) rozpočet na obranu

    Čtvrtek, 9. července 2020

Nebo, použijeme-li příklad, který je většině lidí bližší, když váš chytrý telefon pomocí aplikace, jako jsou Mapy Google nebo Waze, doporučí nejrychlejší trasu mezi dvěma body, nemusí se nutně jednat ani o umělou inteligenci. Mezi dvěma místy existuje jen tolik možných tras. Ano, mohou jich být desítky nebo stovky – ale jejich počet je konečný. Počítač ve vašem telefonu se tak může v podstatě podívat na každou rozumnou možnost zvlášť, přičemž bere v úvahu data z širší sítě, do které přispívají telefony mnoha dalších lidí, aby do výpočtu zahrnul dopravní podmínky. Ale způsob, jakým se matematika skutečně provádí, je přímočarý a předem daný.

Proč je to důležité? Za prvé by nás to mělo přimět k tomu, abychom umělou inteligenci méně rozdýchávali a vnímali ji jako jeden z prvků širší počítačové revoluce, která začala v druhé polovině dvacátého století a v tomto století nabrala na obrátkách. Také by nám to mělo pomoci vidět, co může a co nemusí být reálné a žádoucí regulovat v oblasti budoucího válčení.

Bývalý místopředseda sboru náčelníků štábů generál Paul Selva nedávno tvrdil, že Spojené státy by mohly být asi deset let od toho, aby byly schopny postavit autonomního robota, který by se mohl rozhodnout, kdy střílet a koho zabít – i když také tvrdil, že Spojené státy nemají žádné plány takového tvora skutečně postavit. Ale když se nad tím zamyslíte jinak, v některých ohledech už máme autonomní stroje na zabíjení celou generaci. Ony střely s plochou dráhou letu, o nichž jsme hovořili výše, jsou nasazovány již od sedmdesátých let. Má instrukce k tomu, aby proletěla danou trasou a pak odpálila svou hlavici bez jakéhokoli člověka ve smyčce. A v devadesátých letech jsme věděli, jak sestrojit věci jako „skeetové“ submunice, které by mohly létat nad bojištěm a hledat teplé objekty, jako jsou tanky, a pomocí softwaru rozhodnout, kdy je pak zničit. Takže stroj zabiják už v podstatě rozhodoval sám za sebe.

I kdyby se nepodařilo sestrojit terminátora generála Selva, robotika bude mít v některých případech pravděpodobně větší rozhodovací pravomoc rozhodovat o tom, kdy použít sílu, protože jsme tuto hranici v podstatě už překročili. Toto vysoce citlivé téma vyžaduje pečlivý etický a právní dohled, to je jisté, a související rizika jsou vážná. Přesto rychlost, s jakou musí probíhat vojenské operace, bude v mnoha taktických situacích motivovat k tomu, aby v rozhodovací smyčce nebyl člověk. Ať už by Spojené státy preferovaly cokoli, omezení automatizovaného použití násilné síly by se také zdála být poměrně obtížně vyjednatelná (i kdyby byla žádoucí) vzhledem k pravděpodobnému odporu Ruska a možná i dalších zemí, stejně jako k obrovským problémům s ověřováním.

Například malým robotům, kteří mohou operovat jako roje na zemi, ve vzduchu nebo ve vodě, může být poskytnuta určitá volnost při rozhodování, kdy použít své smrtící schopnosti. Díky vzájemné komunikaci a zpracování informací o nepříteli v reálném čase by mohly soustředit útoky tam, kde je obrana nejslabší, a to ve formě boje, kterou John Allen a Amir Husain pro její rychlost a intenzitu nazývají „hyperválkou“. Jiné typy rojů by mohly útočit na zaparkovaná letadla; i malé výbušniny, přesně odpálené, by mohly vyřadit křídla nebo motory nebo vyvolat sekundární a mnohem větší exploze. Mnoho zemí bude mít v příštích dvaceti letech kapacitu k provádění takovýchto věcí. I když se Spojené státy budou snažit vyhnout použití takových rojů ke smrtícím a útočným účelům, mohou se rozhodnout použít je jako obranné štíty (třeba proti severokorejskému dělostřeleckému útoku na Soul) nebo jako rušičky doprovázející pronikající letadla. Vzhledem k tomu, že bezpilotní letouny, které mohou létat deset hodin a sto kilometrů, dnes stojí jen stovky tisíc dolarů a kvadrokoptéry s dosahem více či méně kilometrů stojí stovky dolarů, jsou trendové linie jasné – a cenová dostupnost organizovaného využití mnoha bezpilotních letounů je zřejmá.

Související knihy

  • Zaměření počítače

    Kenneth Flamm

    1987

  • Tvoření Computer

    By Kenneth Flamm

    1988

  • Changing the Rules

    Edited by Robert W. Crandall a Kenneth Flamm

    1989

Kde může být regulace možná a eticky přesvědčivá, je omezení geografického a časového prostoru, kde mohou zbraně řízené umělou inteligencí nebo jinými složitými algoritmy použít smrtící sílu. Například výše zmíněné roje by mohly být povoleny pouze v blízkosti lodí nebo na obloze poblíž demilitarizované zóny v Koreji nebo v malé vzdálenosti od vojenského letiště. Může být také rozumné zakázat, aby stroje rozhodovaly o tom, kdy mají zabíjet lidi. Mohlo by být lákavé použít technologii rozpoznávání obličejů u budoucích robotů a nechat je lovit příštího bin Ládina, Bagdádího nebo Solejmáního v obrovském středovýchodním městě. Ale potenciál omylů, hackerských útoků a mnoha dalších poruch může být příliš velký na to, abychom něco takového dovolili. Pravděpodobně má také smysl zakázat použití umělé inteligence k útoku na jadernou řídicí a kontrolní infrastrukturu velké jaderné mocnosti. Takové pokusy by mohly v budoucí krizi vyvolat obavy typu „použij je, nebo o ně přijdeš“, a tím zvýšit riziko jaderné války.

Jsme na počátku vývoje umělé inteligence. Zatím nemůžeme začít předvídat, kam se bude ubírat a co může umožnit za deset, dvacet nebo třicet let. Můžeme však usilovněji pracovat na tom, abychom pochopili, co to vlastně je – a také usilovně přemýšlet o tom, jak stanovit etické hranice jejího budoucího vývoje a používání. Budoucnost válečnictví, ať už v dobrém či zlém, je doslova v sázce.