V časopise The National Interest generálové Lori Robinson (ret.) a Michael O’Hanlon tvrdí, že Spojené státy „mohou usilovněji pracovat na tom, aby pochopily, co to vlastně je – a také usilovně přemýšlet o tom, jak stanovit etické hranice pro její budoucí vývoj a využití.“
Umělá inteligence je dnes v módě. V populárních médiích se běžné kybernetické systémy zdají být téměř pasé, protože spisovatelé se zaměřují na umělou inteligenci a vyvolávají obrazy všeho možného, od skutečných robotů Terminátorů až po vlídnější společníky. Ve zpravodajských kruzích naznačuje používání uzavřeného televizního okruhu, technologie rozpoznávání obličejů a dalších monitorovacích systémů v Číně příchod Velkého bratra – pokud ne úplně v roce 1984, tak až o čtyřicet let později. V Pentagonu hovoří zástupy důstojníků a analytiků o závodě s Čínou v oblasti umělé inteligence, často s předvídavým napomenutím, že Spojené státy si nemohou dovolit být v této nově vznikající technologické sféře druhořadé. V politických kruzích se lidé zamýšlejí nad etikou umělé inteligence – například nad tím, zda skutečně můžeme na roboty delegovat schopnost použít smrtící sílu proti nepřátelům Ameriky, ať už jsou jakkoli špatní. Nová zpráva Rady pro obranné inovace stanoví obecné zásady pro budoucí etiku umělé inteligence, ale pouze v obecné rovině, která ponechává spoustu další práce, kterou je třeba ještě udělat.
- Lori Robinsonová
- Neprezidentní vedoucí pracovník – zahraniční politika, Centrum pro bezpečnost, strategii a technologie
- Michael E. O’Hanlon
- Co-Director – Center for Security, Strategy, and Technology, Africa Security Initiative
- Související
- Rusko, Čína a rizika války: Rozhovor s generálem Markem Milleym
- Jak snížit (a nesnížit) rozpočet na obranu
- Související knihy
- Zaměření počítače
- Tvoření Computer
- Changing the Rules
Lori Robinsonová
Neprezidentní vedoucí pracovník – zahraniční politika, Centrum pro bezpečnost, strategii a technologie
Michael E. O’Hanlon
Co-Director – Center for Security, Strategy, and Technology, Africa Security Initiative
Co to všechno doopravdy znamená a je pravděpodobné, že umělá inteligence bude tím, čím se zdá být? Myslíme si, že odpověď je složitá a že je třeba na toto téma hodit mírnou dávku studené vody. Ve skutečnosti bude vývoj mnoha dnes zamýšlených systémů umělé inteligence trvat desítky let. Navíc se AI často zaměňuje s věcmi, kterými není. Přesné vymezení tohoto pojmu bude nezbytné, pokud chceme v následujících letech vést inteligentní diskuse o tom, jak AI zkoumat, vyvíjet a regulovat.
Systémy AI jsou v podstatě počítače, které se mohou „učit“, jak dělat věci prostřednictvím procesu pokusů a omylů s nějakým mechanismem, který jim řekne, kdy mají pravdu a kdy ne – například vybírat rakety na fotografiích nebo lidi v davu, jako je tomu v případě „projektu Maven“ Pentagonu – a pak použít to, co se naučily, k diagnostice budoucích dat. Jinými slovy, v případě umělé inteligence vytváří software v podstatě sám stroj. Široký výpočetní přístup k danému problému je předem určen skutečnými staromódními lidmi, ale skutečný algoritmus je vytvořen procesem pokusů a omylů počítačem, který přijímá a zpracovává obrovské množství dat. Myšlenkový proces stroje ve skutečnosti není tak sofistikovaný. Spíše než inteligenci rozvíjí umělé instinkty – zkoumá obrovské množství nezpracovaných dat a zjišťuje, jak rozpoznat kočku na fotografii nebo raketomet na přeplněné dálnici, než aby se zabýval hlubokým myšlením (alespoň v dohledné budoucnosti).
Tato definice nám umožňuje rychle identifikovat některé typy počítačových systémů, které ve skutečnosti nejsou umělou inteligencí. Mohou být důležité, působivé a klíčové pro bojovníka, ale nejsou umělou inteligencí, protože nevytvářejí vlastní algoritmy z dat a mnohonásobných iterací. Jinak řečeno, nejedná se o žádné strojové učení. Jak upozorňuje náš kolega Tom Stefanick, existuje zásadní rozdíl mezi pokročilými algoritmy, které existují již desítky let (i když se neustále zlepšují, protože počítače jsou stále rychlejší), a umělou inteligencí. Je také rozdíl mezi autonomním zbraňovým systémem a robotikou řízenou umělou inteligencí.
Příklad počítače, které řídí řízenou střelu nebo dron, neprojevují umělou inteligenci. Řídí se propracovaným, ale předem stanoveným scénářem, kdy pomocí senzorů přijímají data a následně je vkládají do počítačů, které pak pomocí softwaru (předem vyvinutého člověkem) určí správný další krok a správné místo pro odpálení případných zbraní. To je autonomie. Není to umělá inteligence.
Související
-
Pořádek z chaosu
Rusko, Čína a rizika války: Rozhovor s generálem Markem Milleym
Středa, 23. prosince 2020 -
Pořádek z chaosu
Jak snížit (a nesnížit) rozpočet na obranu
Čtvrtek, 9. července 2020
Proč je to důležité? Za prvé by nás to mělo přimět k tomu, abychom umělou inteligenci méně rozdýchávali a vnímali ji jako jeden z prvků širší počítačové revoluce, která začala v druhé polovině dvacátého století a v tomto století nabrala na obrátkách. Také by nám to mělo pomoci vidět, co může a co nemusí být reálné a žádoucí regulovat v oblasti budoucího válčení.
Bývalý místopředseda sboru náčelníků štábů generál Paul Selva nedávno tvrdil, že Spojené státy by mohly být asi deset let od toho, aby byly schopny postavit autonomního robota, který by se mohl rozhodnout, kdy střílet a koho zabít – i když také tvrdil, že Spojené státy nemají žádné plány takového tvora skutečně postavit. Ale když se nad tím zamyslíte jinak, v některých ohledech už máme autonomní stroje na zabíjení celou generaci. Ony střely s plochou dráhou letu, o nichž jsme hovořili výše, jsou nasazovány již od sedmdesátých let. Má instrukce k tomu, aby proletěla danou trasou a pak odpálila svou hlavici bez jakéhokoli člověka ve smyčce. A v devadesátých letech jsme věděli, jak sestrojit věci jako „skeetové“ submunice, které by mohly létat nad bojištěm a hledat teplé objekty, jako jsou tanky, a pomocí softwaru rozhodnout, kdy je pak zničit. Takže stroj zabiják už v podstatě rozhodoval sám za sebe.
I kdyby se nepodařilo sestrojit terminátora generála Selva, robotika bude mít v některých případech pravděpodobně větší rozhodovací pravomoc rozhodovat o tom, kdy použít sílu, protože jsme tuto hranici v podstatě už překročili. Toto vysoce citlivé téma vyžaduje pečlivý etický a právní dohled, to je jisté, a související rizika jsou vážná. Přesto rychlost, s jakou musí probíhat vojenské operace, bude v mnoha taktických situacích motivovat k tomu, aby v rozhodovací smyčce nebyl člověk. Ať už by Spojené státy preferovaly cokoli, omezení automatizovaného použití násilné síly by se také zdála být poměrně obtížně vyjednatelná (i kdyby byla žádoucí) vzhledem k pravděpodobnému odporu Ruska a možná i dalších zemí, stejně jako k obrovským problémům s ověřováním.
Například malým robotům, kteří mohou operovat jako roje na zemi, ve vzduchu nebo ve vodě, může být poskytnuta určitá volnost při rozhodování, kdy použít své smrtící schopnosti. Díky vzájemné komunikaci a zpracování informací o nepříteli v reálném čase by mohly soustředit útoky tam, kde je obrana nejslabší, a to ve formě boje, kterou John Allen a Amir Husain pro její rychlost a intenzitu nazývají „hyperválkou“. Jiné typy rojů by mohly útočit na zaparkovaná letadla; i malé výbušniny, přesně odpálené, by mohly vyřadit křídla nebo motory nebo vyvolat sekundární a mnohem větší exploze. Mnoho zemí bude mít v příštích dvaceti letech kapacitu k provádění takovýchto věcí. I když se Spojené státy budou snažit vyhnout použití takových rojů ke smrtícím a útočným účelům, mohou se rozhodnout použít je jako obranné štíty (třeba proti severokorejskému dělostřeleckému útoku na Soul) nebo jako rušičky doprovázející pronikající letadla. Vzhledem k tomu, že bezpilotní letouny, které mohou létat deset hodin a sto kilometrů, dnes stojí jen stovky tisíc dolarů a kvadrokoptéry s dosahem více či méně kilometrů stojí stovky dolarů, jsou trendové linie jasné – a cenová dostupnost organizovaného využití mnoha bezpilotních letounů je zřejmá.
Související knihy
-
Zaměření počítače
Kenneth Flamm1987
-
Tvoření Computer
By Kenneth Flamm1988
-
Changing the Rules
Edited by Robert W. Crandall a Kenneth Flamm1989
Kde může být regulace možná a eticky přesvědčivá, je omezení geografického a časového prostoru, kde mohou zbraně řízené umělou inteligencí nebo jinými složitými algoritmy použít smrtící sílu. Například výše zmíněné roje by mohly být povoleny pouze v blízkosti lodí nebo na obloze poblíž demilitarizované zóny v Koreji nebo v malé vzdálenosti od vojenského letiště. Může být také rozumné zakázat, aby stroje rozhodovaly o tom, kdy mají zabíjet lidi. Mohlo by být lákavé použít technologii rozpoznávání obličejů u budoucích robotů a nechat je lovit příštího bin Ládina, Bagdádího nebo Solejmáního v obrovském středovýchodním městě. Ale potenciál omylů, hackerských útoků a mnoha dalších poruch může být příliš velký na to, abychom něco takového dovolili. Pravděpodobně má také smysl zakázat použití umělé inteligence k útoku na jadernou řídicí a kontrolní infrastrukturu velké jaderné mocnosti. Takové pokusy by mohly v budoucí krizi vyvolat obavy typu „použij je, nebo o ně přijdeš“, a tím zvýšit riziko jaderné války.
Jsme na počátku vývoje umělé inteligence. Zatím nemůžeme začít předvídat, kam se bude ubírat a co může umožnit za deset, dvacet nebo třicet let. Můžeme však usilovněji pracovat na tom, abychom pochopili, co to vlastně je – a také usilovně přemýšlet o tom, jak stanovit etické hranice jejího budoucího vývoje a používání. Budoucnost válečnictví, ať už v dobrém či zlém, je doslova v sázce.
Napsat komentář