A The National Interest című lapban Lori Robinson tábornok (nyugállományú) és Michael O’Hanlon szerint az Egyesült Államok “keményebben dolgozhat azon, hogy megértse, mi is az valójában – és azon is, hogyan szabhat etikai határokat jövőbeli fejlesztésének és használatának.”
A mesterséges intelligencia manapság nagy divat. A népszerű médiában a hagyományos kiberrendszerek már-már divatjamúltnak tűnnek, mivel az írók a mesterséges intelligenciára összpontosítanak, és a valóságos Terminátor-robotoktól kezdve a jóindulatúbb társakig mindenféle képet felidéznek. Hírszerzői körökben a zárt láncú televízió, az arcfelismerő technológia és más megfigyelőrendszerek kínai alkalmazása a Nagy Testvér érkezését sejteti – ha nem is egészen 1984-ben, de körülbelül negyven évvel később. A Pentagonban tisztek és elemzők légiói beszélnek a Kínával folytatott mesterséges intelligencia versenyről, gyakran azzal a vészjósló figyelmeztetéssel, hogy az Egyesült Államok nem engedheti meg magának, hogy másodhegedűs legyen a technológia e feltörekvő birodalmában. Politikai körökben az emberek a mesterséges intelligencia etikáján töprengenek – például azon, hogy valóban átruházhatjuk-e robotokra azt a képességet, hogy halálos erőszakot alkalmazzanak Amerika ellenségeivel szemben, legyenek azok bármilyen rosszak is. A Védelmi Innovációs Testület új jelentése általános elveket fogalmaz meg a mesterséges intelligencia jövőbeli etikájával kapcsolatban, de csak általánosságban, ami még sok további tennivalót hagy maga után.
- Lori Robinson
- Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
- Michael E. O’Hanlon
- Co-Direktor – Center for Security, Strategy, and Technology, Africa Security Initiative
- Related
- Oroszország, Kína és a háború kockázatai: Beszélgetésem Mark Milley tábornokkal
- Hogyan csökkentsük (és ne csökkentsük) a védelmi költségvetést
- Kapcsolódó könyvek
- A számítógép megcélzása
- Creating the Computer
- Changing the Rules
Lori Robinson
Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
Michael E. O’Hanlon
Co-Direktor – Center for Security, Strategy, and Technology, Africa Security Initiative
Mit jelent ez az egész valójában, és vajon a mesterséges intelligencia tényleg az lesz-e, aminek látszik? Úgy gondoljuk, hogy a válasz összetett, és hogy egy szerény adag hideg vizet kell önteni a témára. Tény, hogy a ma elképzelt mesterséges intelligencia-rendszerek közül soknak a kifejlesztése évtizedekig fog tartani. Ráadásul a mesterséges intelligenciát gyakran összekeverik olyan dolgokkal, amik nem azok. A fogalom pontos meghatározása alapvető fontosságú lesz, ha intelligens vitákat akarunk folytatni arról, hogyan kutassuk, fejlesszük és szabályozzuk az AI-t az elkövetkező években.
Az AI rendszerek alapvetően olyan számítógépek, amelyek képesek “megtanulni”, hogyan tegyenek dolgokat a próba és hiba folyamatán keresztül, valamilyen mechanizmussal, amely megmondja nekik, mikor jók és mikor nem – mint például a Pentagon “Project Maven”-je esetében a rakéták kiválasztása fényképekről vagy emberekről a tömegben -, majd a megtanultakat a jövőbeli adatok diagnosztizálására alkalmazzák. Más szóval, a mesterséges intelligencia esetében a szoftvert tulajdonképpen maga a gép készíti. Egy adott probléma átfogó számítási megközelítését a régi vágású emberek határozzák meg előre, de a tényleges algoritmust a számítógép próbálgatás és hiba útján hozza létre, miközben hatalmas mennyiségű adatot vesz fel és dolgoz fel. A gép gondolkodási folyamata valójában nem olyan kifinomult. Inkább mesterséges ösztönöket fejleszt, mint intelligenciát – hatalmas mennyiségű nyers adatot vizsgál meg, és inkább azt találja ki, hogyan ismerjen fel egy macskát egy fényképen vagy egy rakétakilövőt egy zsúfolt autópályán, mint hogy mély gondolkodásba kezdjen (legalábbis a belátható jövőben).
Ez a definíció lehetővé teszi számunkra, hogy gyorsan azonosítsunk néhány olyan számítógépes rendszertípust, amely valójában nem mesterséges intelligencia. Lehetnek fontosak, lenyűgözőek és létfontosságúak a hadviselés szempontjából, de nem mesterséges intelligencia, mert nem saját algoritmusokat hoznak létre adatokból és többszörös iterációkból. Másképp fogalmazva nincs szó gépi tanulásról. Ahogy kollégánk, Tom Stefanick rámutat, alapvető különbség van a fejlett algoritmusok, amelyek már évtizedek óta léteznek (bár folyamatosan fejlődnek, ahogy a számítógépek egyre gyorsabbak), és a mesterséges intelligencia között. Ugyancsak különbség van egy autonóm fegyverrendszer és a mesterséges intelligenciával irányított robotika között.
A cirkálórakétákat vagy drónokat irányító számítógépek például nem mutatnak mesterséges intelligenciát. Egy bonyolult, de előre meghatározott forgatókönyvet követnek, szenzorok segítségével adatokat vesznek fel, majd azokat számítógépekbe helyezik, amelyek aztán (előre, emberek által kifejlesztett) szoftverek segítségével meghatározzák a megfelelő következő lépést és az esetleges fegyverek felrobbantásának megfelelő helyét. Ez az autonómia. Ez nem mesterséges intelligencia.
Related
-
Rend a káoszból
Oroszország, Kína és a háború kockázatai: Beszélgetésem Mark Milley tábornokkal
2020. december 23., szerda -
Rend a káoszból
Hogyan csökkentsük (és ne csökkentsük) a védelmi költségvetést
2020. július 9., csütörtök
Miért fontos ez? Egyrészt azért, mert kevésbé kellene lélegzetvisszafojtva tekintenünk a mesterséges intelligenciára, és egy szélesebb körű számítógépes forradalom egyik elemének kellene tekintenünk, amely a huszadik század második felében kezdődött, és ebben a században gyorsult fel. Segítenie kell továbbá abban, hogy lássuk, mit lehet reális és kívánatos szabályozni a jövő hadviselésének területén, és mit nem.
A vezérkari főnökök egyesített vezérkarának korábbi alelnöke, Paul Selva tábornok nemrég azt állította, hogy az Egyesült Államok körülbelül egy évtizedre lehet attól, hogy képes legyen olyan autonóm robotot építeni, amely képes eldönteni, mikor lőjön és kit öljön meg – bár azt is állította, hogy az Egyesült Államoknak nincsenek tényleges tervei egy ilyen lény megépítésére. De ha másképp gondolkodunk, bizonyos értelemben már egy generáció óta vannak autonóm gyilkológépeink. Azt a cirkálórakétát, amelyről fentebb beszéltünk, már az 1970-es évek óta bevetik. Instrukciókkal rendelkezik arra, hogy egy adott útvonalon repüljön, majd felrobbantsa a robbanófejét anélkül, hogy ember lenne a hurokban. Az 1990-es évekre pedig már tudtuk, hogyan kell olyan dolgokat építeni, mint a “skeet” szubmuníciók, amelyek képesek a csatatér felett vesztegelni és meleg tárgyakat, például tankokat keresni – egy szoftver segítségével döntve el, hogy mikor kell megsemmisíteni őket. Tehát a gyilkológép gyakorlatilag már magától döntött.
Még ha Selva tábornok terminátora nem is épül meg, a robotika bizonyos esetekben valószínűleg nagyobb döntési jogkört fog kapni, hogy eldöntse, mikor kell erőszakot alkalmazni, mivel gyakorlatilag már átléptük ezt a küszöböt. Ez a rendkívül érzékeny téma gondos etikai és jogi felügyeletet igényel, az biztos, és a kapcsolódó kockázatok komolyak. Ugyanakkor az a sebesség, amellyel a katonai műveleteknek történniük kell, számos taktikai helyzetben arra fog ösztönözni, hogy ne legyen egy személy a döntéshozatali hurokban. Bármit is szeretne az Egyesült Államok, az erőszakos erőszak automatizált alkalmazására vonatkozó korlátozások viszonylag nehezen tárgyalhatónak tűnnek (még ha kívánatosak is), tekintettel Oroszország és talán más nemzetek valószínű ellenállására, valamint az ellenőrzéssel kapcsolatos hatalmas problémákra.
A szárazföldön, a levegőben vagy a vízben rajként működő kis robotok például bizonyos mozgásteret kaphatnak annak eldöntésében, hogy mikor használják halálos képességeiket. Azáltal, hogy kommunikálnak egymással, és valós időben feldolgozzák az ellenségről szóló információkat, a támadásokat oda összpontosíthatják, ahol a védelem a leggyengébb, a harc olyan formája során, amelyet John Allen és Amir Husain “hiperháborúnak” nevez a gyorsasága és intenzitása miatt. Más típusú rajok támadhatnák a parkoló repülőgépeket; akár kis robbanóanyagok is, pontosan felrobbantva, hatástalaníthatnák a szárnyakat vagy a hajtóműveket, vagy másodlagos és sokkal nagyobb robbanásokat okozhatnának. Az elkövetkező húsz évben sok országnak lesz kapacitása ilyesmire. Még ha az Egyesült Államok igyekszik is elkerülni az ilyen rajok halálos és támadó célú alkalmazását, dönthet úgy, hogy védelmi pajzsként (esetleg a Szöul elleni észak-koreai tüzérségi támadás ellen) vagy a behatoló repülőgépeket kísérő zavaró segédeszközként alkalmazza őket. Mivel a tíz órát és száz kilométert repülni képes UAV-k ma már csak több százezer dollárba kerülnek, a több mint egy kilométeres hatótávolságú quadcopterek pedig több száz dollárba, a trendvonalak egyértelműek – és a sok drón szervezett módon történő alkalmazásának megfizethetősége nyilvánvaló.
Kapcsolódó könyvek
-
A számítógép megcélzása
By Kenneth Flamm1987
Creating the Computer
By Kenneth Flamm1988
Changing the Rules
Edited by Robert W. Crandall és Kenneth Flamm1989
Ahol a szabályozás lehetséges és etikailag kényszerítő lehet, az annak a földrajzi és időbeli térnek a korlátozása, ahol az AI vagy más komplex algoritmusok által vezérelt fegyverek halálos erőt alkalmazhatnak. Például a fent említett rajok csak egy hajó közelében, vagy a koreai DMZ közelében lévő égbolton, vagy egy katonai repülőtér kis távolságán belül engedélyezhetők. Az is okos dolog lehet, ha megtiltjuk, hogy a gépek döntsenek arról, hogy mikor öljenek embereket. Csábító lehet, hogy a jövő robotjain arcfelismerő technológiát alkalmazzanak, hogy egy hatalmas közép-keleti városban vadászhassanak a következő bin Ladenre, Bagdadira vagy Soleimanira. De a tévedések, a hackelés és sok más hiba lehetősége túl nagy lehet ahhoz, hogy ilyesmit megengedjünk. Valószínűleg annak is van értelme, hogy megtiltjuk a mesterséges intelligencia használatát egy nagy atomhatalom nukleáris parancsnoki és irányítási infrastruktúrájának megtámadására. Az ilyen kísérletek egy jövőbeli válságban a “használd őket vagy elveszíted őket” félelmet kelthetnének, és ezáltal növelhetnék a nukleáris háború kockázatát.
A mesterséges intelligencia korai szakaszában vagyunk. Még nem láthatjuk előre, hová tart, és mit tesz lehetővé tíz, húsz vagy harminc év múlva. De keményebben dolgozhatunk azon, hogy megértsük, mi is ez valójában – és azon is keményen elgondolkodhatunk, hogyan szabjunk etikai határokat jövőbeli fejlesztésének és használatának. A hadviselés jövője – jóban-rosszban – szó szerint kockán forog.
Vélemény, hozzászólás?