Scriind în The National Interest, generalul Lori Robinson (în retragere) și Michael O’Hanlon susțin că Statele Unite „pot lucra mai mult pentru a înțelege ce este de fapt – și, de asemenea, să se gândească bine cum să pună limite etice asupra dezvoltării și utilizării sale viitoare.”
Inteligența artificială este la modă în aceste zile. În mass-media populară, sistemele cibernetice obișnuite par aproape demodate, în timp ce scriitorii se concentrează asupra inteligenței artificiale și evocă imagini cu orice, de la roboți Terminator din viața reală până la companioni mai binevoitori. În cercurile de informații, utilizarea de către China a televiziunii cu circuit închis, a tehnologiei de recunoaștere facială și a altor sisteme de monitorizare sugerează sosirea Big Brother – dacă nu chiar în 1984, atunci doar cu aproximativ patruzeci de ani mai târziu. La Pentagon, legiuni de ofițeri și analiști vorbesc despre cursa inteligenței artificiale cu China, adesea cu avertismente prevestitoare că Statele Unite nu își pot permite să fie pe locul doi în acest tărâm tehnologic emergent. În cercurile politice, oamenii se întreabă cu privire la etica IA – cum ar fi dacă putem într-adevăr delega roboților capacitatea de a folosi forța letală împotriva dușmanilor Americii, oricât de răi ar fi aceștia. Un nou raport al Consiliului pentru Inovare în Apărare stabilește principii generale pentru viitoarea etică a inteligenței artificiale, dar numai în termeni generali, care lasă o mulțime de lucruri de făcut în continuare.
- Lori Robinson
- Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
- Michael E. O’Hanlon
- Codirector – Centrul pentru Securitate, Strategie și Tehnologie, Inițiativa pentru Securitate în Africa
- Relații
- Rusia, China și riscurile de război: Conversația mea cu generalul Mark Milley
- Cum să reducem (și să nu reducem) bugetul apărării
- Cărți înrudite
- Targeting the Computer
- Crearea computerul
- Schimbarea regulilor
Lori Robinson
Nonresident Senior Fellow – Foreign Policy, Center for Security, Strategy, and Technology
Michael E. O’Hanlon
Codirector – Centrul pentru Securitate, Strategie și Tehnologie, Inițiativa pentru Securitate în Africa
Ce înseamnă toate acestea cu adevărat și este posibil ca inteligența artificială să fie tot ceea ce se preconizează a fi? Credem că răspunsul este complex și că o modestă doză de apă rece ar trebui să fie aruncată pe acest subiect. De fapt, multe dintre sistemele de inteligență artificială preconizate astăzi vor avea nevoie de zeci de ani pentru a fi dezvoltate. Mai mult decât atât, inteligența artificială este adesea confundată cu ceea ce nu este. Precizia cu privire la acest concept va fi esențială dacă dorim să purtăm discuții inteligente despre cum să cercetăm, să dezvoltăm și să reglementăm IA în anii următori.
Sistemele de IA sunt, în esență, computere care pot „învăța” cum să facă anumite lucruri printr-un proces de încercări și erori, cu un anumit mecanism care să le spună când au dreptate și când greșesc – cum ar fi să recunoască rachete în fotografii sau oameni în mulțimi, ca în cazul „Proiectului Maven” al Pentagonului – și apoi să aplice ceea ce au învățat pentru a diagnostica date viitoare. Cu alte cuvinte, în cazul inteligenței artificiale, software-ul este construit de către mașina însăși, de fapt. Abordarea computațională generală pentru o anumită problemă este determinată în prealabil de către oamenii de modă veche, dar algoritmul propriu-zis este creat printr-un proces de încercări și erori de către computer pe măsură ce acesta absoarbe și procesează cantități uriașe de date. Procesul de gândire al mașinii nu este chiar atât de sofisticat. Acesta dezvoltă mai mult instincte artificiale decât inteligență – analizând cantități uriașe de date brute și dându-și seama cum să recunoască o pisică într-o fotografie sau un lansator de rachete pe o autostradă aglomerată, mai degrabă decât să se angajeze într-o gândire profundă (cel puțin în viitorul previzibil).
Această definiție ne permite să identificăm rapid unele tipuri de sisteme informatice care nu sunt, de fapt, IA. Acestea pot fi importante, impresionante și cruciale pentru luptător, dar nu sunt inteligență artificială, deoarece nu își creează proprii algoritmi din date și iterații multiple. Nu este vorba de învățare automată, ca să spun altfel. După cum subliniază colegul nostru, Tom Stefanick, există o diferență fundamentală între algoritmii avansați, care există de zeci de ani (deși se îmbunătățesc constant, pe măsură ce computerele devin mai rapide), și inteligența artificială. Există, de asemenea, o diferență între un sistem de armament autonom și robotica dirijată de inteligența artificială.
De exemplu, computerele care ghidează o rachetă de croazieră sau o dronă nu afișează inteligență artificială. Ele urmează un scenariu elaborat, dar prestabilit, folosind senzori pentru a prelua date și apoi introducându-le în computere, care apoi folosesc un software (dezvoltat de oameni, în prealabil) pentru a determina următoarea mișcare corectă și locul potrivit pentru detonarea eventualelor arme. Aceasta este autonomia. Nu este inteligență artificială.
Relații
-
Ordine din haos
Rusia, China și riscurile de război: Conversația mea cu generalul Mark Milley
Miercuri, 23 decembrie 2020 -
Ordine din haos
Cum să reducem (și să nu reducem) bugetul apărării
Joi, 9 iulie 2020
De ce este acest lucru important? În primul rând, ar trebui să ne facă să fim mai puțin însuflețiți în ceea ce privește IA și să o vedem ca pe un element dintr-o revoluție informatică mai amplă care a început în a doua jumătate a secolului al XX-lea și a luat avânt în acest secol. De asemenea, ar trebui să ne ajute să vedem ce ar putea fi sau nu realist și de dorit să reglementăm în domeniul războiului viitorului.
Fostul vicepreședinte al șefilor de stat major interarme, generalul Paul Selva, a susținut recent că Statele Unite ar putea fi la aproximativ un deceniu distanță de a avea capacitatea de a construi un robot autonom care ar putea decide când să tragă și pe cine să ucidă – deși a afirmat, de asemenea, că Statele Unite nu au planuri de a construi efectiv o astfel de creatură. Dar, dacă vă gândiți altfel, într-un fel, avem deja mașini de ucis autonome de o generație. Acea rachetă de croazieră despre care am discutat mai sus a fost desfășurată încă din anii 1970. Ea are instrucțiuni pentru a zbura pe o anumită rută și apoi să-și detoneze focosul fără niciun om în buclă. Iar în anii 1990, știam cum să construim lucruri precum submunițiile „skeet”, care pot zăbovi deasupra unui câmp de luptă și pot căuta obiecte calde precum tancurile – folosind un software pentru a decide când să le distrugă. Așadar, mașina ucigașă era de fapt deja în stare să decidă singură.
Chiar dacă terminatorul generalului Selva nu va fi construit, robotica va primi probabil, în unele cazuri, o mai mare autoritate decizională pentru a decide când să folosească forța, deoarece de fapt am depășit deja acest prag. Acest subiect extrem de delicat necesită o supraveghere etică și juridică atentă, cu siguranță, iar riscurile asociate sunt serioase. Cu toate acestea, viteza cu care trebuie să se desfășoare operațiunile militare va crea stimulente pentru a nu avea o persoană în circuitul de luare a deciziilor în multe situații tactice. Oricare ar fi preferințele Statelor Unite, restricțiile privind utilizarea automatizată a forței violente ar părea, de asemenea, relativ dificil de negociat (chiar dacă ar fi de dorit), având în vedere opoziția probabilă din partea Rusiei și, probabil, a altor națiuni, precum și problemele uriașe legate de verificare.
De exemplu, roboților mici care pot opera ca roiuri pe uscat, în aer sau în apă li s-ar putea acorda o anumită marjă de manevră pentru a decide când să își folosească capacitățile letale. Comunicând între ei și procesând informații despre inamic în timp real, aceștia ar putea concentra atacurile acolo unde apărarea este mai slabă, într-o formă de luptă pe care John Allen și Amir Husain o numesc „hiperrăzboi”, datorită vitezei și intensității sale. Alte tipuri de roiuri ar putea ataca avioanele parcate; chiar și explozibili mici, detonați cu precizie, ar putea dezactiva aripi sau motoare sau produce explozii secundare și mult mai mari. Multe țări vor avea capacitatea de a face astfel de lucruri în următorii douăzeci de ani. Chiar dacă Statele Unite încearcă să evite utilizarea unor astfel de roiuri în scopuri letale și ofensive, ar putea alege să le utilizeze ca scuturi defensive (poate împotriva atacului artileriei nord-coreene împotriva Seulului) sau ca ajutoare de bruiaj pentru a însoți avioanele penetrante. Având în vedere că UAV-urile care pot zbura zece ore și o sută de kilometri costă acum doar câteva sute de mii de dolari, iar cvadricopterele cu rază de acțiune de un kilometru mai mult sau mai puțin costă câteva sute de dolari, liniile de tendință sunt clare – iar accesibilitatea utilizării multor drone într-un mod organizat este evidentă.
Cărți înrudite
-
Targeting the Computer
De Kenneth Flamm1987
-
Crearea computerul
de Kenneth Flamm1988
-
Schimbarea regulilor
Editură de Robert W. Crandall și Kenneth Flamm1989
Un domeniu în care reglementarea poate fi posibilă și convingătoare din punct de vedere etic este limitarea spațiului geografic și temporal în care armele conduse de IA sau de alți algoritmi complecși pot folosi forța letală. De exemplu, roiurile menționate mai sus ar putea fi activate doar în apropierea unei nave, sau pe cerul din apropierea DMZ din Coreea, sau la o distanță mică de un aerodrom militar. De asemenea, ar putea fi inteligent să interzicem să lăsăm mașinile să decidă când să ucidă oameni. Ar putea fi tentant să se folosească tehnologia de recunoaștere facială pe viitorii roboți pentru a-i pune să îl vâneze pe următorul bin Laden, Baghdadi sau Soleimani într-un oraș imens din Orientul Mijlociu. Dar potențialul de greșeli, de piraterie informatică și de multe alte disfuncționalități ar putea fi prea mare pentru a permite astfel de lucruri. De asemenea, probabil că are sens să se interzică utilizarea IA pentru a ataca infrastructura de comandă și control nuclear a unei mari puteri nucleare. Astfel de încercări ar putea da naștere la temeri de genul „folosiți-i sau pierdeți-i” într-o criză viitoare și, astfel, ar crește riscurile unui război nuclear.
Suntem la începuturile IA. Încă nu putem începe să anticipăm încotro se îndreaptă și ce ar putea face posibil peste zece, douăzeci sau treizeci de ani. Dar putem lucra mai mult pentru a înțelege ce este de fapt – și, de asemenea, să ne gândim bine cum să punem limite etice asupra dezvoltării și utilizării sale viitoare. Viitorul războiului, în bine sau în rău, este literalmente în joc.
.
Lasă un răspuns