Nota redacției:

Scriind în The National Interest, generalul Lori Robinson (în retragere) și Michael O’Hanlon susțin că Statele Unite „pot lucra mai mult pentru a înțelege ce este de fapt – și, de asemenea, să se gândească bine cum să pună limite etice asupra dezvoltării și utilizării sale viitoare.”

Inteligența artificială este la modă în aceste zile. În mass-media populară, sistemele cibernetice obișnuite par aproape demodate, în timp ce scriitorii se concentrează asupra inteligenței artificiale și evocă imagini cu orice, de la roboți Terminator din viața reală până la companioni mai binevoitori. În cercurile de informații, utilizarea de către China a televiziunii cu circuit închis, a tehnologiei de recunoaștere facială și a altor sisteme de monitorizare sugerează sosirea Big Brother – dacă nu chiar în 1984, atunci doar cu aproximativ patruzeci de ani mai târziu. La Pentagon, legiuni de ofițeri și analiști vorbesc despre cursa inteligenței artificiale cu China, adesea cu avertismente prevestitoare că Statele Unite nu își pot permite să fie pe locul doi în acest tărâm tehnologic emergent. În cercurile politice, oamenii se întreabă cu privire la etica IA – cum ar fi dacă putem într-adevăr delega roboților capacitatea de a folosi forța letală împotriva dușmanilor Americii, oricât de răi ar fi aceștia. Un nou raport al Consiliului pentru Inovare în Apărare stabilește principii generale pentru viitoarea etică a inteligenței artificiale, dar numai în termeni generali, care lasă o mulțime de lucruri de făcut în continuare.

Ce înseamnă toate acestea cu adevărat și este posibil ca inteligența artificială să fie tot ceea ce se preconizează a fi? Credem că răspunsul este complex și că o modestă doză de apă rece ar trebui să fie aruncată pe acest subiect. De fapt, multe dintre sistemele de inteligență artificială preconizate astăzi vor avea nevoie de zeci de ani pentru a fi dezvoltate. Mai mult decât atât, inteligența artificială este adesea confundată cu ceea ce nu este. Precizia cu privire la acest concept va fi esențială dacă dorim să purtăm discuții inteligente despre cum să cercetăm, să dezvoltăm și să reglementăm IA în anii următori.

Sistemele de IA sunt, în esență, computere care pot „învăța” cum să facă anumite lucruri printr-un proces de încercări și erori, cu un anumit mecanism care să le spună când au dreptate și când greșesc – cum ar fi să recunoască rachete în fotografii sau oameni în mulțimi, ca în cazul „Proiectului Maven” al Pentagonului – și apoi să aplice ceea ce au învățat pentru a diagnostica date viitoare. Cu alte cuvinte, în cazul inteligenței artificiale, software-ul este construit de către mașina însăși, de fapt. Abordarea computațională generală pentru o anumită problemă este determinată în prealabil de către oamenii de modă veche, dar algoritmul propriu-zis este creat printr-un proces de încercări și erori de către computer pe măsură ce acesta absoarbe și procesează cantități uriașe de date. Procesul de gândire al mașinii nu este chiar atât de sofisticat. Acesta dezvoltă mai mult instincte artificiale decât inteligență – analizând cantități uriașe de date brute și dându-și seama cum să recunoască o pisică într-o fotografie sau un lansator de rachete pe o autostradă aglomerată, mai degrabă decât să se angajeze într-o gândire profundă (cel puțin în viitorul previzibil).

Această definiție ne permite să identificăm rapid unele tipuri de sisteme informatice care nu sunt, de fapt, IA. Acestea pot fi importante, impresionante și cruciale pentru luptător, dar nu sunt inteligență artificială, deoarece nu își creează proprii algoritmi din date și iterații multiple. Nu este vorba de învățare automată, ca să spun altfel. După cum subliniază colegul nostru, Tom Stefanick, există o diferență fundamentală între algoritmii avansați, care există de zeci de ani (deși se îmbunătățesc constant, pe măsură ce computerele devin mai rapide), și inteligența artificială. Există, de asemenea, o diferență între un sistem de armament autonom și robotica dirijată de inteligența artificială.

De exemplu, computerele care ghidează o rachetă de croazieră sau o dronă nu afișează inteligență artificială. Ele urmează un scenariu elaborat, dar prestabilit, folosind senzori pentru a prelua date și apoi introducându-le în computere, care apoi folosesc un software (dezvoltat de oameni, în prealabil) pentru a determina următoarea mișcare corectă și locul potrivit pentru detonarea eventualelor arme. Aceasta este autonomia. Nu este inteligență artificială.

Relații

  • FOTOGRAFIA FILEI: Președintele Statului Major interarme al SUA, generalul Mark Milley, face declarații în timpul celei de-a 19-a ceremonii anuale de comemorare a zilei de 11 septembrie la Pentagonul din Arlington, Virginia, SUA, 11 septembrie 2020. REUTERS/Erin Scott/File Photo
    Ordine din haos

    Rusia, China și riscurile de război: Conversația mea cu generalul Mark Milley

    Miercuri, 23 decembrie 2020

  • Corpul de pușcași marini al SUA, caporalul Briar Purty, testează tehnologia Drone Killer Counter-UAS în timpul exercițiului Urban Advanced Naval Technology Exercise 2018 (ANTX-18) la baza Marine Corps Camp Pendleton, California, 21 martie 2018. Fotografie realizată la 21 martie 2018. Corpul pușcașilor marini al Statelor Unite/Lance Cpl. Rhita Daniel/Handout via REUTERS. ATENȚIE REDACTORI - ACEASTĂ IMAGINE A FOST FURNIZATĂ DE O TERȚĂ PARTE - RC130534DFC0
  • O gardă națională securizează strada Tverskaya în timp ce militarii armatei își pregătesc vehiculul militar înainte de o repetiție pentru parada de Ziua Victoriei din Moscova, Rusia, 18 iunie 2020. Parada militară care marchează cea de-a 75-a aniversare a victoriei asupra Germaniei naziste în cel de-al Doilea Război Mondial a fost planificată pentru 9 mai și amânată din cauza izbucnirii bolii coronavirus (COVID-19). REUTERS/Shamil Zhumatov
    Ordine din haos

    Cum să reducem (și să nu reducem) bugetul apărării

    Joi, 9 iulie 2020

Or, pentru a folosi un exemplu mai aproape de casă pentru majoritatea oamenilor, atunci când smartphone-ul dumneavoastră folosește o aplicație precum Google Maps sau Waze pentru a vă recomanda cea mai rapidă rută între două puncte, nici aceasta nu este neapărat, AI. Există doar atât de multe rute posibile între două locuri. Da, pot fi zeci sau sute – dar numărul acestora este finit. Ca atare, computerul din telefonul dvs. poate, în esență, să analizeze fiecare posibilitate rezonabilă în parte, luând în calcul datele din rețeaua mai largă la care contribuie telefoanele multor alte persoane pentru a lua în calcul condițiile de trafic. Dar modul în care se face efectiv calculul este simplu și predeterminat.

De ce este acest lucru important? În primul rând, ar trebui să ne facă să fim mai puțin însuflețiți în ceea ce privește IA și să o vedem ca pe un element dintr-o revoluție informatică mai amplă care a început în a doua jumătate a secolului al XX-lea și a luat avânt în acest secol. De asemenea, ar trebui să ne ajute să vedem ce ar putea fi sau nu realist și de dorit să reglementăm în domeniul războiului viitorului.

Fostul vicepreședinte al șefilor de stat major interarme, generalul Paul Selva, a susținut recent că Statele Unite ar putea fi la aproximativ un deceniu distanță de a avea capacitatea de a construi un robot autonom care ar putea decide când să tragă și pe cine să ucidă – deși a afirmat, de asemenea, că Statele Unite nu au planuri de a construi efectiv o astfel de creatură. Dar, dacă vă gândiți altfel, într-un fel, avem deja mașini de ucis autonome de o generație. Acea rachetă de croazieră despre care am discutat mai sus a fost desfășurată încă din anii 1970. Ea are instrucțiuni pentru a zbura pe o anumită rută și apoi să-și detoneze focosul fără niciun om în buclă. Iar în anii 1990, știam cum să construim lucruri precum submunițiile „skeet”, care pot zăbovi deasupra unui câmp de luptă și pot căuta obiecte calde precum tancurile – folosind un software pentru a decide când să le distrugă. Așadar, mașina ucigașă era de fapt deja în stare să decidă singură.

Chiar dacă terminatorul generalului Selva nu va fi construit, robotica va primi probabil, în unele cazuri, o mai mare autoritate decizională pentru a decide când să folosească forța, deoarece de fapt am depășit deja acest prag. Acest subiect extrem de delicat necesită o supraveghere etică și juridică atentă, cu siguranță, iar riscurile asociate sunt serioase. Cu toate acestea, viteza cu care trebuie să se desfășoare operațiunile militare va crea stimulente pentru a nu avea o persoană în circuitul de luare a deciziilor în multe situații tactice. Oricare ar fi preferințele Statelor Unite, restricțiile privind utilizarea automatizată a forței violente ar părea, de asemenea, relativ dificil de negociat (chiar dacă ar fi de dorit), având în vedere opoziția probabilă din partea Rusiei și, probabil, a altor națiuni, precum și problemele uriașe legate de verificare.

De exemplu, roboților mici care pot opera ca roiuri pe uscat, în aer sau în apă li s-ar putea acorda o anumită marjă de manevră pentru a decide când să își folosească capacitățile letale. Comunicând între ei și procesând informații despre inamic în timp real, aceștia ar putea concentra atacurile acolo unde apărarea este mai slabă, într-o formă de luptă pe care John Allen și Amir Husain o numesc „hiperrăzboi”, datorită vitezei și intensității sale. Alte tipuri de roiuri ar putea ataca avioanele parcate; chiar și explozibili mici, detonați cu precizie, ar putea dezactiva aripi sau motoare sau produce explozii secundare și mult mai mari. Multe țări vor avea capacitatea de a face astfel de lucruri în următorii douăzeci de ani. Chiar dacă Statele Unite încearcă să evite utilizarea unor astfel de roiuri în scopuri letale și ofensive, ar putea alege să le utilizeze ca scuturi defensive (poate împotriva atacului artileriei nord-coreene împotriva Seulului) sau ca ajutoare de bruiaj pentru a însoți avioanele penetrante. Având în vedere că UAV-urile care pot zbura zece ore și o sută de kilometri costă acum doar câteva sute de mii de dolari, iar cvadricopterele cu rază de acțiune de un kilometru mai mult sau mai puțin costă câteva sute de dolari, liniile de tendință sunt clare – iar accesibilitatea utilizării multor drone într-un mod organizat este evidentă.

Cărți înrudite

  • Targeting the Computer

    De Kenneth Flamm

    1987

  • Crearea computerul

    de Kenneth Flamm

    1988

  • Schimbarea regulilor

    Editură de Robert W. Crandall și Kenneth Flamm

    1989

Un domeniu în care reglementarea poate fi posibilă și convingătoare din punct de vedere etic este limitarea spațiului geografic și temporal în care armele conduse de IA sau de alți algoritmi complecși pot folosi forța letală. De exemplu, roiurile menționate mai sus ar putea fi activate doar în apropierea unei nave, sau pe cerul din apropierea DMZ din Coreea, sau la o distanță mică de un aerodrom militar. De asemenea, ar putea fi inteligent să interzicem să lăsăm mașinile să decidă când să ucidă oameni. Ar putea fi tentant să se folosească tehnologia de recunoaștere facială pe viitorii roboți pentru a-i pune să îl vâneze pe următorul bin Laden, Baghdadi sau Soleimani într-un oraș imens din Orientul Mijlociu. Dar potențialul de greșeli, de piraterie informatică și de multe alte disfuncționalități ar putea fi prea mare pentru a permite astfel de lucruri. De asemenea, probabil că are sens să se interzică utilizarea IA pentru a ataca infrastructura de comandă și control nuclear a unei mari puteri nucleare. Astfel de încercări ar putea da naștere la temeri de genul „folosiți-i sau pierdeți-i” într-o criză viitoare și, astfel, ar crește riscurile unui război nuclear.

Suntem la începuturile IA. Încă nu putem începe să anticipăm încotro se îndreaptă și ce ar putea face posibil peste zece, douăzeci sau treizeci de ani. Dar putem lucra mai mult pentru a înțelege ce este de fapt – și, de asemenea, să ne gândim bine cum să punem limite etice asupra dezvoltării și utilizării sale viitoare. Viitorul războiului, în bine sau în rău, este literalmente în joc.

.