Toimituksen huomautus:

Kirjoittaessaan The National Interest -lehdessä kenraalit Lori Robinson (eläkkeellä) ja Michael O’Hanlon esittävät, että Yhdysvallat ”voi työskennellä kovemmin ymmärtääkseen, mitä tekoäly oikeastaan on – ja myös miettiä tarkkaan, miten sen tulevalle kehitykselle ja käytölle asetetaan eettiset rajat.”

Tekoäly on nykyään muotia. Populaarimediassa tavalliset kyberjärjestelmät tuntuvat lähes vanhanaikaisilta, kun kirjoittajat keskittyvät tekoälyyn ja herättävät mielikuvia kaikenlaisista todellisista Terminator-roboteista hyväntahtoisempiin kumppaneihin. Tiedustelupiireissä Kiinan käyttämät valvontakamerat, kasvojentunnistusteknologia ja muut valvontajärjestelmät viittaavat Isoveljen saapumiseen – jos ei nyt ihan vuonna 1984, niin vain noin neljäkymmentä vuotta myöhemmin. Pentagonissa upseerien ja analyytikoiden legioonat puhuvat Kiinan kanssa käytävästä tekoälykilpailusta, ja usein he esittävät ennakoivia varoituksia siitä, että Yhdysvalloilla ei ole varaa jäädä toiseksi tässä kehittyvässä teknologiassa. Poliittisissa piireissä pohditaan tekoälyn eettisyyttä – esimerkiksi sitä, voimmeko todella antaa roboteille mahdollisuuden käyttää tappavaa voimaa Amerikan vihollisia vastaan, olivatpa nämä kuinka pahoja tahansa. Defense Innovation Boardin uudessa raportissa esitetään laajoja periaatteita tekoälyn tulevalle etiikalle, mutta vain yleisellä tasolla, joka jättää vielä paljon tehtävää.

Mitä kaikki tämä oikeasti tarkoittaa ja onko tekoäly todennäköisesti sitä, mitä se on? Mielestämme vastaus on monitahoinen ja aiheeseen on syytä heittää vaatimaton annos kylmää vettä. Itse asiassa monien nykyisin kaavailtujen tekoälyjärjestelmien kehittäminen vie vuosikymmeniä. Lisäksi tekoäly sekoitetaan usein asioihin, joita se ei ole. Tarkkuus käsitteestä on välttämätöntä, jos aiomme käydä älykästä keskustelua siitä, miten tekoälyä tulisi tutkia, kehittää ja säännellä tulevina vuosina.

Tekoälyjärjestelmät ovat pohjimmiltaan tietokoneita, jotka ”oppivat” tekemään asioita kokeilun ja erehdyksen kautta ja joilla on jokin mekanismi, joka kertoo niille, milloin ne ovat oikeassa ja milloin väärässä – kuten esimerkiksi ohjusten erottaminen valokuvista tai ihmisten tunnistaminen väkijoukoista, kuten Pentagonin ”Project Maven” – ja sen jälkeen opitun soveltaminen tulevien tietojen diagnosoimiseksi. Toisin sanoen tekoälyn avulla kone itse rakentaa ohjelmiston. Oikeat vanhanaikaiset ihmiset määrittelevät tietyn ongelman laajan laskennallisen lähestymistavan etukäteen, mutta varsinainen algoritmi syntyy tietokoneen kokeilun ja erehdyksen kautta, kun se kerää ja käsittelee valtavia tietomääriä. Koneen ajatusprosessi ei todellakaan ole kovin kehittynyt. Se kehittää pikemminkin keinotekoisia vaistoja kuin älykkyyttä – se tutkii valtavia määriä raakadataa ja keksii, miten tunnistaa kissa valokuvassa tai ohjuksen laukaisulaite ruuhkaisella moottoritiellä, sen sijaan, että se osallistuisi syvälliseen ajatteluun (ainakaan lähitulevaisuudessa).

Tämän määritelmän avulla voimme nopeasti tunnistaa tietyntyyppisiä tietokonejärjestelmiä, jotka eivät itse asiassa ole tekoälyä. Ne voivat olla tärkeitä, vaikuttavia ja ratkaisevan tärkeitä sodankäynnin kannalta, mutta ne eivät ole tekoälyä, koska ne eivät luo omia algoritmejaan datasta ja useista iteraatioista. Toisin sanoen kyse ei ole koneoppimisesta. Kuten kollegamme Tom Stefanick huomauttaa, kehittyneiden algoritmien, joita on ollut olemassa jo vuosikymmeniä (vaikka ne paranevat jatkuvasti tietokoneiden nopeutuessa), ja tekoälyn välillä on perustavanlaatuinen ero. On myös ero autonomisen asejärjestelmän ja tekoälyä ohjaavan robotiikan välillä.

Esimerkiksi tietokoneet, jotka ohjaavat risteilyohjusta tai lennokkia, eivät näytä tekoälyä. Ne noudattavat monimutkaista, mutta ennalta määriteltyä käsikirjoitusta, jossa käytetään antureita tietojen keräämiseen ja sen jälkeen tietojen syöttämiseen tietokoneisiin, jotka sitten käyttävät (ihmisten etukäteen kehittämiä) ohjelmistoja määrittämään oikean seuraavan liikkeen ja oikean paikan mahdollisten aseiden räjäyttämiseen. Tämä on autonomiaa. Se ei ole tekoälyä.

Related

  • FILE PHOTO: Yhdysvaltain yleisesikuntapäälliköiden puheenjohtaja kenraali Mark Milley pitää puheita 19. vuotuisessa syyskuun 11. päivän muistotilaisuudessa Pentagonissa Arlingtonissa, Virginiassa, Yhdysvalloissa 11. syyskuuta 2020. REUTERS/Erin Scott/File Photo
    Järjestys kaaoksesta

    Venäjä, Kiina ja sodan riskit: Keskusteluni kenraali Mark Milleyn kanssa

    Keskiviikko, 23. joulukuuta 2020

  • Yhdysvaltain merijalkaväen korpraali Briar Purty testaa Drone Killer Counter-UAS -teknologiaa urbaanin merivoimien Advanced Naval Technology Exercise 2018 -harjoituksen (ANTX-18) aikana merijalkaväen tukikohdassa Camp Pendletonissa, Kaliforniassa 21. maaliskuuta 2018. Kuva otettu 21. maaliskuuta 2018. U.S. Marine Corps/Lance Cpl. Rhita Daniel/Handout via REUTERS. HUOMIOITAVAA TOIMITTAJILLE - TÄMÄN KUVAN TOIMITTI KOLMAS OSAPUOLI - RC130534DFC0
  • Kansalliskaarti turvaa Tverskaja-katua, kun armeijan varusmiehet valmistelevat sotilasajoneuvoaan ennen voittopäivän paraatin harjoitusta Moskovassa, Venäjällä, 18. kesäkuuta 2020. Toisen maailmansodan natsi-Saksan voiton 75-vuotispäivän kunniaksi järjestettävä sotilasparaati oli tarkoitus järjestää 9. toukokuuta, mutta sitä lykättiin koronavirustartunnan (COVID-19) puhkeamisen vuoksi. REUTERS/Shamil Zhumatov
    Järjestys kaaoksesta

    Miten puolustusbudjettia leikataan (ja miten sitä ei leikata)

    Torstai 9. heinäkuuta 2020

Tai käyttääksemme esimerkkiä, joka on useimmille ihmisille lähempänä kotia, kun älypuhelimesi käyttää Google Mapsin tai Wazen kaltaista sovellusta suosittelemaan nopeinta reittiä kahden pisteen välillä, tämäkään ei välttämättä ole tekoälyä. Kahden paikan välillä on vain tietty määrä mahdollisia reittejä. Niitä voi olla kymmeniä tai satoja, mutta määrä on rajallinen. Puhelimesi tietokone voi periaatteessa tarkastella jokaista järkevää vaihtoehtoa erikseen ja ottaa huomioon tiedot laajemmasta verkosta, johon monien muiden ihmisten puhelimet osallistuvat, jotta liikenneolosuhteet voidaan ottaa huomioon laskennassa. Mutta tapa, jolla matematiikka itse asiassa tehdään, on suoraviivainen ja ennalta määrätty.

Miksi tämä on tärkeää? Ensinnäkin sen pitäisi saada meidät suhtautumaan tekoälyyn vähemmän henkeäsalpaavasti ja näkemään se yhtenä osana laajempaa tietokonevallankumousta, joka alkoi 1900-luvun jälkipuoliskolla ja kiihtyi tällä vuosisadalla. Sen pitäisi myös auttaa meitä näkemään, mitä voi olla realistista ja toivottavaa säännellä tulevaisuuden sodankäynnissä ja mitä ei.

Yleisesikuntapäälliköiden entinen varapuheenjohtaja, kenraali Paul Selva, on äskettäin väittänyt, että Yhdysvallat voi olla noin vuosikymmenen päässä siitä, että sillä olisi valmiudet rakentaa autonominen robotti, joka pystyisi päättämään, milloin ampua ja kenet tappaa – vaikkakin hän on myös väittänyt, että Yhdysvalloilla ei ole mitään varsinaista suunnitelmaa rakentaa sellaista olentoa. Mutta jos asiaa ajattelee toisin, niin tavallaan meillä on jo ollut autonomisia tappokoneita jo sukupolven ajan. Edellä mainitsemamme risteilyohjus on ollut käytössä 1970-luvulta lähtien. Sillä on ohjeet lentää tiettyä reittiä ja sitten räjäyttää taistelukärkensä ilman, että kukaan ihminen on mukana. Ja 1990-luvulle tultaessa tiesimme, miten rakennetaan esimerkiksi ”skeet”-ammuksia, jotka voivat loikoilla taistelukentän yllä ja etsiä lämpimiä kohteita, kuten panssarivaunuja, käyttäen ohjelmistoa päättämään, milloin ne sitten tuhotaan. Tappajakone oli siis käytännössä jo päättämässä itse.

Vaikka kenraali Selvan terminaattoria ei rakennettaisikaan, robotiikalle tullaan joissakin tapauksissa todennäköisesti antamaan enemmän päätösvaltaa päättää, milloin voimaa on käytettävä, koska olemme käytännössä jo ylittäneet tämän kynnyksen. Tämä erittäin arkaluonteinen aihe vaatii toki huolellista eettistä ja oikeudellista valvontaa, ja siihen liittyvät riskit ovat vakavia. Nopeus, jolla sotilasoperaatioiden on tapahduttava, luo kuitenkin kannustimia sille, että monissa taktisissa tilanteissa henkilö ei ole mukana päätöksentekosilmukassa. Riippumatta siitä, mitä Yhdysvallat pitää parempana, väkivaltaisen voimankäytön automatisoitua käyttöä koskevista rajoituksista näyttäisi myös olevan suhteellisen vaikea neuvotella (vaikka ne olisivatkin toivottavia), kun otetaan huomioon Venäjän ja ehkä muidenkin maiden todennäköinen vastustus sekä valtavat todentamisongelmat.

Pienille roboteille, jotka pystyvät toimimaan parvina maalla, ilmassa tai vedessä, voidaan esimerkiksi antaa jonkin verran liikkumavaraa sen suhteen, milloin ne käyttävät tappavia kykyjään. Kommunikoimalla keskenään ja käsittelemällä reaaliaikaisesti tietoa vihollisesta ne voisivat keskittää hyökkäykset sinne, missä puolustus on heikointa, taistelumuodossa, jota John Allen ja Amir Husain kutsuvat nopeutensa ja intensiivisyytensä vuoksi ”hypersodaksi”. Muuntyyppiset parvet voisivat hyökätä pysäköityjen lentokoneiden kimppuun; pienetkin räjähteet, jotka räjäytetään tarkasti, voisivat lamauttaa siivet tai moottorit tai aiheuttaa toissijaisia ja paljon suurempia räjähdyksiä. Monilla mailla on valmiudet tällaiseen tulevien kahdenkymmenen vuoden aikana. Vaikka Yhdysvallat pyrkisi välttämään tällaisten parvien käyttöä tappaviin ja hyökkääviin tarkoituksiin, se voi päättää käyttää niitä puolustuskilpinä (ehkä Pohjois-Korean tykistöhyökkäystä vastaan Soulia vastaan) tai häirintäapuvälineinä tunkeutuvien lentokoneiden mukana. Kun UAV:t, jotka pystyvät lentämään kymmenen tuntia ja sata kilometriä, maksavat nykyään vain satoja tuhansia dollareita ja nelikopterit, joiden kantomatka on korkeintaan kilometrin luokkaa, maksavat satoja dollareita, suuntauslinjat ovat selvät – ja monien lennokkien organisoidun käytön edullisuus on ilmeinen.

Seuraavat kirjat

  • Tietokoneen kohdistaminen

    By Kenneth Flamm

    1987

  • Luominen. the Computer

    By Kenneth Flamm

    1988

  • Changing the Rules

    Edited by Robert W. Crandall ja Kenneth Flamm

    1989

Missä sääntely voi olla mahdollista ja eettisesti pakottavaa, on sen maantieteellisen ja ajallisen tilan rajoittaminen, jossa tekoälyn tai muiden monimutkaisten algoritmien ohjaamat aseet voivat käyttää tappavaa voimaa. Esimerkiksi edellä mainitut parvet saattaisivat olla käytössä vain laivan läheisyydessä tai taivaalla Korean DMZ:n läheisyydessä tai pienellä etäisyydellä sotilaslentokentästä. Saattaa myös olla fiksua kieltää koneiden antaminen päättää, milloin ihmisiä tapetaan. Voisi olla houkuttelevaa käyttää kasvontunnistusteknologiaa tulevissa roboteissa, jotta ne saisivat metsästää seuraavaa bin Ladenia, Baghdadia tai Soleimania jossakin valtavassa Lähi-idän kaupungissa. Virheiden, hakkeroinnin ja monien muiden toimintahäiriöiden mahdollisuus saattaa kuitenkin olla liian suuri, jotta tällaista voitaisiin sallia. Todennäköisesti on myös järkevää kieltää tekoälyn käyttö suurten ydinvoimaloiden ydinvoiman komento- ja valvontainfrastruktuuriin kohdistuviin hyökkäyksiin. Tällaiset yritykset saattaisivat synnyttää ”käytä tai menetä heidät” -pelkoja tulevassa kriisissä ja siten lisätä ydinsodan riskejä.

Olemme tekoälyn alkuvaiheessa. Emme voi vielä alkaa ennakoida, mihin se on menossa ja mitä se voi tehdä mahdolliseksi kymmenen tai kahdenkymmenen tai kolmenkymmenen vuoden kuluttua. Mutta voimme työskennellä kovemmin ymmärtääksemme, mitä se oikeastaan on – ja myös miettiä kovasti, miten asettaa eettisiä rajoja sen tulevalle kehitykselle ja käytölle. Sodankäynnin tulevaisuus, niin hyvässä kuin pahassa, on kirjaimellisesti vaakalaudalla.