Nagu mälestuspäev meile iga aasta meelde tuletab, ei lähe sõda kuhugi.
Kuid see muutub. Ja üks põhjalikumaid nihkeid, mida lähiaastatel näeme, on üha enam robotitest sõltuv sõjavägi. Droonid saavad praegu suurema osa tähelepanust, kuid üha enam on kaitseministeeriumi uuendusi muud tüüpi mehitamata masinad, katselendudest maapealsete sõduriteni välja.
Atraktsioonist on lihtne aru saada. Robotite kasutamine on potentsiaalselt tõhusam, täpsem ja odavam kui sõjapidamises ainult inimestele lootmine. Ja see tähendaks muidugi ka vähem inimkaotusi.
Kuid see ümberkujundamine toob endaga kaasa keeruka väljakutse: kas sõjaväe masinaid saab programmeerida otsuste tegemiseks? Mis viib kleepuvama küsimuseni: kas robotid saavad õppida moraali?
USA mereväeuuringute amet arvab, et nüüd on aeg seda teada saada. Selle kuu alguses kuulutas ta välja viieaastase 7, 5 miljoni dollari suuruse toetuse Tuftsi, Browni, Yale'i ja Georgetowni ülikoolide ning Rensselaeri polütehnilise instituudi (RPI) teadusuuringute rahastamiseks, kas masinad saavad ühel päeval valida valedest õige.
Merevägi soovib vältida olukorda, kus Google'i juhita auto praegu silmitsi seisab: tehnoloogia, mis vabastatakse kaugelt enne igasugust selgust selle tekitatavates õiguslikes ja eetilistes küsimustes. Enne kui autonoomsed robotid väljakule lähevad, tahavad sõjaväelased teada saada, kas nad saavad tegelikult õppida õigesti hakkama saama.
Nagu RPI kognitiivteaduse osakonna juhataja Selmer Bringsjord seda näeb, võiks roboti tehisintellekti kavandada toimima moraali kahel tasemel. Esimene põhineks selgete eetiliste valikute kontrollnimekirjal, näiteks „kui satute haavatud sõduri juurde, peaksite teda aitama.” Aga mis juhtuks, kui see tegevus oleks vastuolus selle peamise ülesandega, näiteks laskemoona tarnimisega, mis on kriitiliselt vajalik teised sõdurid? Bringsjordi sõnul peaks robotil sel hetkel olema võime osaleda „sügavamates moraalsetes põhjendustes“, et teha otsuseid olukordades, mida programmeerijad poleks ehk osanud ette näha.
Teadlastel oleks vaja välja töötada unikaalsed algoritmid ja arvutusmehhanismid, mida saaks integreerida autonoomsete robotite olemasolevasse arhitektuuri - see on "mõtlemisprotsess", mis võimaldaks masinal alistada kavandatud käitumist, tuginedes selle võimele rakendada moraalseid põhjendusi.
Kui see tundub erakordselt ambitsioonikas, siis on see nii. Alustuseks peavad teadlased eraldama inimese moraali põhielemendid - millistes põhimõtetes me kõik oleme nõus? - ja seejärel välja mõtlema, kuidas neid integreerida algoritmidesse, mis annaksid robotitele teatud moraalse kompetentsi.
See pole väike ettevõtmine. Sel põhjusel on tõenäoline, et masinad, mida inimesed ei kontrolli, piirduvad lähitulevikus muude kui lahingutegevusega seotud ülesannetega, näiteks valve, turvalisus, otsing ja päästmine või arstiabi. Kuid paratamatult tahavad sõjaväe planeerijad vastust küsimusele, mis kõige selle kohal ripub: kas iseseisvalt tegutsevatel robotitel peaks kunagi olema lubatud tappa inimene?
Kui masin on 90 protsenti kindel, et kõik sõidukis, mida ta kavatseb tulistada, on terrorist, kas see on piisavalt kindel? Kas robot suudaks relva tulistada lapsel, kui ta leiab, et see on vaenlane? Kes vastutab, kui midagi läheb valesti ja autonoomne robot puhub eksikombel küla õhku? Operatsiooni tellinud ülem? Kas inimene, kes roboti programmeeris? Või mitte keegi?
Kui arvate, et see on ikkagi ulme, mõelge, et selle kuu alguses kaalusid Genfis ÜRO konverentsil mõrvarobotite teemalised eksperdid teemadel alates tehisintellektist kuni inimõigusteni ja lõpetades rahvusvahelise õigusega. Sellised rühmitused nagu Human Rights Watch ja käputäis riikide, sealhulgas Pakistani, Egiptuse, Kuuba ja Vatikani ametnikud kutsusid üles tapma volitatud robotite täielik keelustamine. Kuid enamik riike, eriti kõige arenenumate robotitega riigid, pole veel valmis nii kaugele minema.
Vaadake näiteks WildCatit - neljajalgset robotit, mis on välja töötatud suure kiirusega sõitmiseks igat tüüpi maastikul.
USA sõjavägi järgib praegu 2012. aasta kaitseministeeriumi direktiivi, mille kohaselt ükski tapmisjõuga masin ei saa olla täielikult autonoomne. Inimene peab sõna otseses mõttes kaadreid kutsuma. Kuid see ei pruugi tõsi olla kõigis kohtades: märtsis tsiteeris New Scientist ühe Venemaa ametniku ütlust, et viiel ballistiliste rakettide paigaldamisel paiknevad robotivalvurid suudavad sihtmärke tuvastada ja hävitada, ilma et inimene sellest midagi annaks.
Allpool nähtud Foster-Miller Talon on üks paljudest masinatest kogu maailmas, mida arendatakse lahingutegevuseks.
Sõjareeglid
Tapjarobotite konverentsi aruanne esitatakse novembris ÜRO teatud tavarelvastuse komiteele. Kuid ei paista, et keeld on varsti tulemas.
Genfis aruteluga liitunute seas oli ka Georgia Tech tehisintellekti ekspert Ronald Arkin, kes on pikka aega olnud selle eest, et masinatele antakse võimalus moraalseid otsuseid vastu võtta. Ta usub, et kui robotid saavad õppida järgima rahvusvahelist seadust, võiksid nad sõjapidamisel tegelikult käituda eetilisemalt kui inimesed, sest need oleksid lakkamatult järjekindlad. Nad ei suudaks viha, paanika või eelarvamustega vastata. Nii et Arkin on keelustamise vastu, ehkki ta on avatud autonoomsete relvade moratooriumile, kuni masinatele antakse võimalus näha, kas nad suudavad sõjareegleid vallata.
Teine AI teadlane Noel Sharkey, kes arutas Arkinit Genfis, on hoopis teistsuguse meelega. Ta ei arva, et robotitele tuleks kunagi anda volitused elu või surma üle otsustamiseks.
Hiljuti ütles ta ajalehele Defense One : „Ma ei usu, et nad kunagi jõuavad moraalse või eetikaga robotini. Selleks peab meil olema moraalne agentuur. Selleks peame mõistma teisi ja teadma, mida tähendab kannatada. "
"Võib paigaldada roboti koos mõnede eetikareeglitega, kuid see ei hooli sellest eriti, " ütleb ta.