Kao što se svake godine podsjeća na Dan sjećanja, rat ne izmiče.
Ali to se ipak mijenja. A jedan od značajnijih pomaka koji ćemo vidjeti u narednim godinama je vojska koja sve više ovisi o robotima. Dronovi danas privlače najviše pozornosti, ali sve je više noviteta Ministarstva obrane i druge vrste bespilotnih strojeva, od eksperimentalnih zrakoplova do vojnika na terenu.
Lako je razumjeti privlačnost. Upotreba robota potencijalno je učinkovitija, preciznija i jeftinija od oslanjanja isključivo na ljude u ratnim sukobima. A to bi, naravno, značilo i manje ljudskih žrtava.
Ali ova transformacija sa sobom donosi i složen izazov: Mogu li se vojni strojevi programirati za donošenje odluka? Što dovodi do ljepšeg pitanja: Mogu li roboti naučiti moral?
Američki ured za pomorska istraživanja smatra da je sada vrijeme da to saznate. Ranije ovog mjeseca najavio je petogodišnju potporu u iznosu od 7, 5 milijuna dolara za financiranje istraživanja na sveučilištima Tufts, Brown, Yale i Georgetown i na Politehničkom institutu Rensselaer (RPI) o tome mogu li strojevi jednog dana moći odabrati ispravno.
Ratna mornarica želi izbjeći situaciju s kojom se Googleov automobil bez vozača sada suočava: imati tehnologiju koja je objavljena daleko ispred bilo kakve jasnoće o pravnim i etičkim pitanjima koja postavlja. Prije nego što autonomni roboti izađu na teren, vojska želi znati mogu li zaista naučiti raditi pravu stvar.
Kao što to vidi Selmer Bringsjord, šef RPI-ovog Odjela za kognitivne znanosti, umjetna inteligencija robota mogla bi biti dizajnirana tako da funkcionira na dvije razine morala. Prvi bi se temeljio na popisu jasnih etičkih izbora, poput "ako naiđete na ranjenog vojnika, trebali biste mu pomoći ili njega." Ali što ako se ta akcija sukobi s njegovom osnovnom misijom, poput isporuke streljiva kritično potrebnog ostali vojnici? U tom bi trenutku, kaže Bringsjord, robot trebao biti sposoban uključiti se u "dublje moralno rezonovanje" za donošenje odluka u situacijama koje njegovi programeri možda nisu mogli predvidjeti.
Istraživači bi trebali razviti jedinstvene algoritme i računske mehanizme koji bi se mogli integrirati u postojeću arhitekturu autonomnih robota, „proces razmišljanja“ koji bi omogućio da stroj nadjača planirano ponašanje na temelju njegove sposobnosti primjene moralnog rasuđivanja.
Ako se ovo čini neobično ambiciozno, i jest. Za početak, istraživači će morati izdvojiti osnovne elemente ljudskog morala - na čijim smo principima svi saglasni? - I zatim smisliti kako ih ugraditi u algoritme koji će robotima dati određenu razinu moralne sposobnosti.
To nije mali poduhvat. Iz tog razloga vjerojatno je da će strojevi koje ne kontroliraju ljudi u doglednoj budućnosti biti ograničeni na ne-borbene uloge, kao što su nadzor, sigurnost, traganje i spašavanje ili medicinska njega. Ali neizbježno će vojni planeri htjeti odgovor na pitanje koje stoji nad svim tim: Treba li robotima, djelujući samostalno, ikad dopustiti da ubiju čovjeka?
Ako je stroj 90 posto siguran da je svatko u vozilu u koje namjerava pucati terorist, je li to dovoljno sigurno? Da li bi robot mogao ispaliti oružje na dijete ako utvrdi da je to neprijatelj? Ako nešto pođe po zlu i autonomni robot pogrešno raznese selo, tko je odgovoran? Zapovjednik koji je naredio operaciju? Osoba koja je programirala robota? Ili nitko?
Ako mislite da je to još uvijek znanstvena fantastika, uzmite u obzir da su se početkom ovog mjeseca stručnjaci za teme od umjetne inteligencije do ljudskih prava do međunarodnog prava bavili "robotima ubojicama" na konferenciji Ujedinjenih naroda u Ženevi. Grupe poput Human Rights Watcha i dužnosnika nekolicine zemalja, uključujući Pakistan, Egipat, Kubu i Vatikan, pozvale su na strogu zabranu robota koji imaju ovlast ubijanja. Ali većina zemalja, posebno one s najnaprednijim robotima, nisu spremne ići tako daleko.
Pogledajte, primjerice, WildCat, četveronožni robot koji se razvija kako bi se kretao velikim brzinama po svim vrstama terena.
Za sada američka vojska slijedi direktivu Ministarstva obrane iz 2012. godine da niti jedan stroj sa snagom ubijanja ne može biti potpuno neovisan. Čovjek mora, doslovno, zvati pucnjeve. Ali to možda nije istina za sva mjesta: U ožujku je New Scientist citirao ruskog dužnosnika rekavši da će stražari robota na pet postrojenja balističke rakete moći otkriti i uništiti ciljeve bez da čovjek dođe do naprijed.
Foster-Miller Talon, prikazan dolje, jedan je od mnogih strojeva širom svijeta koji su razvijeni za borbu.
Pravila rata
Izvještaj o konferenciji robota-ubojica bit će predstavljen UN-ovom povjerenstvu za određeno oružje u studenom. No čini se da uskoro ne dolazi zabrana.
Među onima koji su se pridružili raspravi u Ženevi bio je i Ronald Arkin, stručnjak za umjetnu inteligenciju iz Georgia Tech-a, koji je dugo bio zagovornik davanja mašinama mogućnost donošenja moralnih odluka. Vjeruje da ako se roboti mogu naučiti slijediti međunarodno pravo, oni bi se zapravo mogli ponašati etičnije od ljudi u ratnim sukobima, jer bi bili nepokolebljivi dosljedni. Ne bi bili u stanju odgovoriti ljutnjom ili panikom ili predrasudama. Dakle, Arkin se protivi zabrani, iako je otvoren za moratorij na autonomno oružje sve dok strojevi ne dobiju priliku da vide mogu li ovladati ratnim pravilima.
Drugi znanstvenik iz AI, Noel Sharkey, koji je raspravljao o Arkinu u Ženevi, potpuno je drugačijeg mišljenja. On ne misli da roboti nikada ne bi trebali imati ovlasti donositi životne ili smrtne odluke.
Nedavno je rekao u obrani jedan : „Ne mislim da će ikada završiti s moralnim ili etičkim robotom. Za to moramo imati moralnu agenciju. Za to trebamo razumjeti druge i znati što znači patiti. "
"Možda je instaliran robot s nekim etičkim pravilima, ali to ga zapravo neće zanimati", kaže on.