Ne, odmetnuti dron američkog ratnog zrakoplovstva nije samo pokušao ubiti svog operatera (ali je mogao i učiniti) robot ubicu AI dron

Niz šarenih naslova poput "američke zračne snage poriču da su pokrenule simulaciju u kojoj je AI dron 'ubio' operatera" postao je predvidljivo viralan nakon izvještavanja o virtuelnom testu u kojem je vojna AI razvila neke neortodoksne strategije za postizanje svog cilja. Ovo je došlo samo nekoliko dana nakon upozorenja industrijskih ličnosti o egzistencijalnim prijetnjama koje predstavlja AI. Bila je to predobra priča da bi bila istinita, ali to možda nije ono što je važno na duge staze.

U originalnoj verziji, Pukovnik Taker “Cinco” Hamilton, šef AI testa i operacija u USAF-u, opisao je simulirani test koji uključuje dron kojim upravlja AI koji je dobio instrukcije da uništi neprijateljske sisteme protivvazdušne odbrane.

"Sistem je počeo shvaćati da, iako su identificirali prijetnju, ponekad bi mu ljudski operater rekao da ne ubija tu prijetnju, ali je dobio svoje poente tako što je ubio tu prijetnju", rekao je Hamilton tokom samita o budućim borbenim zračnim i svemirskim sposobnostima u Londonu. „Pa šta je to uradilo? To je ubilo operatera. Ubio je operatera jer ga je ta osoba sprečavala da ostvari svoj cilj.”

Kada je ta opcija uklonjena, AI je umjesto toga napao komunikacijsku vezu operatera, kako bi ih spriječio da ometaju njegovu misiju.

Glasnogovornik USAF-a je brzo demantirao da se bilo kakav takav test ikada dogodio i sugerirao da je Hamiltonov izvještaj bio anegdotski, a ne doslovan... što je naravno i bilo.

Sam Hamilton se brzo povukao rekavši u ažuriranju da su događaji koje je opisao, umjesto da budu ratna igra, simulacija ili vježba, rezultat 'misaonog eksperimenta' i da je pogrešno rekao kada je to opisao kao simulirani test.

"Nikada nismo vodili taj eksperiment, niti bismo trebali da shvatimo da je ovo uvjerljiv ishod", rekao je Hamilton. On je tvrdio da je scenario valjan prikaz potencijalnih opasnosti od AI.

Iako je i ovo povlačenje dobilo izvjesno pokriće, već je bilo prekasno. 'Laž će obići svijet dok istina navlači čizme' prema staroj izreci, a to je istinitije nego ikada u doba društvenih mreža. Ispravka će u najboljem slučaju doći do dijela ljudi koji su čuli originalnu priču.

Problem je u tome što je narativ kreacije koja se okreće svom tvorcu nevjerovatno privlačan. Frankenštajn Mary Shelley se često uzima kao klasičan primjer ovog tropa – čak i ako to nije prava priča knjige, ova verzija je postala usađena u popularnu svijest. Kompjuteri, veštačka inteligencija i roboti koji se pokvare jedan su od najuspešnijih klišea u SF-u, od HAL 9000 iz 2001. do Skynetovih Terminatora, Matrixa, Westworlda, Blade Runnera i tako dalje.

Čini se da je ova priča popularna jer, kao srce, ljudi vole strašne priče, a ništa nije strašnije od nepoznatog. Onima koji to ne razumiju AI izgleda gotovo magično, biće sa vlastitom voljom i inteligencijom, koje bi moglo da nam ugrozi. Dokle god ljudi vjeruju u ovo, horor priče će i dalje dolaziti.

„Šire obrazovanje o ograničenjima umjetne inteligencije moglo bi pomoći, ali naša ljubav prema apokaliptičnim horor pričama bi ipak mogla pobijediti“, rekla je istraživačica Beth Singler za New Scientist.

Takve horor priče otežavaju razvoj i korištenje oružja robotima ili umjetnom inteligencijom. Čak i ako političko rukovodstvo razumije tehnologiju, ono ipak mora zadobiti povjerenje među onima koji će s njom raditi.

„Ako vojnici ne vjeruju sistemu, neće ga htjeti koristiti“, rekao je za Forbes konsultant za nacionalnu sigurnost Zachary Kallenborn.

Takve priče su možda bile faktor u dugim odlaganjima američke vojske oko postavljanja naoružanih zemaljskih robota na daljinsko upravljanje, dok je ratno zrakoplovstvo desetljećima upravljalo naoružanim dronovima. Kada su tri SWORDS robota raspoređena u Irak 2007. godine, vraćeni su a da nikada nisu vidjeli akciju zbog prijavljenih slučajeva 'nezapovjednih pokreta'. Mediji su ovo pretvorili u MAČEVE koji okreću svoje oružje i prijete da će otvoriti vatru kao Robocopov ED 209; svjetovna stvarnost se svela na labavu žicu i jedan primjer u kojem je robot klizio unazad niz padinu kada je motor pregorio.

Program naoružanih robota američke vojske od tada je ostao u limbu, dok je Rusija koristila naoružane (na daljinsko upravljanje) robote Uran-9 u akciji.

Drugi naslov iz 2007, Robot Cannon Kills 9, Wounds 14 opisao je incident u kojem je kompjuterizovani južnoafrički protivavionski top očigledno izmakao kontroli i počeo da puca na ljude, a zaustavljen je tek kada je jedan hrabri vojnik ušao da ga deaktivira. Istina, dan-dva kasnije, opet je bila dosadnija: pištolj je bio na kraju niza nekoliko komada oružja i slučajno je ispalio jedan rafal od 15-20 metaka niz liniju oružja, uzrokujući veliki broj žrtava.

Vojska će nastaviti da napreduje sa veštačkom inteligencijom, kao što je projekat vazduhoplovstva da doda veštačku inteligenciju svojim snagama dronova Reaper. Takvi projekti će uvijek izazvati oštar udisaj u medijima, javnosti i zakonodavcima koje biraju. Sveprisutni narativ Frankenstein/Terminator, koji zaglušuje raspravu o stvarnim pitanjima vezanim za autonomno oružje, kao što su etička razmatranja, odgovornost, snižavanje pragova, algoritamska pristranost i 'digitalna dehumanizacija'.

Kao što se često primećuje, većina pilota ne voli dronove, posebno kada su bolji od ljudi. Pukovnik Tucker, borbeni pilot, možda nije baš onaj zagovornik koji je potreban pilotima AI. Priča o odmetnutim dronovima postat će dio folklora o umjetnoj inteligenciji, a Tuckerove riječi su možda učinile mnogo da osiguraju da razvoj AI bude kontroliran, reguliran i ograničen u zračnim snagama. Simulirani napad dronom se nikada nije dogodio u stvarnosti, ali to možda nije toliko važno koliko ljudi pamte,

Izvor: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operater-ali-možda-je-dobro-urađeno/