Koja je ažurirana politika Pentagona o robotima ubicama?

Pentagon je izdao ažuriranje svoje Direktive 3000.09, što pokriva ono što oni nazivaju Autonomija u sistemima oružja a drugi zovu 'roboti ubice.' Trenutni dronovi poput zračnih snaga i CIA-e MQ-9 Žetelice upravljaju se daljinskim upravljačem: ljudsko biće sjedi ispred video ekrana identifikuje mete na zemlji hiljadama milja daleko, stavlja ih na nišanu i pušta a Projektil Hellfire ili drugo oružje. Autonomno oružje je drugačije: ono bira svoje mete bez ikakve ljudske intervencije. Potrebna su jasna pravila o tome kada i kako se mogu koristiti, a nova direktiva ih približava korak bliže.

Prije deset godina, kada je objavljena prva verzija 3000.09, autonomno oružje izgledalo je kao naučna fantastika. Sada su veoma stvarni. UN su to tvrdile Bespilotne letjelice koje je isporučila Turska autonomno su napale ciljeve u Libiji 2020., a Rusija sada raspoređuje lutajuću municiju u Ukrajini sa autonomna sposobnost.

Mnogi aktivisti, poput Kampanja za zaustavljanje ubojitih robota, žele potpunu zabranu autonomnog oružja, insistirajući da svako daljinsko oružje ostaje pod smislena ljudska kontrola u svakom trenutku. UN su raspravljale o tome kako kontrolišu takvo oružje dugi niz godina.

Međutim, kako nova direktiva jasno pokazuje, Pentagon se drži drugačije linije.

“DoD se dosljedno protivio standardu politike 'smislene ljudske kontrole' kada su u pitanju i autonomni sistemi i sistemi umjetne inteligencije,” Gregory Allen, direktor Projekta upravljanja umjetnom inteligencijom na Centar za strateške i međunarodne studije, rekao mi. „Preferirani umetnički termin Ministarstva odbrane je 'odgovarajući nivoi ljudske prosudbe', što odražava činjenicu da u nekim slučajevima – na primer, autonomni avioni za nadzor i neke vrste autonomnog sajber oružja – odgovarajući nivo ljudske kontrole može biti mali ili nikakav .”

Koje bi samo autonomno oružje bilo dozvoljeno pod kojim okolnostima? Allen vjeruje da je prethodna verzija direktive bila toliko nejasna da je obeshrabrila bilo kakav razvoj u ovoj oblasti.

„Zbuna je bila toliko raširena – uključujući i neke visoke čelnike Ministarstva odbrane – da su se zvaničnici suzdržavali od razvoja nekih sistema koji nisu bili samo dozvoljeni politikom, već su i izričito izuzeti od zahtjeva za višim pregledom“, kaže Allen.

Nijedno oružje nije podvrgnuto procesu revizije za autonomno oružje navedeno u originalnom 3000.09 u deset godina od kada je objavljen.

Allen je napisao an esej o ovome za CSIS prošle godine, opisujući četiri oblasti na kojima je bio potreban rad – formalno definisanje autonomnih sistema naoružanja, govoreći šta „omogućen AI” znači za politiku, kako će se proces pregleda nositi sa modelima preobuke mašinskog učenja i pojašnjavajući koje vrste oružja zahtevaju da proći kroz naporan proces pregleda.

„DoD je sve njih implementirao“, kaže Alen.

U principu, ovo bi trebalo da osigura ono što Ministarstvo odbrane naziva „snažna i stalna posvećenost da bude transparentan globalni lider u uspostavljanju odgovorne politike u vezi sa vojnom upotrebom autonomnih sistema“.

Međutim, postoje neki dodaci koji bi se mogli smatrati prazninama, kao što je izuzeće od višeg pregleda za dronove za odbranu autonomnog oružja koji ne ciljaju ljude ('antimaterijalno oružje') i kojima bi bilo dozvoljeno da ciljaju projektile, druge dronove a potencijalno i druge sisteme.

“Riječ 'odbrana' čini mnogo posla,” Zak Kallenborn, rekao mi je saradnik za politiku na Schar School of Policy and Government na Univerzitetu George Mason. “Ako dron djeluje na neprijateljskoj teritoriji, gotovo svako oružje može se protumačiti kao 'brana' platforme.”

Kallenborn takođe napominje da, iako je efektivno autonomno oružje poput nagaznih mina u upotrebi više od jednog veka, pejzaž se brzo menja zbog napretka veštačke inteligencije i posebnog mašinskog učenja. Ovo je dovelo do sistema koji su vrlo sposobni, ali tehnički lomljiv – kada ne uspeju, ne uspevaju spektakularno na način na koji nijedan čovek ne bi, na primer greška kornjača za pušku.

„Autonomija kroz AI definitivno zaslužuje više pažnje, s obzirom na krhkost i nedostatak objašnjivosti trenutno dominantnih pristupa“, kaže Kallenborn.

Ažuriranje nije veliko. Ali to pokazuje stalnu posvećenost Pentagona razvoju efikasnog autonomnog oružja i uvjerenje da se oni mogu pridržavati međunarodno humanitarno pravo — razlikovanje civila od vojnog osoblja, nastojanje da se izbjegne ozljeđivanje civila i korištenje samo proporcionalne i neophodne sile.

Kampanji vjeruju da AI neće posjedovati potrebno razumijevanje za donošenje moralnih sudova u ratnom vremenu i rizikuje stvaranje svijeta u kojem je rat automatiziran i ljudi više nemaju kontrolu. Drugi vjeruju da će američka vojska biti nadmašili protivnici sa autonomnim oružjem osim ako AI nije ugrađen na taktičkom nivou i to previše ljudskog angažmana usporava vojne robote.

Rasprava će se vjerovatno nastaviti čak i kada se autonomno oružje počne pojavljivati, a rezultati će se pomno pratiti. U svakom slučaju, čini se da roboti ubice dolaze.

Izvor: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/