AI etika koja se bori sa vatrenim udarcem oba autonomna sistema oružja zasnovana na AI i eksploatacijom autonomnih sistema vođenih veštačkom inteligencijom koji su đavolski naoružani

Oni nevjerovatni četveronožni roboti koji plešu.

Siguran sam da ste vidjeli te viralne video zapise četveronožnih robotskih sistema koji plešu i skakuću na naizgled divan i pseći voljen način. Čini se da uživamo u tome da vidimo te robote vođene umjetnom inteligencijom kako se penju preko prepreka i izgleda da steknu delikatno uporište kada se smjeste na vrh kutija ili nakon što su nesigurno postavljeni na pripite vrhove ormarića. Njihovi ljudi koji rukovode s vremena na vrijeme će bockati ili gurnuti zaluđene četveronožne robote, što se čini užasavajućim nepravednim i može lako podići vaš bijes zbog bezobraznog tretmana tih humanoida koji su glavni umovi.

Međutim, pitam se da li ste vidjeli ne tako viralne videozapise potpuno drugačijeg kalibra.

Pripremi se.

Naširoko su objavljivani video snimci koji prikazuju istu vrstu četveronožnih robota koji su opremljeni izraženim oružjem ove ili one vrste.

Na primjer, mitraljez ili slično vatreno oružje postavljeno je na inače poznatog robota koji pleše i skakuće. Postoji elektronska veza između četveronožnog robota i mehanizma pucanja oružja. Sada naoružana naprava za kompjutersko hodanje prikazana je kako korača do mjesta gdje je postavljena meta, a mitraljez žestoko puca na metu. Nakon što je zakucao naknadno djelomično uništenu metu, četveronožni robot pleše i skače oko obližnjih prepreka i postrojava se kako bi ponovio istu radnju iznova i iznova na drugim svježim ciljevima.

Nije baš ono što ste očekivali da vidite. Ovo svakako oduzima bezbrižnost i relativnu radost iskrenog gledanja tih umiljatih četveronožnih robota kako rade svoje. Dobrodošli u surovu stvarnost naizgled bezazlen autonomni sistemi koji se pretvaraju ili transformišu u oštro naoružanje. Uz malo truda, možete preko noći imati smatrani „nenaoružani“ autonomni sistem naknadno opremljen tako da sadrži potpuno oružje.

Gotovo je lako u nekim okolnostima.

Razgovarat ću o ovoj žestoko kontroverznoj temi i pokriti prilično velike nedoumice vezane za etiku umjetne inteligencije koje se pojavljuju. Krenut ćemo na putovanje u autonomne sisteme, AI, autonomna vozila, naoružanje i niz povezanih borbenih pitanja Etičke AI. Za moje tekuće i opsežno pokrivanje etike AI i Etičke AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Počnimo s nekim temeljnim kamencima.

Radi rasprave, prihvatite da postoje dva glavna načina kategorizacije autonomnih sistema koji su naoružani oružjem:

1) Autonomni sistemi oružja (po dizajnu)

2) Autonomni sistemi koji su naoružani (poslije činjenica)

Postoji bitna razlika između ove dvije kategorije.

U prvoj instanci ćemo definisati an autonomni sistem naoružanja da od samog početka bude kompjuterizovana tvorevina koja je namerno namenjena da bude oružje. Programeri su imali na umu da žele da osmisle oružje. Njihova eksplicitna potraga je proizvodnja oružja. Znali su da mogu integralno kombinovati oružje sa najnovijim tehnologijama autonomnih sistema. Ovo je oružje koje jaše na valu visoke tehnologije koje postiže autonomno kretanje i autonomna djelovanja (kratko ću detaljnije elaborirati).

Nasuprot tome, u drugoj instanci ćemo razmotriti pitanje autonomnih sistema koji uopšte nemaju posebnu naklonost prema oružju. To su autonomni sistemi koji se razvijaju za druge svrhe. Zamislite autonomno vozilo kao što je samovozeći automobil koji će se koristiti za pružanje mobilnosti za sve i pomoć u smanjenju hiljada godišnjih smrtnih slučajeva do kojih dolazi zbog automobila koje upravljaju ljudi i automobila (pogledajte moj detaljan izvještaj at link ovdje). Čini se da nije oružje u obzir za one optimistične društvene napore da izvuku ljude iza volana i umjesto toga stave AI na vozačevo sjedište.

Ali ti bezopasni autonomni sistemi mogu biti naoružani ako ljudi to žele.

Ovu drugu kategoriju tada nazivam autonomni sistemi koji su naoružani. Autonomni sistem je prvobitno i pobožno kreiran u svrhu vjerovatno neoružanja. Uprkos tome, sanjivu altruističku nadu negdje preokrene neko ko dobije ugodnu ideju da bi se ova izmišljotina mogla koristiti oružjem. Odjednom, autonomni sistem koji je izgledao mazljiv postao je smrtonosno oružje označavanjem nekog oblika mogućnosti oružja (kao što su četveronožni roboti nalik psima spomenuti ranije koji imaju mitraljez ili slično vatreno oružje dodano svojim karakteristikama) .

Nažalost, ove dvije kategorije završavaju donekle na istom mjestu, odnosno obezbjeđivanje kapaciteta za korištenje autonomnih sistema za oružje na potencijalno smrtonosnoj osnovi.

Proces dolaska do te krajnje tačke će vjerovatno biti drugačiji.

Za potpuno naoružane autonomne sisteme koji su bili označeni kao oružje, aspekti naoružanja su tipično ispred i u sredini. Mogli biste reći da su aspekti autonomnog sistema omotani oko kamena temeljca bilo kojeg oružja o kojem se razmišlja. Proces razmišljanja od strane programera je donekle na liniji kako oružje može iskoristiti pojavu autonomnih sistema.

Druga perspektiva obično uopće nije takva. Programeri žele da izvedu najsavremeniji autonomni sistem, možda za boljitak čovečanstva. Ovi programeri ulažu svoje najiskrenije srce i dušu u stvaranje autonomnog sistema. Ovo je srž njihovog izuma. Oni možda i ne mogu zamisliti da bi neko uzurpirao ili podmetnuo njihov čudesno koristan uređaj. Oni su blaženo zaljubljeni u društvene koristi povezane sa autonomnim sistemom koji se oblikuje i proizvodi.

U nekom trenutku, recimo da treće strane shvate da se autonomni sistem može preurediti da bude naoružan. Možda prevare programere da im dozvole autonomni sistem za ono što se tvrdi da su uzvišene svrhe. Iza zatvorenih vrata, ovi zlikovi se odlučuju da tajno dodaju kapacitet za oružje autonomnom sistemu. Voila, nevinost se pretvorila u potpuno oružje.

Stvari se ne moraju odvijati na taj način.

Možda je programerima rečeno da razvijaju nevini autonomni sistem, ali oni koji su finansirali ili usmjeravali napore imali su na umu druge svrhe. Možda je napor autonomnog sistema zaista započeo nevino, ali onda kada je trebalo platiti račune, rukovodstvo je sklopilo dogovor sa izvorom finansiranja koji želi autonomne sisteme iz opakih razloga. Druga mogućnost je da su programeri znali da bi kasnija upotreba mogla biti za izradu oružja, ali da su mislili da će preći taj mučni most kada ili ako se ikada pojavi. itd.

Postoji mnogo i mnogo različitih puteva o tome kako se sve ovo odigrava.

Možda će vam biti zanimljivo što sam opisao u prethodnim kolumnama da postoji rastuća svijest o etičkoj umjetnoj inteligenciji u vezi s dvostruka upotreba elemente savremene AI, vidi link ovdje. Dozvolite mi da vas ukratko upoznam.

Sistem veštačke inteligencije koji je zamišljen za dobro može ponekad biti na ivici lošeg, možda putem nekih prilično jednostavnih promena, i shodno tome se smatra da je prirode dvostruke namene. Nedavno je u vijestima bio AI sistem koji je napravljen da otkrije hemikalije koje bi mogle biti ubice, za koje su programeri htjeli da se uvjere da bismo mogli izbjeći ili biti oprezni prema takvim loše osmišljenim hemikalijama. Ispostavilo se da bi se AI mogla donekle lako podesiti da predano otkrije te hemikalije ubice i tako potencijalno dozvoli zlobnicima da znaju koje vrste hemikalija mogu potencijalno skuhati za svoje strašne zle planove.

Autonomni sistemi se mogu dokazano uklopiti u taj omotač dvostruke namjene.

U određenoj mjeri, zato su etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Propisi etike umjetne inteligencije navode nas da ostanemo budni. Tehnolozi AI ponekad mogu postati zaokupljeni tehnologijom, posebno optimizacijom visoke tehnologije. Oni ne razmišljaju nužno o većim društvenim posljedicama. Imati etički način razmišljanja o umjetnoj inteligenciji i činiti to integralno za razvoj umjetne inteligencije i njenu primjenu je od vitalnog značaja za proizvodnju odgovarajuće AI, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji firme usvajaju etiku AI.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. U stvari, upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, potkopati zlatnu gusku ograničavanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti.

Autonomija i oružje kao dva pravila

Postoji fraza koju neki koriste da unapred upozore na naoružane autonomne sisteme svih vrsta, koji su zajednički skovani kao slaughterbots.

Ovo donosi dodatni aspekt o kojem bismo trebali razmisliti.

Da li autonomni sistem naoružanja i/ili autonomni sistem koji je bio naoružan mora imati prevagu smrtonosnog ili ubistvenog robota?

Neki bi tvrdili da smo definitivno mogli nesmrtonosna takođe naoružani autonomni sistemi. Stoga bi se, s tog stanovišta, činilo krajnje neprikladnim koristiti fraze kao što su roboti za klanje ili roboti ubice. Nesmrtonosna varijanta bi vjerovatno bila u stanju da pokori ili donese štetu koja nije smrtonosna. Ti takvi sistemi ne ubijaju, oni su manjeg kapaciteta za stvaranje povreda. Nemojte preuveličavati sposobnosti, kažu oni koji insistiraju na tome da ne moramo biti zaokupljeni potpunom mašinom za ubijanje.

Dakle, mogli bismo imati ovo:

  • Smrtonosni autonomni sistemi oružja
  • Smrtonosni autonomni sistemi koji su naoružani
  • Nesmrtonosni autonomni sistemi oružja
  • Nesmrtonosni autonomni sistemi koji su naoružani

Naravno, kontraargument je da bi svaki autonomni sistem koji je bio naoružan izgleda imao potencijal da sklizne u carstvo smrtonosnosti, čak i ako je navodno predviđen samo za upotrebu na nesmrtonosnoj osnovi. Postepeni dva koraka prelaska od nesmrtonosnog do smrtonosnog brzo će se preduzeti kada već dobijete oružje u ruci usred autonomnog sistema. Bili biste pod teškim pritiskom da pružite čvrstu garanciju da nesmrtonosni neće upasti u smrtonosnu arenu (iako neki pokušavaju to učiniti, matematički prividno).

Prije nego što uđemo mnogo dalje u ovu opštu temu autonomnih sistema i naoružanja, moglo bi biti zgodno ukazati na nešto drugo što, iako je možda očigledno, nije nužno vidljivo na umu.

Evo ga:

  • Postoji AI aspekt koji je sastavni deo autonomnog sistema
  • Postoji aspekt naoružanja koji je strana naoružanja ove jednačine
  • AI bi takođe mogao biti međusobno povezan sa oružjem

Hajde da to raspakujemo.

Pretpostavićemo da današnji autonomni sistemi zahtevaju AI kao osnovno kompjuterizovano sredstvo za otkrivanje autonomnih aspekata. Spominjem ovo jer biste mogli pokušati argumentirati da bismo mogli koristiti tehnologije i tehnike koje nisu povezane sa AI za izradu autonomnih sistema, što bi, iako je istina, izgledalo sve manje i manje vjerovatno. U osnovi, AI teži da omogući veći nivo autonomije, i većina u skladu s tim koristi AI high-tech.

U redu, imamo sposobnost zasnovanu na veštačkoj inteligenciji koja je nekako umetnuta u autonomni sistem i deluje da vodi i kontroliše autonomni sistem.

Držite to na dohvat ruke kao pravilo.

Čini se očiglednim da i mi trebamo imati neki oblik oružja, inače zašto ovdje raspravljamo o temi autonomnih sistema i oružje. Dakle, da, očigledno, postoji oružje ove ili one vrste.

Neću ulaziti u vrstu oružja koje se može koristiti. Možete jednostavno zamijeniti oružje koje vam padne na pamet. Možda postoji precizno oružje. Možda postoji masovno orijentirano destruktivno oružje. Može biti nešto sa mecima ili projektilima. To može biti nešto što ima hemikalije ili atomske isparljive komponente. Lista je beskrajna.

Dodatno razmatranje je da li je AI međusobno povezana sa oružjem. AI možda samo uzima oružje da se provoza. U slučaju četveronožnog robota koji je pucao iz pištolja, možda pištolj puca od strane čovjeka koji ima daljinski upravljač povezan s okidanjem oružja. Robot nalik psu kreće kroz scenu, a zatim je na udaljenom čovjeku da povuče okidač.

S druge strane, AI bi mogao biti pokretač okidača, takoreći. AI je možda bio osmišljen ne samo da se kreće i manevrira, već i da aktivira oružje. U tom smislu, AI radi sve od A do Z. Ne postoji zavisnost od udaljenog čovjeka da izvrši stranu stvari s oružjem. AI je programiran da to radi umjesto toga.

Da razjasnimo onda u ovom konkretnom slučaju upotrebe autonomnih sistema koji su naoružani, imamo ove vrste mogućnosti:

  • autonomni sistem: AI pokreće autonomni sistem potpuno sam
  • autonomni sistem: AI pokreće autonomni sistem, ali čovjek u petlji također može intervenirati
  • oružje: Daljinski čovjek upravlja oružjem (AI ne)
  • oružje: AI upravlja oružjem, ali čovjek u petlji također može intervenirati
  • oružje: AI upravlja oružjem potpuno sam

Ranije sam pokrio varijacije postojanja čoveka u petlji u vezi sa autonomnim sistemima i autonomnim vozilima, vidi link ovdje.

Kada gledate one zabavne video zapise o četveronožnim robotima koji plešu i skakuću, obično se pretpostavlja da su to roboti kojima isključivo upravlja AI (pa, to je običaj ili se smatra ispravnom etiketom među onima koji su duboko u ova pitanja). To je ono što biste takođe s pravom mogli pretpostaviti. Naravno, to ne znate sigurno. Moguće je da daljinski ljudski operater vodi robote. Također postoji mogućnost da AI radi dio vođenja, a udaljeni ljudski operater također to radi, možda pomaže AI ako robot dođe u tešku poziciju i ne može računski izračunati održivo sredstvo da se oslobodi.

Suština je u tome da postoje brojni ukusi kako se AI i autonomni sistemi i oružje mogu pomiješati. Neki imaju AI koji pokreće autonomni sistem, ali ne pokreće oružje. Čovjek možda daljinski upravlja oružjem. Drugi ugao je da je oružje možda prethodno aktivirano, a autonomni sistem isporučuje aktivirano oružje, tako da AI nije direktno učestvovao u okidanju oružja per se, već je umjesto toga djelovao kao vozilo za isporuku. A moglo bi biti i da je AI poslovični majstor za sve zanate i da koristi čitav spektar aspekata autonomnog sistema u korištenju oružja.

Izaberi.

U međuvremenu, imajte na umu da je čovjek-u-petlji veliki faktor kada su u pitanju debate na ovu temu.

Linija podjele nekih je da ako AI vrši ciljanje i puca (ili šta god oružje podrazumijeva) onda je čitava oprema i konja prešli u zabranu. Ovo se naizgled razlikuje od konvencionalnog oružja za ispaljivanje i zaboravi koje ima unaprijed ciljanu selekciju koju određuje čovjek, kao što je patrolni dron koji ima projektil spremnu za ispaljivanje na metu koja je bila već izabrao čovek.

Neki se pitaju zašto autonomni sistemi koji su naoružani ne bi uvijek uključivali čovjeka u petlji tokom cijelog procesa dok je autonomni sistem u aktivnom statusu. Čini se da bi nam možda bilo bolje da je strogi zahtjev da svi takvi autonomni sistemi s naoružanjem moraju imati čovjeka u petlji, bilo da to rade za rad autonomnog sistema ili za upravljanje oružjem (ili za oboje) . Držati pretpostavljenu sigurnu i stabilnu ljudsku ruku u ovoj mješavini umjetne inteligencije moglo bi izgledati sasvim lukavo.

Pripremite se za dugačku listu razloga zašto to nije nužno izvodljivo.

Uzmite u obzir ove poteškoće:

  • Čovjek u petlji možda neće biti dovoljno brz da pravovremeno odgovori
  • Čovjek u petlji možda nema dovoljno informacija da savjesno odgovori
  • Čovjek u petlji možda neće biti dostupan u potrebno vrijeme
  • Čovjek u petlji može biti neodlučan i neće djelovati kada je to potrebno
  • Čovjek u petlji može donijeti "pogrešnu" odluku (relativno)
  • Čovjek u petlji možda neće biti dostupan iz sistema u potrebno vrijeme
  • Čovjek u petlji može biti zbunjen i preopterećen
  • Itd

Nesumnjivo ste u iskušenju da pogledate tu listu ljudskih slabosti i ograničenja, a zatim dođete do svečanog zaključka da ima očiglednog smisla izbaciti čovjeka u petlji i uvijek umjesto toga koristiti AI. Ovo bi moglo ili isključiti čovjeka u petlji ili možda omogućiti da AI bude u stanju da nadjača uvriježeni dizajn čovjeka u petlji. Pogledajte moju analizu o tome kako neslaganja između AI i čovjeka u petlji mogu dovesti do nesigurnih situacija, obrađenih na link ovdje.

Često se omalovažavajuća lista ovih vrsta nedostataka u stvarnom vremenu fokusiranih na čovjeka ostavlja sama od sebe i ostavlja dugotrajan utisak da umjetna inteligencija na neki način mora biti mnogo mudriji izbor nego imati čovjeka u petlji . Nemojte upasti u tu izdajničku zamku. Tu su uključeni otrežnjujući kompromisi.

Razmotrite ove posljedice AI:

  • AI bi mogao naići na grešku koja uzrokuje da zaluta
  • AI može biti preopterećen i blokiran bez reakcije
  • AI može sadržavati programske greške koje uzrokuju neredovno ponašanje
  • AI bi mogao biti oštećen implantiranim virusom zlikovaca
  • AI bi mogli preuzeti sajberhakeri u realnom vremenu
  • AI se može smatrati nepredvidivim zbog složenosti
  • AI bi kompjuterski mogao donijeti "pogrešnu" odluku (relativno)
  • Itd

Vjerujem da možete vidjeti da postoje kompromisi između korištenja čovjeka u petlji i oslanjanja isključivo na AI. U slučaju da ste u iskušenju da sugerirate da je spremno rješenje korištenje oba, samo bih želio naglasiti da možete dobiti najbolje od oba svijeta, ali možete dobiti i najgore od oba svijeta. Nemojte pretpostavljati da će to uvijek i sigurno biti najbolje od oba svijeta.

Možda ste bili pomalo iznenađeni jednom od gore navedenih nedostataka u vezi s umjetnom inteligencijom, konkretno da bi AI mogla biti nepredvidiv. Navikli smo vjerovati da bi umjetna inteligencija trebala biti strogo logička i matematički precizna. Kao takav, takođe možete očekivati ​​da će AI biti potpuno predvidljiv. Trebalo bi da znamo tačno šta će AI uraditi. Tačka, kraj priče.

Žao mi je što sam taj balon pukao, ali ovaj mit o predvidljivosti je pogrešan naziv. Veličina i složenost moderne veštačke inteligencije često su barijera koja ne može biti savršeno predvidljiva. Ovo se vidi u etičkim AI galamama o nekim današnjim upotrebama mašinskog učenja (ML) i dubokog učenja (DL). Objasniću malo više za trenutak.

Također, možda biste željeli da pogledate moju najnoviju analizu nadolazećih trendova u pokušaju da se osiguraju provjerljivi i matematički dokazano ispravni AI sistemi putem najnovije AI sigurnosti, na link ovdje.

Razmišljanje o pravilima puta

Spomenuo sam pojam meta i ciljanja, što je prilično opterećena terminologija koja zaslužuje posebnu pažnju.

Možemo razmisliti o ovome:

  • Mete koje su ljudi
  • Mete koje nisu ljudi, već su živa bića
  • Ciljevi koji se tumače kao vlasništvo

Pretpostavimo da imamo autonomni sistem koji je naoružan. AI se koristi za vođenje autonomnog sistema i koristi se za oružje. AI radi sve od A do Z. Ne postoji odredba za čovjeka u petlji. Što se tiče ciljanja, AI će odabrati mete. Ne postoji prethodno ciljanje koje su uspostavili ljudi. Umjesto toga, AI je programiran da generalno utvrdi da li postoje ljudi koji će biti ciljani (možda skeniranje za neprijateljske akcije, određene vrste uniformi i tako dalje).

Sa mnom na ovome do sada?

Ovaj scenario je uglavnom onaj koji izaziva najviše negodovanja o naoružanim autonomnim sistemima.

Navedena zabrinutost je da AI radi (najmanje) tri stvari koje joj ne bi trebalo dozvoliti:

  • Ciljanje na ljude kao mete
  • Ciljanje bez upotrebe čovjeka u petlji
  • Potencijalno djeluje nepredvidivoly

Primijetite da se naglašeno pominje zabrinutost da je AI nepredvidljiva. Moguće je da iako je AI programirana da cilja određene vrste ljudi, AI programiranje nije ono što smo mislili da jeste, a AI na kraju cilja na "prijateljske" pored onih koje je AI trebala protumačiti kao "neprijateljske" ” (ili, možda umjesto toga). Povrh ovoga, čak i ako se odlučimo da uključimo odredbu o čovjeku u petlji, nepredvidljivost AI bi mogla značiti da kada bi AI trebala da se posavjetuje s čovjekom u petlji, ne uspijeva tako i djeluje bez ikakve ljudske intervencije.

Možda će vam biti zanimljivo da je Međunarodni komitet Crvenog krsta (ICRC) ponudio sveobuhvatni stav u tri tačke o autonomnim sistemima oružja koji elaborira ove vrste zabrinutosti (prema web stranici MKCK-a):

1. „Nepredvidivi autonomni sistemi naoružanja treba da budu izričito regulisani napolje, prije svega zbog njihovog neselektivnog djelovanja. To bi se najbolje moglo postići zabranom autonomnih oružanih sistema koji su dizajnirani ili korišteni na način da se njihovi efekti ne mogu dovoljno razumjeti, predvidjeti i objasniti.”

2. „U svjetlu etičkih razmatranja zaštite čovječnosti i pridržavanja pravila međunarodnog humanitarnog prava za zaštitu civila i boraca van borbe, treba isključiti upotrebu autonomnih sistema oružja za gađanje ljudskih bića. To bi se najbolje moglo postići zabranom autonomnih oružanih sistema koji su dizajnirani ili korišteni za primjenu sile protiv osoba.”

3. „Kako bi se zaštitili civili i civilni objekti, podržala pravila međunarodnog humanitarnog prava i zaštitila čovječanstvo, dizajn i korištenje autonomnih oružanih sistema koji ne bi bili zabranjeni trebalo bi regulisati, uključujući kombinaciju: ograničenja tipova meta, kao što je njihovo ograničavanje na objekte koji su po prirodi vojni ciljevi; ograničenja trajanja, geografskog opsega i obima upotrebe, uključujući omogućavanje ljudske prosudbe i kontrole u vezi sa određenim napadom; ograničenja u situacijama upotrebe, kao što je njihovo ograničavanje na situacije u kojima civili ili civilni objekti nisu prisutni; rzahtjevi za interakciju čovjek-mašina, posebno kako bi se osigurao efikasan ljudski nadzor i pravovremena intervencija i deaktivacija.”

U vezi s tim, Ujedinjene nacije (UN) su putem Konvencije o određenom konvencionalnom oružju (CCW) u Ženevi uspostavile jedanaest neobavezujućih vodećih principa o smrtonosnom autonomnom oružju, prema službenom izvještaju objavljenom na internetu (koji uključuje reference na relevantne međunarodne humanitarne Zakon ili odredbe MHP):

(a) Međunarodno humanitarno pravo nastavlja da se u potpunosti primjenjuje na sve sisteme oružja, uključujući potencijalni razvoj i upotrebu smrtonosnih autonomnih sistema oružja;

(b) Ljudska odgovornost za odluke o upotrebi sistema naoružanja mora biti zadržana jer se odgovornost ne može prenijeti na mašine. Ovo treba uzeti u obzir tokom čitavog životnog ciklusa sistema naoružanja;

(c) Interakcija čovjeka i mašine, koja može imati različite oblike i biti implementirana u različitim fazama životnog ciklusa oružja, trebala bi osigurati da potencijalna upotreba oružanih sistema zasnovanih na novim tehnologijama u oblasti smrtonosnih autonomnih sistema oružja bude u usklađenost sa važećim međunarodnim pravom, posebno MHP. U određivanju kvaliteta i obima interakcije čovjeka i mašine treba uzeti u obzir niz faktora, uključujući operativni kontekst, te karakteristike i sposobnosti sistema naoružanja u cjelini;

(d) Odgovornost za razvoj, raspoređivanje i upotrebu bilo kog sistema naoružanja u nastajanju u okviru CCW mora biti osigurana u skladu sa primjenjivim međunarodnim pravom, uključujući djelovanje takvih sistema unutar odgovornog lanca ljudske komande i kontrole;

(e) U skladu sa obavezama država prema međunarodnom pravu, prilikom proučavanja, razvoja, nabavke ili usvajanja novog oružja, sredstava ili metoda ratovanja, mora se utvrditi da li bi njegovo korištenje, u nekim ili svim okolnostima, bilo zabranjeno međunarodnim pravom;

(f) Prilikom razvoja ili nabavke novih sistema naoružanja zasnovanih na novim tehnologijama u oblasti smrtonosnih autonomnih oružanih sistema, fizičke sigurnosti, odgovarajućih nefizičkih mjera zaštite (uključujući sajber-sigurnost od hakovanja ili lažiranja podataka), rizik od akvizicije od strane terorističkih grupa i treba uzeti u obzir rizik od proliferacije;

(g) Procjene rizika i mjere za ublažavanje treba da budu dio ciklusa dizajna, razvoja, testiranja i primjene novih tehnologija u svim sistemima naoružanja;

(h) Trebalo bi uzeti u obzir korištenje novih tehnologija u oblasti smrtonosnih autonomnih sistema naoružanja u održavanju usklađenosti sa MHP i drugim primjenjivim međunarodnim pravnim obavezama;

(i) U kreiranju potencijalnih mjera politike, nove tehnologije u oblasti smrtonosnih autonomnih sistema naoružanja ne bi trebale biti antropomorfizovane;

(j) Diskusije i sve potencijalne političke mjere poduzete u kontekstu CCW ne bi trebale ometati napredak ili pristup mirnoj upotrebi inteligentnih autonomnih tehnologija;

(k) CCW nudi odgovarajući okvir za bavljenje pitanjem novih tehnologija u oblasti smrtonosnih autonomnih sistema naoružanja u kontekstu ciljeva i svrha Konvencije, koja nastoji uspostaviti ravnotežu između vojne nužde i humanitarnih razloga.

Problem u kojem se nalazimo

Ovi razni ratni zakoni, zakoni oružanog sukoba ili IHL (Međunarodni humanitarni zakoni) služe kao vitalni i uvijek obećavajući vodič za razmatranje onoga što bismo mogli pokušati učiniti u vezi s pojavom autonomnih sistema koji su naoružani, bilo da je riječ o ključnom dizajnu ili naknadnim metodama.

Iskreno možemo poželjeti da se zabrana smrtonosnih naoružanih autonomnih sistema striktno i poslušno poštuje. Problem je u tome što će se mnogo prostora za pomicanje lukavo naći unutar bilo koje od najiskrenijih zabrana. Kako kažu, pravila su stvorena da se krše. Možete se kladiti da će tamo gdje su stvari opuštene, riffraff pronaći praznine i pokušati namignuti-namignuti zaobići pravila.

Evo nekih potencijalnih rupa koje su vrijedne razmatranja:

  • Tvrdnje o nesmrtonosnom. Napravite nesmrtonosna autonomni sistemi naoružanja (naizgled u redu jer je izvan granice zabrane), koje onda možete u maloj mjeri pretvoriti u smrtonosne (preći ćete zabranu tek u posljednjem trenutku).
  • Zahtevi samo za autonomni sistem. Podržite zabranu tako što ćete ne praviti autonomne sisteme fokusirane na smrtonosne probleme, u međuvremenu, ostvarite što veći napredak u osmišljavanju svakodnevnih autonomnih sistema koji (još) nisu naoružani, ali koje možete za novčić naknadno ugraditi u oružje.
  • Tvrdnje da nisu integrisane kao jedna. Izradite autonomne sisteme koji nisu nimalo opremljeni oružjem, a kada dođe vrijeme, oružju sa loptom tako da možete pokušati žestoko tvrditi da su to dva odvojena elementa i stoga tvrditi da ne spadaju u rubriku sve-u-jednom autonomni sistem oružja ili njegov rođak.
  • Tvrdi da nije autonomna. Napravite sistem oružja koji ne izgleda kao autonomni kapacitet. Ostavite prostora u ovom vjerovatno neautonomnom sistemu za uvođenje autonomije zasnovane na umjetnoj inteligenciji. Kada je potrebno, uključite autonomiju i spremni ste za roll (do tada, čini se da niste kršili zabranu).
  • drugi

Postoji mnogo drugih izraženih poteškoća u pokušaju da se potpuno zabrani smrtonosni autonomni sistemi oružja. Ja ću pokriti još nekoliko njih.

Neki stručnjaci tvrde da zabrana nije posebno korisna i da bi umjesto toga trebalo postojati regulatorne odredbe. Ideja je da će ove naprave biti dozvoljene, ali pod strogim nadzorom. Izložena je litanija zakonitih upotreba, zajedno sa zakonitim načinima ciljanja, zakonitim vrstama sposobnosti, zakonitom proporcionalnošću i slično.

Po njihovom mišljenju, direktna zabrana je kao stavljanje glave u pijesak i pretvaranje da slon u sobi ne postoji. Ova tvrdnja ipak izaziva ključanje krvi onih koji se suprotstavljaju argumentu da uvođenjem zabrane možete dramatično smanjiti inače iskušenje da slijedite ovakve sisteme. Naravno, neki će se razmetati zabranom, ali barem se nadamo da većina neće. Tada možete fokusirati svoju pažnju na one koji se razmeću i ne morate da delite pažnju na sve.

Ove debate idu u krug.

Još jedna često primećena briga je da čak i ako se dobri pridržavaju zabrane, loši neće. Ovo dobro stavlja u loš položaj. Loši će imati ove vrste naoružanih autonomnih sistema, a dobri neće. Jednom kada se otkrije da ih loši imaju, biće prekasno da ih dobri sustignu. Ukratko, jedina pametna stvar koju treba učiniti je pripremiti se za borbu protiv vatre vatrom.

Postoji i klasična tvrdnja o odvraćanju. Ako se dobri odluče da naprave autonomne sisteme sa oružjem, to se može iskoristiti da odvrati loše od pokušaja da uđu u sukob. Ili će dobri biti bolje naoružani i tako razuvjeriti loše, ili će dobri biti spremni kada loši možda otkriju da su sve vrijeme krišom osmišljavali te sisteme.

Protiv ovih kontrakcija je to što stvaranjem naoružanih autonomnih sistema vodite trku u naoružanju. Druga strana će tražiti isto. Čak i ako tehnološki nisu u stanju da iznova stvore takve sisteme, sada će moći da ukradu planove onih „dobrih“, da obrnu inžinjering visokotehnoloških creva, ili da oponašaju ono što im se čini da je isprobano način da se posao obavi.

Aha, neka replika, sve bi to moglo dovesti do smanjenja sukoba naizgled međusobnog. Ako strana A zna da strana B ima to smrtonosno oružje autonomnih sistema, a strana B zna da ih ima strana A, mogle bi sjediti čvrsto i ne doći do sukoba. Ovo ima onu jasnu auru vibracija uzajamno osiguranog uništenja (MAD).

I tako dalje.

AI u autonomiji

Uvjerimo se da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite veoma oprezni sa antropomorfizacijom današnje veštačke inteligencije.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Uz tu dodatnu temeljnu pozadinu, ponovo se okrećemo temi autonomnih sistema i naoružanja. Ranije smo vidjeli da AI ulazi u komponentu autonomnog sistema i također može ući u komponentu naoružanja. Današnja AI nije razumna. Ovo je vrijedno ponavljanja i to ću istaknuti radi dodatnog uvida u ova pitanja.

Hajde da istražimo neke scenarije da vidimo koliko je ovo ključno razmatranje. Nakratko ću se isključiti iz ratne orijentacije na ovu temu i pokazati kako ona prožima mnoge druge društvene sredine. Shodno tome, učvrstite se.

Autonomni sistem baziran na veštačkoj inteligenciji, kao što je autonomno vozilo za koje ćemo reći da nema nikakve veze sa oružjem, probija se kroz normalnu lokaciju. Čovjek dolazi da iskoristi autonomno vozilo. Osoba je naoružana oružjem za slutnju. Pretpostavite radi diskusije u ovom konkretnom scenariju da osoba ima nešto loše na umu. Osoba ulazi u autonomno vozilo (noseći svoje oružje, skriveno ili neskriveno, u svakom slučaju).

Autonomno vozilo nastavlja do odredišta koje je vozač zatražio. U ovom slučaju, AI jednostavno programski prenosi ovog putnika s jedne lokacije za preuzimanje do određenog odredišta, baš kao što je to činio za moguće desetine ili stotine putovanja, svaki dan.

Da se radilo o ljudskom vozaču i vozilu kojim upravljaju ljudi, vjerovatno postoji šansa da bi čovjek-vozač shvatio da je putnik naoružan i izgleda da ima loše namjere. Ljudski vozač može odbiti da upravlja vozilom. Ili bi se čovjek mogao odvesti do policijske stanice. Ili bi možda čovjek-vozač mogao pokušati pokoriti naoružanog putnika (prijavljeni slučajevi postoje) ili odvratiti putnika od upotrebe oružja. To je prilično komplikovano i može postojati bilo koji broj varijacija. Bilo bi vam teško reći da postoji samo jedan pravi odgovor za rješavanje takve nevolje. Nažalost, situacija je uznemirujuća i očigledno opasna.

Malo je vjerovatno da će AI u ovom slučaju biti programiran za bilo koju od tih vrsta mogućnosti. Ukratko, naoružani putnik bi mogao da koristi svoje oružje, čineći to iz autonomnog vozila, tokom vožnje. AI sistem vožnje će nastaviti da putuje, a autonomno vozilo će nastaviti da ide ka navedenoj oznaci putnika (pod pretpostavkom da se odredište inače ne smatra izvan granica).

Većina savremenih AI sistema za vožnju bi se kompjuterski fokusirala samo na kolovoz, a ne na napore vozača.

Stvari mogu biti gore od ovoga.

Pretpostavimo da neko želi da se gomila namirnica preveze na mjesto koje uzima dodatnu hranu za potrebite. Osoba traži autonomno vozilo i stavlja vreće s namirnicama na zadnje sjedište vozila. Oni neće ići zajedno u vožnju i samo koriste autonomno vozilo da im dostave vreće s hranom.

Izgleda savršeno dobro.

Zamislite da se podla osoba umjesto toga odluči staviti neki oblik naoružanja u autonomno vozilo umjesto mirnije ideje vrećica s namirnicama. Mislim da možete pretpostaviti šta bi se moglo dogoditi. To je zabrinutost koju sam više puta podsticao u svojim kolumnama i upozoravao da se moramo suočiti prije nego kasnije.

Jedan od ponuđenih odgovora na ove vrste scenarija je da bi se možda sva autonomna vozila mogla programirati da koriste svoje kamere i druge senzore kako bi pokušali otkriti da li je potencijalni putnik naoružan i ima zle namjere. Možda bi AI bio programiran da to uradi. Ili AI elektronski i tiho upozorava udaljenog ljudskog operatera koji bi zatim putem kamera vizuelno i na drugi način pregledao i eventualno stupio u interakciju sa putnikom. Sve je to dio složene i potencijalno nerješive konzerve crva, tako da pokreće intenzivna pitanja privatnosti i mnoštvo drugih potencijalnih problema etičke umjetne inteligencije. Pogledajte moju pokrivenost na link ovdje.

Još jedna pomalo slična alternativa je da AI sadrži neku vrstu ugrađenog etičkog programiranja koji pokušava omogućiti AI da donosi etičke ili moralne prosudbe koje su obično rezervirane za ljude koji donose odluke. Ispitao sam ove vrste prognostičara računarske etike ugrađenih u veštačku inteligenciju, vidi link ovdje i link ovdje.

Vraćajući se na scenarij bojnog polja, zamislite da smrtonosni autonomni sistem naoružanja krstari iznad borbene zone. AI upravlja autonomnim sistemom. AI upravlja oružjem na brodu. Ranije smo zamislili mogućnost da bi AI mogao biti programiran da skenira naizgled neprijateljske pokrete ili druge pokazatelje ljudskih ciljeva koji se smatraju validnim borcima.

Da li bi ova ista AI trebala imati neku vrstu etički orijentirane komponente koja nastoji da kompjuterski razmotri šta bi čovjek-u-petlji mogao učiniti, djelujući na neki način umjesto da ima čovjeka-u-petlji?

Neki kažu da, hajde da nastavimo sa ovim. Neki ustuknu od užasa i kažu da je to ili nemoguće ili na drugi način narušava svetost čovječanstva.

Još jedna konzerva crva.

zaključak

Za one od vas koje zanima ova tema, ima još mnogo toga o čemu treba razgovarati.

Daću vam na brzinu da probate jednu mučnu zagonetku.

Obično očekujemo da će čovjek na kraju biti odgovoran za sve što se dogodi tokom rata. Ako veštačka inteligencija kontroliše autonomni sistem oružja ili kontroliše autonomni sistem koji je verovatno naoružan, a ovaj sistem radi nešto na bojnom polju za šta se veruje da je nesavesno, ko ili šta je za to krivo?

Mogli biste tvrditi da AI treba smatrati odgovornim. Ali, ako jeste, šta to tačno znači? Mi još ne smatramo današnju AI oličenjem pravne ličnosti, pogledajte moje objašnjenje na link ovdje. Nema pribadanja repa magarcu u slučaju AI. Možda ako AI jednog dana postane razuman, možete pokušati to učiniti. Do tada, ovo je malo doseg (plus, kakvim kaznama ili reperkusijama bi bila podvrgnuta AI, pogledajte moju analizu na link ovdje i link ovdje, na primjer).

Ako AI nije odgovorni osumnjičeni, onda bismo prirodno mogli reći da sve što su ljudi ili ljudi osmislili AI treba da se smatraju odgovornim. Možete li to učiniti ako je AI samo pokretao autonomni sistem i naišli su neki ljudi koji su ga uparili sa oružjem? Jeste li za AI programerima? Ili oni koji su koristili AI? Ili samo glumac koji koristi oružje?

Vjerujem da ste shvatili da sam u svojoj srdačnoj raspravi dotaknuo samo vrh ledenog brega.

Za sada, hajde da završimo ovaj diskurs. Možda se sjećate da je John Lyly ušao Euphues: Anatomija duhovitosti 1578. nezaboravno izjavio da je u ljubavi i ratu sve pošteno.

Da li bi imao na umu pojavu autonomnih sistema naoružanja i isto tako pojavu autonomnih sistema koji su naoružani?

Ovo svakako treba da stavimo na pamet, odmah.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- sistemi-oružja-i-eksploatacija-autonomnih-sistema-koji-su-đavolski-naoružani/