Etika AI i zakon o AI postavljaju teška pitanja o tom novom obećanju od strane proizvođača plesnih robota koji kažu da će spriječiti AI oružje

Možda ste prošle sedmice vidjeli u vijestima ili primijetili na društvenim mrežama najavljeno obećanje nekih proizvođača robota o njihovim navodnim ciljevima da izbjegnu AI oružje za robote opšte namjene. Provest ću vas kroz detalje za trenutak, tako da ne brinite ako niste shvatili stvar.

Reakcija na ovu proklamaciju bila je brza i, možda kao i obično u našem polariziranom društvu, bila je i pohvalna i ponekad podrugljivo kritička ili potpuno gadno skeptična.

To je priča o dva svijeta.

U jednom svijetu neki kažu da je to upravo ono što nam treba odgovoran AI robot programeri da se izjasne.

Hvala Bogu što ste na pravoj strani pitanja koje će postepeno postajati sve vidljivije i sve više zabrinjavajuće. Ti slatki roboti koji plešu zabrinjavaju jer ih je prilično lako natjerati da nose oružje i da se koriste na najgore načine (ovo možete provjeriti i sami odlaskom na društvene mreže, a postoji mnoštvo videa koji prikazuju robote koji plešu naoružane mitraljezima i ostalo naoružanje).

Druga strana ovog novčića kaže da takozvani zalog nije ništa drugo do marketinški trik ili trik za odnose s javnošću (uz napomenu, da li je neko upoznat s razlikom između zaloga i donacije?). U svakom slučaju, sumnjaju da se radi o neobuzdanom signaliziranju vrline u kontekstu robota koji plešu. Vidite, žaljenje zbog činjenice da se roboti opšte namjene mogu koristiti oružjem svakako je vrijedno i ozbiljno traženo razmatranje, iako je puka tvrdnja da proizvođač to neće učiniti vjerovatno prazno obećanje, tvrde neki.

Sve u svemu, cijela stvar dovodi do prilično velikog skupa razmatranja etike AI i prava AI. Pedantno ćemo raspakovati temu i vidjeti kako je ovo dvostruki udar etičke i pravne AI bare. Za moje kontinuirano i opsežno pokrivanje etike AI i prava AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Takođe ću se tokom ove diskusije pozivati ​​na svoje prethodne analize opasnosti od AI naoružanja, kao što je moja dubinska procena na link ovdje. Možda biste željeli pogledati taj diskurs za dodatne detalje iza scene.

Otvoreno pismo koje otvara konzervu crva

Započnimo ovu analizu pažljivim, korak po korak, istraživanjem Otvorenog pisma koje je nedavno objavilo šest relativno poznatih naprednih proizvođača robota, naime Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics i Unitree. Uopšteno govoreći, pretpostavljam da ste uglavnom vidjeli robote Boston Dynamics, poput onih koji šepure okolo na sve četiri. Izgledaju kao da liče na pse i uživamo u tome da ih gledamo kako jure okolo.

Kao što sam ranije i više puta upozoravao, upotreba takvih „plesućih“ robota kao sredstva za uvjeravanje javnosti da su ovi roboti simpatični i simpatični nažalost dovodi u zabludu i skreće u obilne zamke njihovog antropomorfiziranja. Počinjemo razmišljati o ovim kaljenim komadima metala i plastike kao da su ekvivalent umiljatog odanog psa. Naša spremnost da prihvatimo ove robote temelji se na lažnom osjećaju sigurnosti i sigurnosti. Naravno, morate zaraditi dolar i šanse da to učinite su povećane paradiranjem oko robota koji plešu, ali ovo nažalost izostavlja ili naizgled skriva stvarnu činjenicu da su ovi roboti roboti i da AI koja kontrolira robote može biti pogrešno osmišljena ili pogriješite.

Razmotrite ove posljedice AI (izvod iz mog članka o AI naoružanju, koji se nalazi na link ovdje):

  • AI bi mogao naići na grešku koja uzrokuje da zaluta
  • AI može biti preopterećen i blokiran bez reakcije
  • AI može sadržavati programske greške koje uzrokuju neredovno ponašanje
  • AI bi mogao biti oštećen implantiranim virusom zlikovaca
  • AI bi mogli preuzeti sajberhakeri u realnom vremenu
  • AI se može smatrati nepredvidivim zbog složenosti
  • AI bi kompjuterski mogao donijeti "pogrešnu" odluku (relativno)
  • Itd

To su tačke u vezi sa veštačkom inteligencijom koja je tipa koja je zaista osmišljena na početku da uradi pravu stvar.

Povrh ovih razmatranja, morate uključiti AI sisteme koji su napravljeni od samog početka da rade loše stvari. Možete imati AI koji je napravljen u korisne svrhe, koji se često naziva AI za dobro. Također možete imati AI koji je namjerno napravljen u loše svrhe, poznat kao AI za loše. Štaviše, možete imati AI za dobro koji je iskvaren ili preuređen da postane AI za loše.

Uzgred, ništa od ovoga nema nikakve veze sa AI-om koji postaje razuman, što spominjem jer neki stalno uzvikuju da je današnja AI ili razumna ili na ivici da bude razumna. Nije tako. Razdvajam te mitove u svojoj analizi na link ovdje.

Uvjerimo se da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Ako bismo hteli divlje spekulirati o razumnoj AI, ova rasprava bi mogla krenuti u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Ja bih snažno predložio da stvari zadržimo na zemlji i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite veoma oprezni sa antropomorfizacijom današnje veštačke inteligencije.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima značajno značajne implikacije na etiku AI i nudi zgodan prozor u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj da se AI legalizuje.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. Oni unaprijed upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku suzbijanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti.

U prethodnim kolumnama pokrio sam različite nacionalne i međunarodne napore za izradu i donošenje zakona koji regulišu AI, vidi link ovdje, na primjer. Također sam pokrio različite principe i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih nacija kao što je UNESCO-ov skup etike umjetne inteligencije koji je usvojilo skoro 200 zemalja, vidi link ovdje.

Evo korisne ključne liste etičkih AI kriterija ili karakteristika u vezi s AI sistemima koje sam prethodno pomno istražio:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme.

Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ovdje ranije naglašeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Sada kada sam postavio korisne temelje za ulazak u Otvoreno pismo, spremni smo da zaronimo.

Zvanični naslov Otvorenog pisma je sljedeći:

  • "Otvoreno pismo robotskoj industriji i našim zajednicama, Roboti opće namjene ne bi trebali biti naoružani” (prema objavljenom na internetu).

Zasada je dobro.

Naslov izgleda skoro kao sladoled i pita od jabuka. Kako bi neko mogao osporiti ovo kao nekadašnji poziv da se izbjegne AI robotizacija oružja?

Čitajte dalje da vidite.

Prvo, kao hrana za razmatranje, evo zvaničnog uvodnog paragrafa Otvorenog pisma:

  • “Mi smo neke od vodećih svjetskih kompanija posvećenih uvođenju novih generacija napredne mobilne robotike u društvo. Ove nove generacije robota su pristupačnije, lakše za rukovanje, autonomnije, pristupačnije i prilagodljivije od prethodnih generacija i sposobni su za navigaciju do lokacija koje su ranije bile nedostupne automatiziranim ili daljinski kontroliranim tehnologijama. Vjerujemo da će napredni mobilni roboti pružiti veliku korist društvu kao saradnicima u industriji i suputnicima u našim domovima” (prema objavljenom na internetu).

Sunčana strana pojave ovih vrsta robota je to što možemo predvidjeti mnoge velike prednosti koje će se pojaviti. Nema sumnje u to. Možda imate robota u svom domu koji može obavljati one aktivnosti slične Jetsonu, kao što su čišćenje vaše kuće, pranje suđa i drugi poslovi oko domaćinstva. Imaćemo napredne robote za upotrebu u fabrikama i proizvodnim pogonima. Roboti potencijalno mogu puzati ili manevrirati u skučenim prostorima kao što je kada se zgrada sruši i ljudski životi su u opasnosti da budu spašeni. I tako dalje.

Na stranu, moglo bi vas zanimati moje nedavno kritičko izvještavanje o Teslinom AI Danu, na kojem je Elon Musk predstavio neke vrste robota koji hodaju kao budućnost za Teslu i društvo, vidi link ovdje.

Da se vratim na stvar. Kada ozbiljno razgovaramo o robotima koji plešu ili robotima koji hodaju, moramo pažljivo uzeti u obzir kompromise ili ukupan ROI (povrat na ulaganje) ove upotrebe AI. Ne trebamo dozvoliti sebi da budemo pretjerano zaljubljeni u beneficije kada postoje i troškovi koje treba uzeti u obzir.

Sjajna nova igračka može imati prilično oštre ivice.

Sve ovo potiče važnu, ali pomalo tihu poentu da je dio razloga zbog kojeg se sada pojavljuje pitanje AI naoružanja zbog napredovanja AI prema autonomnoj aktivnosti. Obično smo očekivali da oružjem uglavnom upravljaju ljudi. Čovjek odlučuje da li će pucati ili aktivirati oružje. Vjerovatno možemo smatrati tog čovjeka odgovornim za svoje postupke.

AI koji je osmišljen da radi autonomno ili koji se može prevariti da to učini, naizgled bi uklonio čovjeka iz petlje. AI tada algoritamski donosi računske odluke koje mogu završiti ubijanjem ili ozljeđivanjem ljudi. Pored očigledne zabrinutosti zbog nedostatka kontrole nad AI, takođe imate nedoumice da bismo mogli imati teško vreme da odredimo odgovornost za radnje AI. Nemamo čoveka koji bi bio naš očigledan podstrekač.

Shvaćam da neki vjeruju da bismo jednostavno i direktno trebali smatrati AI odgovornom za svoje postupke, kao da je AI stekao razum ili na neki drugi način dobio pravno lice (pogledajte moje izvješće o raspravama o AI koji stječe pravno lice na link ovdje). To za sada neće ići. Morat ćemo pratiti AI do ljudi koji su ga ili osmislili ili koji su ga postavili. Oni će nesumnjivo pokušati da legalno izbegnu odgovornost pokušavajući da tvrde da je veštačka inteligencija prevazišla ono što su zamislili. Ovo je rastuća tvrdnja s kojom se moramo pozabaviti (pogledajte moje spise zakona o umjetnoj inteligenciji za uvid u sporna pitanja koja su uključena).

Ujedinjene nacije (UN) su putem Konvencije o određenom konvencionalnom oružju (CCW) u Ženevi uspostavile jedanaest neobavezujućih vodećih principa o smrtonosnom autonomnom oružju, prema službenom izvještaju objavljenom na internetu (koji obuhvata reference na relevantno međunarodno humanitarno pravo ili odredbe MHP) , uključujući:

(a) Međunarodno humanitarno pravo nastavlja da se u potpunosti primjenjuje na sve sisteme oružja, uključujući potencijalni razvoj i upotrebu smrtonosnih autonomnih sistema oružja;

(b) Ljudska odgovornost za odluke o upotrebi sistema naoružanja mora biti zadržana jer se odgovornost ne može prenijeti na mašine. Ovo treba uzeti u obzir tokom čitavog životnog ciklusa sistema naoružanja;

(c) Interakcija čovjeka i mašine, koja može imati različite oblike i biti implementirana u različitim fazama životnog ciklusa oružja, trebala bi osigurati da potencijalna upotreba oružanih sistema zasnovanih na novim tehnologijama u oblasti smrtonosnih autonomnih sistema oružja bude u usklađenost sa važećim međunarodnim pravom, posebno MHP. U određivanju kvaliteta i obima interakcije čovjeka i mašine treba uzeti u obzir niz faktora, uključujući operativni kontekst, te karakteristike i sposobnosti sistema naoružanja u cjelini;

(d) Odgovornost za razvoj, raspoređivanje i upotrebu bilo kog sistema naoružanja u nastajanju u okviru CCW mora biti osigurana u skladu sa primjenjivim međunarodnim pravom, uključujući djelovanje takvih sistema unutar odgovornog lanca ljudske komande i kontrole;

(e) U skladu sa obavezama država prema međunarodnom pravu, prilikom proučavanja, razvoja, nabavke ili usvajanja novog oružja, sredstava ili metoda ratovanja, mora se utvrditi da li bi njegovo korištenje, u nekim ili svim okolnostima, bilo zabranjeno međunarodnim pravom;

(f) Prilikom razvoja ili nabavke novih sistema naoružanja zasnovanih na novim tehnologijama u oblasti smrtonosnih autonomnih oružanih sistema, fizičke sigurnosti, odgovarajućih nefizičkih mjera zaštite (uključujući sajber-sigurnost od hakovanja ili lažiranja podataka), rizik od akvizicije od strane terorističkih grupa i treba uzeti u obzir rizik od proliferacije;

(g) Procjene rizika i mjere za ublažavanje treba da budu dio ciklusa dizajna, razvoja, testiranja i primjene novih tehnologija u svim sistemima naoružanja;

(h) Trebalo bi uzeti u obzir korištenje novih tehnologija u oblasti smrtonosnih autonomnih sistema naoružanja u održavanju usklađenosti sa MHP i drugim primjenjivim međunarodnim pravnim obavezama;

(i) U kreiranju potencijalnih mjera politike, nove tehnologije u oblasti smrtonosnih autonomnih sistema naoružanja ne bi trebale biti antropomorfizovane;

(j) Diskusije i sve potencijalne političke mjere poduzete u kontekstu CCW ne bi trebale ometati napredak ili pristup mirnoj upotrebi inteligentnih autonomnih tehnologija;

(k) CCW nudi odgovarajući okvir za bavljenje pitanjem novih tehnologija u oblasti smrtonosnih autonomnih sistema naoružanja u kontekstu ciljeva i svrha Konvencije, koja nastoji uspostaviti ravnotežu između vojne nužde i humanitarnih razloga.

Ovi i drugi različiti ratni zakoni i zakoni oružanog sukoba, ili IHL (Međunarodni humanitarni zakoni) služe kao vitalni i uvijek obećavajući vodič za razmatranje onoga što bismo mogli pokušati učiniti u vezi s pojavom autonomnih sistema koji su naoružani, bilo da je riječ o ključnom kamenu. dizajnom ili naknadnim metodama.

Neki kažu da bismo trebali potpuno zabraniti one autonomne sisteme umjetne inteligencije koji se mogu oružiti. Tako je, svijet bi trebao spustiti nogu i oštro zahtijevati da autonomni sistemi umjetne inteligencije nikada ne budu naoružani. Treba uvesti potpunu zabranu. Kraj priče. Tačka, tačka.

Pa, možemo iskreno poželjeti da se zabrana smrtonosnih naoružanih autonomnih sistema striktno i poslušno poštuje. Problem je u tome što će se mnogo prostora za pomicanje lukavo naći unutar bilo koje od najiskrenijih zabrana. Kako kažu, pravila su stvorena da se krše. Možete se kladiti da će tamo gdje su stvari opuštene, riffraff pronaći praznine i pokušati namignuti-namignuti zaobići pravila.

Evo nekih potencijalnih rupa koje su vrijedne razmatranja:

  • Tvrdnje o nesmrtonosnom. Napravite nesmrtonosne autonomne sisteme oružja (naizgled je u redu jer je izvan granice zabrane), koje onda možete u maloj mjeri preusmjeriti u smrtonosne (bićete izvan zabrane tek u posljednjem trenutku).
  • Zahtevi samo za autonomni sistem. Podržite zabranu tako što ćete ne praviti autonomne sisteme fokusirane na smrtonosne probleme, u međuvremenu, ostvarite što veći napredak u osmišljavanju svakodnevnih autonomnih sistema koji (još) nisu naoružani, ali koje možete za novčić naknadno ugraditi u oružje.
  • Tvrdnje da nisu integrisane kao jedna. Izradite autonomne sisteme koji nisu nimalo opremljeni oružjem, a kada za to dođe vrijeme, oružiju na jednom mjestu tako da možete pokušati žestoko tvrditi da su to dva odvojena elementa i stoga tvrditi da ne spadaju u rubriku sve-u-jednom autonomni sistem oružja ili njegov rođak.
  • Tvrdi da nije autonomna. Napravite sistem oružja koji ne izgleda kao autonomni kapacitet. Ostavite prostora u ovom vjerovatno neautonomnom sistemu za uvođenje autonomije zasnovane na umjetnoj inteligenciji. Kada je potrebno, uključite autonomiju i spremni ste za roll (do tada, čini se da niste kršili zabranu).
  • drugi

Postoji mnogo drugih izraženih poteškoća u pokušaju da se potpuno zabrani smrtonosni autonomni sistemi oružja. Ja ću pokriti još nekoliko njih.

Neki stručnjaci tvrde da zabrana nije posebno korisna i da bi umjesto toga trebalo postojati regulatorne odredbe. Ideja je da će ove naprave biti dozvoljene, ali pod strogim nadzorom. Izložena je litanija zakonitih upotreba, zajedno sa zakonitim načinima ciljanja, zakonitim vrstama sposobnosti, zakonitom proporcionalnošću i slično.

Po njihovom mišljenju, direktna zabrana je kao stavljanje glave u pijesak i pretvaranje da slon u sobi ne postoji. Ova tvrdnja ipak izaziva ključanje krvi onih koji se suprotstavljaju argumentu da uvođenjem zabrane možete dramatično smanjiti inače iskušenje da slijedite ovakve sisteme. Naravno, neki će se razmetati zabranom, ali barem se nadamo da većina neće. Tada možete fokusirati svoju pažnju na one koji se razmeću i ne morate da delite pažnju na sve.

Ove debate idu u krug.

Još jedna često primećena briga je da čak i ako se dobri pridržavaju zabrane, loši neće. Ovo dobro stavlja u loš položaj. Loši će imati ove vrste naoružanih autonomnih sistema, a dobri neće. Jednom kada se otkrije da ih loši imaju, biće prekasno da ih dobri sustignu. Ukratko, jedina pametna stvar koju treba učiniti je pripremiti se za borbu protiv vatre vatrom.

Postoji i klasična tvrdnja o odvraćanju. Ako se dobri odluče da naprave autonomne sisteme sa oružjem, to se može iskoristiti da odvrati loše od pokušaja da uđu u sukob. Ili će dobri biti bolje naoružani i tako razuvjeriti loše, ili će dobri biti spremni kada loši možda otkriju da su sve vrijeme krišom smišljali te sisteme.

Protiv ovih kontrakcija je to što stvaranjem naoružanih autonomnih sistema vodite trku u naoružanju. Druga strana će tražiti isto. Čak i ako tehnološki nisu u stanju da iznova stvore takve sisteme, sada će moći da ukradu planove onih „dobrih“, da obrnu inžinjering visokotehnoloških creva, ili da oponašaju ono što im se čini da je isprobano način da se posao obavi.

Aha, neka replika, sve bi to moglo dovesti do smanjenja sukoba prividom međusobnog. Ako strana A zna da strana B ima to smrtonosno oružje autonomnih sistema, a strana B zna da ih ima strana A, mogle bi sjediti čvrsto i ne doći do sukoba. Ovo ima onu jasnu auru vibracija uzajamno osiguranog uništenja (MAD).

I tako dalje.

Pažljivo gledajući drugi pasus

Već smo pokrili dosta toga ovdje i samo do sada razmatrali prvi ili uvodni pasus Otvorenog pisma (ukupno četiri paragrafa).

Vrijeme je da pogledamo drugi pasus, evo ga:

  • „Kao i kod svake nove tehnologije koja nudi nove mogućnosti, pojava naprednih mobilnih robota nudi mogućnost zloupotrebe. Nepouzdani ljudi mogli bi ih iskoristiti za invaziju na građanska prava ili za prijetnju, povredu ili zastrašivanje drugih. Jedna oblast od posebne zabrinutosti je oružje. Vjerujemo da dodavanje oružja robotima kojima se upravlja daljinski ili autonomno, široko dostupnim javnosti i sposobnim za navigaciju do ranije nepristupačnih lokacija na kojima ljudi žive i rade, podiže nove rizike od štete i ozbiljna etička pitanja. Oružane primjene ovih robota sa novim sposobnostima također će naštetiti povjerenju javnosti u tehnologiju na načine koji štete ogromnim prednostima koje će donijeti društvu. Iz ovih razloga, ne podržavamo naoružavanje naših naprednih pokretnih robota opće namjene. Za one od nas koji su govorili o ovoj temi u prošlosti, i one koji se prvi put angažuju, sada osjećamo novu hitnost u svjetlu sve veće zabrinutosti javnosti posljednjih mjeseci uzrokovane malim brojem ljudi koji su vidljivo objavili svoju improviziranu napori da se oruže komercijalno dostupni roboti” (prema objavljenom na internetu).

Nakon čitanja tog drugog pasusa, nadam se da možete vidjeti kako moj raniji diskurs ovdje o AI naoružanju dolazi do izražaja.

Hajde da ispitamo nekoliko dodatnih tačaka.

Jedna donekle nedoumica u vezi sa određenim aspektom formulacije koja je izazvala problem kod nekih je to što se čini da narativ naglašava da bi "nepouzdani ljudi" mogli zloupotrijebiti ove AI robote. Da, zaista, mogli bi biti loši ljudi ili zlikovi koji izazivaju podla djela koja će "zloupotrebiti" AI robote.

U isto vrijeme, kao što je istaknuto na početku ove rasprave, također moramo jasno staviti do znanja da bi sama AI mogla poći po zlu, vjerovatno zbog ugrađenih grešaka ili grešaka i drugih sličnih komplikacija. Izražena je zabrinutost da se samo naglašavaju šanse za nepouzdani ljudi je da izgleda da ignoriše druge štetne mogućnosti. Iako većina AI kompanija i dobavljača to ne želi priznati, postoji mnoštvo problema sa AI sistemima koji mogu ugroziti sigurnost i pouzdanost autonomnih sistema. Za moje pokrivanje sigurnosti AI i potrebe za rigoroznim i dokazivim mjerama zaštite, vidi link ovdje, na primjer.

Još jedna značajna stvar koja se pojavila među onima koji su razmatrali Otvoreno pismo uključuje uključenu tvrdnju da bi moglo doći do potkopavanja povjerenja javnosti povezanog s AI robotima.

S jedne strane, ovo je valjana tvrdnja. Ako se AI roboti koriste za zle licitacije, možete se kladiti da će javnost biti prilično uzbuđena. Kada se javnost razbukta, možete se kladiti da će zakonodavci uskočiti u napad i nastojati donijeti zakone koji suzbijaju AI robote i proizvođače AI robota. To bi zauzvrat moglo osakatiti industriju AI robotike ako zakoni budu sveobuhvatni i zaustaviti napore koji uključuju prednosti AI robota. U određenom smislu, beba bi mogla biti izbačena sa vodom za kupanje (stari izraz, vjerovatno zaslužuje da bude penzionisan).

Očigledno postavljeno pitanje je da li je ova tvrdnja o sprečavanju smanjenja povjerenja javnosti u AI robote donekle sebičan kredo ili je za dobro svih nas (može li biti oboje?).

Ti odluci.

Sada dolazimo do posebno mesnatog dijela Otvorenog pisma:

  • „Obvezujemo se da nećemo koristiti naše napredne pokretne robote opšte namjene ili softver koji razvijamo koji omogućava naprednu robotiku i nećemo podržavati druge da to učine. Kada je to moguće, pažljivo ćemo pregledati predviđene aplikacije naših kupaca kako bismo izbjegli potencijalnu upotrebu oružja. Također se obavezujemo da ćemo istražiti razvoj tehnoloških karakteristika koje bi mogle ublažiti ili smanjiti ove rizike. Da budemo jasni, mi ne dovodimo u pitanje postojeće tehnologije koje nacije i njihove vladine agencije koriste da se brane i podržavaju svoje zakone” (prema objavljenom na internetu).

Možemo ovo raspakovati.

Sjednite i pripremite se u skladu s tim.

Jeste li spremni za neku vatrenu polarizaciju?

S druge strane, neki glasno najavljuju da bi se ovi proizvođači AI robota zakleli. Čini se da će ovi proizvođači robota srećom nastojati da svoje robote opće namjene "napredne mobilnosti" ne koriste oružjem. Osim toga, u Otvorenom pismu se navodi da neće podržati druge koji to čine.

Kritičari se pitaju da li je u pitanju neko pametno kovanje riječi.

Na primjer, gdje počinje, a gdje završava “napredna mobilnost”? Ako proizvođač robota osmišljava a jednostavan-mobilnost AI robota umjesto naprednog (što je nedefinirani dio tehničarskog žargona), da li je to isključeno iz opsega onoga što će ne biti naoružani? Stoga je, očigledno, u redu opremiti AI robote jednostavne pokretljivosti, sve dok nisu tzv. napredan.

Isto važi i za fraziranje robota opšte namene. Ako je AI robot osmišljen posebno za naoružanje i stoga nije, reći ćemo a opšte namjene robote, postaje li to održivo isključenje iz opsega?

Mogli biste se prepirati sa ovim prepirkama i gorljivo tvrditi da je ovo samo otvoreno pismo, a ne pravni dokument od pedeset stranica koji opisuje svaki kutak i rupu.

Ovo nas dovodi do naizgled više nesigurnosti na makro nivou koju su izrazili neki. U suštini, šta znači „zalog“?

Neki pitaju, gdje je govedina?

Kompanija koja se ovako obećava naizgled to čini bez ikakvog pravog udjela u igri. Ako vrh bilo koje firme koja se potpiše za ovo obećanje odluči da više ne poštuje obećanje, šta će se dogoditi s tom firmom? Hoće li rukovodioci biti po kratkom postupku kažnjeni? Hoće li se kompanija zatvoriti i obilato se izviniti što je prekršila obećanje? I tako dalje.

Koliko se može zaključiti, ne postoji posebna kazna ili kazna za bilo kakvu povredu zaloga.

Možete tvrditi da postoji mogućnost oštećenja reputacije. Firma koja daje zalog bi mogla biti optužena na tržištu jer je dala zalog koji više ne poštuje. Naravno, ovo takođe pretpostavlja da će se ljudi sjetiti da je obećanje dato. Takođe se pretpostavlja da će kršenje zaloga na neki način biti otkriveno (izrazito se čini malo vjerojatnim da će firma reći sve ako to učini). Prekršilac obećanja bi morao biti prozvan, a ipak bi takvo pitanje moglo postati samo buka u tekućem cunamiju vijesti o proizvođačima AI robotike.

Razmotrite drugi ugao koji se pojavio.

Firmu koja daje zalog kupuje neka veća firma. Veća firma odlučuje da počne pretvarati napredne pokretne robote opće namjene u verzije naoružane umjetnom inteligencijom.

Je li ovo kršenje zakletve?

Veća firma može insistirati da to nije kršenje pošto se ona (veća firma) nikada nije obavezala. U međuvremenu, bezazleni AI roboti koje je manja firma sastavila i osmislila, čineći to s naizgled najaltruističnijim namjerama, gotovo preko noći bivaju preuređeni u oružje.

Nekako potkopava obećanje, iako bi se moglo reći da manja firma nije znala da će se to jednog dana dogoditi. Bili su ozbiljni u svojoj želji. Bilo je van njihove kontrole u pogledu toga šta je veća firma za kupovinu odlučila da uradi.

Neki se pitaju i ima li u tome ikakve pravne odgovornosti.

Firma koja daje zaloge odlučuje za nekoliko mjeseci da neće ispuniti zalog. Oni su se predomislili. Može li se firma tužiti jer je odustala od obećanja koje je dala? Ko bi tužio? Šta bi bio osnov za tužbu? Pojavljuje se niz pravnih pitanja. Kako kažu, možete tužiti skoro svakoga, ali da li ćete pobijediti, to je sasvim druga stvar.

Razmislite o ovome na drugi način. Firma koja daje obećanje dobija priliku da napravi zaista veliki posao da proda čitavu gomilu svojih naprednih mobilnih robota opšte namene ogromnoj kompaniji koja je spremna da plati kroz nos da bi nabavila robote. To je jedan od onih kupoprodajnih poslova od milion dolara koji se događaju jednom u životu.

Šta treba da uradi kompanija za AI robotiku?

Ako se firma koja daje zalog za AI robotiku javno trguje, gotovo sigurno bi imali za cilj prodaju (isto bi se moglo reći i za privatnu firmu, iako ne baš tako). Zamislite da je firma koja je dala zalog zabrinuta da bi kupac mogao pokušati da naoružava robote, iako recimo da nema takve rasprave na stolu. Samo se priča da bi kupac to mogao učiniti.

U skladu s tim, firma koja daje garancije stavlja u svoje licenciranje da roboti ne smiju biti naoružani. Kupac odbija ovaj jezik i odstupa od kupovine.

Koliko je profita obećana firma za AI robotiku upravo otišla?

Postoji li tačka u kojoj profit iz ruke nadmašuje uključivanje zahtjeva za ograničenje licenciranja (ili, možda pravno formulisano ograničenje da bi se omogućio prostor za pomicanje i da se dogovor ipak dogodi)? Mislim da vidite u kakvoj je nedoumici. Tone takvih scenarija se lako dočaraju. Pitanje je da li će ovo obećanje imati zube. Ako da, kakve zube?

Ukratko, kao što je spomenuto na početku ove diskusije, neki su zabrinuti da se ova vrsta zaloga daje, dok drugi imaju slabije gledište o tome da li će zalog imati vodu.

Idemo dalje.

Dobivanje obećanja

Četvrti i poslednji paragraf Otvorenog pisma kaže ovo:

  • “Razumijemo da naša posvećenost sama po sebi nije dovoljna da u potpunosti odgovorimo na ove rizike, i stoga pozivamo kreatore politike da rade s nama na promoviranju bezbedne upotrebe ovih robota i zabrani njihove zloupotrebe. Također pozivamo svaku organizaciju, programere, istraživače i korisnike u robotskoj zajednici da daju slična obećanja da neće graditi, ovlastiti, podržavati ili omogućiti pričvršćivanje oružja na takve robote. Uvjereni smo da prednosti ovih tehnologija za čovječanstvo uvelike nadmašuju rizik od zloupotrebe i uzbuđeni smo zbog svijetle budućnosti u kojoj ljudi i roboti rade rame uz rame kako bi se uhvatili u koštac s nekim od svjetskih izazova” (prema objavljenom na internetu).

Ovaj posljednji dio Otvorenog pisma ima nekoliko dodatnih elemenata koji su izazvali bijes.

Pozivanje kreatorima politike može biti dobro ili loše, tvrde neki. Možda ćete natjerati kreatore politike koji nisu upućeni u ova pitanja koji će onda napraviti klasičnu žurbu sa prosuđivanjem i izraditi zakone i propise koji uzurpiraju napredak na AI robotima. Prema ranije izrečenoj stvari, možda će inovacija koja gura napred u napredovanju AI robota biti poremećena ili nagažena.

Bolje je da budete sigurni da znate šta tražite, kažu kritičari.

Naravno, kontra-argument je da narativ jasno kaže da bi kreatori politike trebali raditi s firmama za robotiku umjetne inteligencije kako bi shvatili kako vjerojatno razumno donijeti takve zakone i propise. Kontra-argument je da bi se na kreatore politike moglo gledati da se pridržavaju kreatora AI robotike ako se zadovolje njihovim hirovima. Suprotstavljanje kontraargumentima je to što je prirodno neophodno raditi sa onima koji znaju o tehnologiji, inače će ishod potencijalno biti nesretan. itd.

Na osnovu možda prepirke, neki su imali žgaravicu zbog linije koja poziva sve da daju slična obećanja da neće pričvršćivanje naoružanja do naprednih pokretnih robota opće namjene. Ključna riječ tamo je riječ pričvršćivanje. Ako neko pravi AI robota koji uključuje ili neprimetno ugrađuje oružje, čini se da to zaobilazi tekst pričvršćivanje nešto. To možete vidjeti sada, neko žestoko tvrdi da oružje nije pričvršćeno, već je u potpunosti sastavni dio AI robota. Prebolite to, uzvikuju, mi nismo u okviru tog obećanja, a mogli su i inače reći da jesu.

Ovo dovodi do još jedne pritužbe na nedostatak ljepljivosti zaloga.

Može li se firma ili bilo tko uopće koji se odluči za ovo obećanje proglasiti neobaveznim u bilo kojem trenutku kada to želi i iz bilo kog razloga što to želi?

Očigledno je tako.

Mnogo se raspravlja oko davanja obećanja i kakvog privlačenja one daju.

zaključak

Ajme, mogli biste reći, ove kompanije koje pokušavaju da urade pravu stvar dobijaju bubnjeve jer pokušavaju da urade pravu stvar.

Šta je došlo od našeg svijeta?

Svako ko se takvom zakletvu trebao bi imati koristi od sumnje, možete strastveno tvrditi. Oni izlaze u javnu sferu kako bi dali hrabar i vitalan doprinos. Ako počnemo da ih blatimo zbog toga, to će sigurno pogoršati stvari. Niko neće htjeti dati takvo obećanje. Firme i drugi neće ni pokušati. Oni će se sakriti i neće upozoravati društvo u šta se ti dragi roboti koji plešu opasno mogu pretvoriti.

Skeptici izjavljuju da način da se društvo opameti uključuje i druge radnje, kao što je odustajanje od maštovitog čina predstavljanja ludih AI robota koji plešu. Ili barem neka bude uravnoteženiji čin. Na primjer, umjesto da samo oponašate voljene pse lojalne kućnim ljubimcima, ilustrirajte kako roboti koji plešu mogu biti sličniji divljim puštenim ljutim vukovima koji mogu rastrgati ljude u komadiće bez oklijevanja.

To će privući više pažnje nego obećanja, mole oni.

Zakletve nesumnjivo mogu biti prilično zagonetka.

Kao što je Mahatma Gandhi elokventno rekao: „Bez obzira koliko eksplicitno obećanje, ljudi će okrenuti i izokrenuti tekst kako bi odgovarao svojoj svrsi.“

Možda da bi zaključio ovo na poticajnoj noti, Thomas Jefferson je rekao ovo o zavjetima: „Mi se međusobno zalažemo jedni drugima za naše živote, svoje bogatstvo i našu svetu čast.”

Kada su u pitanju AI roboti, njihova autonomija, njihovo naoružanje i slično, svi ćemo na kraju biti u ovome zajedno. Naše zajedničko obećanje mora biti barem da ćemo ove stvari držati u prvom planu, nastojat ćemo pronaći načine da se nosimo s ovim napretkom, i nekako pronaći svoj put ka osiguranju naše časti, našeg bogatstva i naših života.

Možemo li se obavezati na to?

Nadam se.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- proizvođači robota govore da će-spriječiti-ai-oružanje/