AI etika razmišlja o meritumu zakonskog nalaženja sredstava za pomirenje kako bi se osigurala odgovornost za loše postupanje AI

ko je kriv?

To bi moglo izgledati kao jednostavno pitanje, iako u slučaju čuvene komedije legendarnog dvojca Abbott i Costello o bejzbol timu, "ko" može biti zbunjujući. Možda vam je nejasno poznato Ko je prvi komična rutina koju su pretvorili u jedan od najtrajnijih skečeva svih vremena (upozorenje o spojleru za one od vas koji to nisu čuli).

Abbott kaže Costellu da je ko je na prvom, šta je na drugom, a ja ne znam je na trećem. Pametan trik je da se prvi nosilac zove Ko, drugi podrum se zove Šta, a treći nosilac se zove Ne znam. Naravno, te fraze imaju i svoje konvencionalno značenje i stoga pokušaj tumačenja onoga što Abbott govori može biti potpuno zbunjujući. Zaista, Costello postavlja naizgled bezazleno pitanje ko je prvi, za koje je odgovor čvrsto izrečen da. Ali Kostelu ovo nema smisla jer je očekivao ime i umesto toga dobio je zbunjujuće da kao odgovor.

Promjena brzina, kada je u pitanju pojava umjetne inteligencije (AI), jedno od najneugodnijih pitanja koja se stalno postavljaju uključuje ko ili možda šta će snositi odgovornost kada AI zaluta.

Ranije sam raspravljao o krivičnoj odgovornosti kada AI dovede do ili preduzme kriminalne radnje, pogledajte moje izvješće na link ovdje. Tu je i pitanje građanske odgovornosti, kao što je koga ili šta možete tužiti kada vam je veštačka inteligencija pogrešila, što je tema o kojoj ću ovde raspravljati. Sve ovo ima značajna razmatranja etike AI. Za moje tekuće i opsežno pokrivanje etike AI i Etičke AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Propisi etike umjetne inteligencije navode nas da ostanemo budni. Tehnolozi AI ponekad mogu postati zaokupljeni tehnologijom, posebno optimizacijom visoke tehnologije. Oni ne razmišljaju nužno o većim društvenim posljedicama. Imati etički način razmišljanja AI i činiti to integralno za razvoj AI i postavljanje na teren je od vitalnog značaja za proizvodnju odgovarajuće AI, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji kompanije usvajaju etiku AI.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. U stvari, upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku zaustavljanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti.

Vodi se žestoka debata o tome da li su postojeći zakoni u stanju da adekvatno riješe pojavu AI sistema u cijelom društvu. Pravna odgovornost obično zahtijeva da magarcu pribijete rep ko je odgovoran za štetno ponašanje. U slučaju AI, može postojati prilično nejasan put koji vezuje određenu osobu ili osobe za AI koja je izvršila neku štetnu radnju. AI može biti u velikoj mjeri neotkriven do izvora ili pronalazača koji je sastavio AI.

Drugo razmatranje je da čak i ako se korijeni AI mogu pratiti do nekoga, pitanje je da li osoba ili osobe možda nisu bile u stanju razumno predvidjeti negativan ishod koji je AI na kraju proizveo. Suština predvidivosti je uobičajeno značajan faktor u procjeni pravne odgovornosti.

Možda ćete biti u iskušenju da pomislite da možete jednostavno krenuti za samom AI i imenovati AI kao pravnu stranu koja je odgovorna ili odgovorna za bilo koju štetu koja je navodno nastala. Uglavnom, preovlađujući pravni stav je da AI još nije dostigla nivo pravnog lica. Stoga, strogo govoreći, nećete moći da tražite da AI plati i moraćete da pronađete ljude koji su radili na polugama iza scene, takoreći (za moju analizu pravnog lica za AI, pogledajte link ovdje).

U svu ovu potencijalnu pravnu blato ulazi ideja koja se izvlači kao mogući pravni lijek, bilo na kratkoročnoj osnovi ili eventualno na dugoročnom planu. Ideja je da bi možda trebalo uspostaviti poseban kompenzacijski fond koji bi pružio finansijsku pomoć za one koji su oštećeni AI. Ako inače ne možete natjerati AI da vam nadoknadi štetu i ne možete uhvatiti osobe za koje se pretpostavlja da bi trebalo da budu odgovorne, sljedeća najbolja opcija bi mogla biti da iskoristite kompenzacijski fond koji ima za cilj pomoći onima koji su oštećeni AI.

Takav fond bi bio sličan nekom obliku osiguranja, kao što je navedeno u istraživačkom radu koji izaziva razmišljanje: „Ovo bi u suštini bio mehanizam osiguranja od neizvjesnosti: jasan i transparentan okvir za brzu kompenzaciju u slučajevima kada je tužba za odgovornost neizvjesnost ili bez izgleda na uspjeh zbog nepredvidive prirode štetnog ponašanja, same (vrste) štete ili prevelikih troškova i/ili složenosti postupka” (članak Olivije Erdelyi i Gabora Erdelyija, “The AI ​​Liability Puzzle I rješenje zasnovano na fondovima”, Journal of Artificial Intelligence Research, 2021).

Kompenzacijski fond bi bio dio sveobuhvatne AI garancijske šeme (AIGS) i bio bi praćen nekim laganim izmjenama postojećih zakona o pravnoj odgovornosti. Lagani dodir bi vjerovatno bio lakši za implementaciju i ne bi zahtijevao tešku vrstu pravnog i društvenog straha kada bi se u postojećim pravnim režimima napravila još mučnija serija demonstrativnih promjena. Prema istraživačima: „Ovo odražava naše uvjerenje da – unatoč privlačnosti takvog rješenja za brzo rješavanje problema – nepromijenjeno primjena postojećih pravila odgovornosti na AI ili a protekcionistički motivisan pribjegavanje striktnoj odgovornosti u cilju utvrđivanja odgovornosti po svaku cijenu nisu tačni odgovori iz tri razloga: prvo, ignorirajući da su ta pravila prilagođena različitim okolnostima i stoga mogu biti neprikladna za AI, ona su u suprotnosti s delikatno uravnoteženim ciljevima sistem pravne odgovornosti. Drugo, one inhibiraju AI inovacije usvajanjem neprimjerenog kaznenog pristupa. Treće, neopravdano pribjegavanje striktnoj odgovornosti samo zaobilazi probleme predvidljivosti i grešaka na dogmatski nedosljedan način umjesto da ih rješava” (prema gore citiranom radu).

Argumenti u korist takvih kompenzacijskih fondova AI uključuju:

  • Smanjuje potrebu za dugotrajnim i skupim pravnim suđenjima kako bi se izborili sa štetom koju je nanijela umjetna inteligencija
  • Uvjerava ljude da mogu koristiti AI i dobiti nadoknadu ako ih povrijede
  • Promoviše AI inovacije ublažavanjem pravne nesigurnosti s kojom se suočavaju inovatori AI
  • Može se staviti u upotrebu daleko brže od velikih izmjena postojećih zakona
  • Nudi relativno jasan lijek koji je pouzdan i lako dostupan
  • drugi

U međuvremenu, oni koji se protive pristupu kompenzacijskih fondova AI kažu ovo:

  • Hajde da kreatore veštačke inteligencije preterano oduzmemo i dozvolimo im da zaobiđu odgovornost
  • Ohrabrit će proizvođače umjetne inteligencije da naprave umjetnu inteligenciju kojoj nedostaje pouzdana sigurnost i odgovarajuće kontrole
  • Može potaknuti ljude da lažno tvrde da je AI šteta naneta kako bi mogli iskoristiti sredstva
  • Zaobilazi i potkopava istinsku potrebu da se preinače naši zakoni kako bi se u dovoljnoj mjeri upravljalo umjetnom inteligencijom
  • Može postati birokratska noćna mora koja zaglavi i zloupotrebljava sredstva
  • drugi

Kao što je očigledno, postoje i zagovornici i protivnici ovog potpuno kontroverznog pojma.

Bilo bi teško isključiti nakratko kompenzacijski fond za umjetnu inteligenciju kao potencijalni pristup rastućoj zabrinutosti u vezi s umjetnom inteligencijom koja uzrokuje štetu. Ni predloženo rješenje nije zakucavanje.

Jedno gledište je da bi proizvođači veštačke inteligencije morali da ulože novac u fondove kao deo svojih napora prilikom osmišljavanja i objavljivanja AI. Ovo bi se moglo protumačiti kao neka vrsta naknade ili poreza koji su dužni da snose kao dio mogućnosti puštanja svoje AI u svijet. Ali da li ovaj dodatni trošak potencijalno potiskuje napore startupa koji pokušavaju pomjeriti granice današnje umjetne inteligencije? I kako bi se postupalo sa provedbom osiguranja da proizvođači umjetne inteligencije plaćaju svoju naknadu ili porez?

Pojavljuje se niz pitanja i trebalo bi ih razjasniti:

  • U kojim zemljama bi kompenzacijski fond za umjetnu inteligenciju najbolje bio izvodljiv?
  • Može li se uspostaviti globalni privid međusobno povezanih kompenzacijskih fondova AI?
  • Koji bi bili detaljni i izvodljivi mehanizmi povezani sa takvim fondovima?
  • Kako će se finansirati kompenzacijski fondovi AI (javni, privatni, dobrotvorni)?
  • Da li bi to bila osnova osiguranja bez krivice ili bi se poduzeo neki drugi pristup?
  • Itd

Oblast koja je već imala ideju o kompenzacijskim fondovima umjetne inteligencije sastoji se od autonomnih sistema kao što su autonomna vozila i automobili koji se sami voze. Za moje pokrivanje samovozećih automobila i AI autonomnih sistema, vidi link ovdje.

Evo skice kako bi ovo moglo funkcionirati za samovozeće automobile bazirane na umjetnoj inteligenciji.

Pretpostavimo da se samovozeći automobil zaleti u vozača bicikla. Vozač bicikla je ozlijeđen. Vozač bicikla može tražiti pravnu zaštitu tako što će tražiti proizvođača automobila autonomnog vozila. Ili bi mogli ciljati na samovozeću tehnološku firmu koja je napravila AI sistem za vožnju. Ako se samovozeći automobil koristi kao flota, drugi pravni put bi bio da se potraži operatera voznog parka. Pokušaj tužiti AI nije opcija u ovom trenutku jer pravno lice AI još nije uspostavljeno.

Umjesto poduzimanja pravnog postupka protiv bilo koje od tih strana, drugi način bi bio podnošenje zahtjeva ili potraživanja odgovarajućem kompenzacijskom fondu za umjetnu inteligenciju. Fond bi formalizirao procese koji uključuju preispitivanje zahtjeva, a zatim bi odredio šta ako bi bilo kakve kompenzacijske isplate mogle biti isplaćene podnosiocu zahtjeva. Može postojati žalbeni proces koji pomaže podnosiocima zahtjeva koji vjeruju da ih je fond pogrešno odbio ili ih je fond nedovoljno nadoknadio.

U teoriji, kompenzacijski fond za umjetnu inteligenciju bio bi mnogo brži put ka kompenzaciji za nanesenu štetu. Možete zamisliti koliko bi tužba bila naporna, pri čemu bi firme koje su tužene mogle pokušati da odugovlače slučaj.

Advokati bi ipak mogli naglasiti da bi kompenzacijski fond za umjetnu inteligenciju mogao dozvoliti onim drugim stranama, kao što su proizvođači umjetne inteligencije, da naizgled izbjegnu bilo kakvu jasnu kaznu zbog toga što su pustili svoj samovozeći automobil na javnim putevima koji je na kraju udario vozača bicikla. Šta bi se te firme još mogle odlučiti za „nehajno” učinjeno? Bez nadolazećeg sablasta pravnog mača koji visi nad njihovim glavama, mogli bismo se svakodnevno suočiti s umjetnom inteligencijom koja obiluje opasnim kapacitetima.

Argumenti idu u krug.

zaključak

Etika AI nas podsjeća da uvijek trebamo uzeti u obzir etičke i pravne posljedice AI. U ovom slučaju kompenzacijskih fondova za umjetnu inteligenciju, predloženi pojam fonda nalik na osiguranje za kompenzaciju onih koji su oštećeni umjetnom inteligencijom izgleda primamljivo. Sredstva bi naizgled čekala tamo, spremna da se iskoriste i da obezbede što je pre moguće kompenzaciju.

Kompromisi oko toga da li bi ovo moglo otvoriti vrata ka stvaranju AI koja ima sve manje i manje sigurnosnih kontrola je zastrašujuća i previše stvarna briga. Vjerovatno ne trebamo dolijevati ulje na vatru koja je možda već donekle u toku.

Možemo li nekako i dalje zadržati proizvođače umjetne inteligencije da osmisle odgovarajuću etičku umjetnu inteligenciju i istovremeno uspostave ove kompenzacijske fondove AI?

Neki bi rekli da da, možemo. Preusmjeravanjem postojećih zakona kako bi se uskladili s kompenzacijskim fondovima AI, oni koji su oštećeni AI bi potencijalno imali dvostruki put da traže svoju pravednu kompenzaciju.

Ko je prvi?

Da, eto ko (kao i kod svih nas) je na prvom mjestu da bismo trebali razmišljati o potencijalnoj upotrebi kompenzacijskih fondova AI i modificirati postojeće zakone, makar i olako, pružajući sredstva za suočavanje s napadom i dobre AI i loš AI.

Nema zabune oko tog vitalnog razmatranja.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- odgovornost/