Etika veštačke inteligencije i zakon o veštačkoj inteligenciji koji objašnjavaju šta je u stvari verodostojna AI

Poverenje je sve, tako kažu.

Poznati filozof Lao Tzu je rekao da se neće vjerovati onima koji ne vjeruju dovoljno. Ernest Hemingway, cijenjeni romanopisac, izjavio je da je najbolji način da saznate da li nekome možete vjerovati jeste da mu vjerujete.

U međuvremenu, čini se da je povjerenje i dragocjeno i krhko. Povjerenje koje neko ima može se srušiti kao kuća od karata ili iznenada puknuti kao iskočiti balon.

Drevni grčki tragičar Sofokle je tvrdio da povjerenje umire, ali nepovjerenje cvjeta. Francuski filozof i matematičar Descartes je tvrdio da je mudro nikada ne vjerovati u potpunosti onima koji su nas čak jednom prevarili. Milijarder, izvanredni poslovni investitor, Voren Bafet, upozorio je da je potrebno dvadeset godina da se izgradi reputacija od poverenja i pet minuta da se ona uništi.

Možda ćete biti iznenađeni kada znate da su svi ovi različiti pogledi i provokativna mišljenja o povjerenju ključni za pojavu umjetne inteligencije (AI).

Da, postoji nešto što se oštro naziva pouzdana AI koji ovih dana stalno dobija vraški veliku pažnju, uključujući rukopisne pozive iz oblasti veštačke inteligencije i takođe burne ispade onih izvan domena veštačke inteligencije. Sveukupni pojam podrazumijeva da li će društvo biti spremno ili ne da vjeruje u sisteme poput umjetne inteligencije.

Vjerovatno, ako društvo neće ili ne može vjerovati AI-u, izgledi su da sistemi umjetne inteligencije neće uspjeti postići vuču. AI kakav trenutno poznajemo će biti gurnut u stranu i samo skuplja prašinu. Šokantno, umjetna inteligencija bi mogla završiti na hrpi smeća, povijesno spuštena na ništa drugo do očajnički isproban, ali spektakularno neuspješan eksperiment visoke tehnologije. Svaki pokušaj da se osnaži AI potencijalno bi se suočio sa ogromnom teškom borbom i bio bi zaustavljen svim vrstama prigovora i direktnih protesta. Navodno, zbog nedostatka povjerenja u AI.

Šta će biti, da li da verujemo u veštačku inteligenciju ili da ne verujemo u veštačku inteligenciju?

U suštini, hoćemo li zaista imati AI dostojnu povjerenja?

To su dosadašnja i neriješena pitanja. Hajde da ga raspakujemo.

Etika veštačke inteligencije i borba za vernu veštačku inteligenciju

Mnogi u AI vjeruju da programeri AI sistema mogu steći povjerenje u umjetnu inteligenciju tako što će na odgovarajući način osmisliti AI koja je pouzdana. Suština je da se ne možete nadati da ćete steći povjerenje ako AI nije naizgled vrijedna povjerenja na početku. Izradom AI sistema na način koji se smatra pouzdanim, postoji velika šansa da će ljudi prihvatiti AI i usvojiti upotrebu AI.

Jedna nedoumica koja već prigovara ovom pouzdanom AI razmatranju je da smo možda već u jednom deficit poverenja javnosti kada je u pitanju AI. Moglo bi se reći da je umjetna inteligencija koju smo već vidjeli iskopala rupu i razbacivala povjerenje u ogromnim količinama. Stoga, umjesto da počne na nekoj dovoljnoj bazi pouzdanosti, AI će morati zapanjujuće da se izvuče iz deficita, hvatajući se za svaku željenu uncu dodatnog povjerenja koja će biti potrebna da uvjeri ljude da je AI zapravo pouzdana.

U ovaj izazov dolazi etika AI i pravo AI.

Etika veštačke inteligencije i pravo veštačke inteligencije teško se bore sa pokušajem da shvate šta je potrebno da bi veštačka inteligencija postala pouzdana. Neki sugeriraju da postoji formula ili gvozdeni zakoni koji će odvesti AI u pouzdana nebesa. Drugi ukazuju da će biti potreban naporan rad i dosledno i nepopustljivo pridržavanje principa etike veštačke inteligencije i zakona o veštačkoj inteligenciji da bi se steklo hvaljeno poverenje društva.

Savremena enigma o povjerenju u AI nije posebno nova sama po sebi.

Lako se možete vratiti u kasne 1990-te i pratiti pojavu željene želje za „pouzdanim računarstvom“ iz tih dana. Ovo je bio veliki napor tehnološke industrije da se utvrdi da li se kompjuteri sve rečeno mogu napraviti na način koji bi društvo protumačilo kao pouzdano.

Ključna pitanja su se sastojala od:

  • Može li se kompjuterski hardver napraviti takvim da bude pouzdan?
  • Može li se softver napraviti tako da bude pouzdan?
  • Možemo li postaviti globalno umrežene kompjutere koji bi bili pouzdani?
  • I tako dalje.

Tada preovlađujući osjećaj i koji se nastavlja do danas je da pouzdano računarstvo ostaje vrsta svetog grala koji nažalost još uvijek nije sasvim na dohvat ruke (kao što je navedeno u radu pod naslovom “Pouzdana AI” u Komunikacije ACM-a). Mogli biste uvjerljivo tvrditi da je AI još jedna komponenta okruženja pouzdanosti računara, ali AI čini potragu za povjerenjem još izazovnijom i neizvjesnijom. AI je postao potencijalni spojler u borbi za postizanje pouzdanog računarstva. Možda najslabija karika u lancu, takoreći.

Pogledajmo nakratko zašto je AI izazvala sumnju da je manje nego pouzdana. Osim toga, istražit ćemo principe etike umjetne inteligencije za koje se nadamo da će pomoći u podupiranju već polu-podvodnog percipiranog povjerenja (ili nepovjerenja koje buja) današnje AI. Za moje kontinuirano i opsežno pokrivanje etike umjetne inteligencije, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne i proverljive metodologije, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da „samo koderi“ ili oni koji programiraju AI podliježu pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Uvjerimo se i da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Hajde da to povežemo sa pitanjem o AI-u kome se veruje

Čini se da sigurno ne bismo bili voljni vjerovati AI-u koji pokazuje negativne predrasude i diskriminatorne radnje. Naše uvjerenje bi, u tom slučaju, bilo da takva AI definitivno nije vrijedna povjerenja, stoga bismo sklonili aktivnom nepovjerenju u AI. Bez pretjerivanja s antropomorfnim poređenjem (za trenutak ću reći više o antropomorfiziranju AI), čovjek koji pokazuje nepristrasne predrasude također bi bio podvrgnut ocjeni da nije posebno pouzdan.

Kopanje u povjerenje i pouzdanost

Možda bi trebalo da pogledamo šta mislimo kada tvrdimo da verujemo ili ne verujemo nekome ili nečemu. Prvo, razmotrite nekoliko svakodnevnih rječnika definicija povjerenja.

Primjeri onoga što povjerenje definitivno znači su:

  • Osigurano oslanjanje na karakter, sposobnost, snagu ili istinu nekoga ili nečega (Merriam-Webster online rječnik).
  • Oslanjanje na integritet, snagu, sposobnost, sigurnost, itd., osobe ili stvari (Dictionary.com)
  • Čvrsto uvjerenje u pouzdanost, istinu, sposobnost ili snagu nekoga ili nečega (Oxford Languages ​​online rječnik).

Želeo bih da istaknem da se sve te definicije odnose na „nekoga“, a isto tako i na „nešto“ kao na potencijalno pouzdano. Ovo je značajno jer bi neki mogli insistirati da vjerujemo samo ljudima i da je čin povjerenja rezerviran isključivo za čovječanstvo kao našu metu od povjerenja. Nije tako. Možete imati povjerenja u svoj kuhinjski toster. Ako vam se čini da pouzdano pravi tost i radi na tome rutinski, sigurno možete imati privid povjerenja u to da li je toster zaista pouzdan.

U tom istom pravcu razmišljanja, AI također može biti predmet našeg stanovišta povjerenja. Šanse su da će povjerenje povezano s umjetnom inteligencijom biti mnogo složenije od, recimo, ovozemaljskog tostera. Toster obično može obaviti samo nekoliko radnji. AI sistem će vjerovatno biti mnogo složeniji i čini se da radi manje transparentno. Naša sposobnost da procijenimo i utvrdimo pouzdanost AI sigurno će biti mnogo teža i ponuditi različite izazove.

Osim što je samo složeniji, za tipični AI sistem se kaže da je nedeterministički i potencijalno samoregulirajući ili samoprilagođavajući. Možemo ukratko istražiti taj pojam.

Deterministička mašina ima tendenciju da radi iste stvari iznova i iznova, predvidljivo i sa vidljivo vidljivim obrascem kako funkcioniše. Mogli biste reći da obični toster tostira otprilike na isti način i da ima kontrole za tostiranje koje umanjuju tostiranje, a sve je to općenito predvidljivo od strane osobe koja koristi toster. Nasuprot tome, složeni AI sistemi su često osmišljeni da budu nedeterministički, što znači da mogu raditi sasvim drugačije stvari od onoga što biste inače očekivali. Ovo bi se također moglo djelomično dodatno pojačati ako je AI napisana da se samoprilagođava, što je aspekt koji može povoljno omogućiti AI da se poboljša u slučaju ML/DL, iako također može uznemirujuće uzrokovati da AI posustane ili uđe u redove AI loše. Možda ne znate šta vas je snašlo, na neki način, jer ste bili potpuno nespremni postupcima AI.

Šta možemo učiniti da pokušamo AI približiti pouzdanosti?

Jedan pristup sastoji se od pokušaja da se osigura da se oni koji grade i koriste AI pridržavaju skupa etičkih pravila AI. Kao što su pomenuli ovi istraživači AI: „Povjerenje je stav da će se agent ponašati kako se očekuje i da se na njega može osloniti da bi postigao svoj cilj. Povjerenje se raspada nakon greške ili nesporazuma između agenta i osobe od povjerenja. Psihološko stanje povjerenja u AI je novo svojstvo složenog sistema, koje obično uključuje mnoge cikluse dizajna, obuke, implementacije, mjerenja učinka, regulacije, redizajniranja i preobuke” (navedeno u Komunikacije ACM-a, „Povjerenje, regulacija i umjetna inteligencija čovjeka u petlji unutar europskog regiona“ od Stuarta Middletona, Emmanuela Letouzea, Alija Hossainia i Adriane Chapman, april 2022.).

Suština je da ako uspijemo natjerati programere umjetne inteligencije da se pridržavaju etičke umjetne inteligencije, nadamo se da će na kraju proizvesti pouzdanu umjetnu inteligenciju. Sve je to dobro i dobro, ali izgleda pomalo nepraktično u stvarnom svijetu, iako je to apsolutno put kojim vrijedi ići.

Evo na šta mislim.

Pretpostavimo da su AI programeri uložili marljiv napor koji stvaraju AI sistem za neku svrhu koju ćemo općenito nazvati X. Oni pažljivo vode računa da AI poštuje propise o transparentnosti etike AI. Oni pažljivo osiguravaju da privatnost bude na odgovarajući način ugrađena u AI. Za gotovo sve uobičajene etičke principe AI, graditelji AI iscrpno osiguravaju da AI ispunjava dato pravilo.

Treba li sada vjerovati toj AI?

Dozvolite mi da vam pomognem u prožimanju vaših misli o tom otvorenom pitanju.

Ispostavilo se da su sajber lopovi uspjeli da se infiltriraju u umjetnu inteligenciju i podmuklo natjeraju AI da izvrši X, a ipak također nahrani sajber hakere svim podacima koje AI prikuplja. Čineći to, ovi zlotvori podmuklo potkopavaju pravilo privatnosti. Vi blaženo niste svjesni da se ovo dešava pod haubom AI.

Uz tu dodatnu informaciju, ponovo ću vam postaviti isto pitanje.

Vjerujete li toj AI?

Usuđujem se reći da bi većina ljudi odmah izjavila da to sigurno čini ne vjerujte ovom konkretnom AI. Možda su mu vjerovali ranije. Oni sada odlučuju da više ne smatraju AI pouzdanom.

Nekoliko ključnih uvida zasnovanih na ovom jednostavnom primjeru vrijedni su razmatranja:

  • Dynamics of Trust. Čak ni najbolje namjere da se pokriju sve osnove osiguravanja da je AI etika ugrađena u AI sistem nisu garancija onoga što bi AI mogla biti ili postati. Jednom kada se AI stavi u upotrebu, autsajderi mogu potencijalno potkopati etičku AI nakupljanje.
  • Podrivanje poverenja iznutra. Čin potkopavanja povjerenja ne mora nužno biti autsajder. Insajder koji redovno održava AI sistem mogao bi pogriješiti i oslabiti AI tako da bude manje pouzdan. Ovaj AI programer možda nema pojma šta su napravili.
  • Nenamjerni kompromisi povjerenja. Samopodešavajući ili samoregulirajući AI bi se u nekom trenutku mogao prilagoditi i skrenuti na nepouzdanu teritoriju. Možda AI pokušava ojačati transparentnost AI, a istovremeno i neprikladno kompromituje aspekte privatnosti.
  • Scattering Of Trust. Pokušaj postizanja svih načela etike umjetne inteligencije do istog najvećeg stepena pouzdanosti obično nije lako održiv jer su često u različitim svrhama ili imaju druge inherentne potencijalne sukobe. Prilično je idealizirana perspektiva vjerovati da su svi etički propisi umjetne inteligencije sanjivo usklađeni i da su svi dostižni do nekog jednakog maksimalnog stepena.
  • Poverenje može biti skupo za postizanje. Cijena pokušaja postizanja vrhunskog izgleda pouzdane AI kroz poduzimanje različitih opsežnih i iscrpnih koraka i pridržavanje niza etičkih principa AI bit će relativno visoka. Možete lako tvrditi da bi cijena bila previsoka u smislu puštanja u upotrebu nekih AI sistema koji inače imaju važnu vrijednost za društvo, čak i da je AI, reći ćemo manje nego idealan, iz želje za pouzdanošću.
  • I tako dalje.

Nemojte pogrešno tumačiti prethodne napomene kako bismo sugerirali da bismo nekako trebali spriječiti napor da temeljno izgradimo i koristimo pouzdanu AI. Izbacili biste bebu sa vodom za kupanje, takoreći. Pravilno tumačenje je da mi zaista treba da radimo te aktivnosti poverenja da bismo AI uveli u razmatranje od poverenja, a ipak to samo po sebi nije lek za sve ili srebrni metak.

Višestruki putevi do pouzdane AI

Postoje važni dodatni višestruki načini da se teži ka pouzdanoj AI.

Na primjer, kao što sam već pokrio u svojim kolumnama, bezbroj novonastalih zakona i propisa koji se tiču ​​AI ima za cilj da potakne proizvođače AI na osmišljavanje pouzdane AI, vidi link ovdje i link ovdje.

Ove zakonske ograde su ključne kao sveobuhvatno sredstvo da se osigura da oni koji osmišljavaju AI budu u potpunosti odgovorni za svoju AI. Bez ovakvih potencijalnih pravnih lijekova i zakonskih kazni, oni koji napadaju AI na tržište vjerovatno će nastaviti to činiti sa malo, ako ikakvim ozbiljnim zanimanjem za postizanje pouzdane AI. Mogao bih posebno da dodam da ako su ti zakoni i propisi loše osmišljeni ili neadekvatno implementirani, oni bi, nažalost, mogli potkopati potragu za vjerodostojnom AI, možda ironično i čudno podstičući nepouzdanu AI u odnosu na pouzdanu AI (pogledajte moje rasprave u kolumni za daljnja objašnjenja).

Takođe sam bio uporni zagovornik onoga o čemu sam gorljivo govorio AI botovi anđeo čuvar (pogledajte moju reportažu na link ovdje). Ovo je nadolazeća metoda ili pristup pokušaja suzbijanja vatre vatrom, odnosno korištenje AI da nam pomogne u suočavanju s drugom umjetnom inteligencijom koja može ili ne mora biti pouzdana.

Prvo, neki kontekst u pozadini će biti koristan.

Pretpostavimo da se odlučite osloniti na AI sistem za koji niste sigurni u njegovu pouzdanost. Ključna briga može biti da ste sami u svojim pokušajima da otkrijete da li AI treba vjerovati ili ne. AI je potencijalno kompjuterski brži od vas i može vas iskoristiti. Treba vam neko ili nešto na vašoj strani da vam pomogne.

Jedna perspektiva je da uvijek treba postojati čovjek-u-petlji koji će vam pomoći dok koristite AI sistem. Ovo je ipak problematično rješenje. Ako AI radi u realnom vremenu, o čemu ćemo trenutno raspravljati kada je u pitanju pojava samovozećih automobila baziranih na umjetnoj inteligenciji, postojanje čovjeka u petlji možda neće biti dovoljno. AI bi mogao djelovati u realnom vremenu i do trenutka kada određeni čovjek u petlji uđe u sliku kako bi shvatio radi li AI ispravno, katastrofalan rezultat bi se već mogao dogoditi.

Na stranu, ovo dovodi do još jednog faktora povjerenja. Obično dodjeljujemo nivo povjerenja na osnovu konteksta ili okolnosti s kojima se suočavamo. Možete u potpunosti vjerovati svom malom sinu ili kćeri da će vam biti vjerni, ali ako ste na planinarenju i odlučite se osloniti na dijete da vam kaže da li je sigurno stati na ivicu litice, mislim da biste bili mudri da razmislimo da li dijete može dati takvu vrstu savjeta na život ili smrt. Dijete bi to moglo učiniti ozbiljno i iskreno, ali ipak ne može adekvatno dati takav savjet.

Isti pojam je povezan s povjerenjem kada je u pitanju AI. AI sistem koji koristite za igranje dame ili šaha vjerovatno nije uključen ni u kakvo razmišljanje o životu ili smrti. Možete biti lakši sa svojim dodeljivanjem poverenja. Samovozeći automobil baziran na umjetnoj inteligenciji koji juri autoputem pri velikim brzinama zahtijeva mnogo veći nivo povjerenja. Najmanji udarac AI sistema za vožnju može direktno dovesti do vaše smrti i smrti drugih.

U objavljenom intervjuu Beene Ammanath, izvršne direktorice Global Deloitte AI instituta i autora knjige Pouzdana AI, sličan naglasak na razmatranju kontekstualnih aspekata gdje dolazi do izražaja pouzdanost AI: „Ako gradite AI rješenje koje se bavi dijagnostikom pacijenata, pravičnost i pristrasnost su izuzetno važni. Ali ako gradite algoritam koji predviđa kvar mlaznog motora, pravednost i pristrasnost nisu toliko važni. Pouzdana AI je zaista struktura koja će vas navesti da počnete razmišljati o dimenzijama povjerenja unutar vaše organizacije” (VentureBeat22. marta 2022.).

Kada razgovarate o pouzdanoj AI, ovu temu možete tumačiti na mnogo načina.

Na primjer, pouzdana AI je nešto što svi smatramo poželjnim i aspirativnim ciljem, naime da bismo trebali biti željni osmišljavanja i objavljivanja pouzdane AI. Postoji još jedna upotreba ove fraze. Donekle alternativna upotreba je to pouzdana AI je stanje ili mjerenje, tako da neko može tvrditi da je napravio AI sistem koji je primjer pouzdane AI. Možete koristiti i frazu pouzdana AI predložiti metodu ili pristup koji se može koristiti za postizanje pouzdanosti AI. itd.

S tim u vezi, vjerujem da shvaćate da nisu svi AI isti i da moramo imati na umu da ne dajemo potpune izjave o cijeloj AI. Određeni AI sistem će se vjerovatno značajno razlikovati od drugog AI sistema. Jedan od tih AI sistema može biti vrlo pouzdan, dok bi drugi mogao biti marginalno pouzdan. Budite oprezni u pretpostavci da je AI monolit koji je ili potpuno pouzdan ili potpuno nepouzdan.

To jednostavno nije slučaj.

Želio bih sljedeće ukratko pokriti neka od mojih tekućih istraživanja o vjerodostojnoj umjetnoj inteligenciji koja bi vas mogla zanimati, pokrivajući nastalu ulogu AI botovi anđeo čuvar.

Evo kako to ide.

Bili biste naoružani AI sistemom (AI bot anđeo čuvar) koji je osmišljen da procijeni pouzdanost nekog drugog AI sistema. AI bot anđeo čuvar ima najveći fokus na vašoj sigurnosti. Zamislite ovo kao da imate sredstva za praćenje AI na koju se oslanjate tako što imate drugačiji AI sistem u svom pravom džepu, koji možda radi na vašem pametnom telefonu ili drugim sličnim uređajima. Vaš poslovični AI čuvar može izračunati na osnovu koje radi i AI na koju se oslanjate, radeći velikom brzinom i izračunavajući situaciju u realnom vremenu, daleko brže nego što bi to mogao učiniti čovjek u petlji.

Možda ćete na prvi pogled pomisliti da bi umjetna inteligencija na koju se već oslanjate trebao imati nešto interni AI zaštitne ograde koje rade isto što i ovaj odvojeno izračunavajući AI bot anđeo čuvar. Da, to bi svakako bilo poželjno. Jedna nedoumica je da AI zaštitne ograde ugrađene u AI sistem mogu biti integralno i predrasudno usklađene sa AI per se, tako da navodna AI zaštitna ograda više nije u stanju na neki način nezavisno verificirati ili potvrditi AI.

Kontrastna ideja je da je vaš AI bot anđeo čuvar nezavisni ili AI mehanizam treće strane koji se razlikuje od AI na koju se oslanjate. On se nalazi izvan druge AI, ostaje posvećen vama, a ne posvećen AI koji se nadgleda ili procjenjuje.

Jednostavan način razmišljanja o ovome može se izraziti kroz sljedeće pojednostavljene izjave nalik jednadžbi. Mogli bismo reći da "P" želi potencijalno vjerovati "R" da obavi određeni zadatak "X":

Ovo bi bilo sljedeće kada su uključeni samo ljudi:

  • Osoba P vjeruje osobi R da obavi zadatak X.

Kada se odlučimo osloniti na AI, izjava se preoblikuje u ovo:

  • Osoba P vjeruje AI instanci-R da obavi zadatak X.

Možemo dodati AI bota anđela čuvara tako što ćemo reći ovo:

  • Osoba P vjeruje AI instanci-R da obavi zadatak X kako je nadzire AI anđeo čuvar bot instance-Z

AI bot anđeo čuvar neumorno i nemilosrdno procjenjuje AI na koju se oslanjate. Kao takav, vaš zgodan AI čuvar može vas upozoriti da je povjerenje ove druge AI neopravdano. Ili, AI čuvar može elektronski komunicirati s drugom AI kako bi pokušao osigurati da se bilo koja odstupanja od pouzdanosti brzo ispravi, i tako dalje (pogledajte moje izvješće o takvim detaljima na link ovdje).

Metafora rezervoara poverenja

Budući da govorimo o različitim nivoima povjerenja, mogla bi vam biti od koristi zgodna metafora o pouzdanosti ako shvatite povjerenje kao vrstu rezervoara.

Imate određenu količinu povjerenja u određenu osobu ili stvar u određenim okolnostima u određenom trenutku. Nivo povjerenja će rasti ili pasti, ovisno o tome šta se još događa u vezi s tom osobom ili stvarima. Poverenje može biti na nultom nivou kada nemate nikakvog poverenja u osobu ili stvar. Povjerenje može biti negativno kada se upustite u nepovjerenje prema toj osobi ili stvari.

U slučaju AI sistema, vaš rezervoar poverenja za određenu veštačku inteligenciju na koju se oslanjate u određenim okolnostima će porasti ili pasti u zavisnosti od vašeg procenjivanja verodostojnosti AI. Ponekad biste mogli biti dobro svjesni ovog različitog nivoa povjerenja u AI, dok u drugim slučajevima možete biti manje svjesni, a više zbog nagoveštaja donošenja sudova o pouzdanosti.

Načini na koje smo ovdje raspravljali o sredstvima za povećanje nivoa povjerenja u AI uključuju:

  • Poštivanje etike AI. Da je AI na koji se oslanjate osmišljen pokušavajući da se pridržava ispravnih etičkih pravila AI, vjerovatno biste koristili ovo razumijevanje da povećate nivo vašeg rezervoara povjerenja za taj određeni AI sistem. Kao sporedna napomena, takođe je moguće da biste generalizirali na druge AI sisteme u pogledu njihove pouzdanosti, iako to ponekad može biti pogrešan oblik onoga što ja nazivam Aura povjerenja AI se širi (budite oprezni pri tome!).
  • Koristite Čovjek-u-petlji. Ako AI ima čovjeka u petlji, mogli biste pozitivno povećati svoje percipirano povjerenje u AI.
  • Uspostaviti zakone i propise. Ako postoje zakoni i propisi povezani s ovom vrstom umjetne inteligencije, isto tako možete povećati razinu povjerenja.
  • Zaposlite AI bota Anđela čuvara. Ako imate spremnog bota anđela čuvara sa umjetnom inteligencijom, i ovo će dodatno povećati vaš nivo povjerenja.

Kao što je ranije spomenuto, povjerenje može biti prilično krhko i raspasti se u trenu (tj. rezervoar povjerenja brzo i iznenada izbaci svo izgrađeno povjerenje).

Zamislite da se nalazite u samovozećem automobilu baziranom na umjetnoj inteligenciji i da AI vožnja iznenada skrene udesno, uzrokujući škripu kotača i gotovo prisiljavajući autonomno vozilo da se opasno prevrne. Šta bi se dogodilo sa vašim nivoom povjerenja? Čini se da čak i ako ste prethodno držali AI na povišenom nivou povjerenja, dramatično biste i naglo spustili nivo povjerenja, razumno.

U ovom trenutku ove teške rasprave, kladim se da želite dodatne ilustrativne primjere koji bi mogli pokazati prirodu i obim pouzdane AI. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teorijska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koja na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o potrazi za vjerodostojnom umjetnom inteligencijom, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i pouzdana AI

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni da duboko zaronimo u samovozeće automobile i pouzdanu umjetnu inteligenciju.

Poverenje je sve, posebno u slučaju samovozećih automobila zasnovanih na veštačkoj inteligenciji.

Čini se da društvo oprezno gleda na pojavu samovozećih automobila. S jedne strane, postoji velika nada da će dolazak pravih samovozećih automobila dokazano smanjiti broj godišnjih smrtnih slučajeva povezanih s automobilima. Samo u Sjedinjenim Državama ima oko 40,000 smrtnih slučajeva godišnje i oko 2.5 miliona povrijeđenih zbog saobraćajnih nesreća, pogledajte moju zbirku statistike na link ovdje. Ljudi piju i voze. Ljudi voze dok su rasejani. Čini se da se zadatak vožnje automobila sastoji od mogućnosti da se stalno i nepogrešivo koncentrišete na vožnju i izbjegnete sudare. Kao takvi, mogli bismo se sanjariti nadati da će AI sistemi za vožnju voditi automobile koji se sami voze stalno i bez greške. Samovozeće automobile možete shvatiti kao dvojku, koja se sastoji od smanjenja broja smrtnih slučajeva i ozljeda u saobraćajnim nesrećama, uz potencijalno omogućavanje mobilnosti na mnogo široj i pristupačnijoj osnovi.

Ali zabrinutost se u međuvremenu nadvija nad percepcijama društva o tome da li će samovozeći automobili biti dovoljno bezbedni da budu na našim javnim putevima uopšte.

Ako čak i jedan samovozeći automobil dođe do sudara ili sudara koji dovede do jedne smrti ili teške ozljede, vjerovatno možete očekivati ​​da će današnje donekle izgrađeno povjerenje prema tim automobilima bez vozača baziranih na umjetnoj inteligenciji naglo pasti. Vidjeli smo da se to dogodilo kada se sada već zloglasni incident dogodio u Arizoni koji je uključivao pomalo (ne baš) samovozeći automobil koji je naletio na pješaka i ubio ga (pogledajte moje izvješće na ovaj link ovdje).

Neki stručnjaci ističu da je nepravedno i neprikladno zasnivati ​​povjerenje u samovozeće automobile s umjetnom inteligencijom na aspektu da bi samo jedna takva sljedeća smrtonosna nesreća ili sudar mogla potkopati već relativno bez sudara ispitivanje javnog puta. Osim toga, na daljnjoj nepravednoj osnovi, izgledi su da bez obzira na to koja marka ili model samovozećeg automobila sa umjetnom inteligencijom možda bude upleten u tužan incident, društvo bi nesumnjivo okrivilo sve marke samovozećih automobila.

Cjelokupni samovozeći automobili bi mogli biti potpuno zaprljani, a industrija u cjelini mogla bi pretrpjeti ogromnu reakciju koja bi dovela do mogućeg gašenja svih ispitivanja na javnim cestama.

Doprinos takvom povratku nalaze se u besmislenim izjavama otvorenih zagovornika samovozećih automobila da će svi automobili bez vozača biti neudarni. Ova ideja da se ne može srušiti nije samo potpuno pogrešna (vidi link ovdje), podmuklo postavlja samovozeću automobilsku industriju za potpuno neobičan skup očekivanja. Ove neobične i neostvarive izjave da neće biti smrtnih slučajeva zbog samovozećih automobila podstiču zabludu da su bilo kakve nesreće automobila bez vozača siguran znak da su cijeli komplet i keboodle uzalud.

Izrazita je tuga shvatiti da bi napredak ka samovozećim automobilima i akumulacija društvenog povjerenja u jednom trenutku mogli nestati. To će biti pravi dokaz o krhkosti povjerenja.

zaključak

Mnogi proizvođači automobila i samovozeće tehnološke firme općenito se pridržavaju principa etike umjetne inteligencije, čineći to kako bi pokušali izgraditi i upotrijebiti pouzdanu umjetnu inteligenciju u smislu sigurnih i pouzdanih samovozećih automobila zasnovanih na umjetnoj inteligenciji. Imajte na umu da su neke od tih firmi jače i više posvećene etičkim pravilima umjetne inteligencije od drugih. Postoje i povremeni startupi vezani uz samovozeće automobile za početnike ili početnike koji odbacuju veći dio kamena temeljca AI etike (pogledajte moju recenziju na link ovdje).

Na drugim frontovima, novi zakoni i propisi koji pokrivaju samovozeće automobile postepeno se stavljaju u pravne knjige. Druga je stvar da li imaju potrebne zube da ih podupru, kao i da li se primjena tih zakona shvata ozbiljno ili zanemaruje (pogledajte moje kolumne za analizu o tome).

Tu je i ugao visoke tehnologije. Predvidio sam da ćemo postepeno vidjeti varijante AI botova anđela čuvara koji će doći do izražaja u areni autonomnih vozila i samovozećih automobila. Još nismo tamo. Ovo će postati raširenije kada popularnost samovozećih automobila postane raširenija.

Ova posljednja tačka donosi poznatu rečenicu o povjerenju koju nesumnjivo već znate napamet.

Vjerujte, ali provjerite.

Možemo sebi dozvoliti da proširimo svoje povjerenje, možda velikodušno. U međuvremenu, trebali bismo gledati kao jastreb kako bismo bili sigurni da je povjerenje koje stvaramo potvrđeno i riječima i djelima. Dajmo malo povjerenja u umjetnu inteligenciju, ali bezgranično provjerimo da li vjerujemo na odgovarajući način i širom otvorenih očiju.

Možete mi vjerovati u tome.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/