Etika veštačke inteligencije koja kaže da veštačku inteligenciju treba posebno primeniti kada su ljudske pristranosti u izobilju

Ljudi moraju znati svoja ograničenja.

Možda se sećate srodne poznate rečenice o poznavanju naših ograničenja koju je oštro izgovorio lik Prljavi Hari u filmu iz 1973. Magnum Force (prema izgovorenim riječima glumca Clinta Eastwooda u njegovoj nezaboravnoj ulozi inspektora Harryja Callahana). Općenito je da smo ponekad skloni previdjeti vlastite granice i u skladu s tim ući u toplu vodu. Bilo zbog oholosti, egocentričnosti ili jednostavno slijeposti za vlastite mogućnosti, pravilo da budemo svjesni i da se eksplicitno vodimo računa o našim sklonostima i nedostacima je od velike važnosti i od pomoći.

Hajde da dodamo novi zaokret u savet mudraca.

Umjetna inteligencija (AI) mora znati svoja ograničenja.

Šta mislim pod tom varijantom poštovane fraze?

Ispostavilo se da je početna žurba da se moderna umjetna inteligencija koristi kao sredstvo za rješavanje svjetskih problema zamrljana i potpuno zamućena spoznajom da današnja umjetna inteligencija ima neka prilično ozbiljna ograničenja. Krenuli smo od uzbudljivih naslova AI za dobro i sve više se nalazimo zaglibljeni u njima AI za loše. Vidite, mnogi sistemi veštačke inteligencije su razvijeni i postavljeni sa svim vrstama nepristrasnih rasnih i rodnih predrasuda, i bezbroj drugih takvih užasnih nejednakosti.

Za moje opsežno i stalno pokrivanje etike AI i Etičke AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Predrasude koje se otkrivaju u ovim sistemima veštačke inteligencije nisu tipa „namernog“ tipa koji bismo pripisali ljudskom ponašanju. Ovo spominjem da naglasim da današnja AI nije razumna. Uprkos tim burnim naslovima koji upućuju na suprotno, jednostavno nigdje ne postoji umjetna inteligencija koja je ni blizu razuma. Povrh svega, ne znamo kako staviti AI u kategoriju osjećaja, plus niko ne može sa sigurnošću reći hoćemo li ikada postići AI osjećaj. Možda će se to jednog dana dogoditi, a možda i ne.

Dakle, moja poenta je da ne možemo posebno pripisati namjeru vrsti AI koju trenutno posjedujemo. Imajući to u vidu, možemo u izobilju dodijeliti namjeru onima koji izrađuju AI sisteme. Neki programeri umjetne inteligencije nisu svjesni činjenice da su osmislili AI sistem koji sadrži neugodne i moguće nezakonite predrasude. U međuvremenu, drugi programeri umjetne inteligencije shvaćaju da unose predrasude u svoje AI sisteme, potencijalno čineći to na namjeran pogrešan način.

U svakom slučaju, ishod je ipak nepristojan i vjerovatno nezakonit.

U toku su snažni napori da se proglase principi etike veštačke inteligencije koji će prosvetliti programere veštačke inteligencije i pružiti odgovarajuće smernice za izbegavanje ugrađivanja predrasuda u njihove sisteme veštačke inteligencije. Ovo će pomoći na dva načina. Prvo, oni koji izrađuju AI više neće imati spreman izgovor da jednostavno nisu bili svjesni kojih pravila treba slijediti. Drugo, oni koji odstupe od etičkih uslova veštačke inteligencije biće lakše uhvaćeni i prikazani kao da spreče ono na šta su bili unapred upozoreni da rade i da ne rade.

Uzmimo trenutak da ukratko razmotrimo neke od ključnih etičkih pravila AI kako bismo ilustrirali o čemu bi graditelji umjetne inteligencije trebali razmišljati i rigorozno poduzeti sa stava etike AI.

Kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne metodologije koje se mogu revidirati, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj da se utvrdi specifičnosti koje leže u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih generalno treba poštovati, dok je mnogo komplikovanija situacija kada AI kodiranje mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Sve zainteresovane strane tokom čitavog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja ustaljenih normi etičke veštačke inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Imajte na umu da je za osmišljavanje i bavljenje umjetnom inteligencijom potrebno jedno selo. Zbog čega cijelo selo mora biti na oprezu oko etike umjetne inteligencije.

U svakom slučaju, sada kada sam shvatio da AI može sadržavati predrasude, možda se svi možemo složiti s ove dvije očigledne činjenice:

1. Ljudi mogu imati brojne nepristrasne predrasude i mogu djelovati na njih

2. AI može imati brojne neželjene predrasude i može djelovati na te predrasude

Pomalo mi se gadi da u tom kontekstu stavljam ljude nasuprot AI jer bi to na neki način moglo implicirati da AI ima razumne kapacitete na nivou ljudi. Ovo sigurno nije tako. Nakratko ću se vratiti na rastuću zabrinutost oko antropomorfizacije AI malo kasnije u ovoj raspravi.

Što je još gore, ljudi koji pokazuju nepristrasnost ili AI koja to čini?

Usuđujem se reći da ovo pitanje predstavlja jedan od onih glupih izbora. Moglo bi se tvrditi da je to poslovično manje od dva zla. Željeli bismo da ljudi ne oličavaju nepristrasnost. Dalje bismo željeli da, čak i ako ljudi imaju neželjene predrasude, oni neće djelovati na te predrasude. Isto bi se moglo reći i za AI. Željeli bismo da AI ne ugrađuje neželjene predrasude i da čak i ako postoje takve interno kodirane predrasude da AI barem ne bi djelovala na njih.

Želje ipak ne moraju nužno upravljati svijetom (za moju analizu rastućeg i uznemirujućeg privida tzv. AI ispunjenje želja od strane društva u celini, vidi link ovdje).

U redu, očigledno želimo da ljudi znaju svoja ograničenja. Važno je prepoznati kada imate nepristrasnosti. Jednako je važno pokušati spriječiti da se te neželjene predrasude unesu u vaše postupke i odluke. Današnje kompanije pokušavaju sve vrste pristupa kako bi spriječile svoje zaposlenike da upadnu u strašne zamke nepristrasnosti. Specijalizovana obuka se daje zaposlenima o tome kako da obavljaju svoj posao na etički ispravan način. Procesi su oblikovani oko zaposlenih kako bi ih upozorili kada se čini da pokazuju neetičke običaje. I tako dalje.

Još jedno sredstvo za suočavanje s ljudima i njihovim nepristrasnim predrasudama bilo bi automatiziranje rada na ljudima. Da, jednostavno uklonite čovjeka iz petlje. Nemojte dozvoliti čovjeku da obavlja zadatak donošenja odluka i vjerovatno više nemate dugotrajne brige o ljudskom držanju prema bilo kakvim neželjenim predrasudama. Čovjek nije uključen i time se čini da je problem potencijalnih ljudskih predrasuda riješen.

Pominjem ovo jer smo svjedoci postepenog i masovnog pomaka ka korištenju AI u načinu donošenja odluka algoritama (ADM). Ako možete zamijeniti čovjeka s umjetnom inteligencijom, velika je vjerojatnost da će se pojaviti mnogo koristi. Kao što je već spomenuto, više se ne biste brinuli zbog ljudskih predrasuda tog ljudskog radnika (onog koji više ne radi taj posao). Šanse su da će AI biti sveukupno jeftiniji u poređenju sa dugoročnim vremenskim horizontom. Otklanjate se sa svim drugim raznim poteškoćama koje nastaju djelomično s ljudskim radnicima. itd.

Čini se da je prijedlog koji sve više raste: Kada pokušavate da odlučite gdje najbolje smjestiti AI, prvo pogledajte postavke koje već uključuju nepristrane ljudske pristrasnosti vaših radnika i za koje te pristrasnosti potkopavaju ili na drugi način pretjerano komplikuju određene zadatke donošenja odluka.

Zaključak je da bi se činilo mudrim prikupiti najviše novca za svoj novac u smislu ulaganja u umjetnu inteligenciju ciljajući direktno na visoko izložene ljudske zadatke donošenja odluka koje je teško kontrolisati iz perspektive infuzije nepristrasnosti. Uklonite ljudske radnike u toj ulozi. Zamijenite ih AI. Pretpostavka je da AI ne bi imao takve nepristrasne predrasude. Stoga, možete uzeti svoj kolač i pojesti ga, naime, preuzeti zadatke odlučivanja i to bez etičkog i pravnog spektra nepristrasnosti.

Kada to zacrtate, ROI (povrat ulaganja) bi vjerovatno učinio usvajanje AI jednostavnim izborom.

Evo kako se to obično odvija.

Pogledajte cijelu svoju firmu i pokušajte identificirati zadatke donošenja odluka koji utiču na kupce. Od tih zadataka, koji od njih će najvjerovatnije biti neprikladno poremećeni ako radnici oličavaju nepristrasne predrasude? Ako ste već pokušali da obuzdate te predrasude, možda ste pustili da stvari stoje kako jesu. S druge strane, ako se predrasude i dalje pojavljuju i napor da ih se iskorijeni je težak, razmislite o tome da u tu ulogu ubacite neku odgovarajuću AI. Ne držite radnike u mješavini jer bi mogli nadjačati AI ili gurnuti AI pravo nazad u ponor nepristrasnih predrasuda. Također, uvjerite se da AI može obaviti zadatak stručno i da ste dovoljno uhvatili aspekte donošenja odluka potrebnih za obavljanje posla.

Isperite i ponovite.

Shvaćam da se to čini kao jasan pojam, iako shvaćam da postoji mnogo načina na koje zamjena ljudskih radnika umjetnom inteligencijom može lako krenuti po zlu. Mnoge kompanije su bile željne da preduzmu takve akcije i nisu svesno razmišljale kako to učiniti. Kao rezultat toga, često su pravili mnogo gori nered nego što su imali u rukama za početak.

Želim pojasniti i naglasiti da AI nije lijek za sve.

Kad smo kod toga, postoji jedna ogromna prepreka oko čistoće naizgled izbacivanja donosilaca odluka pristrasnih prema ljudima sa navodno nepristrasnom umjetnom inteligencijom. Problem je u tome što možda samo zamjenjujete jedan skup neželjenih predrasuda drugim. Prema ranijoj indikaciji, AI može sadržavati neželjene predrasude i može djelovati na te predrasude. Izrada drske pretpostavke da zamjena pristrasnih ljudi nepristrasnom umjetnom inteligencijom nije sve što bi trebalo biti.

Ukratko, evo dogovora kada se stvar posmatra striktno iz faktora pristrasnosti:

  • AI nema neželjenih predrasuda i ergo ADM zasnovan na AI je zgodan za implementaciju
  • AI ima iste nepristrasne predrasude kao i ljudi koji su zamijenjeni i stoga ADM zasnovan na AI zabrinjava
  • AI uvodi nove nepristrasne predrasude izvan onih koje imaju ljudi koji su zamijenjeni i vjerovatno će pogoršati stvari u skladu s tim
  • AI u početku izgleda dobro, a zatim se postepeno koleba u nepristrasne predrasude
  • drugi

Možemo nakratko raspakovati te mogućnosti.

Prva je idealizovana verzija onoga što bi se moglo dogoditi. AI nema neželjenih predrasuda. Postavili ste AI na svoje mjesto i on odlično radi svoj posao. Dobro za tebe! Naravno, moglo bi se nadati da ste i vi na neki vješt način riješili raseljavanje ljudskih radnika zbog uključivanja AI.

U drugom slučaju, postavljate AI i otkrivate da AI pokazuje iste nepristrasnosti koje su imali i ljudski radnici. Kako ovo može biti? Uobičajeno sredstvo za upadanje u ovu zamku je korištenje mašinskog učenja (ML) i dubokog učenja (DL) na osnovu prikupljenih podataka o tome kako su ljudi u toj ulozi ranije donosili svoje odluke.

Dozvolite mi trenutak da objasnim.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su godinama radili taj posao uključivali nepristrasne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje obrazaca jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika bi mogla otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Sve u svemu, možda ćete se vratiti na početak. Iste negativne predrasude ljudi sada se kompjuterski ogledaju u AI sistemu. Niste iskorijenili predrasude.

Što je još gore, manje je vjerovatno da ćete shvatiti da AI ima predrasude. U slučaju ljudi, obično biste mogli biti na oprezu da ljudi imaju nepristrasne predrasude. Ovo je osnovno očekivanje. Upotreba umjetne inteligencije može uljuljati lidere u uvjerenje da je automatizacija potpuno uklonila svaku vrstu ljudske pristranosti. Time se nameštaju da su sami sebi pucali u nogu. Riješili su se ljudi s naizgled poznatim negativnim predrasudama, zamijenjeni umjetnom inteligencijom za koju se smatralo da nema takvih predrasuda, a ipak su sada stavili u upotrebu AI prepunu istih predrasuda za koje se već zna da postoje.

Ovo može dovesti do toga da se stvari zaista preokrenu. Možda ste uklonili druge zaštitne ograde koje se koriste sa ljudskim radnicima koje su uspostavljene da otkriju i spriječe pojavu onih već očekivanih ljudskih predrasuda. AI sada ima slobodne ruke. Ništa nije na mjestu da se to uhvati prije nego što se ponašate. Umjetna inteligencija bi tada mogla početi da vas vodi teškim putem ogromne akumulacije pristrasnih radnji.

I, nalazite se u nezgodnom i možda odgovornom položaju za koji ste nekada znali za pristrasnosti, a sada ste dozvolili da te pristranosti izazovu pustoš. Možda je jedna stvar što se nikada niste susreli sa takvim nepristrasnim predrasudama, a onda ih iznenada iz vedra neba proizvede AI. Možda biste pokušali da opravdate ovo sa "ko bi pogodio" vrstom distraktora (možda ne baš ubedljivo). Ali da ste sada postavili AI koji radi iste nepristrasne radnje kao i prije, pa, vaši izgovori postaju sve tanji i slabiji.

Zaokret u ovome podrazumijeva da AI pokazuje nepristrasne predrasude koje se ranije nisu susrele kada su ljudi obavljali zadatak. Moglo bi se reći da je ovo možda teže spriječiti jer se sastoji od “novih” predrasuda koje firma ranije nije tražila. Ipak, na kraju vam izgovori možda neće pružiti mnogo olakšanja. Ako se AI sistem upustio i na neetičku i na nezakonitu teritoriju, vaša guska bi mogla biti kuhana.

Još jedan aspekt koji treba imati na umu je da bi umjetna inteligencija mogla započeti sasvim dobro, a zatim krenuti u nepristrasne predrasude. Ovo je posebno vjerovatno kada se korištenje strojnog učenja ili dubokog učenja odvija na stalnoj osnovi kako bi AI bio ažuran. Bez obzira da li ML/DL radi u realnom vremenu ili periodično vrši ažuriranja, treba obratiti pažnju na to da li AI možda unosi podatke koji sada sadrže pristranosti, a koji ranije nisu bili prisutni.

Za lidere koji misle da dobijaju besplatan ručak mašući čarobnim štapićem kako bi pristrasne ljudske radnike zamijenili AI, čeka ih vrlo grubo buđenje. Pogledajte moju raspravu o važnosti osnaživanja lidera s pravilima etike umjetne inteligencije na link ovdje.

U ovom trenutku ove rasprave, kladim se da ste željni nekih primjera iz stvarnog svijeta koji bi mogli pokazati zagonetku zamjene (ili ne) ljudskih nepristrasnosti s nepristrasnostima zasnovanim na AI.

Drago mi je da ste pitali.

Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojavljivanje pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o nepristrasnim predrasudama u umjetnoj inteligenciji, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni koji AI automobilom upravljaju potpuno samostalno i za vrijeme vožnje ne postoji nikakva ljudska pomoć.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još nema pravog automobila za samostalnu vožnju na nivou 5, za koji još ne znamo da li će to biti moguće postići, niti koliko će vremena trebati da se tamo stigne.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i AI s nepristrasnim predrasudama

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni da duboko zaronimo u samovozeće automobile i mogućnosti etičke umjetne inteligencije, što uključuje istraživanje AI i nepristrasnosti.

Upotrijebimo jednostavan primjer. Samovozeći automobil baziran na umjetnoj inteligenciji je u toku na ulicama vašeg susjedstva i čini se da vozi sigurno. U početku ste posebnu pažnju posvećivali svakom trenutku kada biste uspjeli da bacite pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektronskih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo sedmica samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim putevima.

Da ne mislite da je nemoguće ili nevjerovatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se lokaliteti koji su u okviru testiranja samovozećih automobila postepeno navikli da vide dotjerana vozila, pogledajte moju analizu na ovaj link ovdje. Mnogi od lokalnog stanovništva na kraju su prešli sa razjapljenih usta ushićenog buljenja na sada emitovanje ekspanzivnog zijevanja dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerovatno je glavni razlog trenutno zbog kojeg bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Standardni AI sistemi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na putu. Za užurbane ljudske vozače u njihovim tradicionalnim automobilima koje upravljaju ljudi, ponekad se iznervirate kada ste zaglavljeni iza samovozećih automobila zasnovanih na umjetnoj inteligenciji koji strogo poštuju zakon.

To je nešto na šta bi svi mogli da se naviknemo, s pravom ili ne.

Natrag na našu priču.

Ispostavilo se da se počinju javljati dvije nepristojne brige oko inače bezazlenih i općenito dobrodošlih samovozećih automobila baziranih na umjetnoj inteligenciji, konkretno:

a. Gdje umjetna inteligencija luta samovozećim automobilima radi preuzimanja vožnji postala je zabrinuta briga u zajednici u cjelini

b. Kako se AI ponaša prema pješacima koji čekaju i koji nemaju prednost prolaza također je sve veće pitanje

U početku je AI lutala samovozećim automobilima po cijelom gradu. Svako ko je želio da zatraži vožnju u samovozećem automobilu imao je u suštini jednake šanse da ga pozove. Postepeno, veštačka inteligencija je počela da prvenstveno drži samovozeće automobile da lutaju samo u jednom delu grada. Ova sekcija je bila veća zarada i AI sistem je bio programiran da pokuša maksimizirati prihode kao dio upotrebe u zajednici.

Manje je vjerovatno da će članovi zajednice u siromašnim dijelovima grada moći da se provoze automobilom koji se samostalno vozi. To je bilo zato što su samovozeći automobili bili udaljeniji i lutali su u većem prihodovnom dijelu lokala. Kada bi stigao zahtjev iz udaljenog dijela grada, svaki zahtjev sa bliže lokacije koji je vjerovatno bio u “cijenjenom” dijelu grada bi dobio veći prioritet. Na kraju, dostupnost samovozećeg automobila na bilo kojem mjestu osim u bogatijem dijelu grada bila je gotovo nemoguća, što je užasno za one koji su živjeli u tim područjima koja su sada oskudjena resursima.

Mogli biste tvrditi da je AI prilično naišao na oblik diskriminacije proxy (koja se također često naziva indirektna diskriminacija). AI nije bio programiran da izbjegava ta siromašnija naselja. Umjesto toga, "naučio" je to da radi korištenjem ML/DL.

Stvar je u tome da su ljudski vozači koji dijele vožnju bili poznati po tome što rade istu stvar, iako ne nužno isključivo zbog ugla zarađivanja novca. Postojali su neki od vozača koji dijele vožnju i koji su imali nepristrasnu pristrasnost da pokupe jahače u određenim dijelovima grada. Ovo je bio donekle poznat fenomen i grad je uspostavio nadzorni pristup kako bi uhvatio ljude koji to rade. Ljudski vozači mogli bi upasti u nevolje zbog provođenja neugodnih selekcijskih postupaka.

Pretpostavljalo se da AI nikada neće pasti u istu vrstu živog pijeska. Nije uspostavljen specijalizirani nadzor za praćenje kuda idu samovozeći automobili bazirani na umjetnoj inteligenciji. Tek nakon što su članovi zajednice počeli da se žale, gradski čelnici su shvatili šta se dešava. Za više o ovim vrstama problema širom grada koje će autonomna vozila i samovozeći automobili predstaviti, pogledajte moje izvješće na ovaj link ovdje i koji opisuje studiju koju je vodio Harvard i koju sam koautor na tu temu.

Ovaj primjer lutajućih aspekata samovozećih automobila baziranih na umjetnoj inteligenciji ilustruje raniju naznaku da mogu postojati situacije koje uključuju ljude s nepristrasnim predrasudama, za koje se uspostavljaju kontrole, i da AI koja zamjenjuje te ljudske vozače ostaje skota- besplatno. Nažalost, AI tada može postepeno postati zarobljen u srodnim predrasudama i to bez dovoljno postavljenih zaštitnih ograda.

Drugi primjer uključuje AI koji odlučuje da li da se zaustavi zbog čekanja pješaka koji nemaju prednost da pređu ulicu.

Nesumnjivo ste vozili i naišli na pješake koji su čekali da pređu ulicu, a nisu imali prednost za to. To je značilo da ste imali diskreciono pravo da se zaustavite i pustite ih da pređu. Mogli biste nastaviti bez da ih pređete, a da to i dalje budete u potpunosti u skladu sa zakonskim pravilima vožnje.

Studije o tome kako ljudski vozači odlučuju da se zaustave ili ne zaustave za takve pješake sugeriraju da ponekad ljudski vozači donose izbor na osnovu nepristrasnosti. Ljudski vozač bi mogao pogledati pješaka i odlučiti da se ne zaustavi, iako bi se zaustavio da je pješak imao drugačiji izgled, na primjer na osnovu rase ili pola. Pregledao sam ovo na link ovdje.

Zamislite da su samovozeći automobili bazirani na umjetnoj inteligenciji programirani da se bave pitanjem da li da se zaustave ili ne za pješake koji nemaju prednost. Evo kako su AI programeri odlučili programirati ovaj zadatak. Prikupili su podatke sa gradskih video kamera koje su postavljene po cijelom gradu. Podaci prikazuju vozače koji se zaustavljaju za pješake koji nemaju prednost i vozače koji se ne zaustavljaju. Sve je skupljeno u veliki skup podataka.

Koristeći mašinsko učenje i duboko učenje, podaci se modeluju računarski. AI sistem vožnje zatim koristi ovaj model da odluči kada da se zaustavi ili ne zaustavi. Generalno, ideja je da od čega god da se sastoje lokalni običaji, ovako će AI usmjeravati samovozeći automobil.

Na iznenađenje gradskih čelnika i stanovnika, AI je očigledno odlučivao da stane ili ne stane na osnovu izgleda pješaka, uključujući njihovu rasu i spol. Senzori samovozećeg automobila bi skenirali pješaka koji čeka, ubacili ove podatke u ML/DL model, a model bi emitovao AI da li da se zaustavi ili nastavi. Na žalost, grad je već imao mnogo predrasuda o ljudskim vozačima u tom pogledu i AI je sada oponašao isto.

Dobra vijest je da ovo pokreće pitanje za koje gotovo niko ranije nije znao da postoji. Loša vijest je bila da je umjetna inteligencija, budući da je uhvaćena u tome, najviše krive. Ovaj primjer ilustruje da bi AI sistem mogao samo da duplira već postojeće nepristrasne predrasude ljudi.

zaključak

Postoji mnoštvo načina da se pokuša izbjeći osmišljavanje AI koji ili izvan kapije ima nepristrasne predrasude ili koji s vremenom skuplja predrasude. Jedan pristup uključuje osiguravanje da su programeri umjetne inteligencije svjesni toga što se dešava i da ih stoga drže na nogama da programiraju AI da izbjegnu stvar. Drugi način se sastoji od toga da AI sama nadgleda neetičko ponašanje (pogledajte moju raspravu na link ovdje) i/ili imati drugi dio AI koji prati druge AI sisteme za potencijalno neetičko ponašanje (o tome sam pokrio na link ovdje).

Da rezimiramo, moramo shvatiti da ljudi mogu imati neugodne predrasude i da nekako moraju znati svoja ograničenja. Isto tako, AI može imati neželjene predrasude i nekako moramo znati njihova ograničenja.

Za one od vas koji žarko prihvataju etiku veštačke inteligencije, želeo bih da završim odmah sa još jednom poznatom rečenicom koju svi već moraju da znaju. Naime, nastavite da koristite i dijelite važnost Etičke AI. I tako bih drsko rekao ovo: „Samo naprijed, uljepšaj mi dan.”

Izvor: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/