Etika veštačke inteligencije i zakon o veštačkoj inteligenciji kreću se ka standardima koji eksplicitno identifikuju i upravljaju AI predrasudama

Jeste li ikada igrali 52 karte?

To nije igra u koju biste se inače dobrovoljno upustili. Evo zašto. Neko vam ponudi da je to navodno zabavan sport i ako uzmete slatki mamac, onda baci čitav špil igraćih karata u zrak i sažeto na pod. Osoba vam se tada bezobrazno nasmiješi i kaže vam da pokupite karte. To je cijela igra.

Prankster!

Imam donekle promišljeno pitanje o ovome.

Pretpostavimo da je jedna od karata skliznula ispod obližnje sofe. Kada ste završili sa podizanjem svih karata, znali biste da jedna nedostaje jer bi u vašoj ruci bila samo pedeset i jedna.

Pitanje je da li možete utvrditi koja kartica nedostaje?

Siguran sam da biste odmah rekli da možete lako shvatiti koja kartica nije u vašim rukama. Sve što treba da uradite je da dovedete špil u red. Znate da se standardni špil sastoji od četiri boje i da su u svakoj boji karte numerisane od jedan do deset, a zatim na Jack, Queen i King.

To znate jer je standardni špil igraćih karata zasnovan na standardu.

Vau, ta izjava bi mogla izgledati kao jedna od onih potpuno očiglednih tvrdnji. Pa, da, naravno, standardni špil za igru ​​je baziran na standardu. Svi to znamo. Moja poenta je da se, ako imamo standard, možemo osloniti na standard kada je to potrebno. Osim što možete zaključiti koja karta nedostaje špilu, možete lako igrati zilione dobro poznatih kartaških igara s drugim ljudima. Kada se nekome kažu pravila igre, on je direktno u mogućnosti da igra jer već u potpunosti zna od čega se špil sastoji. Ne morate im objašnjavati da špil ima četiri boje i različite numerirane karte. Oni već znaju da je tako.

Gde idem sa ovim?

Pokušavam da vas odvedem na put koji je vitalno sredstvo za postizanje napretka u oblasti AI, a posebno u oblasti etike veštačke inteligencije i etičke veštačke inteligencije. Vidite, moramo pokušati doći do široko rasprostranjenih i potpuno dogovorenih standarda o etici umjetne inteligencije. Ako to možemo učiniti, to će poboljšati lakoću usvajanja etičke umjetne inteligencije i očigledno ima za cilj poboljšati AI sisteme koji se stalno bacaju na tržište (poput nebrojenog i neuređenog špila divljih karata). Za moje kontinuirano i opsežno pokrivanje etike AI, etičke AI i prava AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Iznosim ovo kako bih pružio osnovu za moju diskusiju u ovom tekstu koja će se fokusirati na određeni segment ili dio šireg područja AI etike, naime, kao što je ranije spomenuto, specifični element AI pristrasnosti. Razlog zbog kojeg dijelim ovu temu s vama je taj što dokument koji je objavio Nacionalni institut za standarde i tehnologiju (NIST) pokušava da nas natjera da krenemo prema standardu koji karakterizira AI predrasude. Dokument je naslovljen Prema standardu za identifikaciju i upravljanje pristrasnošću u umjetnoj inteligenciji autora Reve Schwartz, Apostol Vasilev, Kristen Greene, Lori Perine, Andrew Burt i Patrick Hall, a objavilo ga je Ministarstvo trgovine SAD-a, NIST Special Publication 1270, u martu 2022.

Raspakiraćemo ovaj zgodan i ohrabrujući napor ka utvrđivanju onoga što podrazumijevamo pod predrasudama AI. Stara izreka kaže da ne možete upravljati onim što ne možete izmjeriti. Posjedovanjem standarda koji izlaže različite AI predrasude, možete početi mjeriti i upravljati pošasti AI predrasuda.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne metodologije koje se mogu revidirati, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da „samo koderi“ ili oni koji programiraju AI podliježu pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

U osnovi mnogih od tih ključnih etičkih pravila AI je podmukla priroda pristranosti AI.

Baš kao špil karata, sigurno bi bilo zgodno kada bismo nekako mogli grupisati AI predrasude u skup "odjela" ili kategorija. Zaista, NIST dokument nudi predloženo grupisanje.

Predlažu se tri glavne kategorije:

1) Sistemske predrasude

2) Statističke i računske pristranosti

3) Ljudske predrasude

Svakako treba uzeti u obzir da li se sve AI predrasude uredno uklapaju u jednu od te tri kategorije. Sa sigurnošću možete tvrditi da neke AI predrasude spadaju u jednu, dvije ili sve tri kategorije u isto vrijeme. Nadalje, možete tvrditi da više kategorija zaslužuje da bude spomenuto, kao što su neka četvrta, peta, šesta ili više serija grupa.

Nadam se da je to ono što mislite jer moramo uključiti sve u pomoć u oblikovanju ovih standarda. Ako ste iznervirani načinom na koji se ovi standardi prvi put oblikuju, pozivam vas da tu energiju pretvorite u pomoć nama ostalima da učinimo te standarde koji se razvijaju što robusnijim i potpunijim koliko je moguće urezati.

Za sada, možemo pobliže pogledati predložene tri kategorije i vidjeti s kakvom smo se rukom do sada bavili (da, nastavit ću koristiti analogiju sa špilom karata za igranje, radeći tako u cijelom ovom pisanom tekstu, možete se kladiti u svoj najniži dolar na tu ne tako skrivenu temu).

Šta se podrazumijeva pod pozivanjem na sistemske predrasude?

Evo šta kaže NIST dokument: „Sistemske predrasude su rezultat procedura i praksi određenih institucija koje rade na način koji dovodi do toga da određene društvene grupe budu u prednosti ili favorizovanju, a druge u nepovoljnom položaju ili obezvređenim. Ovo ne mora biti rezultat bilo kakve svjesne predrasude ili diskriminacije, već prije toga što većina slijedi postojeća pravila ili norme. Institucionalni rasizam i seksizam su najčešći primjeri” (imajte na umu da je ovo samo kratak izvod i čitatelji se ohrabruju da vide potpunije objašnjenje).

AI dolazi u mješavinu sistemskih predrasuda pružajući sredstva za prenošenje i primjenu tih predrasuda u aplikacijama zasnovanim na AI. Kad god koristite softver koji je prožet umjetnom inteligencijom, ono što znate može sadržavati niz predrasuda koje su već ugrađene u sistem preko kompanija i industrijskih praksi koje su dovele do stvaranja AI. Prema studiji NIST-a: “Ove predrasude su prisutne u skupovima podataka koji se koriste u AI, i institucionalnim normama, praksama i procesima kroz životni ciklus AI i u široj kulturi i društvu.”

Zatim, razmotrite skup pristrasnosti koje su označene kao statističke i računske pristranosti.

Dokument NIST-a kaže ovo: „Statističke i računske pristranosti proizlaze iz grešaka koje nastaju kada uzorak nije reprezentativan za populaciju. Ove predrasude proizilaze iz sistematske za razliku od slučajne greške i mogu se pojaviti u odsustvu predrasuda, pristrasnosti ili diskriminatorne namjere. U AI sistemima, ove predrasude su prisutne u skupovima podataka i algoritamskim procesima koji se koriste u razvoju AI aplikacija, a često nastaju kada su algoritmi obučeni na jednoj vrsti podataka i ne mogu ekstrapolirati dalje od tih podataka.”

Ova vrsta statističke i računske pristranosti često je ukuvana u AI sistem koji koristi mašinsko učenje (ML) i duboko učenje (DL). Pokretanje teške teme savremenog ML/DL zahtijeva srodnu stranu tangente o tome šta je AI i šta je ML/DL.

Uvjerimo se da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje i duboko učenje, koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Ovo nas direktno dovodi do treće kategorije NIST-ovog skupa od tri grupe, posebno uloge ljudskih predrasuda u nastanku AI predrasuda. Evo šta je navedeno u dokumentu NIST-a: „Ljudske predrasude odražavaju sistematske greške u ljudskom mišljenju zasnovane na ograničenom broju heurističkih principa i predviđanja vrijednosti jednostavnijim operacijama prosuđivanja. Ove predrasude su često implicitne i imaju tendenciju da se odnose na to kako pojedinac ili grupa percipiraju informacije (kao što je automatizovani izlaz veštačke inteligencije) kako bi doneli odluku ili popunili nedostajuće ili nepoznate informacije. Ove predrasude su sveprisutne u institucionalnim, grupnim i individualnim procesima donošenja odluka kroz životni ciklus AI, kao i u korištenju AI aplikacija nakon što se implementiraju.”

Sada ste dobili brzi uvod u tri kategorije.

Želeo bih da podelim sa vama dodatnu hranu za razmišljanje kao što je izraženo u NIST dokumentu. Tabela u njihovoj narativi pruža koristan sažetak ključnih pitanja i razmatranja koja su u osnovi svakog od tri skupa AI predrasuda. Navodim ih ovdje radi lakšeg upućivanja i poučavanja.

#1: Sistemske predrasude

  • Ko se broji, a ko ne računa?

— Problemi sa latentnim varijablama

— Nedovoljna zastupljenost marginalizovanih grupa

— Automatizacija nejednakosti

— Nedovoljna zastupljenost u određivanju funkcije korisnosti

— Procesi koji favorizuju većinu/manjinu

— Kulturna pristranost u funkciji cilja (najbolje za pojedince nasuprot najbolje za grupu)

  • Kako znamo šta je ispravno?

— Jačanje nejednakosti (na grupe više utiče veća upotreba AI)

— Prediktivni rad policije negativno utječe

— Široko usvajanje dijeljenja vožnje/samovozećih automobila/itd. mogu promijeniti politike koje utiču na stanovništvo na osnovu upotrebe

#2: Statističke i računske pristranosti

  • Ko se broji, a ko ne računa?

— Pristrasnost uzorkovanja i selekcije

— Korištenje proxy varijabli jer ih je lakše izmjeriti

— Pristrasnost automatizacije

— Likertova skala (od kategorije do ordinala do kardinala)

— Nelinearni vs linearni

— Ekološka zabluda

— Minimiziranje L1 naspram L2 norme

— Opće poteškoće u kvantificiranju kontekstualnih pojava

  • Kako znamo šta je ispravno?

— Nedostatak adekvatne unakrsne validacije

— Pristrasnost u pogledu preživljavanja

— Poteškoće s pravednošću

#3: Ljudske predrasude

  • Ko se broji, a ko ne računa?

— Pristrasnost posmatranja (efekat uličnog svjetla)

— Pristranost dostupnosti (sidrenje)

— McNamara zabluda

— Grupno razmišljanje dovodi do uskog izbora

— Rashomon efekat vodi subjektivnom zagovaranju

— Poteškoće u kvantificiranju ciljeva mogu dovesti do McNamara zablude

  • Kako znamo šta je ispravno?

— Pristrasnost potvrde

— Pristrasnost automatizacije

U ovom trenutku ove teške rasprave, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli pokazati tri kategorije pristranosti AI. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teorijska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koja na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojavljivanje istinskih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o tri predložene kategorije pristranosti AI-a, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i AI predrasude

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni da duboko zaronimo u samovozeće automobile i mogućnosti etičke umjetne inteligencije koje uključuju tri kategorije pristranosti AI.

Zamislite da je samovozeći automobil baziran na umjetnoj inteligenciji u toku na ulicama vašeg susjedstva i čini se da vozi sigurno. U početku ste posebnu pažnju posvećivali svakom trenutku kada biste uspjeli da bacite pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektronskih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo sedmica samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim putevima.

Da ne mislite da je nemoguće ili nevjerovatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se lokaliteti koji su u okviru testiranja samovozećih automobila postepeno navikli da vide dotjerana vozila, pogledajte moju analizu na ovaj link ovdje. Mnogi od lokalnog stanovništva na kraju su prešli sa razjapljenih usta ushićenog buljenja na sada emitovanje ekspanzivnog zijevanja dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerovatno je glavni razlog trenutno zbog kojeg bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Standardni AI sistemi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na putu. Za užurbane ljudske vozače u njihovim tradicionalnim automobilima koje upravljaju ljudi, ponekad se iznervirate kada ste zaglavljeni iza samovozećih automobila zasnovanih na umjetnoj inteligenciji koji strogo poštuju zakon.

To je nešto na šta bi svi mogli da se naviknemo, s pravom ili ne.

Natrag na našu priču.

U nastavku ćemo razmotriti kako bi sistemske predrasude mogle nastupiti u ovom kontekstu samovozećih automobila.

Neki stručnjaci su veoma zabrinuti da će samovozeći automobili biti u vlasništvu samo bogatih i elite. Moguće je da će trošak korištenja samovozećih automobila biti pretjerano skup. Osim ako nemate velike pare, možda nikada nećete vidjeti unutrašnjost automobila koji se samostalno vozi. Oni koji će koristiti samovozeće automobile moraće da budu bogati, navodno se tvrdi.

Kao takvi, neki uznemirujuće upozoravaju da će oblik sistemske pristrasnosti prožimati pojavu samovozećih automobila baziranih na umjetnoj inteligenciji. Cjelokupni industrijski sistem autonomnih vozila u cjelini će spriječiti samovozeće automobile iz ruku onih koji su siromašni ili manje imućni. Ovo ne mora nužno biti iz otvorene namjere i samo se ispostavilo da će jedini način za nadoknađivanje opterećujućih troškova izuma samovozećih automobila biti naplata nečuveno visokih cijena.

Ako uzvratite da danas postoje ovi pokušaji samovozećih automobila koji omogućavaju svakodnevnoj osobi da ih koristi, pa se čini očiglednim da ne morate biti bogati sami po sebi, protuargument je da je ovo neka vrsta igre ljuske kao bilo je. Proizvođači automobila i samovozeće tehnološke firme navodno su spremne učiniti da izgleda kao da cijena neće biti značajna prepreka. Oni to rade u svrhu odnosa s javnošću upravo sada i povećat će cijene kada shvate bore. Zavjerenik bi čak mogao tvrditi da se “zamorci” kao obične osobe pogubno koriste kako bi se omogućilo bogatima da se na kraju obogate.

Dakle, s obzirom na tu prilično spornu stvar, i stavljajući svoja dva centa na ovu groznu temu, ne vjerujem da će samovozeći automobili biti skuplji za svakodnevnu upotrebu. Neću ulaziti u detalje ovdje u vezi s mojim osnovama za iznošenje takve tvrdnje i pozivam vas da vidite moje pažljive rasprave na link ovdje a takođe i na link ovdje.

Nastavljajući dalje, možemo sljedeće razmotriti pitanje statističkih i računskih pristranosti povezanih s umjetnom inteligencijom.

Razmislite o naizgled nebitnom pitanju gdje će samovozeći automobili lutati da pokupe putnike. Ovo se čini kao krajnje bezazlena tema. Iskoristit ćemo priču o gradu ili gradu koji ima samovozeće automobile da istaknemo možda iznenađujuće potencijalni spektar statističkih i računskih pristranosti povezanih s umjetnom inteligencijom.

U početku pretpostavite da je AI lutao samovozećim automobilima po cijelom gradu. Svako ko je želeo da zatraži vožnju u samovozećem automobilu imao je u suštini jednake šanse da ga pozove. Postepeno, veštačka inteligencija je počela da prvenstveno drži samovozeće automobile da lutaju samo u jednom delu grada. Ova sekcija je bila veća zarada i AI sistem je bio programiran da pokuša maksimizirati prihode kao dio upotrebe u zajednici.

Manje je vjerovatno da će članovi zajednice u siromašnim dijelovima grada moći da se provoze automobilom koji se samostalno vozi. To je bilo zato što su samovozeći automobili bili udaljeniji i lutali su u većem prihodovnom dijelu lokala. Kada bi stigao zahtjev iz udaljenog dijela grada, svaki zahtjev sa bliže lokacije koji je vjerovatno bio u “cijenjenom” dijelu grada bi dobio veći prioritet. Na kraju, dostupnost samovozećeg automobila na bilo kojem mjestu osim u bogatijem dijelu grada bila je gotovo nemoguća, što je užasno za one koji su živjeli u tim područjima koja su sada oskudjena resursima.

Mogli biste tvrditi da je AI u velikoj mjeri naišao na oblik statističkih i računskih pristranosti, sličan obliku proxy diskriminacije (koji se također često naziva indirektna diskriminacija). AI nije bio programiran da izbjegava ta siromašnija naselja. Umjesto toga, „naučio“ je to da radi pomoću ML/DL-a.

Pretpostavljalo se da AI nikada neće pasti u takvu vrstu sramnog živog pijeska. Nije uspostavljen specijalizirani nadzor za praćenje kuda idu samovozeći automobili bazirani na umjetnoj inteligenciji. Tek nakon što su članovi zajednice počeli da se žale, gradski čelnici su shvatili šta se dešava. Za više o ovim vrstama problema širom grada koje će autonomna vozila i samovozeći automobili predstaviti, pogledajte moje izvješće na ovaj link ovdje i koji opisuje studiju koju je vodio Harvard i koju sam koautor na tu temu.

Za treću kategoriju ljudskih predrasuda u vezi sa AI pristrasnostima, okrećemo se primjeru koji uključuje AI da odlučuje da li da se zaustavi kako bi čekao pješake koji nemaju prednost da pređu ulicu.

Nesumnjivo ste vozili i naišli na pješake koji su čekali da pređu ulicu, a nisu imali prednost za to. To je značilo da ste imali diskreciono pravo da se zaustavite i pustite ih da pređu. Mogli biste nastaviti bez da ih pređete, a da to i dalje budete u potpunosti u skladu sa zakonskim pravilima vožnje.

Studije o tome kako ljudski vozači odlučuju da se zaustave ili ne zaustave za takve pješake sugeriraju da ponekad ljudski vozači donose izbor na osnovu nepristrasnosti. Ljudski vozač bi mogao pogledati pješaka i odlučiti da se ne zaustavi, iako bi se zaustavio da je pješak imao drugačiji izgled, na primjer na osnovu rase ili pola. Pregledao sam ovo na link ovdje.

Zamislite da su samovozeći automobili bazirani na umjetnoj inteligenciji programirani da se bave pitanjem da li da se zaustave ili ne za pješake koji nemaju prednost. Evo kako su AI programeri odlučili programirati ovaj zadatak. Prikupili su podatke sa gradskih video kamera koje su postavljene po cijelom gradu. Podaci prikazuju vozače koji se zaustavljaju za pješake koji nemaju prednost i vozače koji se ne zaustavljaju. Sve je skupljeno u veliki skup podataka.

Koristeći mašinsko učenje i duboko učenje, podaci se modeluju računarski. AI sistem vožnje zatim koristi ovaj model da odluči kada da se zaustavi ili ne zaustavi. Generalno, ideja je da od čega god da se sastoje lokalni običaji, ovako će AI usmjeravati samovozeći automobil.

Na iznenađenje gradskih čelnika i stanovnika, AI je očigledno odlučivao da stane ili ne stane na osnovu starosti pješaka. Kako se to moglo dogoditi?

Nakon detaljnijeg pregleda snimka diskrecije ljudskog vozača, pokazalo se da su mnogi slučajevi ne zaustavljanja uključivali pješake koji su imali štap starijeg građanina. Ljudski vozači naizgled nisu bili voljni da se zaustave i puste stariju osobu da pređe ulicu, vjerovatno zbog pretpostavljene dužine vremena koje bi nekome moglo biti potrebno da pređe na put. Ako je pešak izgledao kao da može brzo da pređe ulicu i smanji vreme čekanja vozača, vozači su bili skloniji puštanju osobe da pređe.

Ovo je duboko zakopano u sistem vožnje AI. Senzori samovozećeg automobila bi skenirali pješaka koji čeka, ubacili ove podatke u ML/DL model, a model bi emitovao AI da li da se zaustavi ili nastavi. Bilo koja vizuelna indikacija da bi pješak mogao biti spor za prelazak, kao što je upotreba štapa za hodanje, matematički se koristila da bi se odredilo da li sistem za vožnju AI treba pustiti pješaka koji čeka da prijeđe ili ne.

Mogli biste tvrditi da je to bilo oslanjanje na već postojeću ljudsku pristrasnost.

zaključak

Za sada neke završne misli.

Postoji popularna izreka da ne možete mijenjati karte koje vam se dijele, već morate naučiti kako da na odgovarajući način igrate bilo kojom rukom koja vam je data.

U slučaju pristrasnosti AI, ako se žarko ne uhvatimo u koštac s uspostavljanjem AI etike na cijelom području i posebno ne učvrstimo karakterizaciju AI pristrasnosti, vrste ruku s kojima ćemo se baviti će biti preplavljene mršavim neetičkim, a moguće i nezakoniti sloj. Moramo spriječiti da se te karte ikada dijele, za početak. Hrabar cilj stvaranja i promicanja etičkih standarda umjetne inteligencije ključno je sredstvo za borbu protiv rastućeg cunamija nadolazećeg AI za loše.

Odlučno možete reći banci da će rasprostranjena AI pristrasnost i neetička AI biti poput slabašne kuće od karata, koja će implodirati sama od sebe i vjerovatno će biti katastrofalna za sve nas.

Hajde da igramo na pobedu, čineći to sa odgovarajućom etičkom veštačkom inteligencijom.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/