AI etika zvona zvona za uzbunu o nadolazećem spektru AI predrasuda na masovnom globalnom nivou, posebno podstaknutog preko nadolazećih potpuno autonomnih sistema

Platon je čuveno rekao da se dobra odluka zasniva na znanju, a ne na brojevima.

Ovaj oštar uvid izgleda zapanjujuće predviđajući o današnjoj umjetnoj inteligenciji (AI).

Vidite, unatoč burnim naslovima koji trenutno proglašavaju da je AI nekako dosegla razum i utjelovljuje ljudsko znanje i razmišljanje, imajte na umu da je ova prenaglašena hiperbola umjetne inteligencije podmukla prevara budući da se još uvijek oslanjamo na krckanje brojeva u današnjem algoritmu donošenja odluka (ADM ) kako to poduzimaju AI sistemi. Čak se i hvaljeno mašinsko učenje (ML) i duboko učenje (DL) sastoje od podudaranja računarskih obrazaca, što znači da su brojevi i dalje u srži uzvišene upotrebe ML/DL-a.

Ne znamo da li je AI moguć da dostigne osećaj. Moglo bi biti, možda i nije. Niko sa sigurnošću ne može reći kako bi to moglo nastati. Neki vjeruju da ćemo postepeno poboljšati naše računske napore AI tako da će se spontano pojaviti oblik osjećaja. Drugi misle da bi AI mogla ući u neku vrstu kompjuterske supernove i dostići osjećaj prilično samostalno (obično se naziva singularitet). Za više o ovim teorijama o budućnosti AI, pogledajte moje izvješće na link ovdje.

Dakle, nemojmo se zavaravati i lažno vjerovati da savremena umjetna inteligencija može razmišljati kao ljudi. Pretpostavljam da tada dolazi u prvi plan pitanje o Platonovoj primjedbi o tome da li možemo donositi dobre odluke zasnovane na kompjuterskoj AI, a ne na razumnoj AI. Možda ćete biti iznenađeni kada znate da bih tvrdio da svakodnevni AI sistemi zaista možemo donositi dobre odluke.

Druga strana te medalje je da možemo imati i svakodnevne AI sisteme koji donose loše odluke. Pokvarene odluke. Odluke koje su pune nepristrasnosti i nepravednosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

Moje opsežno pokrivanje etike AI i etičke AI možete pronaći na ovaj link ovdje i ovaj link ovdje, Da nabrojimo samo neke.

Za ovu diskusiju, želio bih iznijeti posebno zabrinjavajući aspekt u vezi s umjetnom inteligencijom za koji oni u areni etike umjetne inteligencije s pravom žale i pokušavaju podići odgovarajuću svijest. Otrežnjujuća i zbunjujuća stvar je zapravo prilično jednostavna za ukazati.

Evo ga: AI ima potencijal u stvarnom svijetu za objavljivanje predrasuda pod utjecajem umjetne inteligencije na alarmantnoj globalnoj razini.

A kada kažem „u razmjeru“, to očito znači masovne razmjere širom svijeta. Ogroman razmjer. Skala koja prelazi skalu.

Prije nego što zaronim u to kako će se ovo skaliranje predrasuda natopljenih umjetnom inteligencijom odvijati, hajde da se uvjerimo da svi imamo privid kako AI može uključiti nepotrebne predrasude i nejednakosti. Podsjetimo još jednom da ovo nije razumna sorta. Sve je ovo kompjuterskog kalibra.

Možda ćete biti zbunjeni kako bi AI mogla prožeti iste vrste štetnih predrasuda i nejednakosti kao i ljudi. Skloni smo smatrati da je AI potpuno neutralna, nepristrasna, jednostavno mašina koja nema nikakvog emocionalnog uticaja i lošeg razmišljanja koje bi ljudi mogli imati. Jedno od najčešćih načina da AI upadne u pristrasnost i nejednakost događa se kada se koristi mašinsko učenje i duboko učenje, djelimično kao rezultat oslanjanja na prikupljene podatke o tome kako ljudi donose odluke.

Dopustite mi trenutak da razradim.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje obrazaca jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka ili ADM AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Ovo nas dovodi do pitanja pristrasnosti natopljenih umjetnom inteligencijom kada su na skali.

Prvo, pogledajmo kako ljudske predrasude mogu stvarati nejednakost. Kompanija koja daje hipotekarne kredite odlučuje angažovati agenta za hipotekarne kredite. Agent bi trebao pregledati zahtjeve potrošača koji žele dobiti stambeni kredit. Nakon ocjene zahtjeva, agent donosi odluku o odobravanju ili odbijanju kredita. Lako-peasy.

Radi diskusije, zamislimo da agent za ljudske kredite može analizirati 8 kredita dnevno, uzimajući oko jedan sat po pregledu. U petodnevnoj radnoj sedmici agent obavi oko 40 pregleda kredita. Na godišnjoj bazi, agent obično obavi oko 2,000 pregleda kredita, davanja ili uzimanja.

Kompanija želi da poveća obim pregleda kredita, tako da angažuje 100 dodatnih kreditnih agenata. Pretpostavimo da svi imaju približno istu produktivnost i da to znači da sada možemo podnijeti oko 200,000 kredita godišnje (po stopi od 2,000 pregleda kredita godišnje po agentu). Čini se da smo zaista ubrzali obradu zahtjeva za kredit.

Ispostavilo se da kompanija osmišljava AI sistem koji u suštini može obavljati iste preglede kredita kao i ljudski agenti. AI radi na kompjuterskim serverima u oblaku. Putem infrastrukture oblaka, kompanija može lako dodati više računarske snage kako bi se prilagodila bilo kojoj količini pregleda kredita koja bi mogla biti potrebna.

Uz postojeću AI konfiguraciju, oni mogu obaviti 1,000 pregleda kredita na sat. Ovo se takođe može desiti 24×7. Za AI nije potrebno vrijeme za odmor. Nema pauze za ručak. AI radi 9 sata dnevno, bez galama o preopterećenosti. Reći ćemo da tim približnom tempom, AI može obraditi skoro XNUMX miliona zahtjeva za kredit godišnje.

Primijetite da smo sa 100 ljudskih agenata koji su mogli davati 200,000 kredita godišnje i višestruko skočili na znatno povećan broj od 9 miliona pregleda godišnje putem AI sistema. Dramatično smo povećali obradu naših zahtjeva za kredit. Nema sumnje u to.

Pripremite se za udarac koji će vas možda natjerati da padnete sa stolice.

Pretpostavimo da neki od naših ljudskih agenata donose svoje odluke o zajmu na osnovu nepristrasnosti. Možda neki daju rasnim faktorima ključnu ulogu u odluci o zajmu. Možda neki koriste rod. Drugi koriste starost. I tako dalje.

Od 200,000 godišnjih pregleda kredita, koliko ih se radi pod pogrešnim pogledom negativnih predrasuda i nejednakosti? Možda 10% što je oko 20,000 kreditnih zahtjeva. Što je još gore, pretpostavimo da je to 50% zahtjeva za kredit, u kom slučaju postoji prilično zabrinjavajućih 100,000 godišnjih slučajeva pogrešno donesenih odluka o kreditu.

To je loše. Ali tek treba da razmotrimo još strašniju mogućnost.

Pretpostavimo da AI ima skrivenu pristrasnost koja se sastoji od faktora kao što su rasa, spol, godine i slično. Ako je 10% godišnjih analiza kredita podložno ovoj neugodnosti, imamo 900,000 kreditnih zahtjeva koji se neadekvatno rješavaju. To je mnogo više od onoga što bi ljudski agenti mogli da urade, prvenstveno zbog aspekata zapremine. Tih 100 agenata, kada bi svi u potpunosti radili nepravedan pregled, najviše bi to mogli učiniti na 200,000 godišnjih pregleda kredita. AI bi mogao učiniti isto u mnogo velikoj mjeri od 9,000,000 godišnjih pregleda.

Yikes!

Ovo je zaista pristrasnost sa AI-om u ogromnoj skali.

Kada su nepristrasne predrasude zakopane unutar AI sistema, isto skaliranje koje se činilo korisnim sada se okreće naopako i postaje monstruozno očaravajući (i uznemirujući) rezultat skaliranja. S jedne strane, umjetna inteligencija se može korisno potaknuti da obradi više ljudi koji traže stambene kredite. Na površini, to izgleda ogromno AI za dobro. Trebali bismo se tapšati po ramenima jer vjerovatno povećavamo šanse da ljudi dobiju potrebne kredite. U međuvremenu, ako je umjetna inteligencija ugradila predrasude, skaliranje će biti strašno pokvaren rezultat i mi ćemo se na žalost zaglibiti u AI za loše, u zaista ogromnim razmerama.

Poslovični mač sa dve oštrice.

AI može radikalno povećati pristup donošenju odluka za one koji traže željene usluge i proizvode. Nema više uskog grla vezanog za radnu snagu. Izvanredno! Druga oštrica mača je da ako AI sadrži loše stvari kao što su skrivene nejednakosti, isto masivno skaliranje će proglasiti to nepoželjno ponašanje u nezamislivim razmjerima. Ogorčeno, pogrešno, sramotno, i ne možemo dozvoliti da društvo padne u tako ružan ponor.

Svi koji su bili zbunjeni zašto trebamo razmišljati o važnosti AI etike sada bi trebali shvatiti da je fenomen skaliranja AI prokleto važan razlog za praćenje etičke AI. Uzmimo trenutak da ukratko razmotrimo neke od ključnih etičkih pravila AI kako bismo ilustrirali šta bi trebalo biti vitalni fokus za svakoga ko radi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne metodologije koje se mogu revidirati, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj da se utvrdi specifičnosti koje leže u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih generalno treba poštovati, dok je mnogo komplikovanija situacija kada AI kodiranje mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Sve zainteresovane strane tokom čitavog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja ustaljenih normi etičke veštačke inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Imajte na umu da je za osmišljavanje i bavljenje umjetnom inteligencijom potrebno jedno selo. Zbog čega cijelo selo mora biti na oprezu oko etike umjetne inteligencije.

Kako funkcionira skaliranje predrasuda sa AI-om

Sada kada sam shvatio da AI može sadržavati predrasude, spremni smo da ispitamo neke od razloga zašto je AI skaliranje tako nametljivo.

Razmotrite ovu ključnu listu od deset osnovnih razloga:

  1. Lako se replicira
  2. Minimalni trošak za skalu
  3. Odvratno dosljedan
  4. Nedostatak samorefleksije
  5. Slijepa poslušnost
  6. Ne diže ruku
  7. Primalac bez sumnje
  8. Nastoji da ne podstiče provokacije
  9. Lažna aura pravičnosti
  10. Teško je opovrgnuti

Ukratko ću istražiti svaku od tih ključnih tačaka.

Kada pokušate da se povećate sa ljudskim radom, šanse su da će to biti izuzetno komplikovano. Morate pronaći i zaposliti ljude. Morate ih obučiti da rade posao. Morate ih platiti i uzeti u obzir ljudske želje i potrebe. Uporedite ovo sa AI sistemom. Vi ga razvijate i stavljate u upotrebu. Osim neke količine tekućeg održavanja AI, možete se opustiti i pustiti da obrađuje beskonačno.

To znači da se AI lako replicira. Možete dodati više računarske snage kako zadatak i obim mogu zahtijevati (ne zapošljavate ili otpuštate). Globalna upotreba se vrši pritiskom na dugme i postiže se dostupnošću interneta širom sveta. Povećanje je minimalan trošak u poređenju sa ljudskim radom.

Ljudski rad je notorno nedosljedan. Kada imate velike timove, imate pravu kutiju čokolade u kojoj nikad ne znate šta imate u rukama. AI sistem će vjerovatno biti vrlo dosljedan. Ponavlja iste aktivnosti iznova i iznova, svaki put je u suštini isti kao i prethodni.

Obično bismo uživali u doslednosti veštačke inteligencije. Ako su ljudi skloni predrasudama, uvijek ćemo imati neki dio našeg ljudskog rada koji će zalutati. AI, da je potpuno nepristrasan u svojoj konstrukciji i računskim naporima, bio bi daleko dosljedniji. Međutim, problem je u tome što ako AI ima skrivene predrasude, konzistentnost je sada bolno odvratna. Šanse su da će se pristrasno ponašanje dosljedno provoditi, iznova i iznova.

Ljudi bi, nadamo se, imali malo nagoveštaja samorefleksije i možda uhvatili sebe kako donose pristrasne odluke. Ne kažem da bi svi tako uradili. Takođe ne kažem da će oni koji se uhvate nužno ispraviti svoje greške. U svakom slučaju, barem bi se neki ljudi ponekad ispravili.

Malo je vjerovatno da će AI imati bilo kakav oblik kompjuterske samorefleksije. To znači da AI samo nastavlja da radi ono što radi. Čini se da nema šanse da AI otkrije da je u suprotnosti sa pravičnošću. S obzirom na to, opisao sam neke napore da se pozabavim ovim, kao što je izgradnja etičkih komponenti AI unutar AI (vidi link ovdje) i osmišljavanje AI koji prati drugu AI kako bi uočio neetičke aktivnosti AI (vidi link ovdje).

U nedostatku bilo kakve vrste samorefleksije, AI će vjerovatno imati suštinski slijepu poslušnost onome što joj je naloženo da uradi. Ljudi možda nisu toliko poslušni. Šanse su da će se neki ljudi koji rade zadatak zapitati da li su možda vođeni na teritoriju nejednakosti. Oni bi bili skloni odbiti neetičke naredbe ili bi možda krenuli putem zviždača (pogledajte moje izvješće na ovaj link ovdje). Ne očekujte da će svakodnevna savremena AI nekako dovesti u pitanje svoje programiranje.

Zatim ćemo se osvrnuti na one koji koriste AI. Ako ste tražili stambeni zajam i razgovarali s čovjekom, mogli biste biti na oprezu da li vas čovjek pošteno protrese. Kada se koristi AI sistem, čini se da je većina ljudi manje sumnjičava. Često pretpostavljaju da je AI pravedna i ergo se ne razbesne tako brzo. Čini se da AI uljuljkava ljude u „to je samo mašina“ trans. Povrh ovoga, može biti teško pokušati protestirati protiv AI. Nasuprot tome, protestiranje kako se prema vama ponašao ljudski agent je mnogo lakše i mnogo više prihvaćeno i pretpostavljeno kao održivo moguće.

Sve u svemu, AI koja je ogrezla u predrasudama ima nečasnu prednost u odnosu na ljude ogrezle u predrasude, naime u smislu mogućnosti da AI masovno koristi te predrasude u gigantskim razmjerima, čineći to bez da bude lako uhvaćen ili ima potrošače shvatiti šta se uznemirujuće dešava.

U ovom trenutku ove diskusije, kladim se da ste željni nekih dodatnih primjera koji bi mogli pokazati zagonetku predrasuda natopljenih umjetnom inteligencijom na skali.

Drago mi je da ste pitali.

Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojavljivanje istinskih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o predrasudama natopljenim umjetnom inteligencijom na skali, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni koji AI automobilom upravljaju potpuno samostalno i za vrijeme vožnje ne postoji nikakva ljudska pomoć.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još nema pravog automobila za samostalnu vožnju na nivou 5, za koji još ne znamo da li će to biti moguće postići, niti koliko će vremena trebati da se tamo stigne.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i AI predrasude na skali

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni da duboko zaronimo u samovozeće automobile i mogućnosti etičke umjetne inteligencije, što podrazumijeva istraživanje predrasuda natopljenih umjetnom inteligencijom koje se objavljuju u velikom obimu.

Upotrijebimo jednostavan primjer. Samovozeći automobil baziran na umjetnoj inteligenciji je u toku na ulicama vašeg susjedstva i čini se da vozi sigurno. U početku ste posebnu pažnju posvećivali svakom trenutku kada biste uspjeli da bacite pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektronskih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo sedmica samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim putevima.

Da ne mislite da je nemoguće ili nevjerovatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se lokaliteti koji su u okviru testiranja samovozećih automobila postepeno navikli da vide dotjerana vozila, pogledajte moju analizu na ovaj link ovdje. Mnogi od lokalnog stanovništva na kraju su prešli sa razjapljenih usta ushićenog buljenja na sada emitovanje ekspanzivnog zijevanja dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerovatno je glavni razlog trenutno zbog kojeg bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Standardni AI sistemi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na putu. Za užurbane ljudske vozače u njihovim tradicionalnim automobilima koje upravljaju ljudi, ponekad se iznervirate kada ste zaglavljeni iza samovozećih automobila zasnovanih na umjetnoj inteligenciji koji strogo poštuju zakon.

To je nešto na šta bi svi mogli da se naviknemo, s pravom ili ne.

Natrag na našu priču.

Ispostavilo se da se počinju javljati dvije nepristojne brige oko inače bezazlenih i općenito dobrodošlih samovozećih automobila baziranih na umjetnoj inteligenciji, konkretno:

a. Tamo gdje umjetna inteligencija luta samovozećim automobilima radi preuzimanja vožnji nazirala se kao izražena zabrinutost

b. Kako se AI ponaša prema pješacima koji čekaju i nemaju prednost prolaska, postavljalo se kao goruće pitanje

U početku je AI lutala samovozećim automobilima po cijelom gradu. Svako ko je želio da zatraži vožnju u samovozećem automobilu imao je u suštini jednake šanse da ga pozove. Postepeno, veštačka inteligencija je počela da prvenstveno drži samovozeće automobile da lutaju samo u jednom delu grada. Ova sekcija je bila veća zarada i AI sistem je bio programiran da pokuša maksimizirati prihode kao dio upotrebe u zajednici.

Manje je vjerovatno da će članovi zajednice u siromašnim dijelovima grada moći da se provoze automobilom koji se samostalno vozi. To je bilo zato što su samovozeći automobili bili udaljeniji i lutali su u većem prihodovnom dijelu lokala. Kada bi stigao zahtjev iz udaljenog dijela grada, svaki zahtjev sa bliže lokacije koji je vjerovatno bio u “cijenjenom” dijelu grada bi dobio veći prioritet. Na kraju, dostupnost samovozećeg automobila na bilo kojem mjestu osim u bogatijem dijelu grada bila je gotovo nemoguća, što je užasno za one koji su živjeli u tim područjima koja su sada oskudjena resursima.

Mogli biste tvrditi da je AI prilično naišao na oblik diskriminacije proxy (koja se također često naziva indirektna diskriminacija). AI nije bio programiran da izbjegava ta siromašnija naselja. Umjesto toga, "naučio" je to da radi korištenjem ML/DL.

Stvar je u tome da su ljudski vozači koji dijele vožnju bili poznati po tome što rade istu stvar, iako ne nužno isključivo zbog ugla zarađivanja novca. Postojali su neki od vozača koji dijele vožnju i koji su imali nepristrasnu pristrasnost da pokupe jahače u određenim dijelovima grada. Ovo je bio donekle poznat fenomen i grad je uspostavio nadzorni pristup kako bi uhvatio ljude koji to rade. Ljudski vozači mogli bi upasti u nevolje zbog provođenja neugodnih selekcijskih postupaka.

Pretpostavljalo se da AI nikada neće pasti u istu vrstu živog pijeska. Nije uspostavljen specijalizirani nadzor za praćenje kuda idu samovozeći automobili bazirani na umjetnoj inteligenciji. Tek nakon što su članovi zajednice počeli da se žale, gradski čelnici su shvatili šta se dešava. Za više o ovim vrstama problema širom grada koje će autonomna vozila i samovozeći automobili predstaviti, pogledajte moje izvješće na ovaj link ovdje i koji opisuje studiju koju je vodio Harvard i koju sam koautor na tu temu.

Ovaj primjer lutajućih aspekata samovozećih automobila baziranih na umjetnoj inteligenciji ilustruje raniju naznaku da mogu postojati situacije koje uključuju ljude s nepristrasnim predrasudama, za koje se uspostavljaju kontrole, i da AI koja zamjenjuje te ljudske vozače ostaje skota- besplatno. Nažalost, AI tada može postepeno postati zarobljen u srodnim predrasudama i to bez dovoljno postavljenih zaštitnih ograda.

Ovo takođe pokazuje predrasude natopljene veštačkom inteligencijom u pogledu obima.

U slučaju ljudskih vozača, možda smo imali nekoliko tu ili tamo koji su vršili neki oblik nejednakosti. Za AI sistem vožnje, to je obično jedna takva objedinjena AI za čitavu flotu samovozećih automobila. Dakle, mogli smo početi sa recimo pedeset samovozećih automobila u gradu (svi upravljani istim AI kodom), a postepeno povećavali na recimo 500 samovozećih automobila (svima upravlja isti AI kod). Budući da svih tih pet stotina samovozećih automobila upravlja isti AI, svi su, shodno tome, podložni istim izvedenim predrasudama i nejednakostima koje su ugrađene u AI.

Skaliranje nas boli u tom pogledu.

Drugi primjer uključuje AI koji odlučuje da li da se zaustavi zbog čekanja pješaka koji nemaju prednost da pređu ulicu.

Nesumnjivo ste vozili i naišli na pješake koji su čekali da pređu ulicu, a nisu imali prednost za to. To je značilo da ste imali diskreciono pravo da se zaustavite i pustite ih da pređu. Mogli biste nastaviti bez da ih pređete, a da to i dalje budete u potpunosti u skladu sa zakonskim pravilima vožnje.

Studije o tome kako ljudski vozači odlučuju da se zaustave ili ne zaustave za takve pješake sugeriraju da ponekad ljudski vozači donose izbor na osnovu nepristrasnosti. Ljudski vozač bi mogao pogledati pješaka i odlučiti da se ne zaustavi, iako bi se zaustavio da je pješak imao drugačiji izgled, na primjer na osnovu rase ili pola. Pregledao sam ovo na link ovdje.

Zamislite da su samovozeći automobili bazirani na umjetnoj inteligenciji programirani da se bave pitanjem da li da se zaustave ili ne za pješake koji nemaju prednost. Evo kako su AI programeri odlučili programirati ovaj zadatak. Prikupili su podatke sa gradskih video kamera koje su postavljene po cijelom gradu. Podaci prikazuju vozače koji se zaustavljaju za pješake koji nemaju prednost i vozače koji se ne zaustavljaju. Sve je skupljeno u veliki skup podataka.

Koristeći mašinsko učenje i duboko učenje, podaci se modeluju računarski. AI sistem vožnje zatim koristi ovaj model da odluči kada da se zaustavi ili ne zaustavi. Generalno, ideja je da od čega god da se sastoje lokalni običaji, ovako će AI usmjeravati samovozeći automobil.

Na iznenađenje gradskih čelnika i stanovnika, AI je očigledno odlučivao da stane ili ne stane na osnovu izgleda pješaka, uključujući njihovu rasu i spol. Senzori samovozećeg automobila bi skenirali pješaka koji čeka, ubacili ove podatke u ML/DL model, a model bi emitovao AI da li da se zaustavi ili nastavi. Na žalost, grad je već imao mnogo predrasuda o ljudskim vozačima u tom pogledu i AI je sada oponašao isto.

Ovaj primjer ilustruje da bi AI sistem mogao samo da duplira već postojeće nepristrasne predrasude ljudi. Štaviše, to čini u velikim količinama. Bilo koji ljudski vozač je ponekad mogao biti naučen da radi ovaj neprikladan oblik selekcije ili je možda lično izabran da to učini, ali velike su šanse da većina ljudskih vozača to vjerovatno ne radi masovno.

U oštroj suprotnosti, AI sistem vožnje koji se koristi za vožnju samovozećih automobila će vjerovatno odvratno dosljedno i sigurno provoditi izvedenu pristrasnost.

zaključak

Postoji mnoštvo načina da pokušate izbjeći osmišljavanje AI koji ima neželjene predrasude ili koji vremenom skuplja predrasude. Koliko god je to moguće, ideja je uhvatiti probleme prije nego što uđete u visoku brzinu i ubrzate za skaliranje. Nadamo se da pristrasnosti neće izaći napolje, da tako kažem.

Pretpostavite ipak da će se u AI-u pojaviti predrasude na ovaj ili onaj način. Jednom kada ste raspoređeni u masovnim razmjerima s umjetnom inteligencijom, ne možete tek tako raditi jedan od onih često proklamovanih tehničkih pojmova „ispali i zaboravi“. Morate marljivo pratiti ono što AI radi i nastojati otkriti sve neželjene predrasude koje treba ispraviti.

Kao što je ranije istaknuto, jedan pristup uključuje osiguravanje da su AI programeri svjesni etike umjetne inteligencije i na taj način ih potaknuti da budu na oprezu da programiraju AI da izbjegnu ove stvari. Drugi način se sastoji od toga da AI sama nadzire neetičko ponašanje i/ili da ima drugi dio AI koji nadgleda druge AI sisteme za potencijalno neetičko ponašanje. U svojim tekstovima pokrio sam brojna druga potencijalna rješenja.

Posljednja misao za sada. Pošto smo započeli ovu raspravu Platonovim citatom, možda bi bilo prikladno zaključiti diskurs još jednom oštroumnom Platonovom rečenicom.

Platon je rekao da nema štete u ponavljanju dobre stvari.

Lakoća dostizanja skale s AI je svakako izvodljivo sredstvo za postizanje tako optimistične težnje kada je AI od AI za dobro raznolikost. Uživamo u ponavljanju dobre stvari. Kada je AI AI za loše i prepuna nepristrasnosti i nejednakosti, mogli bismo se osloniti na Platonove primjedbe i reći da postoji velika šteta u ponavljanju loše stvari.

Poslušajmo pažljivo Platonove mudre riječi i u skladu s tim osmislimo svoju umjetnu inteligenciju.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- globalne-razmjere-posebno-popunjene-putem-nadolazećih-potpuno-autonomnih-sistema/