Najnovija velika zabrinutost zbog etike AI je da AI može neraskidivo utjeloviti političke predrasude, uključujući čak i u bezazlenom slučaju samovozećih automobila zasnovanih na umjetnoj inteligenciji

Hajde da pričamo o politici.

Pa, shvaćam da ste vjerovatno izgorjeli zbog naizgled neprekidnog fokusa na politiku u svim dostupnim medijima ovih dana. Crvena stanja u odnosu na plava stanja. Liberali protiv konzervativaca. Demokrate protiv republikanaca. Brbljanje o političkim mahinacijama je beskrajno beskrajno.

Možda ste razumno pretpostavili da postoje neke teme za koje politika ne ulazi posebno u sliku. U suštini, možda postoje dvije različite klase tema, odnosno teme koje su politički infuzirane bez obzira na sve, i druge banalnije teme koje bi zaobišle ​​ili pobjegle iz političke sfere.

Čini se da ima smisla da će postojati one privlačne žarišne teme koje će vječno biti zarobljene u politici i političkim bijesima, kao što je dugogodišnja lista koja uključuje nacionalne zdravstvene aspekte, izborne aspekte, kontrolu oružja, imigraciju, i slično. Sve što treba da uradite je da spomenete bilo koju od tih tema i sledeća stvar koja se desi je da ste uronjeni u političku vatrenu oluju. Prilično žestoke rasprave su prilično zagarantovane.

S druge strane medalje u plamenu, možda postoje neke teme koje ne izazivaju takvu kolebljivu političku reakciju. Želio bih da iznesem jednu takvu temu pred vas, želeći da dobijem vašu početnu reakciju.

Spreman?

Automobili.

Da, svakodnevna tema o automobilima, automobilima, motornim vozilima, ili kako god to želite da izrazite, da li to izaziva političko negodovanje ili podstiče politički nabijene dijatrime ili verbalne prepucavanja oko kojih se treba razbijati?

Možda se na površini ne čini da postoji pojačan privid političke zabrinutosti oko automobila. Oni su jednostavno oblik svakodnevnog prevoza. Sjedneš u auto i voziš se na posao. Koristiš auto za obavljanje obaveza i odlazak po namirnice. Ako možete odvojiti malo vremena za odmor, automobilom se uputite u otvorene šume ili možda posjetite neke cijenjene nacionalne spomenike.

Automobili bi izgledali apolitični.

Žao mi je, ali to uglavnom nije slučaj.

Može se reći da su automobili intimno okruženi politikom i uronjeni u nju kao i bilo koja druga od takozvanih tema žarišta. Možda generalni mediji ne pokrivaju politiku orijentiranu na automobile onoliko koliko bi se moglo učiniti za druge privlačnije teme, ali bez obzira na to, političke podloge još uvijek postoje.

Jedna očigledna politička dimenzija sastoji se od toga od čega bi se naši automobili trebali sastojati.

Mislim na šminkanje ili mehanizaciju automobila. Na primjer, postoji žestoka politička debata o tome da li automobili treba da koriste ICE (motore sa unutrašnjim sagorevanjem) u odnosu na prelazak na EV (električna vozila). Ovo je područje značajnog diskursa koje se povezuje s brojnim drugim politički nabijenim temama, kao što su pitanja životne sredine i aspekti klimatskih promjena.

Manje poznata, a opet srodna stvar bavi se veličinom automobila i njihovim ukupnim otiskom u različitim aspektima. Da li da imamo velike automobile ili samo manje automobile? Trebamo li osmisliti automobile da obeshrabrimo upotrebu automobila, s ciljem da natjeramo ljude da umjesto toga koriste masovni i javni prijevoz? I tako dalje.

Evo nečega o čemu vjerovatno niste razmišljali.

Neke studije su ispitivale da li je tip automobila u vlasništvu zasnovan na političkim opredeljenjima vlasnika automobila. Vjerovatno biste mogli pronaći statističku korelaciju između nekoga ko je deklariran kao demokrata u pogledu vrste kupljenog automobila, kao i statističku korelaciju između toga što ste republikanac i vrste automobila u vlasništvu. Neću ulaziti u te studije ovdje, iako bih želio napomenuti da takve studije i njihove rezultate treba tumačiti opreznim okom i velikom dozom skepticizma u pogledu statističke validnosti.

Kada govorimo o upotrebi statistike, postoji još jedan intrigantan ugao političkih karakteristika i automobila. Čini se da postoje istraživački napori koji povezuju različite ponašanja u vožnji ljudi prema političkoj partijskoj pripadnosti tih vozača.

Često postavljana pitanja uključuju:

· Da li je vjerovatnije ili manje vjerovatno da će vozači koji dođu do sudara ili sudara biti demokrata ili republikanac?

· Da li je veća vjerovatnoća da će pijani vozači biti liberali ili konzervativci?

· Kada se dogode ti ludi incidenti bijesa na cesti, u kojima vozači pobesne i udare jedni na druge, da li bi ti ludi bijesni luđaci bili liberali ili konzervativci?

· Ko dobija više saobraćajnih kazni i verovatno vozi rizičnije, demokrate ili republikanci?

· Itd.

Opet, neću se upuštati u te istraživačke napore ovdje. I, još jednom, budite na oprezu kada čitate takve studije ili vidite žarke naslove o njihovim rezultatima. Sve što ću reći je da je stara rečenica o statistici i danas u velikoj mjeri istinita, tako da postoje laži, proklete laži i statistike (počistio sam taj komadić slane mudrosti za ljubazniju publiku).

Čini se da stoga imamo dovoljno dokaza da je tema automobila, nažalost, prožeta političkim konotacijama.

Onda ću izabrati drugu temu, koja će možda zaista biti potpuno apolitična.

Spremni ovaj put?

Umjetna inteligencija (AI).

Svakako, moglo bi se nadati, AI mora biti apolitična, posebno kada su u pitanju unutrašnji kapaciteti AI sistema. Naravno, možete posumnjati da postoji politika okolo da li AI treba da se koristi ili ne, ali čini se da biste pomislili da bi unutrašnost AI sistema bila izvan svake političke fermentacije per se.

Prije nego što pobliže pogledamo tu preovlađujuću pretpostavku, moglo bi biti poučno razmotriti neke druge aspekte AI koji su nedavno naveli mnoge da preispitaju besprijekoran poriv za stvaranjem i instinktivnim prihvatanjem AI sistema na kapaljku.

Vidite, u žurbi prema AI za dobro Zbog uzbuđenja u posljednjih nekoliko godina, raste spoznaja da neće sva umjetna inteligencija biti nužno dobra. Uvjerili smo se da postoji i dosta prilika za AI za loše nastati. Ovo se može dogoditi svrhovitom namjerom onih koji razvijaju AI, a može se dogoditi i zbog onoga što bi neki oštro tvrdili da je potpuno neodgovoran nedostatak odgovarajućeg nadzora od strane AI programera i onih koji proglašavaju AI sisteme.

Pokrio sam mnoga od ovih pitanja etike umjetne inteligencije u svojoj kolumni, kao što je link ovdje i link ovdje.

Razmotrite kao indikator AI za loše pitanje prepoznavanja lica.

Mnogi su mislili da će prepoznavanje lica biti najluđa od AI tehnologija (i, na mnogo načina, to je zaista vrsta AI za dobro). Bilo bi tako lako obaviti bankarstvo na bankomatima jednostavnim skeniranjem lica radi prepoznavanja umjesto korištenja tajnog PIN koda i bankarske kartice. Bilo bi tako zgodno ući u trgovinu i kupovati tako što ćete jednostavno koristiti svoje lice kao sredstvo za označavanje vašeg računa za namirnice na mreži koji bi mogao biti naplaćen za sve artikle koje odaberete.

Znate vježbu.

Sljedeće što znate, društvo je počelo otkrivati ​​da prepoznavanje lica nisu svi slatkiši slatkog okusa i mirisne ruže. Neki od algoritama za prepoznavanje lica baziranih na umjetnoj inteligenciji odradili su loš posao kako bi mogli razlikovati ljude zbog njihove rase. Pojavili su se brojni drugi uznemirujući i potpuno nečuveni problemi, uključujući inherentne predrasude vezane za rod i druge faktore. Za moje izvještavanje o temama etike umjetne inteligencije koje podupiru prepoznavanje lica, pogledajte vezu ovdje.

Sve u svemu, poenta je da postoji velika šansa da bilo koja AI za dobro također će nositi pripadajući prtljag koji se sastoji od AI za loše. Postoje neke prilike u kojima AI za loše je potpuno loša, a postoje male iskupljujuće osobine koje bi sugerirale da postoji barem malo AI za dobro unutar. Sve u svemu, međutim, obično će AI sistem imati privid i jednog i drugog AI za dobro i AI za loše. Prve bismo željeli ohrabriti, ove druge bismo željeli spriječiti, ograničiti, ublažiti, a kada sve ostalo ne uspije uhvatiti i defangati što je prije moguće.

Možda mislite, da, sve to ima smisla i trebali bismo pažljivo ispitati AI za bilo koju vrstu rasnih predrasuda, rodnih predrasuda i bilo koje vrste nejednakosti. Ovo bi bila odgovarajuća akcija i pomoć društvu u izbjegavanju lošeg i plodonosnom stjecanju dobra AI.

Vjerovali ili ne, postoji još jedan faktor koji se može dodati na listu iznenađujućih stvari umotanih u umjetnu inteligenciju za koju mnogi nisu shvatili da se nalazi u AI šarolikom gulašu.

Političke sklonosti.

Nedavne studije pokazuju da AI sistemi mogu utjeloviti (takoreći, iako ne antropomorfno), mnoštvo političkih tendencija, mišljenja, preferencija i drugih sličnih atributa i infuzija zasnovanih na politici. Ovo zauzvrat može uticati na to kako AI radi, kao što je ono što AI „odlučuje“ na osnovu programiranja AI.

Ako se prijavite za kredit putem interneta, a koristi se algoritamski sistem donošenja odluka zasnovan na AI, često nemate pojma od čega se sastoji AI programiranje. Kada kažete da ste odbijeni za kredit, ne možete biti sigurni da je AI izbjegao korištenje vaše rase, spola ili drugih sličnih faktora pri donošenju odluke o odbijanju.

Niti možete biti sigurni da AI nije ugušio vaš zahtjev za kredit zbog svojih političkih pristrasnosti.

Kada to kažem u tako oštrim terminima, nemojte prenapuhavati pojam vjerujući da je AI razumna. Kao što ću još malo spomenuti, danas nemamo razumnu AI. Tačka, tačka. Bez obzira na lude naslove koje vidite, imajte na umu da danas ne postoji ništa slično razumnoj AI. Čak ni ne znamo da li je moguće dostići razum pomoću AI. Takođe nema naznaka kada će se to dogoditi, niti da li će se ikada dogoditi.

Da se vratim na stvar.

Sada kada sam shvatio da AI može sadržavati političke predrasude, možemo pobliže pogledati kako se to događa i na koje načine se političke sklonosti mogu podmuklo pojaviti.

Na stranu, ako ideja da AI može ugraditi političke sklonosti kod vas izaziva užasnu uznemirenost ili šok, pripišite to još jednom primjeru probijanja besprijekornog vela AI. Čini se da je društvo do sada prihvatilo brendiranu sliku umjetne inteligencije koja uključuje veliku nevinost i netaknutu auru neutralnosti i ravnoteže.

Možda smo ovo prenijeli sa drugih tipova mašina. Čini se da tosteri nemaju inherentne predrasude zasnovane na rasi, polu i tako dalje. Slično ne bismo očekivali da toster bude politički nastrojen, takoreći. Toster je toster. To se tumači samo kao mašina.

Razlog zašto perspektiva tostera ne drži vodu kada je u pitanju AI je taj što je AI sistem programiran tako da pokušava da nastavi kognitivne kapacitete. Kao takvo, ovo gura mašinu u dilemu kognitivnih problema kao što je utjelovljenje predrasuda i slično. Uvjeravam vas, uskoro ćemo otkriti da su tosteri zasnovani na umjetnoj inteligenciji puni predrasuda i problematičnih briga.

Zgodan način da se otvore vrata ka razumijevanju kako AI može postati politički prožet će biti razmatranje upotrebe umjetne inteligencije u pojavljivanju pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji. Možemo jednim udarcem pogoditi dvije muhe i ispitati generičku i sveobuhvatnu temu AI koja sadrži političko utjelovljenje, i to u kontekstu primjera kako bi se to moglo pojaviti u automobilima koji se sami voze.

Ipak, želim da razjasnim da je politička vakcinacija AI samostalna tema koja zaslužuje da joj se oda priznanje. Nemojte greškom preplitati umjetnu inteligenciju samovozećih automobila s političkim dimenzijama umjetne inteligencije. Sva AI će imati politički inherentne mogućnosti, a dubina i stepen će zavisiti od toga kako je AI osmišljena i korišćena.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Kako će AI doći do unutrašnjeg prožimanja političkih sklonosti, i može li se to uopće dogoditi u naizgled apolitičnom carstvu AI koji se koristi za nove samovozeće automobile bazirane na umjetnoj inteligenciji?

Dozvolite mi trenutak da raspakujem pitanje jer se odnosi na automobile koji se sami voze.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni koji AI automobilom upravljaju potpuno samostalno i za vrijeme vožnje ne postoji nikakva ljudska pomoć.

Ova vozila bez vozača smatraju se nivoima 4 i 5 (pogledajte moje objašnjenje na ovoj poveznici ovdje), dok se automobil koji zahtijeva da ljudski vozač zajednički dijeli napor vožnje obično smatra nivoom 2 ili nivoom 3. Zadatak dijeljenja vožnje opisan je kao poluautonoman i obično sadrži niz automatiziranih dodataka koji se nazivaju ADAS (napredni sustavi za pomoć vozaču).

Još nema pravog automobila za samostalnu vožnju na nivou 5, za koji još ne znamo da li će to biti moguće postići, niti koliko će vremena trebati da se tamo stigne.

U međuvremenu, napori nivoa 4 postepeno pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnom putu, iako postoji kontroverza oko toga treba li ovo testiranje biti dopušteno samo po sebi (u eksperimentu smo svi zamorci sa životom ili smrću) koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, moju pokrivenost pogledajte na ovom linku ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i politička sklonosti ugrađene u umjetnu inteligenciju

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo pripremljeni da duboko zaronimo u dilemu ukorijenjenu u politici umjetne inteligencije.

Nakratko ostavimo po strani aspekte samovozećih automobila i hajde da prvo istražimo temu AI o tome kako ona uključuje političke sklonosti. Najlakši način da AI postane politički iskovana je djelovanjem AI programera koji kreiraju AI softver. Kao ljudi, mogli bi prenijeti svoje lične političke sklonosti u ono za šta programiraju softver.

Kada su sistemi veštačke inteligencije prvi put počeli da pokazuju različite rasne i rodne predrasude, bilo je ogromnog negodovanja da je to moralo biti rezultat AI programera koji su osmislili te sisteme. Bilo je optužbi da je to bio namjeran čin programera AI. Drugi su ipak sugerirali da programerima umjetne inteligencije nedostaje raznolikost i stoga su neoprezno ili nepromišljeno dopustili da se njihove postojeće predrasude prenesu u njihove napore u programiranju AI.

Za mnoge AI timove, ovo ih je potaknulo da postanu svjesniji osiguravanja raznolikosti među svojim kolegama programerima, uključujući kada su se novi članovi dodavali u njihove programske grupe. Osim toga, stvoreni su posebni poučni edukativni kursevi kako bi se povećala svijest o raznolikosti za AI programere. Postoje čak i metodologije razvoja veštačke inteligencije koje obuhvataju aspekte raznolikosti kako bi eksplicitno usmerile projekte veštačke inteligencije ka tome da paze na unošenje predrasuda i nejednakosti u svoje sisteme.

Iako gotovo niko još nije svjestan politički ukorijenjenog tipa pristrasnosti za AI, izgledi su da će na kraju porasti na važnosti i da će rezultirati glasnom galamom. Još jednom, biće pažljivo ispitani AI programeri. Možda neki namjerno ulivaju svoja politička opredjeljenja, dok drugi to mogu učiniti bez shvaćanja da to čine.

Usuđujem se reći da je fokus pretpostavke da su AI programeri bili jedini izvor uvođenja predrasuda u AI promašio sveobuhvatnost toga odakle su proizašle AI pristrasnosti. Postepena svest je bila da je korišćenje mašinskog učenja (ML) i dubokog učenja (DL) postalo značajan doprinos i aspektima unutrašnje pristranosti veštačke inteligencije.

Mašinsko učenje i duboko učenje su tehnike i tehnologije za usklađivanje računarskih obrazaca.

Sastavljate podatke koje želite da unesete u ML/DL, koji kompjuterski zatim nastoji da pronađe matematičke obrasce u datom skupu podataka. Na osnovu tih izračunatih obrazaca, ML/DL će biti stavljen u upotrebu, kao što je mogućnost recimo prepoznavanja lica. Za prepoznavanje lica, mogli bismo ubaciti gomilu slika ljudi, a ML/DL će izračunati značajne karakteristike onoga što čini lica prepoznatljivima, kao što su oblik i veličina nosa, oblik i veličina usta i usana , oblik i veličina čela i tako dalje.

Čini se da je ovaj računski pristup izvan bilo kakvog uticaja pristranosti. Sve su to samo kalkulacije.

Aha, ali zapamtite da slike (ili bilo šta drugo) unosimo u ML/DL kao dio “treninga” ili podudaranja računskog uzorka. Što se tiče prepoznavanja lica, ako bismo prvenstveno hranili slike koje prikazuju ljude jedne određene rase, velika je vjerovatnoća da bi se kompjutorsko podudaranje obrazaca usmjerilo prema tim aspektima lica. Kasnije, pod pretpostavkom da stavimo ovaj sistem prepoznavanja lica u široku upotrebu, oni koji su ga koristili i bili su druge rase možda će biti manje "prepoznati" matematički jer su ML/DL obrasci oblikovani oko rase koja se pretežno nalazila u treningu. set.

Dakle, možete jasno vidjeti kako inače “nepristrasan” matematički pristup ML/DL može biti izobličen (postoje i drugi načini, ali ja samo spominjem ovaj veliki, ovdje). Jesu li programeri umjetne inteligencije namjerno stvorili skup podataka koji je bio rasno neuravnotežen? Predlažem da je ovo rijetko namjeran čin, iako nedostatak spoznaje da su to učinili još uvijek nije dovoljan izgovor.

Danas postoji snažan pritisak na pokušaj da se oni koji koriste ML/DL navedu na to koje podatke koriste za obuku i kakve rezultate to proizvodi. Nažalost, svi su uskočili u ML/DL bandwagon i mnogi od ovih novajlija ili letećih po noći koji su preuzeli ML/DL plašt čine to bez svijesti o pristrasnosti koja se unosi. Moguće je da postoje i loši glumci koji bi to mogli namjerno učiniti, iako nadajmo se da ih je malo.

Vjerujem da vas je prethodno navedeno upoznalo sa aspektima etike umjetne inteligencije koji uključuju unošenje predrasuda u današnju umjetnu inteligenciju.

Samo naprijed i ponovite cijeli ritam, zamjenjujući generički pojam pristrasnosti specifičnim indikacijama politički ukorijenjenih sklonosti. Već sam spomenuo da sami programeri umjetne inteligencije mogu otvoreno ili nehotice prenijeti svoje političke sklonosti u ono što programirana AI radi. Drugi aspekt koji sam također naveo je da za korištenje strojnog učenja i dubokog učenja postoji mogućnost odabira podataka o obuci koji bi mogli namjerno ili slučajno prenijeti obrasce koji se uklapaju u određenu političku dimenziju.

Pa, malo sam trčao na ovoj kolumni (ups, TLDR, neki će oštro reći), pa ću nastojati da ukratko skiciram primjer kako bi AI za samovozeći automobil baziran na umjetnoj inteligenciji mogao biti uvučen u ove vrste politički nagnutih crvotočina (za moje opširno izvještavanje o takvim stvarima, u mnogim mojim objavama u kolumnama, pogledajte vezu ovdje).

Jedno dobro poznato pitanje o potencijalnom kapitalu o kojima se često raspravlja o samovozećim automobilima s umjetnom inteligencijom odnosi se na korištenje robo-taksija i tko će imati pristup ovoj novoj opciji mobilnosti kao usluge. Zabrinutost je da će samo bogati moći sebi priuštiti korištenje robo-taksija, pa će tako oni sa nižim primanjima biti izostavljeni iz nove ere automobila bez vozača (pogledajte detaljan izvještaj o tome, na linku ovdje ).

Postoji još jedan zaokret koji proizlazi iz te nevolje.

Zamislite da samovozeći automobili lutaju gradom i čekaju zahtjev za vožnju. Stiže zahtjev i obližnji robo-taxi samovozeći automobil dolazi po vozača. Jahač pokazuje kuda želi ići, a AI sistem vožnje iscrtava put do tamo. AI sistem vožnje zatim nastavlja da vozi autonomno vozilo do željenog odredišta.

Sve to izgleda dobro.

Evo jedne otrežnjujuće strepnje koja je izražena.

Pretpostavimo da se AI sistem za vožnju odluči da osmisli put koji izbjegava zatrpanija naselja. Mogli biste pretpostaviti da će se navigacijsko crtanje zasnivati ​​samo na optimalnoj putanji, kao što je najmanja udaljenost ili možda najkraće vrijeme. Mozda, mozda ne.

Drugi faktori bi mogli biti vjerovatnoća da samovozeći automobil prođe kroz ono što bi se moglo izračunati kao mjesta prepuna kriminala. Može biti da se vodi računa o opasnosti za autonomno vozilo i putnike kojim putem da krenu.

Postoji tvrdnja da bi samovozeći automobili gotovo uvijek neraskidivo izbjegavali siromašnije ili potlačene zajednice. Čini se da ljudi koji se voze u automobilima koji se sami voze nikada ne bi shvatili da takva mjesta postoje u njihovim gradovima ili mjestima. To bi ih zauzvrat učinilo nesvjesnim potreba takvih zajednica. Povrh svega, oni koji žive u tim područjima rijetko bi mogli dobiti priliku da koriste auto koji se samostalno vozi, čak i ako je pristupačan. Ne bi bilo robota koji luta u njihovoj sredini, koji bi se proračunom držao izvan tih područja.

Da li bi ova pristrasnost nastala zbog namjernog programiranja AI od strane programera?

Moglo bi biti, mada ne nužno.

Možda ova pristrasnost proizlazi iz upotrebe mašinskog učenja i dubokog učenja?

Naravno, to je razmatrana mogućnost.

AI sistem vožnje mogao bi biti baziran na ML/DL-u koji je koristio podatke za obuku o tome gdje treba nastaviti prilikom mapiranja puta. Ako su ti podaci oblikovani tako da se izbjegavaju određena područja, ML/DL bi vjerovatno otkrio takav obrazac i nastavio s njim. Vremenom, pod pretpostavkom da se takvi podaci dodatno akumuliraju dok su samovozeći automobili u pokretu, podaci koji se naknadno koriste za ažuriranje i održavanje dodatno bi pojačali te iste izmišljene obrasce.

Moglo bi se reći da se obrasci usložnjavaju kako se upotreba prethodnog uzorka iznova postavlja na svoje mjesto, neka vrsta snježne kugle ili efekta koji se stalno vrti.

Na neki način, mogli biste protumačiti da je ova prividna pristrasnost oko toga gdje voziti primjer kako bi se mogla pojaviti potencijalna tendencija AI ukorijenjena u politiku. Jedna perspektiva bi bila da se AI nastavi nesmanjeno u ovoj sklonosti. Drugi bi bio da se revidira AI kako bi se namjerno zagnala u ona područja koja su bila usklađena s obrascima izvan opsega, što još jednom možete tvrditi da je možda politički orijentisan stav koji se ulijeva u AI.

Sve u svemu, i AI eksponati političkom sklonošću ili se barem tako doživljava, bez obzira na to da li je imala ikakvog privida (što razumom nema) o politici stvari.

zaključak

Postoji mnogo ovakvih primjera koji se mogu navesti.

Ostat ću pri kontekstu samovozećeg automobila i dati vam još jedan brzi primjer. Pretpostavimo da vozač zatraži prevoz robo-taksi automobila koji se samostalno vozi i to učini kako bi stigao na politički skup koji se održava u zgradi suda u centru grada. AI sistem vožnje odbija da odvede vozača tamo.

Zašto?

Zamislite da su prethodni podaci prikupljeni o političkim skupovima kao odredišnoj tački ukazivali na to da su samovozeći automobili uhvaćeni u gužve u saobraćaju. Pretpostavimo da je to značilo da su samovozeći automobili bili manje sposobni da zarade novac od vozača, zbog dugog vremena čekanja u saobraćaju i naplate niže stope za ta vremena čekanja. Algoritam umjetne inteligencije kao što je korištenje ML/DL-a mogao bi računski odrediti da je odlazak na političke skupove loš izbor za zarađivanje novca. Dakle, kada se pojave zahtjevi da se robo-taksi ide na politički skup, zahtjev se odbija.

Mislim da možete vidjeti kako se ovo može smatrati politički motiviranim izborom. Iako AI možda ne koristi direktno bilo kakvu vrstu političkog motiva ni na koji način govoreći, čini se da u svakom slučaju čini politički izbor.

Možete se kladiti u svoj najniži dolar da ćemo se uskoro suočiti s političkom reakcijom na političke sklonosti AI. Zabeleži moje reči!

Govoreći o riječima, poznati grčki pjesnik i dramaturg Aristofan je tvrdio da se ispod svakog kamena krije političar. U današnjem svijetu, unutar svakog AI sistema, postoji nesumnjiva šansa da vrebaju politički ukorijenjene sklonosti, znali za to ili ne.

Bolje počni da okrećeš to kamenje.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/01/17/latest-jolting-ai-ethics-concern-is-that-ai-can-inextricably-embody-political-biases-including- čak-u-neškod-slučaju-ai-baziranih-samovozećih-automobila/