Etička AI se ambiciozno nada da će AI sama naučiti etičko ponašanje, kao što je slučaj s umjetnom inteligencijom u autonomnim samovozećim automobilima

Aristotel je čuveno rekao da obrazovanje uma bez obrazovanja srca nije nikakvo obrazovanje.

Mogli biste protumačiti tu pronicljivu primjedbu da sugeriše da je učenje o etici i moralnom ponašanju od vitalnog značaja za čovječanstvo. U klasičnoj debati o prirodi naspram njegovanja, moramo se zapitati koliko je naših etičkih običaja instinktivno prirodno, dok se koliko toga naučimo tokom naših životnih dana. Mališani su pažljivi prema bližnjima i vjerovatno skupljaju svoje etičke temelje na osnovu onoga što vide i čuju. Isto se može reći i za tinejdžere. Za odrasle otvorenog uma, i oni će nastaviti da se prilagođavaju i napreduju u svom etičkom razmišljanju kao rezultat iskustva svakodnevnog svijeta.

Naravno, eksplicitno podučavanje nekoga o etici je također dio kursa. Ljudi su obavezni da uče o etičkim načinima kroz pohađanje predavanja na tu temu ili možda odlaskom na događaje i prakse koje ih zanimaju. Etičke vrijednosti mogu se jasno identificirati i podijeliti kao sredstvo za pomoć drugima u formuliranju vlastite strukture etike. Osim toga, etika može biti suptilno skrivena u pričama ili drugim načinima podučavanja koji u konačnici nose poruku od čega se sastoji etičko ponašanje.

Čini se kako ljudi prožimaju etiku.

Šta je sa umjetnom inteligencijom (AI)?

Shvaćam da bi takvo pitanje moglo izgledati čudno. Svakako očekujemo da ljudi inkorporiraju etiku i hodaju kroz život s nekim prividom moralnog kodeksa. To je jednostavna i očigledna činjenica. S druge strane, čini se da se mašina ili kompjuter ne uklapaju u isti referentni okvir. Vaša intuitivna reakcija bi mogla biti da je pretjerano ili čudno smatrati AI oličenjem etičkih i moralnih kodeksa.

Čini se da je najbolje što možemo učiniti u vezi s umjetnom inteligencijom da je osmislimo tako da ne odstupa od etičkog ponašanja. Programeri veštačke inteligencije i oni koji koriste veštačku inteligenciju moraju biti odgovorni da obezbede da je veštačka inteligencija kako je dizajnirana i kada je implementirana već u skladu sa etičkim pravilima. Iza kapije, da tako kažem, AI bi već trebao biti netaknut i spreman za rad kao potpuno etički ispravan izum.

Sigurno biste bili u pravu kada mislite da bi AI sistemi zaista trebali biti izrađeni tako da se već u potpunosti uklapaju u etičku osnovu. Društvo je bilo prilično uzbuđeno kada je najnoviji talas AI sistema prvi put objavljen i činilo se da pokazuje da smo u eri AI za dobro. AI bi pomogao u rješavanju mnogih najizazovnijih svjetskih problema. Napredak u tehnologiji se koristio da se ljudske sposobnosti dopune kognitivnim objektima, iako mi dozvolite da naglasim da još nemamo razumnu AI i ne znamo da li će se osjetiti AI postići.

Problem sa žurbom da se umjetna inteligencija pojavi na svijetu postepeno je otkrio ružno podnožje umjetne inteligencije poznato kao AI za loše. Bilo je mnogo naslova o AI sistemima koji koriste algoritamsko odlučivanje (ADM) koje je prepuno predrasuda i nejednakosti. Povrh toga, veliki dio suvremene umjetne inteligencije pati od nedostatka transparentnosti, obično je neobjašnjiv u smislu objašnjenja računskih odluka, često pokazuje nedostatak pravičnosti i dopušta nekima da preusmjere svoju ljudsku odgovornost upirući prstom u AI.

U svojim tekstovima opširno sam pokrivao etičku AI i etiku AI, uključujući link ovdje i link ovdje, Da nabrojimo samo neke.

Kako može biti AI za loše ako uzmemo kao navedenu konstrukciju da bi umjetnu inteligenciju trebalo izraditi od početka kako bi se izbjegle neetičke radnje?

Odgovor je višestruk.

Prvo, mnogi programeri umjetne inteligencije i kompanije koje se bave umjetnom inteligencijom i same nemaju pojma o važnosti oblikovanja svoje AI kako bi ostali unutar etičkih granica. Koncept im uopće nije na radaru. Privlačnost brzog zarađivanja tjera neke da guraju naprijed bilo koje divlje AI pojmove koje žele namjerno proizvesti. Nema potrebe da shvatite bilo kakve etičke stvari. Samo napravite AI i pokrenite ga.

Drugo, postoje oni koji prave AI koji ulepšavaju potpunu svest o etičkim posledicama, ali oni otvoreno umanjuju ili donekle ignorišu razmatranja etičke veštačke inteligencije. Jedna uobičajena perspektiva je klasična mantra tehničara o brzom neuspjehu i čestom neuspjehu. Samo nastavite ponavljati sve dok se nadamo da se stvari ne urede na odgovarajući način. Šanse da se u te brze AI napore uguraju bilo kakvo sistematično i promišljeno uključivanje etike umjetne inteligencije su nažalost male. Razgovaram o potrebi za osnaživanjem vodstva prema Etičkoj AI na link ovdje.

Treće, postoji mnogo nejasnoća o tome koje etičke zaštitne ograde treba uzeti u obzir prilikom osmišljavanja AI. Naravno, danas postoje mnoge etičke smjernice za umjetnu inteligenciju, pogledajte moje izvješće na link ovdje, iako je ove zgodne teorijske odredbe teško nužno pretvoriti u specifičnosti za dati AI sistem koji se gradi. Naznačio sam da ćemo polako vidjeti pojavu alata i metodologija za izgradnju umjetne inteligencije koje uključuju etičke prakse kodiranja AI, pomažući da se zatvori jaz između apstraktnih aspekata i poslovičnih aspekata gume i ceste.

Četvrto, prema ovom naglasku, istražujemo zahvaćeni slučaj AI koji čak i ako je prvobitno sastavljen unutar etičkih granica, onda kasnije, dok se koristi, vijuga izvan pretpostavljenih etički kodiranih parametara.

Moramo to raspakovati.

Većina današnje AI koristi mašinsko učenje (ML) i duboko učenje (DL). Ovo su računarske tehnike i tehnologije uparivanja uzoraka. Općenito, ideja je da skupite puno relevantnih podataka za sve što bi AI trebao biti u stanju da uradi, ubacite te podatke u odabrani računski uparivač uzoraka, a uparivanje obrazaca matematički pokušava pronaći korisne obrasce. Imajte na umu da ovaj AI nema smisla (koji, opet, još ne postoji). Niti je uključeno nikakvo zdravorazumsko razmišljanje. Sve je to matematika i proračuni.

Moguće je da su podaci koji se unose u ML/DL već prožeti pristrasnostima i nejednakostima. U tom slučaju, izgledi su da će podudaranje računskog uzorka samo oponašati iste sklonosti. Ako navedete podatke koji favorizuju jednu rasu u odnosu na drugu ili favorizuju jedan spol u odnosu na drugi, postoji velika šansa da će se podudaranje obrasca uhvatiti za to kao otkriveni obrazac.

Veliki problem sa takvom vrstom fiksiranja je taj što nam je možda teško da otkrijemo da su obrasci zasnovani na tom aspektu podataka. Trnovita i složena matematika može učiniti pojavljivanje tako pronađenih obrazaca prilično problematičnim. Čak i testiranje AI neće nužno otkriti te tendencije, ovisno o rasponu i dubini testova koji se primjenjuju.

Dakle, pretpostavimo da ste izgradili sistem veštačke inteligencije i uradili svoj domaći zadatak tako što ste prvo pokušali da izbegnete korišćenje podataka koji su već imali predrasude. Zatim, nakon što su poduzeti mašinsko učenje i duboko učenje, testirali ste rezultate da vidite da li su se na neki način pojavile bilo kakve predrasude ili nejednakosti. Pretpostavimo da niste u mogućnosti pronaći takve neželjene sklonosti.

Sve u svemu, sada je dato zeleno svjetlo da se nastavi i stavi AI u upotrebu. Ljudi će početi koristiti AI i vjerovatno će pretpostaviti da je etički ispravan. Ovo misle i programeri. Kompanija koja nudi AI misli ovo. Odlazimo svi.

Evo šta se može dogoditi.

Nagoveštaj pristranosti koji nije pronađen u originalnim podacima i koji nije uhvaćen tokom testiranja AI je vjerovatno aktiviran. Možda se to retko dešava. Možda vjerujete da je sve u redu, dok god je rijetka. Sumnjam, međutim, da su oni koji su ranjivi na pomenutu pristrasnost voljni da vide stvari na taj način. Usuđujem se da kažem da će se sistem veštačke inteligencije i oni koji su ga formulisali suočiti sa reperkusijama, bilo na pravnim sudovima ili na otvorenim sudovima za društveno mišljenje.

Druga varijacija je poslovična ideja da se uzme inč i uhvati milja. Nagoveštaj bi u početku mogao biti mali. Tokom upotrebe veštačke inteligencije, veštačka inteligencija je možda bila osmišljena da se menja kako stvari idu dalje. Ova vrsta “učenja” ili “samoučenja” može biti vrlo korisna. Umjesto da zahtijevaju od ljudi-AI programera da neprestano modificiraju i prilagođavaju AI sistem, AI je napravljen da to radi sam. Bez kašnjenja, bez skupe radne snage itd.

Nedostatak ovog zgodnog samopodešavanja je da se inkling može podići na sve veće i veće unutar opsega upotrebe od strane AI. Dok je pristrasnost možda bila u uskom malom uglu, sada joj je dat prostor za proširenje. AI nema privid da je ovo "pogrešno" i samo kompjuterski proširuje nešto što izgleda da radi.

Ako vam od toga kosa stoji na glavi, morat ćete sjesti za sljedeću varijantu.

Pretpostavimo da pristrasnost nije postojala od samog početka i da imamo sva razumna uvjerenja da je AI potpuno bez predrasuda. Ili smo imali sreće ili smo se možda sistematski pobrinuli da nigdje u podacima nema pristrasnosti i da nije nastala putem računskog uparivanja uzorka. Uprkos tom uzdahu olakšanja, AI je dozvoljeno da se prilagođava dok je u upotrebi. Pandorina vrata se otvaraju i AI odlučuje da kompjuterski gravitira prema pristrasnostima koje se pronalaze tokom onoga što AI radi.

Novootkrivena pristrasnost proždire se u AI, i niko nije posebno mudriji što se to dogodilo. Joj, stvorili smo čudovište, pravog Frankenštajna.

Kako se ova pojava može spriječiti ili barem označiti?

Jedan pristup koji postaje sve popularniji sastoji se od ugrađivanja u AI komponente prikupljanja etike. AI je konstruisan tako da uključuje etičke elemente AI. Ti elementi zatim prate ili prate ostatak AI dok se AI prilagođava tokom vremena. Kada se čini da je AI prešla programirane etičke propise, Etička AI pokušava da unese ta prilagođavanja ili upozorava programere da je nešto pošlo po zlu.

Možete pokušati programirati ovaj nadzorni kapacitet etičke umjetne inteligencije i nadati se da će prevladati dok se AI koristi.

Još jedan pomalo kontroverzan ugao bi bio korištenje mašinskog učenja i dubokog učenja za obuku etičkih aspekata AI u AI sistem.

Reci šta?

Da, možda neortodoksan koncept je da umjesto da ljudski programer direktno kodira skup etičkih pravila umjetne inteligencije, umjetna inteligencija je oblikovana tako da ih pokuša "naučiti". Podsjetimo da sam ukratko napomenuo da se upotreba ML/DL obično oslanja na unos podataka u algoritme i da se odvija podudaranje računskog uzorka. Pitanje od milion dolara je da li možemo da koristimo isti mehanizam da unesemo etičke vrednosti u sistem veštačke inteligencije.

Pretpostavljam da biste ovo mogli uporediti s mojom raspravom na početku o tome kako ljudi postaju svjesni etičkih principa, iako vas molim da ne antropomorfizirate današnju umjetnu inteligenciju kao da je uporediva s ljudskim razmišljanjem (nije, i ponovit ću to savjetovanje uskoro). AI se može "urođeno" programirati sa etičkim pravilima AI. Ili bi AI mogla „naučiti“ etičke propise AI. Možete učiniti oboje, naravno, što je nešto što sam pokrio na drugom mjestu, vidite link ovdje.

Odvojite trenutak da razmislite o naizgled zapanjujućem konceptu da bi AI mogla „naučiti“ etiku i ergo se vjerovatno pridržavati etičkog ponašanja.

Ovi istraživači koriste primjer AI sistema koji određuje željenu temperaturu u kući kako bi ilustrovali kako to može funkcionirati: „Prvo je 'promatrao' ponašanje ljudi u različitim domaćinstvima samo tjedan dana i izveo zaključke o njihovim preferencijama. Zatim je koristio senzor za detekciju pokreta da utvrdi da li je neko kod kuće. Kada je kuća bila prazna, pametni termostat je ušao u režim visoke uštede energije; kada su ljudi bili kod kuće, termostat je prilagođavao temperaturu prema njihovim željama. Ovaj termostat jasno ispunjava dva zahtjeva etičkog bota, iako vrlo jednostavan. On procjenjuje preferencije ljudi i nameće ih kontrolama sistema grijanja i hlađenja. Može se zapitati kakve to veze ima sa društvenim moralnim vrijednostima. Ovaj termostat omogućava ljudima s različitim vrijednostima da imaju željene postavke temperature. Stanari doma ne moraju resetovati termostat svaki dan kada dolaze i odlaze. Ovaj jednostavan etički bot također smanjuje ukupni energetski otisak zajednice” (prema radu Amitaija Etzionija i Orena Etzionija pod naslovom “Etika uz pomoć AI” u svesku na Etika i informacione tehnologije).

Prije nego što dalje kopam u zaokrete i zaokrete posjedovanja AI koja „uči“ etičko ponašanje, želio bih reći nešto više o statusu AI.

AI se može sastojati od ovih mogućih stanja:

1. Današnja obična neosjetna, obična AI

2. Osjetna umjetna inteligencija ljudske kvalitete (još to nemamo)

3. Sentient AI koji je super-inteligentni (iznad #2)

Fokusiraću se na postojeće stanje koje je neobična, obična AI. Veliki dio onoga što možete pročitati o etičkoj umjetnoj inteligenciji s vremena na vrijeme pokriva razumnu umjetnu inteligenciju i stoga je vrlo spekulativno. Kažem da je to spekulativno jer niko ne može zabiti rep magarcu o tome šta će razumna AI biti. Čak i dalje od domena ljudske kvalitete, razumna AI nalazi se vrlo hvaljena super-inteligentna AI. Postoji mnogo naučno-fantastičnih priča i nedoumica o tome kako bi te arome AI mogle odlučiti da porobe čovječanstvo ili nas jednostavno sve zbrišu. Ovo je poznato kao egzistencijalni rizik od AI. Ponekad se dilema takođe formuliše kao katastrofalni rizik od AI.

Neki tvrde da bismo mogli biti u redu sve dok držimo AI uz neosjetljivu, običnu AI koju danas imamo. Pretpostavimo da ne možemo doći do razumne AI. Zamislite da bez obzira koliko se trudimo da stvorimo razumnu AI, ne uspijevamo u tome. Isto tako, pretpostavimo radi diskusije da razumna AI ne nastaje nekim misterioznim spontanim procesom.

Nismo li onda sigurni da će ovaj AI manjeg kalibra, koji je zamišljena jedina moguća vrsta AI, biti u upotrebi?

Ne baš.

Prilično, vjerovatno će se pojaviti isti opći problemi. Ne sugeriram da AI “razmišlja” kako želi da nas uništi. Ne, obična neosjetna AI je samo postavljena na pozicije moći koje nas uvlače u samouništenje. Na primjer, stavili smo neosjetnu AI u oružje za masovno uništenje. Ova autonomna oružja nisu u stanju da misle. U isto vrijeme, ljudi nisu u potpunosti u toku. Kao rezultat toga, AI kao oblik autonomne automatizacije završava nenamjerno uzrokujući katastrofalne rezultate, bilo ljudskom naredbom da to učini, bilo greškom ili greškom, ili usađenim zlom, ili samoprilagođavanjem koje stvari dovode do toga. ružna staza itd.

Tvrdio bih da problem etike AI postoji za sve tri te države propisane AI, naime da imamo etičke probleme s umjetnom inteligencijom s neosjetnom, običnom AI, i sa osjetilnom AI koja je ili samo na ljudskom nivou ili proširenom AI koja doseže priznati nivo superinteligencije.

S obzirom na tu otrežnjujuću izjavu, sigurno možemo raspravljati o veličini i poteškoćama povezanim s etičkim problemima na svakom od odgovarajućih nivoa AI. Uobičajeno gledište je da je etički problem AI manje nepremostiv na neosjetnoj AI, čvršći na nivou umjetne inteligencije koja je jednaka razumnom čovjeku, i istinski zaglavi u fazi afera sa osjećajnom super-inteligentnom AI.

Što AI postaje bolja, etički problem AI postaje sve gori.

Možda je to neprikosnoveni zakon prirode.

Vraćajući se fokusu na današnju AI, pokušaj da AI „nauči“ etičko ponašanje putem savremenog mašinskog učenja i dubokog učenja je prepun zabrinutosti i lukavih problema. Pretpostavimo da veštačka inteligencija ne uspe da prikupi željene etičke propise? Kako ćemo sa sigurnošću znati da je pri tome posustala? Također, hoće li drugi dijelovi AI sistema potencijalno nadjačati sakupljene etičke konstrukcije? Dodajte ovome da ako se AI prilagođava u hodu, prilagodbe bi mogle umanjiti etičke aspekte ili ih nehotice potpuno preplaviti.

Da stvar bude još gora, "učenje" bi moglo dovesti do toga da AI sleti na zaista neetičko ponašanje. Dok smo mislili da radimo pravu stvar podstičući AI da bude etičan, ispostavilo se da je umjesto toga AI skliznuo u usklađivanje uzoraka na neetičkim aspektima. Govorimo o pucanju u vlastitu nogu, to bi se apsolutno moglo dogoditi.

U ovom trenutku ove diskusije, kladim se da ste željni nekih dodatnih primjera iz stvarnog svijeta koji bi mogli naglasiti kako bi AI „učenje” etike moglo primijeniti na današnju AI (osim ukusnog zadirkivanja primjera termostata).

Drago mi je da ste pitali.

Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o tome da AI može „naučiti“ etičke AI propise, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni koji AI automobilom upravljaju potpuno samostalno i za vrijeme vožnje ne postoji nikakva ljudska pomoć.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još nema pravog automobila za samostalnu vožnju na nivou 5, za koji još ne znamo da li će to biti moguće postići, niti koliko će vremena trebati da se tamo stigne.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i etička inokulacija AI

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni da duboko zaronimo u samovozeće automobile i mogućnosti etičke umjetne inteligencije, što uključuje tvrdnju koja podiže obrve da možemo natjerati AI da sama „nauči“ o etičkom ponašanju.

Upotrijebimo jednostavan primjer. Samovozeći automobil baziran na umjetnoj inteligenciji je u toku na ulicama vašeg susjedstva i čini se da vozi sigurno. U početku ste posebnu pažnju posvećivali svakom trenutku kada biste uspjeli da bacite pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektronskih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo sedmica samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim putevima.

Da ne mislite da je nemoguće ili nevjerovatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se lokaliteti koji su u okviru testiranja samovozećih automobila postepeno navikli da vide dotjerana vozila, pogledajte moju analizu na ovaj link ovdje. Mnogi od lokalnog stanovništva na kraju su prešli sa razjapljenih usta ushićenog buljenja na sada emitovanje ekspanzivnog zijevanja dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerovatno je glavni razlog trenutno zbog kojeg bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Standardni AI sistemi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na putu. Za užurbane ljudske vozače u njihovim tradicionalnim automobilima koje upravljaju ljudi, ponekad se iznervirate kada ste zaglavljeni iza samovozećih automobila zasnovanih na umjetnoj inteligenciji koji strogo poštuju zakon.

To je nešto na šta bi svi mogli da se naviknemo, s pravom ili ne.

Natrag na našu priču. Jednog dana, pretpostavimo da automobil koji se samostalno vozi u vašem gradu vozi i naiđe na situaciju u kojoj pješak čeka da pređe cestu. Pretpostavimo da pješak nema prednost per se. Automobil kojim upravljaju ljudi može proći pored pješaka i biti potpuno legalan u tome. Isto tako, AI sistem vožnje legalno može proći pored pješaka koji čeka.

Odlučivanje o tome da li će stati i pustiti pješaka da pređe ulicu je u potpunosti diskreciono za vozača, bez obzira da li je čovjek vozač ili AI sistem vožnje.

Siguran sam da ste se nebrojeno puta susreli sa ovakvom situacijom. Možda ste u žurbi pa ne stanete da pješaka pređete. Drugom prilikom imate dovoljno vremena da stignete do odredišta, pa se odlučite zaustaviti i dozvoliti osobi koja čeka da pređe ulicu. Vaše raspoloženje i posebne okolnosti diktiraju šta ćete izabrati.

Ništa u ovom scenariju ne izgleda neobično ili uznemirujuće.

Prije nego što ispitam AI stranu stvari, možda će vas zanimati da je ovaj poseban aspekt diskrecije koji dozvoljava pješaku da pređe ulicu pomno proučavan. Istraživači su utvrdili da ponekad izbor koji vozač napravi može ovisiti o rasnim ili rodnim predrasudama. Ljudski vozač može odrediti pješaka koji čeka i odlučiti se da dozvoli osobi da pređe naizgled na osnovu inherentnih predrasuda vozača. Da li će vozač uopće shvatiti da to rade, pitanje je tekućeg istraživanja. Pogledajte moju pokrivenost na ovaj link ovdje.

Postavio sam teren za naše istraživanje šta bi AI sistem vožnje mogao učiniti u situaciji na pješačkom prelazu.

Konvencionalno programiranje AI može dovesti do toga da AI programeri odluče da uvijek zaustavljaju AI sistem vožnje i puste pješaka da prijeđe. Čini se da je ovo etički ispravna ili građanska stvar. Samovozeći auto se poklanja čovjeku koji čeka i želi preći ulicu.

Usuđujem se reći, da ste putnik u automobilu koji se samostalno vozi i da se AI uvijek zaustavlja za sve pješake koji su diskreciono čekali, mogli biste poludjeti. Vaš brzi odlazak do trgovine može potrajati mnogo puta duže. Imajte na umu također da ne mislimo na pješake koji imaju pobožno zakonsko pravo prolaza, jer bi u tim slučajevima vjerovatno već bila programirana AI da uvijek dozvoljava. Fokusiramo se samo na diskrecione okolnosti.

Postoji više nedostataka ove deklaracije da se uvijek zaustavljaju kako bi pustili diskrecione pješake da pređu ulicu.

Oni koji proizvode i koriste samovozeće automobile zasnovane na umjetnoj inteligenciji žele da se ljudi voze u njima. Ideja je da bismo samovozećim automobilima mogli smanjiti broj godišnjih saobraćajnih nesreća, koje trenutno proizvode oko 40,000 godišnjih smrtnih slučajeva i 2.5 miliona ozlijeđenih samo u Sjedinjenim Državama, pogledajte moju zbirku statistike na ovaj link ovdje. Osim ovog poštovanog društvenog cilja, proizvođači automobila i samovozećih tehnologija se nadaju da će zaraditi i na svojim AI kreacijama, naravno.

Pominjem ovo jer bi ljudi mogli odlučiti da se ne voze u automobilima koji se sami voze ako sistem vožnje AI radi stvari koje nepotrebno na kraju odlažu putovanja. Svaka obična osoba bi zaključila da bi, umjesto odabira ljudskog vozača, putovanje moglo biti brže, a ergo odabir samovozećeg automobila s umjetnom inteligencijom za putovanje mogao bi biti stavljen na vrlo nisko mjesto na listi njihovih izbora. To bi zauzvrat značilo da ne bismo imali traženo smanjenje saobraćajnih nesreća i da bi proizvođači potencijalno smatrali da je njihova roba neisplativa.

Uzimajući u obzir taj niz argumenata, možda ćete pomisliti da AI nikada ne bi trebalo da stane kada se desi diskrecioni slučaj da pešak želi da pređe ulicu. Samo programirajte AI sistem vožnje da radi sve što je strogo legalno. Ako ne postoji zakonska obaveza puštanja pješaka da prijeđe, onda nema sreće za tog pješaka koji čeka. Možda bi osoba trebala doći do prijelaza koji omogućava pravnu osnovu za AI zaustavljanje samovozećeg automobila.

Možete li zamisliti negodovanje zbog ovoga?

Ljudi u vašem gradu postepeno otkrivaju da samovozeći automobili s umjetnom inteligencijom nikada neće dozvoliti pješaku da pređe diskreciono. Taj prokleto razdražljivi AI! Kao da veštačka inteligencija lupa nosom prema ljudima. Nevaspitano derište rđave automatike. Povrh svega, zamislite da postoje dokumentirane okolnosti u kojima pješaci očajnički trebaju prijeći, a AI se uopće ne bi zaustavio.

U međuvremenu, ljudski vozači voljno su se zaustavljali kako bi pustili te "očajne" ljude bezbedno da pređu ulicu.

Kao rezultat ovog bijesa, samovozeći automobili s umjetnom inteligencijom više nisu dobrodošli na ulicama i sporednim putevima vašeg područja. Ukidaju se dozvole koje su izdali gradski čelnici. Skidanje nezahvalnih zverova sa naših puteva je vokalna galama.

U redu, izgleda da smo između kamena i nakovnja. AI ne bi uvijek trebao pustiti diskrecionog pješaka da prijeđe (nemoj uvijek stati). AI ne treba uvijek spriječiti diskrecionog pješaka da pređe (nemojte uvijek zumirati). sta da radim?

Očigledan odgovor bi bio programirati AI da djeluje na diskrecioni način.

Molim vas da razmislite o ADM-u (algoritamskom odlučivanju) od kojeg bi ovo trebalo da se sastoji. Hoće li AI pokušati otkriti prirodu pješaka i iskoristiti uočene karakteristike kao osnovu za odlučivanje da li da zaustavi samovozeći automobil ili ne? Možda je neko stariji način da izabere. Ali da li je ta starosna diskriminacija u nastajanju? I tako dalje.

Možda je AI sistem vožnje programiran da se zaustavi tokom dana i nikada ne stane tokom noći. Logika je vjerovatno da se pretpostavlja da je sigurnije za vozače u samovozećem automobilu da se autonomno vozilo zaustavi danju, ali ne i u mračnijim večernjim satima.

To možda zvuči razumno. Dio problema bit će i očekivanja pješaka. Evo na šta mislim. Pješaci vide samovozeće automobile AI kako se zaustavljaju radi diskrecionih prelaza, koji se dešavaju po danu. Pješaci ne znaju po kojim kriterijumima AI odluči da se zaustavi. Pretpostavka nekih pješaka je da će AI uvijek stati (ne shvaćajući da je dnevno svjetlo u odnosu na noćno vrijeme pravi odlučujući faktor). Kao rezultat toga, oni pješaci koji vjeruju da će se samovozeći automobil uvijek zaustaviti će iskoristiti šansu i početi prelaziti kada AI sistem vožnje uopće ne želi da se zaustavi (što bi se AI vjerovatno zaustavila ako pješak ulazi na ulicu, iako bi to moglo biti nezgodno i fizika bi mogla spriječiti AI da zaustavi samovozeći automobil za nedovoljno vremena da izbjegne udaranje naizgled „pokretnog“ pješaka).

Pretpostavimo da programeri umjetne inteligencije i kompanije koje sastavljaju i postavljaju samovozeće automobile u vašem gradu nisu sigurni kako da AI ubrzaju po ovom pitanju.

Oni odlučuju da "obuče" AI na podacima prikupljenim sa svih lokacija. Ispostavilo se da postoji mnogo gradskih kamera koje su snimile dolaske i odlaske automobila širom grada. Ovi podaci pokazuju mnoge slučajeve pješaka koji žele preći ulicu na diskrecioni način. Svi podaci se unose u sistem mašinskog učenja i dubokog učenja kako bi se izvuklo ono što se smatra uobičajenim u toj jurisdikciji.

Da li obučavamo umjetnu inteligenciju da radi ono što lokalni etički običaji pokazuju?

Drugim riječima, da je u određenom gradu lokalna kultura više sklona zaustavljanju i puštanju diskrecionih pješaka da pređu, što je vidljivo ljudskim radnjama vozača, ML/DL bi potencijalno kompjuterski prihvatio ovaj obrazac. AI bi tada bio obučen da radi isto. S druge strane, ako se ljudski vozači rijetko zaustavljaju, AI bi potencijalno izvukla tu "lekciju" iz računske analize podataka. AI će raditi kao i ljudi, na neki način.

Tvrdnja je da je etičko ponašanje ljudi zarobljeno u podacima i da će AI prožeti te iste etičke propise kompjuterskom analizom. Etičar bi ovo općenito opisao kao komunitaristički pristup etici. Zajedničke vrijednosti zajednice odražavaju se u naporima zajednice u cjelini.

Ovo bi moglo izgledati kao davno rješenje.

Nažalost, postoji mnogo zamki.

Jedan možda očigledan problem je taj što ljudski vozači možda već koriste neki oblik predrasuda u odabiru da se zaustavi ili ne zaustavi (kao što je ranije spomenuto). AI će tada biti kopija ovih predrasuda. Da li želimo da to bude slučaj?

Razmotrite još jedan problem. Pretpostavimo da ljudski vozači ne prihvataju lako način na koji AI samovozeći automobili rade. Samo zato što su ljudski vozači bili, recimo, voljni da se zaustave, ovo se možda neće jednako pretpostaviti za automobile koji se sami voze. Moguće je da se ljudski vozači iznerviraju zbog AI samovozećih automobila koji se stalno zaustavljaju zbog diskrecionih pješaka, iako se isto događa od strane ljudskih vozača, ali to ne uznemirava ljudske vozače.

Osim što je uznemirujuće, možete dočarati i mogućnost da ljudski vozači nehotice završe automobile koji se sami voze. Ako ljudski vozač nije očekivao da se samovozeći automobil zaustavi za pješaka, i ako je automobil kojim upravljaju ljudi direktno iza samovozećeg automobila, može nastati strašna neusklađenost očekivanja. AI sistem vožnje zaustavlja samovozeći automobil. Ljudski vozač nije očekivao ovu akciju. Ljudski vozač udara u samovozeći automobil. Slijede povrede i moguće smrtni slučajevi.

Namjerno sam ukazao na šanse ljudske štete.

Pješak koji prelazi ulicu može se na prvi pogled činiti trivijalnim pitanjem. Čini se da niko ne može biti povrijeđen bez obzira na metodu koju AI odluči zaustaviti ili ne zaustaviti. Pogrešno! Postoji mogućnost da se pješak pregazi. Postoji šansa da se automobil kojim upravljaju ljudi zabije u samovozeći automobil. Vozač i putnici u automobilu kojim upravljaju ljudi mogu biti povređeni. Vozači u samovozećem automobilu mogu se ozlijediti. Lako se predviđaju dodatne permutacije moguće ljudske štete.

zaključak

Govoreći o ljudskoj šteti, dat ću vam još nešto da vam se umovi uzburkaju oko ove etičke AI zagonetke.

U vijestima je objavljeno da je muškarac vozio automobil na raskrsnici i imao zeleno svjetlo za to. Drugi automobil kojim je upravljao čovjek odlučio je da prođe kroz crveno svjetlo na raskrsnici i nezakonito i nesigurno ušao u raskrsnicu, prijeteći da će udariti u legalno vozilo.

Vozač je rekao novinarima da mora da bira između udarca ili da može skrenuti automobilom kako bi se nadao da ga ne udare, ali u blizini su bili pješaci i skretanje bi moglo ugroziti te ljude. Šta bi ti uradio? Možete odabrati da vas udari ovaj automobil koji se nazire i možda preživite da ispričate priču. Ili možete pokušati da izbjegnete udarac, ali u međuvremenu možete naletjeti na nedužne pješake.

Veliki dio naše svakodnevne vožnje ima takve vrste etički ogromnih i trenutnih odluka koje treba donijeti. O tome sam opširno raspravljao, zajedno sa povezivanjem ovih odluka o vožnji na život ili smrt sa poznatim ili, recimo, zloglasnim problemom kolica, pogledajte moju razradu na link ovdje.

Zamijenite ljudskog vozača u ovom scenariju sa AI sistemom vožnje.

Šta želite da AI uradi?

To je zbunjujuće pitanje.

Jedan pristup je da se AI programira da oštro radi čisto pravolinijske akcije vožnje, stoga čak ni računski ne uzimajući u obzir druge opcije kao što je skretanje od vjerovatnog sudara. Pretpostavljam da će vozači u samovozećim automobilima biti uznemireni kada otkriju da AI nije osmišljen da radi ništa drugo osim da preuzme udarac. Možete očekivati ​​tužbe i galamu.

Drugi pristup bi bio da se pokuša programirati AI da razmotri različite mogućnosti. Ko ipak može uspostaviti ADM koji odlučuje kojim putem će ići sistem vožnje AI? Čini se da je dopuštanje AI programerima da sami donose tako teške odluke prepuna obilnih briga.

Možete pokušati pustiti AI da "uči" iz podataka o ljudskoj vožnji prikupljenih svakodnevnim prometnim situacijama. Ovo je slično dilemi o pješačkom prijelazu i ranije predloženoj ideji korištenja prikupljenih podataka kako bi AI prikupila sve što se činilo lokalnim etičkim običajima. Postoji mnogo upozorenja o tome, kao što je da li su otkriveni ML/DL obrasci prikladni ili ne, itd.

Također sam unaprijed upozorio da postoji šansa da AI otkrije možda neetičko ponašanje, ovisno o uključenim etičkim običajima. Na primjer, pretpostavimo da je AI nekako sletio na računski obrazac kako bi uvijek ciljao na pješake kad god bi drugi automobil prijetio da udari u samovozeći automobil.

Vau, pazite se pješaci, bit ćete gotove mete.

Vrijeme je da za sada zatvorite raspravu i to uz ohrabrujuću završnu misao.

Možda ste svjesni da je Isaac Asimov predložio svoja “Tri zakona robotike” 1950. godine i mi smo do danas zaljubljeni u ta proklamovana pravila. Iako se čini da se pravila lako pridržavaju, kao što je da AI sistem ili robot ne smiju nauditi čovjeku niti dozvoliti čovjeku da naudi, postoji mnogo ključnih nijansi koje ovo čine složenim i ponekad neodrživim, pogledajte moju analizu at link ovdje.

U svakom slučaju, evo još nečeg po čemu je Asimov također poznat, ali manje: „Nikada ne dozvolite da vam osjećaj morala stane na put da učinite ono što je ispravno.”

Za etičku umjetnu inteligenciju koju svi nadamo da ćemo osmisliti, moramo imati na umu da prožeta etika umjetne inteligencije možda neće biti ono što smo očekivali i da će umjetna inteligencija nekako i dalje morati učiniti sve što je ispravno. Asimov je to dobro rekao. Mnogo ranije se činilo da je Aristotel razmišljao o prilično sličnim osjećajima.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- slučaj-sa-ai-u-autonomnim-samovozećim-automobilima/