Etika veštačke inteligencije koja se bori sa neizbežnim nesrećama sa veštačkom inteligencijom, koje se nadvijaju i nad autonomnim samovozećim automobilima

Da li možda poznajete nekoga ko je posebno sklon nezgodama?

Čini se da svi to radimo.

Možda je ta osoba sklona da se oklizne na koru banane ili prevrne dragocenu vazu u vašoj dnevnoj sobi. Oni su ljudski magnet za nesreće ove ili one vrste. Moglo bi biti toliko loše da vam se ponekad mrzi biti blizu njih. Možda ćete dobiti zloslutno prelijevanje ili pretrpjeti neslavne posljedice jedne od njihovih neugodnih nesreća.

Ali možda smo previše oštri kada sugerišemo da je bilo ko više sklon nesrećama od drugih. Moglo bi se iznijeti argument da se nesreće mogu dogoditi svakome od nas. Svi smo podložni mogućnosti da počinimo ili budemo upleteni u nesreću. Najbolji od nas uključeni.

Nagomilajmo na vrhu ove diskusije jedno dodatno uznemirujuće pitanje.

Jesu li nesreće neizbježne?

Drugim riječima, koliko god se trudili spriječiti nesreće, neraskidivo bi moglo biti da ipak postoji šansa i krajnja sigurnost da će se nesreće dogoditi. Možete nastojati da zaštitite svijet od nesreća. To izgleda nesumnjivo razborito. Ali na ovaj ili onaj način, nesreće će i dalje podići svoju ružnu glavu.

Kako kažu, nesreće čekaju da se dese.

Moglo bi biti od pomoći da se razjasni šta se misli kada se neki događaj na odgovarajući način označava kao nesreća. Uobičajena definicija rječnika je da je nesreća vrsta incidenta koji se dogodi neočekivano i nenamjerno, za koji postoji nesretan rezultat koji se sastoji od privida štete ili ozljede.

Pažljivo raspakujte tu definiciju.

Navedeni incident je neočekivan. To implicira da izgleda nismo shvatili da će do same nesreće doći.

Navedeni incident je nenamjeran. Ovo sugerira da treba isključiti okolnosti u kojima je neko namjerno tražio da dođe do incidenta. Ako šaljivdžija stavi koru od banane na pod gde zna da će nesrećni i nesuđeni nevini stati, bilo bi vam teško da tvrdite da je osoba koja se spotaknula o nju doživela nesreću. Umjesto toga, bili su prevareni i podmuklo odvedeni u zamku.

Definicija također uključuje kriterij da je rezultat nesrećan. Nesreća u ovom svjetlu mora dovesti do lošeg ishoda. Osoba koja je slučajno srušila vazu napukla je i eventualno oštetila predmet koji se ne može popraviti. Vlasnik vaze je oštećen gubitkom vrijednosti. Osoba koja je uletjela u vazu sada može biti dužna vlasniku za gubitak. Ne daj Bože da se iko može posjeći ili otkinuti razbijanjem vaze.

Radi jednake ravnoteže, mogli bismo napomenuti da postoje i takozvane „dobre“ nesreće. Osoba bi se mogla naći u velikom bogatstvu ili steći neku drugu vitalnu korist zbog posljedica nesreće. Jedan od najčešće citiranih primjera je Sir Alexander Fleming i njegovo hvaljeno otkriće penicilina. Priča se da je bio pomalo neoprezan u svojoj laboratoriji i da je po povratku sa dvonedeljnog odmora pronašao kalup na jednom od svojih ploča za kulturu. Navodno je o tome rekao ovo: „Čovjek ponekad nađe ono što ne traži. Kada sam se probudio odmah nakon zore 28. septembra 1928., sigurno nisam planirao da revolucionišem svu medicinu otkrivanjem prvog na svetu antibiotika ili ubice bakterija. Ali pretpostavljam da je to upravo ono što sam uradio.”

Ostavićemo po strani povoljne nesreće i fokusirati se ovde na strašne nezgode. Namrštena verzija nesreća je mjesto gdje ovi negativni ishodi mogu biti posebno opasni po život ili imati teške posljedice. Koliko god je to moguće, negativne nezgode koje želimo da minimiziramo (i, naravno, nesreće sa lošim stranama koje želimo da maksimiziramo, ako je to izvodljivo, mada ću tu varijantu smajlića pokriti u kasnijoj kolumni).

Želio bih malo preformulisati ranije pitanje o neizbježnosti nesreća. Do sada smo držali pažnju na nesrećama koje se dešavaju u konkretnom slučaju pojedinačne osobe. Nema sumnje da nesreće mogu uticati na veliki broj ljudi odjednom. Ovo se posebno može susresti kada su ljudi uronjeni u složen sistem ove ili one vrste.

Pripremite se za varijantu prethodno postavljenog pitanja.

Jesu li sistemske nezgode neizbježne?

Trebalo bi da razmislimo o ovome.

Pretpostavimo da je fabrički pod postavljen za izradu dijelova za automobile. Oni koji su projektovali fabriku su, recimo, izuzetno zabrinuti zbog nesreća radnika do kojih bi moglo doći. Radnici u fabrici su dužni da stalno nose šlemove. Znakovi u fabrici upozoravaju da pazite na nezgode i da budete pažljivi u svom poslu. Poduzimaju se sve mjere opreza kako bi se spriječile nesreće.

U ovom sistemu možemo se nadati da niko nikada neće doživjeti nesreću. Vjerujete li da nema šanse da se dogodi nesreća? Usudio bih se reći da se nijedan razuman mislilac ne bi kladio da je u ovom slučaju šansa za nesreću nula. Šanse su vrlo male da se dogodi nesreća, ali ipak znamo i pretpostavljamo da uprkos svim mjerama opreza još uvijek postoji mali rizik da će se nesreća dogoditi.

Sve ovo upućuje na ideju da u dovoljno složenom sistemu moramo vjerovati da će se nesreće ipak događati, bez obzira koliko se trudili da ih spriječimo. Nerado se podupiremo stavom da su sistemske nezgode zaista neizbježne. Grandiozna izjava ovog kalibra mogla bi imati upozorenje da bi sistem morao biti nekog praga složenosti tako da je u suštini nemoguće pokriti sve osnove kako bi se u potpunosti spriječile nesreće.

Sada ste uredno, korak po korak, upoznati sa široko zacrtanom teorijom o nesrećama koja se može označiti kao normalne nesreće ili teorija normalnih nesreća (NAT). Evo zgodnog opisa istraživača koji su ispitivali ovaj pojam: „U dovoljno velikoj skali, svaki sistem će proizvesti 'normalne nesreće'. To su neizbježne nezgode uzrokovane kombinacijom složenosti, sprega između komponenti i potencijalne štete. Normalna nesreća razlikuje se od uobičajenih nesreća s kvarom komponenti po tome što događaji i interakcije koje dovode do normalnog udesa nisu razumljive operaterima sistema” (kao što je navedeno u “Razumijevanje i izbjegavanje kvarova umjetne inteligencije: Praktični vodič” Roberta Williamsa i Roman Yampolskiy, Filozofija časopis).

Razlog zašto sam te doveo u zemlju tzv normalne nezgode je da bismo možda trebali pažljivo primijeniti ovu teoriju na nešto što postepeno i neizbježno postaje sveprisutno u našem društvu, naime na pojavu umjetne inteligencije (AI).

Udubimo se u ovo.

Neki ljudi pogrešno pretpostavljaju da će AI biti savršenstvo. AI sistemi neće praviti greške i neće nas dovesti u nevolje, spekuliše se. Sve što treba da uradite je da se pobrinete da ovi programeri veštačke inteligencije urade dovoljno dobar posao, i voila, AI nikada neće učiniti ništa što bi se moglo protumačiti kao slučajno ili izazivanje nesreće.

Ne tako brzo na tom hipotetičkom uvjerenju. Ako ste voljni da se upustite u teoriju normalne nezgode, bilo koja AI bilo koje suštinske složenosti će neizbježno dovesti do nesreće. Bez obzira na to koliko kasno noćno petljaju ti programeri umjetne inteligencije kako bi spriječili nesreću, AI će sigurno u nekom trenutku biti upletena u nesreću. To je način na koji se kolačić mrvi. I nema predaha plakati u našem prolivenom mlijeku zbog toga.

Razmislite o kombinaciji AI i konceptualnih načela normalne nezgode.

Zamislite da imamo AI sistem koji kontroliše nuklearno oružje. AI je pažljivo izrađen. Svaka zamisliva kontrola i ravnoteža je kodirana u AI sistem. Jesmo li sigurni od nesreće zasnovane na umjetnoj inteligenciji koja bi se mogla dogoditi? Oni koji podržavaju gledište o normalnim nesrećama rekli bi da nismo baš toliko sigurni kao što bi se moglo pretpostaviti. S obzirom na to da je umjetna inteligencija vjerovatno posebno složena, normalna nesreća u tišini čeka unutra da jednog dana ispliva, možda u najgorem mogućem trenutku.

Suština tih trnovitih pitanja i nedoumica je da moramo biti na oprezu da će umjetna inteligencija biti opterećena nesrećama, a čovječanstvo mora učiniti nešto razumno i proaktivno u vezi s opasnostima koje mogu uslijediti. Kao što ćete vidjeti za trenutak ili dva, ovo je pitanje koje se nazire kada je u pitanju korištenje umjetne inteligencije, a polje etike umjetne inteligencije i etičke AI poprilično se bori oko toga šta treba učiniti. Za moje kontinuirano i opsežno pokrivanje etike AI i Etičke AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Prije nego krenemo u zečju rupu, uvjerimo se da smo na istoj strani o prirodi AI. Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka koji vam daje savjete. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje). Svi ovi scenariji bi pojačali procjenu izvora.

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada komunicirate sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koje koristi uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji nijedna umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Sve u svemu, opšta nada je da ćemo uspostavljanjem osjećaja za etičke propise umjetne inteligencije barem moći povećati društvenu svijest o tome šta AI može i korisno učiniti i što može negativno proizvesti. Opširno sam raspravljao o različitim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Možda ćemo morati dodati na hvaljene liste etike umjetne inteligencije koje moramo eksplicitno razmotriti i poduzeti otvorene mjere da spriječimo ili barem snažno ublažimo AI zasnovane normalne nezgode to bi se moglo dogoditi. Oni koji razvijaju AI moraju dati sve od sebe na tom frontu. Oni koji koriste AI moraju učiniti isto. Oni koji koriste ili su na neki način podložni AI trebali bi biti oprezni i na oprezu zbog mogućnosti AI nesreća koje će se naizgled dogoditi.

Možda ćete biti u iskušenju da pomislite da se u AI može ugraditi dovoljno mjera opreza da bi se šanse za nesreću spustile na nulu. Za one koji su tehničari, uobičajena oholost je da ako dio tehnologije može stvoriti problem, drugi dio tehnologije sigurno može riješiti problem. Samo nastavite bacati sve više i više tehnologije dok problem ne nestane.

Pa, oni koji su proučavali nesreće orijentisane na sistem, skloni bi se ne slagali i ljubazno uzvratili na pretpostavljenu tehničarsku pompoznost nudeći stanovište poznato kao model švicarskog sira (SCM): „U SCM-u, slojevi sigurnosti su modelirani kao kriške sir sa rupama na njima koje predstavljaju slabe tačke u svakom sloju sigurnosti. Vremenom, rupe menjaju oblik i pomeraju se. Na kraju, bez obzira na to koliko kriški sira (sigurnosnih slojeva) ima, rupe će se poravnati, omogućavajući ravno pucanje kroz sve kriške sira (dogodi se nesreća)” (prema ranije citiranom radu Roberta Williamsa i Romana Yampolskog ).

Ne želim da se upuštam u ovu bočnu tangentu o tome da li postoji zagarantovan način da se AI programira da u potpunosti i uvijek izbjegne bilo kakvu mogućnost nesreće. Postoje razni matematički i računski pristupi dokazivanja koji se isprobavaju. Mislim da je razumno i pošteno izjaviti da mi danas nemamo skalabilnu radnu metodu niti tehnologije koje mogu garantirati takvu nultu šansu, plus da smo definitivno opterećeni tonama i tonama umjetne inteligencije koja se proizvodi bez prestanka. znam sa sigurnošću nije nastojao da se pridržava takve prakse. Ova posljednja stvar je ključna jer čak i ako možemo nešto smisliti u AI laboratoriju, skaliranje toga na zilione divljih i bezbrižnih AI napora koji su u toku i koji će nastaviti da se pojavljuju, je čvoran problem i vjerovatno neće biti riješen čak i ako se mašina za kompjutersko dokazivanje srebra metak je postojao.

Još jedna stvar za koju vjerujem da zaslužuje kratko spominjanje je umjetna inteligencija koja se pretvara u činjenje nepoželjnih djela kao rezultat zlonamjernih ljudskih aktera. Neću te slučajeve svrstavati u područje AI nesreća. Zapamtite da je uvodna diskusija sugerirala da je riječnička definicija nesreće incident nenamjerno priroda. Ako ljudski sajber lopov uspije natjerati AI sistem da radi loše stvari, ja tu umjetnu inteligenciju ne klasifikujem kao nesreću. Vjerujem da ćete se složiti s tom pretpostavkom.

Postavlja se zanimljivo pitanje koliko se raznih neželjenih radnji AI može pripisati čisto AI nesreći u odnosu na podmukao čin sajber kriminalca. Prema nekim postojećim bazama podataka o AI incidentima, čini se da se nesreće s umjetnom umjetnom inteligencijom dešavaju više nego zlonamjerno podstaknuti incidenti, iako tu ideju morate uzeti s velikom dozom soli. Kažem ovo jer postoji veliko iskušenje da se ne prijavi kada je AI sistem napadnut, a možda i da budemo spremniji prijaviti kada se dogodi AI nesreća.

Postoji izuzetno važno upozorenje koje moramo da razmotrimo u vezi sa nesrećama sa veštačkom inteligencijom.

Korištenje fraze „nesreće sa umjetnom inteligencijom“ općenito je nepoželjno i stvorit će popriličan nered za sve nas, što znači za cijelo društvo. Kada se čovjek možda dogodi nesreću, mi često sliježemo ramenima i saosjećamo sa osobom koja je doživjela nesreću. Čini se da riječ „nesreća“ tretiramo kao da znači da niko nije odgovoran za ono što se dogodilo.

Uzmimo za primjer dolazak u saobraćajnu nesreću. Jedan auto zamahne široko u desnom skretanju i slučajno naleti na drugi automobil koji je išao pravo naprijed. Jebiga, to je bila samo nesreća i slučajno se dogodilo. Oni koji nisu bili umiješani u incident će možda pustiti da stvar izmiče ako se događaj tumači kao puka nesreća koja se dogodila.

Ipak, imam osjećaj da da ste u autu koji je udaren, ne biste bili toliko simpatični prema vozaču koji je napravio preširoko skretanje. Vaše mišljenje bi sigurno bilo da je drugi vozač bio loš vozač i da je ili naizgled nezakonita ili nerazumna vožnja dovela do saobraćajne nesreće. Označavajući incident kao "nesreću", vozač koji je zaglavio sada je u donekle nepovoljnoj poziciji jer se čini da se sve dogodilo samo slučajno, a ne rukama vozača koji je zabrljao.

Zapravo, riječ "nesreća" je toliko ispunjena različitim konotacijama da uglavnom, vladine statistike o saobraćajnim nesrećama to pitanje nazivaju automobilskim sudarima ili automobilskim nesrećama, umjesto da koriste izraz saobraćajne nesreće. Čini se da sudar automobila ili saobraćajna nesreća nemaju nikakve implikacije o tome kako je došlo do incidenta. U međuvremenu, fraza "saobraćajna nesreća" nas gotovo navodi na pomisao da je to bila nakaradnost sudbine ili nekako izvan ruku čovječanstva.

Možete vidjeti kako ovo konotacijsko razmatranje dolazi do izražaja kada se govori o AI nesrećama. Ne želimo da se AI programeri sakriju iza konotacijskog štita da je AI samo slučajno nekome nanijela štetu. Isto važi i za one koji koriste AI. Mogli biste tvrditi da je fraza "nesreća sa umjetnom inteligencijom" gotovo antropomorfiziranje AI koje će navesti društvo u zabludu da omogući ljudima koji su bili iza kulisa AI da izbjegnu odgovornost. Za moju raspravu o sve većoj važnosti držanja ljudi odgovornim za svoju AI, pogledajte moju raspravu na ovaj link ovdje i ovaj link ovdje.

Od sada ću ovdje koristiti frazu nesreća s umjetnom inteligencijom, ali to radim nevoljno i samo zato što je to konvencionalni način upućivanja na ovaj fenomen. Pokušaji da se ovo drugačije izrazi obično su, nažalost, nadutiji i ne tako lako čitljivi. Molimo vas da protumačite frazu na način koji ne uzrokuje da pogledate na drugu stranu i ne shvatite da su ljudi koji su u osnovi AI krivi kada AI krene naopako.

Da bismo ilustrirali vjerovatnu zabunu ili obmanjujuće aspekte pozivanja na AI kao na nesreće, možemo se vratiti na moje primjedbe o rušenju vaze. Uzmite u obzir ovaj primjer AI koji to radi: „Ovaj problem ima veze sa stvarima koje su učinjene slučajno ili ravnodušno od strane AI. Robot za čišćenje koji obara vazu je jedan primjer ovoga. Složena okruženja imaju toliko vrsta 'vaza' da je malo vjerovatno da ćemo moći programirati kaznu za sve nuspojave” (prema radu Roberta Williamsa i Romana Yampolskog).

Sistem veštačke inteligencije koji se koristi u domaćinstvu, a zatim "slučajno" sruši vazu, čini se da sugeriše da niko ne treba da bude kriv za ovo štetno dejstvo veštačke inteligencije. Bila je to samo nesreća, moglo bi se žaliti. S druge strane, s pravom se trebamo zapitati zašto AI sistem uopšte nije bio programiran da se nosi sa okolnostima vaze. Čak i ako programeri umjetne inteligencije nisu očekivali da je vaza sama po sebi unutar opsega objekata na koje se može naići, sigurno se možemo zapitati zašto nije bilo nekog sveobuhvatnog izbjegavanja objekata koji bi spriječio AI sistem da sruši vaza (dakle, AI možda nije klasificirala vazu kao vazu, ali je ipak mogla izbjeći kao objekt koji se može otkriti koji treba izbjegavati).

Predviđao sam i nastavljam da predviđam da se postepeno krećemo prema ogromnoj pravnoj borbi oko pojave AI sistema koji se dovode u „nesreće sa veštačkom inteligencijom“ i izazivaju neku vrstu štete. Do sada, društvo nije reagovalo ni na koji način na pravno odbijanje AI koji je izbačen na tržište i proizvodi štetne posljedice, bilo namjerno ili nenamjerno. Današnji AI bandwagon koji je postao zlatna groznica napola pečenih proizvođača AI i onih koji žurno donose implementaciju AI upravo sada imaju sreće i ostaju relativno netaknuti građanskim tužbama i krivičnim gonjenjima.

Pravna reakcija izazvana umjetnom inteligencijom dolazi prije ili kasnije.

Idemo dalje, kako da pokušamo da se izborimo sa neizbežnošću takozvanih AI nesreća?

Jedna stvar koju možemo odmah učiniti je pokušati predvidjeti kako bi se nesreće s umjetnom inteligencijom mogle dogoditi. Predviđanjem nesreća sa umjetnom inteligencijom, možemo barem pokušati osmisliti sredstva za njihovo suzbijanje ili minimiziranje njihove vjerovatnoće da će se dogoditi. Štaviše, možemo pokušati da postavimo zaštitne ograde tako da kada se dogodi AI nesreća, šanse za demonstrativnu štetu budu smanjene.

Koristan skup faktora koji su opisani u ranije citiranom istraživačkom članku Razumijevanje i izbjegavanje AI neuspjeha: Praktični vodič uključuje ove osobine (kao što je citirano iz istraživačkog rada):

  • Sistem na koji utiču rezultati AI.
  • Vremensko kašnjenje između izlaza AI i većeg sistema, vidljivost sistema, nivo ljudske pažnje i sposobnost operatera da ispravi kvar AI.
  • Maksimalna šteta moguća zlonamjernom upotrebom sistema koje kontroliše AI.
  • Spajanje komponenti u blizini AI i složenost interakcija.
  • Nedostatak znanja o AI i drugim korištenim tehnologijama i energetskom nivou sistema.

U ovom trenutku ove opsežne diskusije, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli dodatno razjasniti temu AI nesreća. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o pojavi takozvanih AI nesreća i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i incidenti s umjetnom inteligencijom

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni da duboko zaronimo u samovozeće automobile i mogućnosti etičke umjetne inteligencije što podrazumijeva pojavu takozvanih AI nesreća.

Zamislite da je samovozeći automobil baziran na umjetnoj inteligenciji u toku na ulicama vašeg susjedstva i čini se da vozi sigurno. U početku ste posebnu pažnju posvećivali svakom trenutku kada biste uspjeli da bacite pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektronskih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo sedmica samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim putevima.

Da ne mislite da je nemoguće ili nevjerojatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se lokaliteti koji su u okviru testiranja samovozećih automobila postepeno navikli da vide dotjerana vozila. Mnogi od lokalnog stanovništva na kraju su prešli sa razjapljenih usta ushićenog buljenja na sada emitovanje ekspanzivnog zijevanja dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerovatno je glavni razlog trenutno zbog kojeg bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Standardni AI sistemi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na putu. Za užurbane ljudske vozače u njihovim tradicionalnim automobilima koje upravljaju ljudi, ponekad se iznervirate kada ste zaglavljeni iza samovozećih automobila zasnovanih na umjetnoj inteligenciji koji strogo poštuju zakon.

To je nešto na šta bi svi mogli da se naviknemo, s pravom ili ne.

Natrag na našu priču.

Jednog dana samovozeći automobil doživi nesreću.

Prilikom skretanja udesno, AI sistem za vožnju je široko zamahnuo autonomno vozilo i udario je automobil koji je upravljao čovjek. Automobil kojim su upravljali ljudi kretao se pravo pravilnom saobraćajnom trakom. Nije bilo posebne prilike da ljudski vozač skrene ili izbjegne udarac. Osim toga, nije bilo upozorenja ili naznaka samovozećeg automobila da će u velikoj mjeri skrenuti u desno.

Je li ovo nesreća?

Svakako možemo reći da je to obuhvaćeno rubrikom nesreće s umjetnom inteligencijom. Osnova za takvu tvrdnju je da je za volanom samovozećeg automobila postojao AI sistem vožnje. Nekako, iz bilo kojih razloga, AI je odlučio da napravi širok zamah pri skretanju udesno. Rezultat je doveo do toga da je samovozeći automobil udario u automobil kojim upravljaju ljudi.

Prisjetite se prethodne rasprave o konotacijama povezanim s riječju "nesreća" i pogledajte kako se takvi prizvuci pojavljuju u ovom scenariju. Takođe, zapamtite da smo razgovarali o slučaju ljudskog vozača koji je skrenuo udesno i naleteo na automobil kojim upravljaju ljudi. Shvatili smo da je pojam da je ovaj čin “nesreća” pogrešan i zbunjujući. Ljudski vozač koji je napravio široki zamah mogao bi se sakriti iza ideje da se nesreća dogodila samo naizgled slučajno ili hirovom sudbine.

Umjesto označavanja scenarija kao „nesreće s umjetnom inteligencijom“ u slučaju samovozećeg automobila baziranog na umjetnoj inteligenciji, koji je prošao široko i udario u automobil kojim upravljaju ljudi, možda bismo trebali reći da se radilo o automobilskoj nesreći ili sudaru automobila koji uključuje samo- vozeći automobil i automobil kojim upravljaju ljudi. Tada možemo odbaciti praznu zbrku da je to slučajnost nepoznatih sredstava.

Šta mislite kakva bi bila reakcija javnosti na incident?

Pa, ako proizvođač automobila ili samovozeća tehnološka firma može ostati pri etiketiranju stvari kao nesreće, mogli bi zaobići potencijalnu reakciju zajednice u cjelini. Osjećaj saosjećanja u vezi sa nesrećama koje su sve ispričane možda bi se prelio na određenu okolnost. Za više o tome kako će gradovi, županije i državni čelnici potencijalno reagirati na incidente autonomnih vozila s umjetnom inteligencijom, pogledajte raspravu o Harvardskoj studiji koju sam vodio i kako je opisano na link ovdje.

Ako se situacija jasno opiše kao automobilska nesreća ili sudar, možda bi to moglo omogućiti spoznaju da je neko ili nešto možda krivo za incident. Reakcija koljena mogla bi biti da se AI smatra odgovornom. Stvar je u tome da sve dok ili ako ikada odlučimo da AI označimo kao da ima privid pravne ličnosti, nećete moći da prikačite odgovornost na AI per se (pogledajte moju raspravu o AI i pravnom licu na link ovdje).

Možemo pregledati AI sistem vožnje kako bismo pokušali otkriti šta je dovelo do naizgled neprikladne vožnje i sudara koji je uslijedio. To ipak ne znači da će AI snositi odgovornost. Odgovorne strane uključuju programere AI, operatera voznog parka samovozećih automobila i druge. Uključujem i druge jer postoji mogućnost da grad bude djelimično odgovoran za dizajn ugla na kojem se skretalo. Pored toga, pretpostavimo da je pešak izleteo iz ugla i da je sistem za vožnju sa veštačkom inteligencijom odlučio da izbegne osobu, a zatim se upleo u saobraćajnu nesreću.

I tako dalje.

zaključak

Želeli bismo da znamo šta je veštačka inteligencija računarski izračunavala i za šta je bila programirana. Da li je AI uradio kako je bilo kodirano? Možda je AI naišao na bug ili grešku u programiranju, što ne opravdava radnje, ali daje više naznaka o tome kako je došlo do pada.

Koja vrsta AI zaštitnih ograda je programirana u AI sistem vožnje? Kad bi postojale zaštitne ograde, željeli bismo da shvatimo zašto se činilo da nisu spriječili saobraćajnu nesreću. Možda je AI sistem vožnje mogao da se zaustavi, a ne da skrene. Želeli bismo da znamo koje je alternative AI računarski procenio tokom incidenta.

Osim da se dođe do dna konkretnog incidenta, još jedna opravdana dilema je da li sistem vožnje AI ima nedostatak ili neki drugi ugrađeni aspekt koji će činiti slične vrste štetnih radnji. U suštini, ovaj incident bi mogao biti izdajnički pokazatelj da će doći još toga. Kako su korišćene kompjuterske simulacije situacija u vožnji da se pokuša i predvidjeti ova vrsta AI sistema za vožnju? Da li je bilo dovoljno testova vožnje na cesti da se otkriju problemi sa umjetnom inteligencijom koji su mogli dovesti do saobraćajne nesreće?

Ovaj scenario naglašava spornu zagonetku koja se suočava sa pojavom samovozećih automobila zasnovanih na veštačkoj inteligenciji.

To ide ovako.

S jedne strane, postoji društvena želja za brzim usvajanjem samovozećih automobila zbog nade da će AI sistemi za vožnju biti jednako sigurni ili možda sigurniji od ljudskih vozača. Samo u Sjedinjenim Državama trenutno imamo skoro 40,000 ljudskih smrtnih slučajeva godišnje zbog saobraćajnih nesreća i oko 2.5 miliona ljudskih povreda. Analize sugeriraju da se znatan dio tih saobraćajnih nesreća može pripisati ljudskoj grešci kao što je vožnja u alkoholiziranom stanju, vožnja u rasejanju itd. (pogledajte moju procjenu takvih statistika na link ovdje).

AI sistemi za vožnju neće piti i voziti. Neće im trebati odmor i neće se istrošiti dok su za volanom. Pretpostavka je da uspostavljanjem samovozećih automobila kao održivog načina prevoza možemo smanjiti broj ljudskih vozača. To bi zauzvrat trebalo da znači da ćemo na sumaran način smanjiti broj godišnjih ljudskih smrtnih slučajeva i povreda u saobraćajnim nesrećama.

Neki stručnjaci su rekli da ćemo završiti sa nula smrtnih slučajeva i nula ozlijeđenih, a ti samovozeći automobili će navodno biti neudarni, ali ovo je potpuno apsurdan i potpuno lažna očekivanja. Objasnio sam zašto je ovo tako neiskreno link ovdje.

U svakom slučaju, pretpostavimo da ćemo imati određenu količinu saobraćajnih nesreća u koje se umiješaju samovozeći automobili. Pretpostavimo i da će te saobraćajne nesreće imati određenu količinu smrtnih slučajeva i ozljeda. Pitanje koje se muči je da li smo mi kao društvo spremni uopće tolerirati takve slučajeve. Neki kažu da ako se čak i jedan smrtni slučaj ili jedna ozljeda dogodi kao posljedica pravih samovozećih automobila, cijeli komplet i kaboodle treba zatvoriti.

Protuporan stav je da ako spašeni životi smanjuju godišnji broj, trebali bismo nastaviti podsticati pojavu samovozećih automobila i ne reagirati na tako nelogičan način. Morat ćemo prihvatiti pretpostavku da će određena količina smrtnih slučajeva i ozljeda i dalje postojati, čak i kod samovozećih automobila, a ipak shvatiti da godišnji broj ako se smanji sugerira da smo na pravom putu.

Naravno, neki tvrde da ne bismo trebali imati samovozeće automobile na našim javnim putevima dok ne budu odobreni za takvu upotrebu kao rezultat opsežnih i iscrpnih kompjuterskih simulacija ili putem privatnog testiranja na zatvorenoj stazi. Protuargument je da je jedini održiv i najbrži način za pokretanje samovozećih automobila korištenje javnih puteva i da će svako kašnjenje u usvajanju samovozećih automobila u suprotnom omogućiti nastavak užasnih brojeva sudara automobila koje upravljaju ljudi. Ovu debatu sam opširnije obradio u svojim kolumnama i pozivam čitaoce da pogledaju te rasprave kako bi stekli puni smisao perspektiva o ovom kontroverznom pitanju.

Hajde da završimo stvari za sada.

AI nesreće će se dogoditi. Moramo se oduprijeti impulsu da se nesreća s umjetnom inteligencijom protumači kao prividna slučajno i ergo lažno neka kreatori i oni koji koriste AI budu kategorički isključeni.

Postoji još jedan zaokret koji vam ostavljam kao završnu intrigantnu misao za vaš dan.

Komičar Dane Cook je navodno ispričao ovaj vic o saobraćajnim nesrećama: „Prije nekoliko dana doživio sam saobraćajnu nesreću. Nije moja krivica. Čak i ako nisi ti kriv, druga osoba izlazi iz svog auta i gleda te kao da si ti kriv: Zašto si stao na crveno i pustio da te udarim dok radiš 80!”

Tamo gdje preokret dolazi do izražaja je mogućnost da se AI sistem odluči da insistira na tome da kada se dogodi AI nesreća koja uključuje tu određenu AI, AI reklamira da je incident bio greška čovjeka, a sigurno nije greška AI. Usput, ovo bi moglo biti potpuno istinito i čovjek bi možda pokušavao da postane žrtveno janje AI tvrdeći da je za to kriva AI.

Ili možda umjetna inteligencija pokušava da postane žrtveno janje čovjeka.

Vidite, umjetna inteligencija koju smo osmislili mogla bi biti nezgodna na taj način, bilo slučajno ili ne.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- vožnja-automobili-takođe/