Lekcije iz etike veštačke inteligencije i autonomnih sistema izvučene iz nedavnog leta Alaska Airlinesa gde se pilot i kopilot nisu složili pre poletanja i naglo su odlučili da taksiraju nazad do terminala i idu svojim različitim putevima

Avio kompanije su u posljednje vrijeme dosta u vijestima.

Nalazimo se u ljetnoj gužvi letova. Umorni i frustrirani putnici se suočavaju sa svim vrstama prekida letova i izobličenja u rasporedu avio-kompanija. Letovi se neočekivano otkazuju. Letovi kasne. Isparenja putnika. Nažalost, bilo je mnogo slučajeva da su putnici dopustili da ove nevolje izbiju, a mi smo vidjeli užasno previše virusnih video snimaka međusobnih sukoba i ponekad udaranja pesnicama.

Ređe saznajemo o sporovima između pilota i kopilota do kojih bi moglo doći dok su u kokpitu.

To je pravo iznenađenje.

Zaista, prirodno smo zatečeni kad pomislimo da bi pilot i kopilot imali bilo kakav privid ozbiljnog neslaganja tokom bilo koje faze leta. Ako se neslaganje odnosi na to koja je marka kafe najbolja, pretpostavljamo da to ne bi uticalo na radni napor koji podrazumijeva letenje avionom. Njih dvoje bi jednostavno odbacili njihov nedostatak oči u oči o naizgled nebitnoj temi za let. Njihovo profesionalno držanje i dugogodišnja pilotska obuka bi se pojavili i oni bi svoj fokus vratili na detalje leta.

Ipak, razmislite kada a profesionalno neslaganje interveniše.

Ukratko ću podijeliti s vama vijest koja je naširoko objavljena o nedavnom slučaju nečega što se dogodilo tokom leta u SAD-u u vezi s navodnim profesionalnim neslaganjem u pilotskoj kabini.

Ovo se ovdje uglavnom citira kako bismo mogli istražiti srodnu temu koja je od velike važnosti za pojavu umjetne inteligencije (AI). Vidite, može postojati oblik, da tako kažemo, profesionalnog neslaganja između ne samo ljudi u neslaganju između ljudi, već se može dogoditi i nešto slično usred usvajanja AI i ergo rezultirajući profesionalnim neslaganjima između ljudi i AI . Pojavljuju se sve vrste etičkih razmatranja AI. Za moje opsežno i stalno pokrivanje etike AI i etičkih pitanja AI, pogledajte link ovdje i link ovdje, samo da navedem nekoliko.

Pripremite se za fascinantnu priču.

Kao što je nedavno objavljeno u vijestima, slučaj "profesionalnog neslaganja" očigledno je nastao tokom leta Alaska Airlinea koji je išao iz Washingtona za San Francisco. Prema novinskim izvještajima, let se udaljio od kapije i čekao je na pisti dozvolu da taksi i poleti. U toku je oluja koja je dovela do kašnjenja leta od više od sat i po. Ispostavilo se da se avion na kraju okrenuo i krenuo nazad do kapije, za koju su neki od putnika obično mogli pretpostaviti da je samo mera predostrožnosti vezana za oluju.

Prema raznim tweetovima, čini se da su pilot i kopilot imali nekakvu svađu van vidokruga dok su bili tamo u pilotskoj kabini i nekako su došli do zaključka da bi najrazboritiji pristup bio da pročisti let i vrati se na terminal . Tweetovi sugeriraju da kapetan i prvi časnik očigledno nisu mogli da se slažu jedno s drugim. Avio-kompanija je kasnije izdala saopštenje da je situacija nesrećna (situacija nije eksplicitno navedena ili objašnjena sama po sebi), dva letačka oficira je ocijenila uprava i ocijenila ih sposobnima za letenje, posada je zamijenjena i let je ipak održan a kasnije stigao do San Francisca.

U jednom smislu, ako su pilot i kopilot zaista imali profesionalne nesuglasice kao što je na primjer da li je avion bio prikladno spreman za let ili je rizik od letenja kroz oluju unutar odgovarajućeg sigurnosnog raspona, ti putnici bi trebali biti rasterećeni i zahvalan što je avion vraćen na kapiju. Bolje biti siguran nego žaliti. Dodatno kašnjenje je vredno pretpostavljenog smanjenja rizika povezanih sa smatranim teškim ili nepovoljnim letenjem.

Neki ljudi bi mogli biti iznenađeni da može doći do takvog profesionalnog neslaganja.

Možda imamo pogrešan utisak da je sve što se dešava u kokpitu potpuno precizno i ​​dobro skriptirano. Svi oblici ljudske diskrecije naizgled su istisnuti iz procesa. Na osnovu preciznih i detaljno izračunatih karata, let je ili u redu da se nastavi ili nije. Ne može biti nikakvog neslaganja kada se misli da su cijeli komplet i caboodle zasnovani na nepobitnoj računici činjenica i brojki.

To nije potpuna istina. Naravno, postoji gomila protokola i svih vrsta provjera i ravnoteža, ali to ne istiskuje svu mrvicu ljudskog prosuđivanja. Piloti i kopiloti još uvijek vrše ljudske prosudbe. Srećom, ovo ljudsko rasuđivanje je izbrušeno godinama letenja. Šanse su da pilot i kopilot u komercijalnom putničkom avionu imaju gomilu prethodnog iskustva u letenju i da lako iskoriste svoje dugogodišnje dubinsko rasuđivanje i rasuđivanje povezano s radom na kontrolama leta.

S obzirom na značajnu ulogu ljudskog prosuđivanja, mogli bismo logično predvidjeti da će pilot i kopilot ponekad imati profesionalne nesuglasice. U većini slučajeva takvih neslaganja je vrlo malo. Pilot i kopilot za svakodnevne letove će vjerovatno biti dobro usklađeni u to vrijeme. Tek kada bi scenario leta mogao izaći izvan konvencionalnih granica, očekivali bismo da će se pojaviti zategnutije trenje.

Ako postoji velika razlika u mišljenjima između njih dvojice, usudio bih se reći da želimo da oni to izbace.

Zamislite situaciju u kojoj pilot oštro želi da nastavi, ali kopilot uviđa da su rizici previsoki. Činilo bi se nepoželjnim da se samo kopilot pokloni pilotu. Kopilot je kontrola i ravnoteža onoga što pilot možda misli da uradi. Za one koji žele da kopilot ućuti i samo bezumno postupa prema onome što pilot odredi, pa, to nije baš neka sigurnost. Kopilot nije samo rezervni "pilot" koji ulazi u sliku tek kada je pilot potpuno nesposoban. To je pogrešno shvatanje vrednosti pilota i kopilota u kokpitu.

Postoji i drugi ugao ovoga.

Uzmimo u obzir slučaj pilota koji ne vjeruje da bi let trebalo da se nastavi, a u međuvremenu kopilot se nervira oko podizanja u zrak. Šta onda? Prema očekivanoj hijerarhiji, pilot bi trebao konvencionalno prevladati nad kopilotom. Određena uloga da bude primarni glavni čini pilota većim od onoga što je inače donekle jednako. Normalno, pilot ima više ukupnog vremena letenja nego kopilot i ergo kopilot hijerarhijski treba da odgovara pilotovim željama (kada je to u razumnom roku).

U svakom slučaju, mislim da se svi možemo složiti da je odluka da ne letite sigurno manje rizičan izbor od odluke da letite. Kada se avion podigne u vazduh, nivoi rizika postaju enormni u poređenju sa bilo kojim uobičajenim stabilnim tlom. Uobičajeni komercijalni let koji jednostavno taksira natrag do terminala bez ulaska u zrak bio bi prilično prijateljsko rješenje za svaku žučnu raspravu o odlasku u let.

Promjenimo brzinu i iskoristimo ovu duhovitu vijest u sasvim drugačiju, ali povezivu svrhu.

Postepeno među nama prevladavaju autonomni sistemi bazirani na umjetnoj inteligenciji. Ponekad AI vodi šou, takoreći. AI radi sve od A do Z, a mi bismo ovo mogli protumačiti kao AI koji je potpuno autonoman ili skoro tako. U drugim slučajevima, možemo imati AI koji je u interakciji sa i do određenog stepena je programiran da se oslanja na čovjeka u petlji.

Želeo bih da se koncentrišem na pitanje autonomnog ili poluautonomnog sistema zasnovanog na veštačkoj inteligenciji koji od samog početka ima čoveka u petlji. AI i čovjek su namjerno spojeni i trebalo bi da rade u tandemu jedno s drugim. Oni su kohorte u obavljanju određenog zadatka. AI sama ne bi trebala djelovati na zadatku. AI mora komunicirati s određenim čovjekom u petlji.

Donosim ovu karakterizaciju kako bih se razlikovao od situacija u kojima se čovjek-u-petlji smatra izbornim aspektom. U suštini, AI ima slobodne ruke. Ako AI odluči da iskoristi čovjeka, neka tako i učini. Ne postoji zahtjev da AI mora dodirnuti bazu ili raditi ruku pod ruku s određenim čovjekom. Analize koje ću sada izvesti su svakako relevantne za tu vrstu Opciono dogovor o interakciji, ali to nije ono na šta konkretno ciljam u ovoj konkretnoj raspravi.

U redu, imamo neku vrstu zadatka na kojem će čovjek i AI raditi zajedno, neodvojivo jedno od drugog. U apstraktnom smislu, imamo čovjeka koji sjedi na jednom sjedištu i AI sistem koji sjedi na drugom pratećem sjedištu. Kažem ovo drsko jer ovu diskusiju ne ograničavamo na robota, na primjer koji bi zapravo mogao sjediti u sjedištu. Metaforički aludiram na ideju da umjetna inteligencija negdje učestvuje u zadatku, a isto tako i čovjek. Fizički, njihovo boravište nije posebno važno za diskusiju.

Možda niste sigurni kada bi se takva okolnost mogla pojaviti.

Lako grašak.

Kasnije ću razgovarati o pojavi autonomnih vozila i automobila koji se sami voze. Na određenim nivoima autonomije, AI i čovjek bi trebali raditi zajedno. AI možda vozi automobil i traži da čovjek preuzme kontrolu vožnje. Čovjek može voziti auto i aktivirati AI da preuzme kontrolu. Smjenjuju se na kontrolama vožnje.

Osim toga, neki dizajni imaju AI da bude u suštini aktivan cijelo vrijeme (ili, osim ako nije isključen), tako da je AI uvijek spreman. Nadalje, umjetna inteligencija može direktno intervenirati, čak i bez pitanja ljudi, ovisno o situaciji koja se odvija. Pretpostavimo na primjer da se čini da je čovjek zaspao za volanom. Budući da čovjek naizgled ne može aktivirati AI (jer osoba spava), AI bi mogao biti programiran da preuzme kontrolu od čovjeka.

Neki dizajni dovode AI i ljude u dvostruki pristup vožnji. AI vozi i čovjek vozi. Ili, ako želite, čovjek vozi, a AI također vozi. Svaki od njih vozi vozilo. Ovo upoređujem sa onim posebno montiranim automobilima koje ste možda koristili dok ste pohađali obuku za vozača i postojala su dva seta kontrola vožnje u vozilu, jedan za studenta vozača i jedan za instruktora vožnje.

To je samo jedan primjer okruženja u kojem AI i ljudi mogu zajedno raditi na zadatku. Postoje razne mogućnosti. Druge vrste autonomnih vozila mogu biti slično osmišljene, kao što su avioni, dronovi, podmornice, površinski brodovi, vozovi itd. Ne moramo uzeti u obzir samo postavke vozila i transporta. Zamislite medicinski domen i operacije koje zajednički izvode doktor medicine i AI sistem. Lista je beskrajna.

Skoro da se osvrnem na klasičnu burnu šalu o čovjeku i AI koji zajedno uđu u bar. Prilično je smiješno za one koji se bave umjetnom inteligencijom.

Ozbiljno, vratimo se fokusu na čovjeka i AI sistem koji zajedno rade na datom zadatku. Prvo, želim da izbjegnem antropomorfizaciju AI, što je nešto što ću naglašavati u cijelom. AI nije razuman. Imajte to na umu.

Evo nešto za razmisliti: Hoće li određeni čovjek-u-petlji uvijek biti u potpunom slaganju sa AI-om u zajedničkom timu?

Za bilo koji složeni zadatak, čini se malo vjerojatnim da će čovjek i AI u potpunosti i uvijek biti u potpunosti usklađeni. Čovjek se u nekim prilikama možda neće složiti s AI. Tu pretpostavku možemo uzeti sve do banke.

Želio bih da razmotrite i ovu možda iznenađujuću mogućnost: Hoće li AI uvijek biti u potpunoj saglasnosti sa određenim čovjekom u petlji?

Opet, za bilo koji složen zadatak, činilo bi se sasvim zamislivo da AI u nekim prilikama neće biti u saglasnosti s ljudima. Ako već naginjete ideji da AI uvijek mora biti u krivu, dok ljudi uvijek moraju biti u pravu, bilo bi mudro da preispitate taj ishitreni zaključak. Zamislite automobil koji ima čovjeka i AI koji zajedno upravljaju poluautonomnim vozilom. Čovjek kormila prema zidu od cigle. Zašto? Ne znamo, možda je čovjek pijan ili je zaspao, ali znamo da zabijanje u zid od cigle nije dobra ideja, pod uslovom da je sve ostalo jednako. AI bi mogao otkriti nadolazeću nesreću i pokušati se udaljiti od nadolazeće barijere.

Sve u svemu, imat ćemo jasnu mogućnost da se AI i čovjek ne slažu jedno s drugim. Drugi način da se kaže ista stvar je da ljudi i AI se međusobno ne slažu. Imajte na umu da ne želim da redoslijed AI-i-ljudi naspram ljudi-i-AI sugerira bilo šta o smjeru ili vjerodostojnosti neslaganja.

Dva radnika, jedan čovjek i jedan koji je AI, se međusobno ne slažu.

Mogli bismo unaprijed izjaviti da kad god se dogodi neslaganje između date AI i datog čovjeka, unaprijed proglašavamo da čovjek prevladava nad AI. Uzimajući to u obzir, moj ilustrativni primjer o automobilu koji se kreće u zid od cigala bi nas razuvjerio da će čovjek uvijek biti u pravu.

Nasuprot tome, mogli bismo se odlučiti da unaprijed izjavimo da ćemo, kad god dođe do neslaganja, unaprijed utvrditi da je AI u pravu, a da je čovjek u krivu. Ni ovo nije razumno generalizirana odredba. Zamislite automobil u kojem AI ima ugrađenu softversku grešku ili grešku, a AI pokušava skrenuti vozilo s ceste i u jarak. Pod pretpostavkom da je sve ostalo jednako, čovjek bi trebao biti u stanju savladati ovu akciju vožnje AI i spriječiti da vozilo sleti u jarugu.

Hajde da napravimo kratak rezime ovoga:

  • Hoće li se čovjek u petlji uvijek u potpunosti slagati sa AI? odgovor: Ne.
  • Hoće li AI uvijek biti u potpunoj saglasnosti sa čovjekom u petlji? odgovor: Ne.
  • Hoće li čovjek-u-petlji uvijek biti u pravu u odnosu na AI? odgovor: Nije nužno.
  • Hoće li AI uvijek biti u pravu u poređenju sa čovjekom u petlji? Odgovor: Ne nužno.

Svakako možete podesiti AI tako da se podrazumevano smatra "pogrešnom" ili slabijom stranom i stoga se uvek povinujete čoveku kad god se pojavi neslaganje. Isto tako, možete podesiti AI tako da pretpostavi da se AI smatra "ispravnim" kad god se čovjek ne slaže s AI. Želim da pojasnim da to možemo programski učiniti ako to želimo. Ipak, tvrdim da generalno, to neće uvijek biti slučaj. Zasigurno postoje okruženja u kojima ne znamo unaprijed da li je AI „u pravu“ ili je čovjek „u pravu“ u smislu odlučivanja za jedno ili drugo u vezi neslaganja u vezi sa datim zadatkom.

Doveo sam vas do veoma važnog i veoma komplikovanog pitanja.

Šta treba da uradimo kada dođe do profesionalnog neslaganja između čoveka u petlji i veštačke inteligencije (ili, ekvivalentno, ovo možemo izraziti kao između AI i čoveka u petlji)?

Ne pokušavajte izbjeći pitanje.

Neki bi mogli tvrditi da se to nikada ne bi dogodilo, ali kao što sam iznio u svom primjeru o automobilu, to bi se sigurno moglo dogoditi. Neki bi mogli tvrditi da je čovjek očigledno superiorniji i da mora biti pobjednik u bilo kakvom neslaganju. Moj primjer auta i zida od cigle ga obara. Postoje zagovornici umjetne inteligencije koji bi mogli insistirati da AI mora biti pobjednik, zbog navodnog prevazilaženja ljudskih emocija i bezobzirnog razmišljanja od strane tih nasumičnih i nejasnih ljudi. Još jednom, moj drugi primjer koji uključuje automobil koji ide u jarak potkopava tu tvrdnju.

U stvarnom svijetu, umjetna inteligencija i ljudi neće se slagati, čak i kada su njih dvoje namjerno dovedeni u situaciju udruživanja kako bi obavili zajednički poduzeti zadatak. Desiće se. Ne možemo gurnuti glavu u pijesak i pretvarati se da se to neće dogoditi.

Vidjeli smo da su se ljudi koji su upravljali avionom očigledno posvađali. Srećom, pristali su da se ne slažu, tako se čini. Vratili su avion na terminal. Našli su način da se izbore sa neslaganjem. Rješavanje njihovog neslaganja dobro je uspjelo, u poređenju sa tim da su se možda sukobili u kokpitu ili su možda odletjeli u zrak i nastavili da se međusobno bore. To je tužan scenario koji je neodrživ i možemo biti zahvalni da se nije dogodio.

Dozvolite mi da dam svoju listu različitih načina na koje se nesuglasice AI i čovjek u petlji (ili čovjek u petlji i AI) mogu riješiti:

  • AI i udruženi ljudi rješavaju stvari (prijateljski ili ne)
  • Ljudski prevladava AI, po defaultu
  • AI po defaultu prevladava nad ljudskim
  • Prevladava neka druga unaprijed određena fiksna rezolucija, prema zadanim postavkama
  • Ljudi treće strane su uključeni i njihova indikacija prevladava nad stranama
  • AI treće strane je uključen u petlju i njegova indikacija prevladava nad stranama
  • Čovjek treće strane zamjenjuje postojećeg čovjeka, stvari idu iznova
  • AI treće strane zamjenjuje postojeću AI, stvari se nastavljaju iznova
  • Čovjek treće strane zamjenjuje postojeću AI, stvari se nastavljaju iznova (sada od čovjeka do čovjeka)
  • AI treće strane zamjenjuje postojeće ljude, stvari se nastavljaju iznova (sada AI-to-AI)
  • drugi

One su itekako vrijedne raspakivanja.

Prije nego što pređemo na nešto više o mesu i krumpirima o divljim i vunastim razmatranjima koja leže u osnovi kako se nositi s AI i ljudskim nesuglasicama, izložimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno na pojavu mašinskog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da se jedan od najglasnijih glasova ovih dana u polju AI, pa čak i izvan polja AI, sastoji od traženja većeg privida etičke AI. Hajde da pogledamo šta znači upućivanje na etiku veštačke inteligencije i etičku veštačku inteligenciju. Povrh toga, istražićemo na šta mislim kada govorim o mašinskom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne i proverljive metodologije, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da „samo koderi“ ili oni koji programiraju AI podliježu pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Uvjerimo se i da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na nesuglasice između AI i čovjeka.

Ranije sam naznačio da su ovo neke od strategija za rješavanje neslaganja:

  • AI i udruženi ljudi rješavaju stvari (prijateljski ili ne)
  • Ljudski prevladava AI, po defaultu
  • AI po defaultu prevladava nad ljudskim
  • Prevladava neka druga unaprijed određena fiksna rezolucija, prema zadanim postavkama
  • Ljudi treće strane su uključeni i njihova indikacija prevladava nad stranama
  • AI treće strane je uključen u petlju i njegova indikacija prevladava nad stranama
  • Čovjek treće strane zamjenjuje postojećeg čovjeka, stvari idu iznova
  • AI treće strane zamjenjuje postojeću AI, stvari se nastavljaju iznova
  • Čovjek treće strane zamjenjuje postojeću AI, stvari se nastavljaju iznova (sada od čovjeka do čovjeka)
  • AI treće strane zamjenjuje postojeće ljude, stvari se nastavljaju iznova (sada AI-to-AI)
  • drugi

Vrijeme je da ih raspakujete.

Prvo, uzmite u obzir da se radi o tome profesionalac neslaganja.

Profesionalno neslaganje se slobodno definiše kao neslaganje povezano sa poslom.

Na primjer, neslaganje između pilota i kopilota oko toga da li nastaviti s letom koji je suočen s olujom može se razumno označiti kao profesionalno neslaganje. Nasuprot tome, žestoko neslaganje oko toga za koju se marku kafe pilot zalaže u odnosu na marku koju kopilot preferira lako se kategorizira kao neprofesionalno neslaganje u ovom konkretnom kontekstu.

Naravno, ako neko neprofesionalno neslaganje preraste u profesionalnu nesuglasicu, na kraju bismo mogli biti zainteresirani za neprofesionalno neslaganje kao pretpostavljeni izvor ili iskra za profesionalno neslaganje. Zamislite da se pilot i kopilot ogorčeno prepiru oko toga koja je marka kafe najbolja, što se onda, nažalost, preliva u brige vezane za let (pun!), kao što je da li poletjeti ili ne.

Drugo, moramo imati na umu veličinu profesionalnog neslaganja.

Možda pilot i kopilot ili u blagom neslaganju oko nastavka letenja. Oni nisu u zavadi i samo razmišljaju o prednostima i nedostacima da li da polete. Ovo nije kalibar ili veličina profesionalnog neslaganja koje mi ovdje obično razmatramo. Stvar je u tome da je moguće da je profesionalni nesporazum prolazan i da obje strane srdačno ili barem blagovremeno donose rješenje. Općenito, fokus profesionalnih neslaganja unutar opsega su oni koji su naizgled nerješivi, a dvije strane ostaju u stalnom neslaganju.

Treće, obično mora biti nešto ozbiljno na kocki da bi ove smjernice ušle u igru.

Odlučiti letjeti ili ne letjeti je odlučna odluka na život ili smrt ako je let u opasnosti zbog oluje ili se smatra da avion nije u potpunosti spreman za takvo putovanje. Ovo je ozbiljan posao. Još uvijek možemo primijeniti smjernice na manje utjecajne profesionalne nesuglasice, iako bi to moglo biti više gnjaviti nego što vrijedi.

U redu, naša razmatranja su sljedeće:

  • Neslaganje je uglavnom profesionalno orijentisano, a ne oko nečeg neprofesionalnog
  • Neslaganje je trajne prirode i nije samo prolazno ili se na drugi način lako rješava
  • Neslaganje predviđa ozbiljne posljedice i obično ima utjecajan ishod
  • Stranke su zavađene i deluju nepopravljivo

Pogledajmo sada pobliže svaku od mojih predloženih smjernica ili pristupa u vezi s tim kako se nositi s takvim profesionalnim nesuglasicama.

AI i udruženi ljudi rješavaju stvari (prijateljski ili ne)

Počinjem listu s jednostavnom mogućnošću da su AI i čovjek u petlji u stanju da razriješe profesionalne nesuglasice među sobom. Čini se da možda primjer dvojice ljudi, pilota i kopilota, ilustruje ovakvu vrstu okolnosti. Nekako su odlučili da se vrate na terminal i krenu svojim putem. Moguće je da su sistem veštačke inteligencije i čovek u stanju da smisle pristup rešavanja koji je generalno zadovoljavajući za obe strane i tako je stvar na zadovoljavajući način zaključena.

Ljudski prevladava AI, po defaultu

Kada postavljamo AI, mogli bismo programirati pravilo koje kaže da će čovjek-u-petlji uvijek prevladati kad god dođe do profesionalnog neslaganja. Ovo bi bila eksplicitno kodirana zadana vrijednost. Mogli bismo dozvoliti i neki oblik nadjačavanja, za svaki slučaj, iako će postojati pravilo da ljudsko prevlada.

AI po defaultu prevladava nad ljudskim

Kada postavljamo AI, mogli bismo programirati pravilo koje kaže da će AI uvijek prevladati nad čovjekom u petlji kad god dođe do profesionalnog neslaganja. Ovo je eksplicitno kodirana zadana vrijednost. Takođe bismo mogli dozvoliti neki oblik zaobilaženja, za svaki slučaj, iako će stalno pravilo biti da AI prevladava.

Prevladava neka druga unaprijed određena fiksna rezolucija, prema zadanim postavkama

Kada postavljamo AI, mogli bismo programirati pravilo koje kaže da će neka druga unaprijed određena fiksna rezolucija prevladati kad god dođe do profesionalnog neslaganja sa čovjekom u petlji. Čovjek-u-petlji po defaultu ne prevladava. AI po defaultu ne prevladava. Postoji neka druga unaprijed identificirana rezolucija. Na primjer, možda postoji bacanje novčića koji će se koristiti za odlučivanje koja se od dvije strane smatra pravim putem. To bi očigledno izgledalo prilično proizvoljno; stoga bi još jedan primjer pristupa bio da se aktivira specijalizirano pravilo koje izračunava vrijednost na osnovu inputa od dvije strane i dolazi do rezultata kao izjednačenje.

Ljudi treće strane su uključeni i njihova indikacija prevladava nad stranama

U slučaju profesionalnog neslaganja, pravilo bi moglo biti da se pozove treća strana koja je čovjek i uplete se u okruženje kako bi donijela odluku o rješavanju neslaganja. AI je programiran da se pridržava onoga što čovjek treće strane odluči. Čovjek koji je već u krugu čovjeka-u-petlji je unaprijed dobio instrukcije da, ako dođe do takve situacije, i oni se trebaju povjeriti čovjeku treće strane. Na stranu, vjerovatno možete predvidjeti da bi čovjek-u-petlji mogao imati ljutnju zbog pristupa onome što čovjek treće strane odluči ako se odluka ne slaže sa stavom čovjeka u petlji.

AI treće strane je uključen u petlju i njegova indikacija prevladava nad stranama

U slučaju profesionalnog neslaganja, pravilo bi moglo biti da se pozove treća strana koja je drugačiji sistem umjetne inteligencije i upetlja u postavku da donese odluku o rješavanju neslaganja. Originalna AI je programirana da se pridržava onoga što AI treće strane odluči. Čovjek koji je već u krugu čovjeka-u-petlji je unaprijed dobio instrukcije da, ako dođe do takve situacije, i oni se trebaju povjeriti AI-u treće strane. Na stranu, vjerovatno možete predvidjeti da bi čovjek-u-petlji mogao imati ljutnju zbog pristupa onome što odluči AI treće strane ako se odluka ne slaže sa stavom čovjeka u petlji.

Čovjek treće strane zamjenjuje postojećeg čovjeka, stvari idu iznova

Nakon profesionalnog neslaganja, čovjek-u-petlji zamjenjuje treća strana koja je čovjek i koja od sada postaje čovjek-u-petlji. Čovjek koji je bio izvorni čovjek u petlji za zadatak više se ne smatra dijelom zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenim čovjekom u petlji, ali mi kažemo da oni sigurno više nemaju nikakvu stalnu ulogu u radnom zadatku.

AI treće strane zamjenjuje postojeću AI, stvari se nastavljaju iznova

Nakon profesionalnog neslaganja, AI je zamijenjen AI treće strane i to postaje AI koji se od sada koristi za radni zadatak. AI koji se prvobitno koristio za zadatak više se ne smatra dijelom zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenom AI, ali mi kažemo da sigurno AI više nema nikakvu stalnu ulogu u radnom zadatku.

Čovjek treće strane zamjenjuje postojeću AI, stvari se nastavljaju iznova (sada od čovjeka do čovjeka)

Nakon profesionalnog neslaganja, AI je zamijenjen čovjekom treće strane za kojeg ta osoba sada postaje smatrana ko-timska strana koja će se koristiti za radni zadatak. AI koji se prvobitno koristio za zadatak više se ne smatra dijelom zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenom AI, ali mi kažemo da sigurno AI više nema nikakvu stalnu ulogu u radnom zadatku. Ukratko, ovo sada postaje zadatak koji obavljaju dvije strane od čovjeka do čovjeka.

AI treće strane zamjenjuje postojeće ljude, stvari se nastavljaju iznova (sada AI-to-AI)

Nakon profesionalnog neslaganja, čovjek-u-petlji je zamijenjen AI treće strane i ovaj AI postaje od sada dopuna za prethodni čovjek-u-petlji. Čovjek koji je bio izvorni čovjek u petlji za zadatak više se ne smatra dijelom zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenim čovjekom u petlji, ali mi kažemo da oni sigurno više nemaju nikakvu stalnu ulogu u radnom zadatku. Ukratko, ovo sada postaje dvostrana AI-to-AI za obavljanje zadatka.

drugi

Mogu se osmisliti i druge varijacije kako bi se izašlo na kraj sa profesionalnim nesuglasicama, ali mi smo ovdje pokrili neke od ključnih kamena.

Kako da odlučimo koji od tih pristupa će biti pravi za datu situaciju?

Za donošenje takvog izbora ulazi se u širok spektar pitanja. Postoje tehnološka razmatranja. Postoje poslovni razlozi. Postoje pravna i etička razmatranja.

U određenoj mjeri, zato su etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Propisi etike umjetne inteligencije navode nas da ostanemo budni. Tehnolozi AI ponekad mogu postati zaokupljeni tehnologijom, posebno optimizacijom visoke tehnologije. Oni ne razmišljaju nužno o većim društvenim posljedicama. Imati etički način razmišljanja o umjetnoj inteligenciji i činiti to integralno za razvoj umjetne inteligencije i njenu primjenu je od vitalnog značaja za proizvodnju odgovarajuće AI, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji firme usvajaju etiku AI.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. U stvari, upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku zaustavljanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti.

U ovom trenutku ove teške rasprave, kladim se da želite neke ilustrativne primjere koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o rješavanju neslaganja između umjetne inteligencije i ljudi, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Automobili koji se sami voze i nesporazumi između AI-a i čovjeka

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću sada ispričati.

Za potpuno autonomna vozila možda ne postoji nikakva šansa za profesionalno neslaganje između čovjeka i AI zbog mogućnosti da ne postoji nikakav čovjek u petlji za početak. Težnja mnogih današnjih proizvođača automobila koji se sami voze je da u potpunosti uklone ljudskog vozača iz zadatka vožnje. Vozilo neće sadržavati čak ni komande za vožnju koje su dostupne ljudima. U tom slučaju, ljudski vozač, ako je prisutan, neće moći sudjelovati u zadatku vožnje jer nema pristup svim kontrolama vožnje.

Za neka potpuno autonomna vozila, neki dizajni i dalje dozvoljavaju čovjeku da bude u krugu, iako čovjek uopće ne mora biti dostupan niti sudjelovati u procesu vožnje. Dakle, čovjek može učestvovati u vožnji, ako to želi. Međutim, ni u jednom trenutku AI se ne oslanja na čovjeka da izvrši bilo koji od zadataka vožnje.

U slučaju poluautonomnih vozila, postoji veza između ljudskog vozača i AI. Ljudski vozač može u potpunosti preuzeti kontrolu vožnje i u suštini spriječiti AI da učestvuje u vožnji. Ako čovjek-vozač želi vratiti AI u ulogu vozača, može to učiniti, iako to ponekad prisiljava čovjeka da se odrekne kontrole vožnje.

Drugi oblik poluautonomnog rada bi podrazumijevao da ljudski vozač i AI rade zajedno na timski način. AI vozi i čovjek vozi. Voze se zajedno. AI bi se mogao povinovati čovjeku. Čovjek bi se mogao povinovati AI.

U nekom trenutku, AI sistem vožnje i ljudski vozač u petlji mogu doći do tačke „profesionalnog neslaganja“ u vezi sa zadatkom vožnje.

Da biste ilustrirali kako neka od gore navedenih pravila rješavanja profesionalnih nesuglasica mogu biti izazovna za implementaciju, razmotrite primjer pozivanja treće strane da uđe u stvar i ponudite odluku za rješavanje neriješenog pitanja.

Pretpostavimo da je proizvođač automobila ili samovozeća tehnološka firma dogovorila da udaljeni ljudski operateri imaju pristup kontrolama vožnje vozila unutar svoje flote. Ljudski operater sjedi u nekoj dalekoj kancelariji ili sličnom okruženju. Putem kompjuterskog sistema, oni su u mogućnosti da vide scenu vožnje putem pristupa kamerama i drugim senzorskim uređajima postavljenim na samovozeći automobil. Za njih je ovo skoro kao igranje online video igrice, iako, naravno, stvarne okolnosti imaju potencijalno strašne posljedice.

Sistem veštačke inteligencije i čovek vozač u automobilu voze poluautonomno vozilo dugim autoputem. Odjednom, AI želi da skrene u jarak. Ljudski vozač ne želi ovo da uradi. Njih dvoje se svađaju oko kontrola vožnje.

Kako će se to riješiti?

Mogli smo možda unaprijed ustanoviti da čovjek uvijek pobjeđuje. Pretpostavimo ipak da smo se odlučili da to ne radimo.

Mogli smo unaprijed ustanoviti da AI uvijek pobjeđuje. Pretpostavimo da smo se odlučili da to ne radimo. Sve u svemu, nismo usvojili nijedno od tih pravila, osim što smo odlučili da dozvolimo trećoj osobi da interveniše i riješi profesionalni nesporazum bilo koje suštinske prirode.

U ovom slučaju upotrebe, AI i ljudski vozač za volanom bore se za kontrolu vožnje. Ovo je recimo preneseno udaljenom ljudskom operateru (našem čovjeku treće strane). Udaljeni ljudski operater ispituje šta se dešava i odlučuje da se skloni iz jarka, naizgled sprečavajući ono što je veštačka inteligencija pokušavala da uradi. U isto vrijeme, pretpostavimo da se daljinski ljudski operater usmjerava prema nadolazećem saobraćaju, što možda ni AI ni čovjek-vozač u automobilu nisu htjeli učiniti.

Poenta je u tome da je način na koji je ovo pravilo implementirano da je ljudski operater treće strane u stanju da u potpunosti nadjača i AI i čovjeka u petlji. Da li će ovo dovesti do dobrog ishoda, sigurno nije sigurno.

Koristit ću ovaj primjer da istaknem neke dodatne uvide o ovim pitanjima.

Ne možete napraviti drsku pretpostavku da je samo zato što je jedno od ovih pravila postavljeno, ishod riješenog neslaganja nužno zajamčeno dobar ishod. Možda i nije. Ne postoji nikakva vrsta pravila koja se uvijek mogu odabrati.

Zatim, neka od ovih pravila možda neće biti izvodljiva.

Razmotrite primjer udaljenog ljudskog operatera koji intervenira kada se AI i čovjek-vozač svađaju oko kontrola vožnje. Možda će proći mnogo sekundi da udaljeni ljudski operater shvati šta se dešava. Do tada je vozilo možda već završilo u jarku ili ima neki drugi štetni ishod. Takođe, pretpostavimo da lokacija vozila onemogućava daljinski pristup, kao što je to da se nalazite na nekom mestu gde ne postoji nikakva mrežna elektronska povezanost. Ili možda mrežne karakteristike vozila ne rade u tom trenutku.

Kao što vidite, pravilo bi moglo izgledati otmjeno na papiru, iako bi stavljanje pravila u stvarnu upotrebu moglo biti vrlo težak ili vrlo slučajan pristup. Pogledajte moju pokrivenost kritičnim očima o daljinskom operateru autonomnih vozila i automobila koji se samostalno voze na link ovdje.

Želio bih ukratko pokriti još jednu srodnu temu koju ću detaljnije obraditi u nadolazećoj analizi.

Jedna od rastućih zabrinutosti oko autonomnih vozila i samovozećih automobila koji su poluautonomni je tzv. Sindrom vrućeg krompira.

Evo dogovora.

Sistem za vožnju sa veštačkom inteligencijom i čovek zajedno voze. Pojavljuje se strašna nevolja. AI je programiran da odustane od zadatka vožnje i preda stvari čovjeku kada se dogodi težak trenutak. Ovo se čini možda „razumnim“ jer se čini da se pozivamo na pravilo o ljudskom biću kao zadanom „pobjedniku“ u svakom potencijalnom profesionalnom neslaganju.

Ali odustajanje od umjetne inteligencije moglo bi biti u još podmuklim ili podmuklim ciljevima. Može biti da proizvođač automobila ili samovozeća tehnološka firma ne želi da se njihova umjetna inteligencija smatra „krivom“ kada dođe do saobraćajne nesreće. Kako bi naizgled izbjegao da bude tako prikovan, AI naglo predaje kontrole čovjeku. Voila, čovjek je sada vjerojatno potpuno odgovoran za vozilo.

Zabava je u tome što pretpostavimo da AI izvrši ovu primopredaju sa, recimo, još jednom sekundom prije nego što dođe do pada.

Da li bi čovjek zaista imao vremena da spriječi pad?

Vjerovatno ne.

Pretpostavimo da AI izvrši primopredaju sa još nekoliko milisekundi ili nanosekundi do kraja. Usuđujem se reći da čovjek u suštini nema šanse da učini bilo šta da spriječi pad.

Iz perspektive proizvođača automobila ili kompanije za samovozeće automobile, oni mogu pokušati da se ponašaju kao da su im ruke čiste kada dođe do takve saobraćajne nesreće. Automobilom je upravljao čovjek. AI nije vozio auto. Čini se da je jedini „logičan“ zaključak da čovjek mora biti kriv, a AI mora biti potpuno besprijekoran.

To je lonac.

O tome ću detaljnije raspravljati u narednoj kolumni.

zaključak

Doći će do profesionalnih nesuglasica.

Teško je zamisliti bilo kakav složeni zadatak koji ima dvije strane koje zajedno obavljaju zadatak i za koji nikada ne bi došlo do profesionalnih nesuglasica. Ovo izgleda kao zemlja fantazije ili barem velika rijetkost.

Danas imamo mnogo i puno slučajeva međuljudskih profesionalnih nesuglasica, za koje se na dnevnoj bazi, na ovaj ili onaj način, mirno i razumno rješavaju. U stvari, mi često namerno postavljamo situacije kako bismo podstakli i isplivali na površinu profesionalne nesuglasice. Mogli biste tvrditi da ovo pokazuje čuvenu mudrost da su ponekad dvije glave bolje od jedne.

Kako AI bude sve više rasprostranjen, imat ćemo puno AI-čovjeka ili čovjeka-AI-a koji obavljaju zadatke od dvije strane i bit će profesionalnih nesuglasica to će se dogoditi. Lijen pristup je da se uvijek povinujemo čovjeku. Ovo možda nije najprikladniji pristup. AI bi mogao biti bolji izbor. Ili bi jedno od drugih gore navedenih pravila moglo biti razumniji pristup.

Postoji ona mudra tvrdnja koja se često ponavlja da bismo svi mi generalno trebali biti u mogućnosti da se složimo da se ne slažemo, iako kada je u pitanju žica, ponekad neslaganje mora biti nedvosmisleno razriješeno, inače će stvar koja je pri ruci dovesti do neopisive katastrofe. Ne možemo samo dopustiti da nesporazumi čame na lozi. Vrijeme može biti od suštinskog značaja i životi mogu biti u pitanju.

Postoji jasan zahtjev za nekim razboritim sredstvima za rješavanje nesuglasica, čak i ako to nije nužno prihvatljivo, uključujući i slučajeve kada AI i čovjek u petlji ne vide oči u oči niti bajt u bajt.

Vjerujem da se nećete složiti sa tom sasvim prihvatljivom tvrdnjom.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- se-pilot-i-ko-pilot-ne složili-prije-polijetanja-i-naglo-odlučili-za-taksirati-nazad do-terminala-i-ići-na svoje-razdvojene-puteve/