AI etika je skeptična u pogledu uspostavljanja takozvanih zakona o AI s crvenom zastavom za pozivanje pristrasnih algoritama u autonomnim AI sistemima

Hajde da pričamo o Zakonima o Crvenoj zastavi.

Vi nesumnjivo znate da je pojam zakona o crvenoj zastavi u posljednje vrijeme naširoko zastupljen u vijestima. Mnogo je naslova koji pokrivaju ovu temu. Strasti i strastvene debate o takvim stvarima su na vrhu uma kao društvena briga i podrazumevaju današnje i brzo nove zakone o oružju sa crvenom zastavom.

Usudio bih se reći da možda niste upoznati sa drugim zakonima o Crvenoj zastavi donesenim kasnih 1800-ih koji se odnose na motorna vozila i preteče današnjih svakodnevnih modernih automobila. Da, tako je, Zakoni o Crvenoj zastavi sežu u prošlost, iako pokrivaju druge teme u poređenju sa današnjim savremenim fokusom. Oni se obično nazivaju Zakoni o saobraćaju sa crvenom zastavom.

Ovi sada već stoljetni i potpuno nevažeći zakoni zahtijevali su da svaka motorna kočija ili motor pokretan parom u to vrijeme mora imati odraslu osobu ispred vozila i nositi crvenu zastavu u svrhu upozorenja. Ideja je bila da bi se stoka mogla uznemiriti zbog tih bučnih i žestokih sprava koje su se polako i neravnomjerno spuštale po zemljanim ili rubnim popločanim putevima, tako da bi neko hodao ispred uređaja dok bi energično mašući crvenom zastavom mogao izbjeći nastanak nesreća. U slučaju da se pitate, željeznice i vozovi su se smatrali isključenima iz istih zakona jer su bila vozila koja su integralno vezana za šine i imali su druge zakone koji pokrivaju njihovo djelovanje.

Zamislite da danas morate mahati crvenim zastavama kao uslov za svaki automobil na našim javnim putevima.

Na primjer, običan vozač koji dolazi ulicom u vašem susjedstvu morao bi osigurati da je odrasla osoba koja maše crvenom zastavom prisutna i paradirala ispred automobila u pokretu. Ovo bi se moralo dogoditi za svako vozilo koje prolazi vašom ulicom. Možda bi ljudi postali radnici sa crvenom zastavom koji bi unajmljivali vozače automobila u prolazu koji inače nemaju prijatelja ili rođaka koji bi mogao ići ispred njih i obavljati propisanu akciju mahanja.

Danas imamo tendenciju da povezujemo mahanje crvene zastave vezano za autoput sa gradilištima puteva. Dok se približavate raskopanom putu, radnici će držati podignutu crvenu zastavu kako bi privukli vašu pažnju. Ovo vam govori da usporite i budete na oprezu. Može postojati buldožer koji će vam se naići na put. Pred vama se može nalaziti ogromna rupa i moraćete oprezno obilaziti oko nje.

No, vratimo se na upotrebu crvenih zastavica iz 1800. godine.

Vjerovali ili ne, crvena zastava je trebala biti najmanje jednu osminu milje ispred nadolazeće motorizovane mašine. To se čini kao prilično duga udaljenost. Pretpostavlja se, međutim, da je to tih dana imalo obilje smisla. Zapanjujući zvukovi motora i možda sam pogled na vozilo mogli bi biti dovoljni da se životinje iznerviraju. Neki od zakona o Crvenoj zastavi iz tog doba zahtijevali su i da se blistavo crveno svjetlo drži u visini tokom noći kako bi se vizuelno vidljivo crveno upozorenje predostrožnosti moglo vidjeti iz zamračene udaljenosti.

Općenito, mislim da je pošteno tvrditi da mi kao društvo nastojimo povezati crvenu zastavu kao neku vrstu signala ili znaka da nešto potencijalno nije u redu ili barem treba našu posvećenu pažnju.

Pripremite se za malo preokreta u vezi s ovim fenomenom crvene zastave.

Postoji tvrdnja da bismo trebali zahtijevati odredbe o crvenoj zastavici kada je u pitanju umjetna inteligencija (AI).

To je pomalo zapanjujuće i iznenađujući koncept zbog kojeg se mnogi češu po glavi. Možda ćete biti zbunjeni kako ili zašto bi trebalo da postoje tzv Red Flag AI zakoni. Imajte na umu da ovo označavam kao AI zakone sa crvenom zastavom kako bih razlikovao ovu materiju od zakona o saobraćaju sa crvenom zastavom (kao što su oni iz kasnih 1800-ih) i također da bih ih odvojio od današnjih drugih preovlađujućih zakona o oružju sa crvenom zastavom.

Da li su nam zapravo potrebni zakoni o AI s crvenom zastavom koji su jasno i isključivo orijentirani na pitanja umjetne inteligencije?

Oni koji podržavaju predloženi pristup insistirali bi na tome da su nam apsolutno potrebne zakonske odredbe koje bi pomogle u suzbijanju AI koja sadrži neprimjerene predrasude i djeluje na diskriminatorne načine. Upravo sada, izgradnja i implementacija AI su slični okolnostima na Divljem zapadu. Napori da se obuzda loša AI trenutno zavise od formulacije i usvajanja etičkih smjernica AI. Za moje tekuće i opsežno pokrivanje etike AI i Etičke AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Zakoni koji sadrže lošu AI polako se osmišljavaju i donose, pogledajte moje izvješće na link ovdje. Neki se brinu da poslanici ne rade dovoljno brzo. Čini se kao da su kapije koje omogućavaju da se pristrasna AI podstiče u svijetu trenutno širom otvorene. Kršenje ruku kaže da će zli duh već izaći iz boce dok novi zakoni uđu u knjige.

Ne tako brzo, kontraargumenti idu. Zabrinutost je da ćemo, ako se zakoni prebrzo uvedu, ubiti zlatnu gusku, takoreći, pri čemu će napori AI presahnuti i nećemo dobiti društvene prednosti novih AI sistema. Programeri umjetne inteligencije i kompanije koje žele koristiti umjetnu inteligenciju mogle bi se uplašiti ako se vizantijski niz novih zakona koji reguliraju umjetnu inteligenciju iznenada uvedu na saveznom, državnom i lokalnom nivou, a da ne spominjemo međunarodne zakone koji se odnose na umjetnu inteligenciju koji također napreduju.

U ovu zbrku aferu dolazi poziv za Red Flag AI zakone.

Prije nego što se upustimo u još malo mesa i krompira o razmatranjima divljeg i vunenog porijekla koji su u osnovi zamišljenog Zakona o AI o crvenoj zastavi, hajde da uspostavimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno na pojavu mašinskog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da se jedan od najglasnijih glasova ovih dana u polju AI, pa čak i izvan polja AI, sastoji od traženja većeg privida etičke AI. Hajde da pogledamo šta znači upućivanje na etiku veštačke inteligencije i etičku veštačku inteligenciju. Povrh toga, istražićemo na šta mislim kada govorim o mašinskom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne i proverljive metodologije, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Uvjerimo se i da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na zakone o AI za Crvenu zastavu.

Osnovni koncept je da bi ljudi mogli da podignu crvenu zastavu kad god veruju da sistem veštačke inteligencije funkcioniše na nepristrasan ili diskriminatorski način. Ne biste sami po sebi podizali fizičku zastavu, već biste jednostavno koristili neka elektronska sredstva da izrazite svoju zabrinutost. Dio s crvenom zastavom u shemi ili pristupu je više metafora nego fizičko oličenje.

Pretvarajte se da aplicirate za stambeni kredit. Odlučujete se da koristite uslugu internetskog bankarstva za podnošenje zahtjeva za kredit. Nakon što unesete neke lične podatke, na trenutak čekate da AI sistem koji se koristi da odluči da li ste vrijedni kredita ili ne. AI vam govori da ste odbijeni za kredit. Nakon što ste zatražili objašnjenje zašto ste odbijeni, tekstualni narativ izgleda vam sugerira da je AI koristio neprimjerene faktore pristrasnosti kao dio algoritma za donošenje odluka.

Vrijeme je da podignemo crvenu zastavu o AI.

Gdje će se tačno vijoriti ova crvena zastava?

To je pitanje od milion dolara.

Jedno gledište je da bismo trebali uspostaviti državnu bazu podataka koja bi omogućila ljudima da označe svoje crvene zastavice relevantne za umjetnu inteligenciju. Neki kažu da to treba da reguliše savezna vlada. Federalne agencije bi bile odgovorne za ispitivanje crvenih zastavica i pomoć široj javnosti u pogledu istinitosti i postupanje sa vjerovatno „lošom AI“ koja je podstakla crvenu zastavu u izvještajima.

Čini se da bi Kongres uspostavio nacionalni zakon o AI sa crvenom zastavom. Zakon bi precizirao šta je crvena zastavica koja se odnosi na umjetnu inteligenciju. Zakon bi opisivao kako se podižu ove crvene zastavice koje vrijede AI. I tako dalje. Takođe bi mogao biti slučaj da bi se pojedinačne države takođe mogle odlučiti za izradu sopstvenih zakona o AI crvenoj zastavi. Možda to čine umjesto nacionalne inicijative, ili to rade kako bi pojačali pojedinosti koje su posebno privlačne njihovoj specifičnoj državi.

Kritičari federalnog ili bilo kojeg programa Red Flag AI koji podržava vlada tvrdili bi da je to nešto što privatna industrija može učiniti i da nam ne treba Veliki brat da dođe u prvi plan. Industrija bi mogla uspostaviti online spremište u koje ljudi mogu registrirati crvene zastavice o AI sistemima. Akcija samokontrole od strane industrije dovoljno bi se pozabavila ovim pitanjima.

Zabrinutost u vezi sa navodnim industrijskim pristupom je to što izgleda da miriše na kronizam. Da li bi firme bile spremne da se pridržavaju neke privatne baze podataka Red Flag AI? Mnoge firme bi potencijalno zanemarile označene crvene zastavice o njihovoj AI. Ne bi bilo oštrih zuba prema tome da se kompanije pozabave unesenim crvenim zastavama.

Hej, zagovornici pristupa privatnog sektora ne govore, ovo bi bilo slično nacionalnoj službi nalik Yelp-u. Potrošači bi mogli pogledati crvene zastavice i sami odlučiti da li žele poslovati s kompanijama koje su prikupile niz crvenih zastavica orijentiranih na umjetnu inteligenciju. Banka koja je dobijala gomilu crvenih zastavica o svojoj AI bi morala da obrati pažnju i rekonstruiše svoje AI sisteme, tako da logika ide, inače bi potrošači izbegavali firmu kao kuga.

Bilo da je cijeli ovaj pristup poduzet od strane vlade ili industrije, samo je vrh ledenog brega o mučnim pitanjima s kojima se suočava predloženi postulat AI zakona o crvenoj zastavi.

Stavite se u kožu firme koja je razvila ili koristi AI. Moguće je da bi potrošači podigli crvenu zastavu iako ne postoji održiva osnova za to. Kada bi ljudi mogli slobodno postaviti crvenu zastavu o AI, mogli bi biti u iskušenju da to učine iz hira, ili možda zbog osvete firmi koja inače nije učinila ništa loše prema potrošaču.

Ukratko, moglo bi biti puno lažno pozitivnih crvenih zastava o AI.

Još jedno razmatranje je ogromna veličina ili veličina rezultirajućih crvenih zastavica. Lako bi mogli biti podignuti milioni i milioni crvenih zastava. Ko će pratiti sve te crvene zastavice? Kolika bi bila cijena da se to učini? Ko će platiti napore za praćenje crvene zastave? itd.

Ako biste rekli da svako ko se registruje ili prijavi crvenu zastavu o AI mora platiti naknadu, ušli ste u mračno i podmuklo carstvo. Zabrinutost bi bila da bi samo bogati mogli sebi priuštiti podizanje crvenih zastava. Ovo zauzvrat implicira da osiromašeni ne bi mogli ravnopravno da učestvuju u aktivnostima crvene zastave i u suštini nemaju mjesta za upozorenje o štetnoj AI.

Za sada samo još jedan dodatni zaokret, naime da se čini da ova vrsta zakona ili smjernica o AI-u izgleda naknadno, a ne da služi kao upozorenje unaprijed.

Vraćajući se na Zakone o saobraćaju sa crvenom zastavom, naglasak upotrebe crvene zastave bio je da se izbjegne nesreća za početak. Valjalo crvenom zastavom je trebalo da bude daleko ispred nadolazećeg automobila. Nalazeći se ispred vozila, stoka bi bila upozorena, a oni koji su je čuvali znali bi da treba da preduzmu mjere predostrožnosti zbog izvora uznemiravanja koji će uskoro stići.

Ako su ljudi u stanju samo da podignu crvenu zastavu o AI koja je naizgled već naškodila ili potkopavala njihova prava, poslovični konj je već izašao iz štale. Sve što se čini da bi se time postiglo je da se nadamo da će drugi ljudi koji dolaze sada znati da budu oprezni prema tom AI sistemu. U međuvremenu, osoba kojoj je navodno nanesena nepravda već je patila.

Neki sugeriraju da bismo možda mogli dozvoliti ljudima da podignu crvene zastavice o AI-ju osumnjičeni mogu biti pristrasni, čak i ako nisu koristili AI i nisu bili direktno pod utjecajem AI. Dakle, crvena zastava se maše prije nego što je šteta učinjena.

Ajme, odvrati, zaista ćete pretvoriti crvene zastavice koje se bore sa umjetnom inteligencijom u potpuno neupravljivu i haotičnu aferu. Ako bilo ko iz bilo kog razloga može podići crvenu zastavu o AI sistemu, uprkos tome što nije uradio ništa sa tom AI, bićete preplavljeni crvenim zastavama. Što je još gore, nećete moći razlikovati žito od kukolja. Cijeli pristup crvenoj zastavi će se srušiti pod vlastitom težinom, umanjujući dobrotu ideje dopuštajući flotsam i riffraff da potope cijeli brod.

Vrtoglavo i zbunjujuće.

U ovom trenutku ove teške rasprave, kladim se da želite neke ilustrativne primjere koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojavljivanje pravih samovozećih automobila zasnovanih na veštačkoj inteligenciji rasvetljava išta o zakonima o veštačkoj inteligenciji sa Crvenom zastavom, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i zakoni o umjetnoj inteligenciji s crvenom zastavom

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću sada ispričati.

Hajde da skiciramo scenario koji bi mogao iskoristiti zakon o AI crvenoj zastavici.

Uđete u samovozeći automobil baziran na umjetnoj inteligenciji i želite da vas autonomno vozilo odveze do vaše lokalne trgovine. Tokom relativno kratkog putovanja, AI kreće putem koji vam se čini pomalo lošim. Umjesto da ide najdirektnijim putem, AI navigira do udaljenih ulica što uzrokuje da vrijeme vožnje bude duže nego što bi inače moglo biti.

Šta se dešava?

Pod pretpostavkom da plaćate za korištenje samovozećeg automobila, mogli biste biti sumnjičavi da je AI programiran da vozi dužu rutu kako bi pokušao povećati cijenu karte ili cijenu putovanja. Svako ko je ikada uzeo konvencionalnu kabinu kojom upravljaju ljudi, zna za prevaru koja se može desiti da se dobije više testa na meraču. Naravno, s ljudima koji imaju GPS na svojim pametnim telefonima dok se voze u taksiju ili sličnom, lako možete uhvatiti ljudskog vozača koji izgleda kao da kradomice kreće nepotrebno dugim rutama.

Ispostavilo se da imate još jednu zabrinutost oko izbora rute, nešto što vas zaista izjeda.

Pretpostavimo da je ruta napravljena kako bi se izbjegli određeni dijelovi grada zbog rasnih aspekata. Postoje dokumentovani slučajevi ljudskih vozača koji su uhvaćeni kako donose takve odluke, pogledajte moju raspravu na link ovdje. Možda je AI loše programiran za to.

Odlučili ste da podignete crvenu zastavu.

Pretpostavimo radi diskusije da je donesen Red Flag AI zakon koji pokriva vašu jurisdikciju. To može biti lokalni zakon, državni zakon, savezni ili međunarodni zakon. Za analizu koju sam koautor sa Harvardskom inicijativom za politiku autonomnih vozila (AVPI) o sve većoj važnosti lokalnog rukovodstva kada zajednice prihvate upotrebu samovozećih automobila, pogledajte link ovdje.

Dakle, idete na internet u bazu podataka Red Flag AI. U bazu podataka o incidentima unosite informacije o putovanju samovozećim automobilom. Ovo uključuje datum i vrijeme vožnje, zajedno sa markom i modelom samovozećeg automobila. Zatim ulazite u navigacijsku rutu koja vam se činila sumnjiva i sugerišete ili možda direktno tvrdite da je AI osmišljen sa pristrasnom ili diskriminatornom namjerom i kapacitetima.

Morali bismo da spekulišemo o drugim pojedinostima Zakona o veštačkoj inteligenciji crvene zastave o tome šta se dalje dešava u ovom konkretnom scenariju. U teoriji, postojala bi odredba da neko pregleda crvenu zastavu. Vjerovatno bi nastojali da natjeraju proizvođača automobila ili samovozeću tehnološku kompaniju da objasne svoje gledište o zabilježenoj crvenoj zastavici. Koliko je još takvih crvenih zastava registrovano? Kakve su rezultate proizvele te crvene zastavice?

I tako dalje.

zaključak

Glupo, opominju neki skeptici.

Ne trebaju nam zakoni o umjetnoj inteligenciji s crvenom zastavom, oni strogo djeluju. Raditi bilo šta od toga će zagušiti posao kada je u pitanju tempo i napredak AI. Svaki takav zakon bi bio glomazan. Stvorili biste problem koji ne rješava problem. Postoje i drugi načini za rješavanje AI koji su loši. Nemojte slijepo hvatati slamke da biste se nosili s pristrasnom umjetnom inteligencijom.

Mijenjajući brzine, svi znamo da borci bikova koriste crvene ogrtače kako bi naizgled privukli pažnju ljutitog bika. Iako je crvena boja koju najviše povezujemo s ovom praksom, možda ćete se iznenaditi kada saznate da naučnici kažu da bikovi ne percipiraju crvenu boju muleta (oni su slijepi za boje za crvenu). Popularna emisija Uništavanje mitova uradio prilično zabavno ispitivanje ove stvari. Kretanje ogrtača je ključni element, a ne odabrana boja.

Za one koji odbacuju potrebu za Red Flag AI zakonima, protutvrdnja je da nam je potrebno nešto dramatične i nepogrešive mahajuće prirode kako bismo bili sigurni da će se AI programeri i firme koje primjenjuju AI izbjegavati pristrasne ili loše AI. Da nije crvena zastavica, možda bi lepršavi ogrtač ili u osnovi bilo kakav pristup uzbunjivanju mogao biti u domenu uzimanja dužne pažnje.

Znamo sigurno da loša AI postoji i da će mnogo više loše AI krenuti u našem pravcu. Pronalaženje načina da se zaštitimo od štetne AI je ključno. Isto tako, postavljanje zaštitnih ograda kako biste spriječili lošu umjetnu inteligenciju da uđe u svijet je jednako važno.

Ernest Hemingway je čuveno izjavio da niko nikada ne živi svoj život do kraja osim borca ​​bikova. Moramo se pobrinuti da ljudi mogu živjeti svoj život do kraja, bez obzira na zlo ili ludilo koje nam se proglašava.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- pristrani-algoritmi-u-autonomnim-ai-sistemima/