Etika veštačke inteligencije ljuta zbog sindroma rastućeg vrućeg krompira koji zapošljavaju proizvođači veštačke inteligencije koji naizgled pokušavaju da izbegnu odgovornost za svoje autonomne sisteme koji odlučuju o životu

Svi znamo da se treba pobrinuti da ne završite sa poslovičnim vrućim krompirom.

Čini se da gambit vrućeg krompira vuče korijene barem iz kasnih 1800-ih kada je salonska igra koja uključuje upaljene svijeće nekako pokrenula loptu. Ljudi bi obično sjedili u nizu drvenih stolica koje su bile relativno blizu jedna uz drugu i igrale sasvim uzbudljivu igru ​​u to doba. Zapaljenu svijeću bi igrači predavali od osobe do osobe i predstavljala je ono što smo kasnije izrazili kao predaju topli krompir.

Bilo je uobičajeno da se od svake osobe traži da izgovori naglas popularnu rimu prije nego što može proći pored sveće koja je sve više gorela. Rima je izgleda izgledala ovako:

“Jack je živ i vjerovatno će živjeti;

Ako on umre u tvojoj ruci, možeš dati kaznu.”

Ovaj rimovani recital bi vjerovatno omogućio svijeći malo vremena da nastavi da gori do konačnog kraja. Onaj ko je zapeo sa svijećom u svom posjedu nakon prirodnog gašenja na kraju je izgubio meč (pun!).

Prema riječima navedenim u rimi, poraženi je morao platiti “forfeit” i stoga je obično morao napustiti bilo koju daljnju rundu igre. Ovo bi se onda moglo kombinovati sa onim što danas smatramo svakodnevnim muzičkim stolicama, tako da osoba koja je izgubila rundu više ne bi učestvovala u narednim rundama (kao da je muzika prestala i nije mogla da dobije slobodno mesto). Na kraju, ostalo bi samo dvoje ljudi koji su prošli pored upaljene svijeće i izgovorili rimu, sve dok se u konačnom gašenju ne odredi konačni pobjednik.

Možda se pitate zašto ovu igru ​​više ne igramo sa upaljenom svijećom, i zašto je umjesto toga obično nazivamo vrućim krompirom, a ne kao shemu „upaljene svijeće“. Istraživači su došli do mnogo teorija o tome kako se to postepeno odvijalo. Istorija se čini nejasnom i neodlučnom o tome kako su se stvari razvijale po ovom pitanju. Pretpostavljam da nam može olakšati što se upaljene svijeće ne koriste uobičajeno na ovaj način jer bi se šanse da nešto opipljivo pođe po zlu izgledale jako zabrinjavajuće (neko ispusti svijeću i zapali vatru, ili se neko opeče od svijeće kada mu se pruži od drugog igrača itd.).

Što se tiče vrućeg krompira kao potencijalne zamjene za upaljenu svijeću, općenito biste mogli tvrditi da će krompir općenito biti nešto sigurniji. Nema otvorenog plamena. Nema topljenog voska. Potencijalna osnova za korištenje krompira u ovom kontekstu je da je poznato da lako zadržavaju toplinu nakon što se zagriju. Krompir možete propasirati i on će neko vrijeme ostati vruć. Pretpostavlja se da bi odluka kada vrući krompir više nije vruć, a umjesto toga ocijenjen kao hladan, bila žestoko diskutabilan prijedlog.

Naravno, pojam poslovično ljutog krompira je više samostalna tema ovih dana. Sve što je ocijenjeno ili rangirano kao vrući krompir, obično je ozbiljnog kvaliteta. Ne želiš da držiš vruć krompir. Želite biti sigurni da ide negdje drugdje. U određenoj mjeri, možda nećete biti previše zabrinuti oko toga gdje ide, jednostavno to što više nije u vašem posjedu.

Činite se prilično bezosjećajnim da potencijalno predate vruć krompir dragom prijatelju ili sličnom poznaniku. Ovo bi izgledalo potpuno neskladno. Možda nađite nekog drugog ili na neko drugo mjesto da stavite taj vrući krompir, ako možete. Očajnički potez mogao bi biti prisiljavanje vrućeg krompira na ljubaznog kolegu, ali nadamo se da će to biti učinjeno samo kao posljednje sredstvo.

Druga strana te medalje je da biste mogli uživati ​​u uručenju vrućeg krompira nekome koga ne volite ili kome se želite osvetiti. Naravno, vrući krompir može biti gotovo veličanstveno zgodan ako želite da potkopate osobu koja se loše ponašala prema vama. Neka shvate šta da rade sa vrućim krompirom. Srećno sa krompirom i najgore osobi s kojom ste ga označili.

U scenariju vrućeg krompira koji uključuje samo dvije osobe, postoji mogućnost brze rasprave o tome koja osoba drži neugodan i nepoželjan predmet. Na primjer, ja vam predam vrući krompir, a vi mi ga žurno vratite. Pod pretpostavkom da ne treba da najavljujemo dječju pjesmicu između svake predaje, možemo jednostavno proći pored krompira onoliko brzo koliko nam ruke to dozvoljavaju.

Možda ćete biti znatiželjni zašto sam se odlučio da duboko zaronim u cijenjeni i često citirani vrući krompir.

Evo zašto.

Ispostavilo se da se maska ​​vrućeg krompira sve više koristi u oblasti veštačke inteligencije (AI).

Većina ljudi ne zna ništa o tome. Nikada nisu čuli za to. Oni su potpuno nesvjesni šta je to. Čak i mnogi programeri AI nisu upoznati s tim. Ipak, postoji i čini se da se koristi u zaista sumnjivim okruženjima, posebno u slučajevima koji uključuju život ili smrt.

To nazivam AI Sindrom vrućeg krompira.

Mnogo je ozbiljnih posljedica u osnovi ovog sindroma i moramo se pobrinuti da stavimo naše kape za razmišljanje o etičkoj inteligenciji i razmislimo šta bi trebalo učiniti. Postoje otrežnjujuća etička razmatranja. Sigurno će postojati i značajne pravne implikacije (koje još nisu dostigle društvenu vidljivost, iako predviđam da će uskoro). Za moje tekuće i opsežno pokrivanje etike AI, etičke AI i pravnih pitanja AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Hajde da raspakujemo AI sindrom vrućeg krompira.

Zamislite AI sistem koji radi zajedno sa čovjekom. AI i čovjek prenose kontrolu nad nekom aktivnošću koja je u toku tako da s vremena na vrijeme čovjek ima kontrolu, dok drugi put AI kontrolira. Ovo bi se u početku moglo učiniti na, da tako kažemo, dobro vaspitan ili razuman način. Iz različitih razloga, u koje ćemo se odmah pozabaviti, AI bi kompjuterski mogao utvrditi da se kontrola mora žurno prenijeti na čovjeka.

Ovo je topli krompir to dovodi do ugrožavanja života u stvarnom svijetu, a ne samo da služi kao poučna dječja igra.

Problem s žurnim prenošenjem kontrole sa AI na čovjeka je u tome što se to može učiniti na razuman način ili se može postići na prilično nerazuman način. Ako čovjek ne očekuje posebno primopredaju, to je vjerovatno problem. Ako je čovjek općenito u redu s prenošenjem kontrole, okolnosti koje su u osnovi primopredaje mogu biti zastrašujuće kada čovjeku nije dato dovoljno vremena ili nedovoljna svijest o tome zašto se kontrola nasilno prenosi u njihove ljudske ruke.

Istražit ćemo primjere kako to može dovesti do opasnosti po život ili smrt za ljude i moguće druge ljude u blizini. To je ozbiljna stvar. Tačka, tačka.

Prije nego što se upustimo u još neke od mesnatih aspekata divlje i vunastih razmatranja koja su u osnovi AI sindrom vrućeg krompira, izložimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno na pojavu mašinskog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da se jedan od najglasnijih glasova ovih dana u polju AI, pa čak i izvan polja AI, sastoji od traženja većeg privida etičke AI. Hajde da pogledamo šta znači upućivanje na etiku veštačke inteligencije i etičku veštačku inteligenciju. Povrh toga, istražićemo na šta mislim kada govorim o mašinskom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne i proverljive metodologije, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Uvjerimo se i da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na vrući krompir i njegovu potencijalno katastrofalnu upotrebu u AI. Tu je i đavolski duh koji se može skrivati ​​iu smicalici s vrućim krompirom.

Kao kratak rezime o AI manifestaciji gambita vrućeg krompira:

  • AI i čovjek-u-petlji rade zajedno na datom zadatku
  • AI ponekad ima kontrolu
  • Čovjek-u-petlji ima kontrolu u određenom dijelu vremena
  • Između AI i čovjeka postoji neki oblik prijenosa protokola
  • Handoff može biti vrlo vidljiv, ili može biti suptilan i gotovo skriven
  • Ovo je sve obično unutar konteksta u stvarnom vremenu (nešto je aktivno u toku)

Primarni fokus ovdje je kada je predaja u suštini vrući krompir i AI odluči da iznenada preda kontrolu čovjeku. Imajte na umu da ću kasnije ovdje pokriti i drugi aspekt, odnosno kontrolu ljudske predaje AI-u kao vrući krompir.

Prvo, razmislite šta se može dogoditi kada AI preda vrući krompir čovjeku u petlji.

Nazvat ću čovjeka kao čovjeka-u-petlji jer kažem da je čovjek već sastavni dio aktivnosti koja je u toku. Mogli bismo imati i druge scenarije u kojima čovjek koji nije posebno uključen u aktivnost, možda nepoznat u cijeloj stvari, dobije vrući krompir od AI, tako da imajte na umu da postoje i drugi okusi ovog miljea.

Da vam dajem vrući krompir i da to želim na razuman način, možda bih vas upozorio da ću vam predati stvari. Štaviše, pokušao bih to da uradim kada bih iskreno vjerovao da je bolje da ti imaš vrući krompir nego što ga imam. Mentalno bih izračunao da li treba da ga imate ili da ja nastavim sa tim.

Zamislite košarkašku utakmicu. Ti i ja smo u istom timu. Nadamo se da radimo zajedno kako bismo pokušali pobijediti. Ostalo je samo nekoliko sekundi do kraja i očajnički nam je potrebno da postignemo gol inače ćemo izgubiti utakmicu. Dolazim u poziciju da napravim posljednji udarac. Da li da to uradim ili da ti dodam loptu i da izvedeš poslednji udarac?

Ako sam bolji košarkaš i imam veće šanse da potopim šut, vjerovatno bih trebao zadržati košarkašku loptu i pokušati izvesti udarac. Ako si bolji košarkaš od mene, vjerovatno bih trebao da ti dodam loptu i pustim da šutiraš. Drugi faktori dolaze u prvi plan, kao što je ko je od nas u boljoj poziciji na terenu da izvede udarac, plus da li je neko od nas iscrpljen jer je utakmica skoro gotova i možda je istrošena i nije na nivou njihovo pucanje. itd.

Sa svim tim faktorima usred mučnog trenutka, moram odlučiti da li ću zadržati loptu ili je dodati vama.

Shvatite da je u ovom scenariju sat ključan. I vi i ja smo suočeni sa izuzetno blagovremenim odgovorom. Cijela utakmica je sada na kocki. Kada sat istekne, ili smo pobijedili jer je neko od nas pogodio, ili smo izgubili jer ga nismo potopili. Možda bih mogao biti heroj ako potopim korpu. Ili bi ti mogao biti heroj ako ti dodam loptu i ti je potopiš.

Ima i kozje strane ili mana ovoga. Ako zadržim loptu i promašim udarac, svi bi me mogli optužiti da sam jarac ili da sam iznevjerio cijeli tim. S druge strane, ako ti dodam loptu, a ti promašiš udarac, pa postaješ koza. Ovo bi moglo biti potpuno nepravedno prema vama jer sam vas natjerao da budete posljednji strijelac i da pucate zadnji put.

Definitivno bi znao da sam te stavio u tu odvratnu poziciju. I iako su svi mogli da me vide kako to radim, oni su dužni da se koncentrišu samo na posljednju osobu koja je imala loptu. Možda bih klizala besplatno. Niko se ne bi setio da sam ti dodao loptu u poslednjem trenutku. Oni bi samo zapamtili da ste imali loptu i izgubili utakmicu jer niste uputili udarac.

U redu, prebacujem loptu na tebe.

Zašto sam to uradio?

Ne postoji jednostavan način da se to utvrdi.

Moje prave namjere mogu biti da nisam želio da zaglavim kao koza, pa sam odlučio da izvršim sav pritisak na tebe. Na pitanje zašto sam dodao loptu, mogao bih da tvrdim da sam to uradio jer sam mislio da si ti bolji šuter od mene (ali, hajde da se pravim da ja u to uopšte ne verujem). Ili sam mislio da si ti u boljoj poziciji od mene (hajde da se pretvaram da ni ja ovo nisam mislio). Niko nikada ne bi znao da sam zapravo samo pokušavao da izbegnem da se zaglavim sa vrućim krompirom.

Iz vanjskog pogleda na stvari, niko nije mogao lako uočiti moje pravo obrazloženje za dodavanje lopte vama. Možda sam to učinio nedužno jer sam vjerovao da si ti bolji igrač. To je jedan ugao. Možda sam to uradio zato što nisam želeo da me svi nazivaju gubitnikom zbog eventualnog promašenog šuta, pa sam vam dao loptu i shvatio da je to veliko olakšanje za mene. Da li mi je zaista stalo do tebe je sasvim druga stvar.

Sada smo u mogućnosti da dodamo još neke detalje vrućem krompiru koji se odnosi na umjetnu inteligenciju:

  • AI odlučuje dati kontrolu čovjeku-u-petlji u posljednjem trenutku
  • Posljednji trenutak je možda već daleko izvan svake ljudske akcije
  • Čovjek-u-petlji ima kontrolu, ali donekle lažno zbog vremena primopredaje

Razmislite o ovome na trenutak.

Pretpostavimo da AI sistem i čovjek u petlji rade zajedno na zadatku u realnom vremenu koji uključuje pokretanje velike mašine u fabrici. AI detektuje da se mašinerija pokvarila. Umjesto da AI nastavi da zadrži kontrolu, AI naglo predaje kontrolu čovjeku. Mašine u ovoj fabrici ubrzano idu ka čistom haosu i nema više vremena da čovek preduzme korektivne mere.

AI je predao vrući krompir čovjeku-u-petlji i zaglavio čovjeka pravim vrućim krompirom tako da se s okolnostima više ljudski ne može nositi. Tag, ti si to, ide po staroj liniji kada igraš igrice oznaka kao dijete. Čovjek je, da kažemo, označen neredom.

Baš kao moj primjer o košarkaškoj utakmici.

Zašto je AI izvršila primopredaju?

Pa, za razliku od slučaja kada čovjek naglo preda košarkašku loptu i onda divlje mahne o tome zašto je to učinio, obično možemo ispitati AI programiranje i shvatiti šta je dovelo do toga da AI izvrši ovu vrstu primopredaje vrućeg krompira.

AI programer je možda unaprijed odlučio da, kada AI dođe u jako lošu situaciju, AI treba nastaviti da daje kontrolu čovjeku u petlji. Ovo se čini savršeno razumnim i razumnim. Čovjek bi mogao biti "bolji igrač" na terenu. Ljudi mogu koristiti svoje kognitivne sposobnosti da potencijalno riješe bilo koji problem koji im je pri ruci. AI je vjerovatno dostigao granice svog programiranja i ne može ništa drugo konstruktivno učiniti u ovoj situaciji.

Ako je veštačka inteligencija izvršila primopredaju sa još minutom pre nego što je mašina krenula na kabl, možda je minut heads-up dovoljan da čovek u petlji može da ispravi stvari. Pretpostavimo da je AI izvršio primopredaju sa još tri sekunde do kraja. Mislite li da bi čovjek mogao reagirati u tom vremenskom okviru? Malo vjerovatno. U svakom slučaju, samo da bi stvari bile još manje prepirke, pretpostavimo da se prijenos na čovjeka u petlji dogodio s nekoliko nanosekundi do kraja (nanosekunda je milijardni dio sekunde, što u poređenju sa brzim treptanjem oko je sporo dugo 300 milisekundi).

Da li bi čovjek u petlji mogao dovoljno reagirati ako je umjetna inteligencija dala vrući krompir s preostalom tek malenim djelićem sekunde da preduzme bilo kakvu otvorenu akciju?

Ne.

Primopredaja je više laž nego što bi inače izgledalo.

U stvarnosti, primopredaja neće učiniti ništa dobro kada je u pitanju strašna nevolja. AI je uštipnuo čovjeka da postane koza.

Neki AI programeri ne razmišljaju o tome kada osmisle svoju AI. Oni (pogrešno) blaženo ne uzimaju u obzir da je vrijeme presudan faktor. Sve što rade je da odluče da programiraju primopredaju kada stvari postanu teške. Kada AI ne preostane ništa da konstruktivno uradi, bacite loptu ljudskom igraču.

Programeri umjetne inteligencije možda neće razmišljati o tome u vrijeme kodiranja AI-a, a onda često dvaput pokvare neuspjeh u testiranju koje ovo otkriva. Sve što njihovo testiranje pokazuje je da je AI „poslušno“ izvršio primopredaju kada su dostignute granice AI. Voila, pretpostavlja se da je AI dobra i spremna za rad. Testiranje nije uključivalo stvarnog čovjeka koji je stavljen u taj nezavidan i nemoguć položaj. Nije postojao odgovarajući proces testiranja "ljudi u petlji" koji bi mogao protestirati da im je ovaj treptaj oka u posljednjem trenutku, ili zaista nakon posljednjeg trenutka, učinio malo ili nimalo dobrog.

Naravno, neki AI programeri će mudro razmotriti ovu vrstu nevolje.

Nakon što razmotre zagonetku, oni će nastaviti s programiranjem AI da djeluje na ovaj način, u svakom slučaju.

Zašto?

Jer nema šta drugo da rade, barem u njihovom umu. Kada ništa drugo ne uspije, ručna kontrola na čovjeka. Možda će se dogoditi čudo. Suština je ipak u tome da ovo nije zabrinjavajuće za AI programere, i oni daju čovjeku posljednju priliku da se nosi sa neredom koji je pri ruci. AI programer pere ruke od svega što se dogodi nakon toga.

Želim da pojasnim da AI programeri nisu jedini kreatori ovih dizajna vrućeg krompira. Postoji niz drugih zainteresovanih strana koji dolaze za sto zbog ovoga. Možda je sistemski analitičar koji je uradio analizu specifikacija i zahtjeva izjavio da je to ono što AI treba da radi. AI programeri koji su uključeni izradili su AI u skladu s tim. Menadžer AI projekta je možda ovo smislio. Rukovodioci i menadžment koji nadgledaju razvoj AI možda su to smislili.

Svi su tokom čitavog životnog ciklusa razvoja umjetne inteligencije mogli prenijeti ovaj isti dizajn vrućeg krompira. Da li je to neko primetio, ne možemo sa sigurnošću reći. Da su primijetili, oni bi mogli biti označeni kao protivnici i otjerani u stranu. Drugi su možda mogli skrenuti pažnju na stvar, ali nisu shvatili posljedice. Smatrali su da se radi o tehničkim sitnicama koje nisu u njihovom djelokrugu.

Dodaću ovoj neformalnoj listi „razloga“ mnogo lošiju mogućnost.

Sindrom vrućeg krompira od veštačke inteligencije se ponekad namerno koristi zato što su oni koji stvaraju veštačku inteligenciju želeli da imaju svoje strastvene tvrdnje o uverljivom poricanju.

Pripremite se za ovaj dio priče.

U slučaju fabričke mašinerije koja se pokvarila, sigurno će biti dosta upiranja prstom o tome ko je odgovoran za ono što se dogodilo. Što se tiče upravljanja mašinama, imali smo AI sistem koji je to radio i imali smo čoveka u petlji koji je to radio. Ovo su naša dva košarkaša, metaforički.

Sat je tekao, a mašinerija je bila na ivici da propadne. Recimo da vi i ja znamo da je AI izvršila primopredaju na čovjeka-u-petlji, čineći to bez dovoljno vremena da čovjek preduzme bilo koju dovoljnu akciju da ispravi ili izbjegne katastrofu. Niko drugi ne shvata da se to dogodilo.

Firma koja proizvodi AI može u svakom slučaju odmah izjaviti da oni nisu krivi jer je čovjek imao kontrolu. Prema njihovoj besprijekornoj evidenciji, AI nije imala kontrolu u vrijeme kabuma. Ljudsko je bilo. Stoga je, jasno, očigledno da je čovjek kriv.

Da li kompanija AI u osnovi laže kada iznosi ovu otvorenu tvrdnju?

Ne, izgleda da govore istinu.

Na pitanje da li su sigurni da veštačka inteligencija nije imala kontrolu, kompanija bi glasno i ponosno izjavila da veštačka inteligencija uopšte nije imala kontrolu. Oni su dokumentovali dokaze za ovu tvrdnju (pod pretpostavkom da je AI vodio dnevnik incidenta). U stvari, rukovodioci kompanije sa veštačkom inteligencijom mogli bi da podignu obrve sa gađenjem što bi bilo ko osporio njihov integritet u ovom trenutku. Bili bi voljni da se zakunu svojom svetom zakletvom da je AI ne pod kontrolom. Čovjek-u-petlji je imao kontrolu.

Vjerujem da vidite koliko ovo može biti varljivo.

Da, čovjeku je predata kontrola. U teoriji, čovjek je imao kontrolu. AI više nije imao kontrolu. Ali nedostatak dostupnog vremena i obavještenja u velikoj mjeri čini ovu tvrdnju krajnje šupljom.

Ljepota ovoga, iz perspektive proizvođača umjetne inteligencije, bila bi u tome što bi malo tko mogao osporiti tvrdnje koje se nude. Proizvođač AI možda neće objaviti evidenciju incidenta. To bi moglo odati namještenu situaciju. Za zapisnike se tvrdi da su intelektualno vlasništvo (IP) ili da su vlasničke i povjerljive prirode. Firma bi vjerovatno tvrdila da bi, ako bi se zapisnici prikazali, to prikazalo tajni sos njihove AI i iscrpilo ​​njihov cijenjeni IP.

Zamislite težak položaj jadnog čoveka u petlji. Zbunjeni su što ih svi krive što su pustili da stvari izmaknu kontroli. AI je "učinio pravu stvar" i predao kontrolu čovjeku. Ovo je možda bilo ono što su specifikacije govorile da rade (ipak, specifikacije su bile zanemarene jer nisu uzele u obzir faktore vremena i izvodljivosti). Dnevnici koji nisu objavljeni, ali za koje se tvrdi da su zaštićeni od strane proizvođača AI potvrđuju apsolutnu činjenicu da je čovjeku dala kontrolu od AI.

Mogli biste ovo proglasiti jadnim zakucavanjem na zbunjenog čovjeka koji će gotovo sigurno podnijeti pad.

Šanse su da će se otkriti stvarnost onoga što se dogodilo samo ako ovo dođe na sud. Ako su lukavi legalni biglovi svjesni ove vrste svirke, pokušali bi legalno nabaviti trupce. Trebalo bi da dovedu vještaka (nešto što sam s vremena na vrijeme radio) da dešifruje dnevnike. Sami dnevniki možda neće biti dovoljni. Dnevnici bi se mogli izmijeniti ili izmijeniti, ili namjerno osmišljeni da ne prikazuju detalje jasno. Kao takav, možda bi trebalo udubiti i AI kod.

U međuvremenu, tokom cijelog ovog mučnog i dugotrajnog procesa pravnog otkrivanja, čovjek-u-petlji bi izgledao jako loše. Mediji bi tu osobu slikali kao neodgovornu, izgubila glavu, nije bila marljiva i trebalo bi da snosi punu odgovornost. Možda bi mjesecima ili godinama, tokom ovog procesa, ta osoba i dalje bila ta u koju su svi upirali optužujući prst. Smrad se možda nikada neće ukloniti.

Imajte na umu i da se ova ista okolnost lako može ponoviti. I opet. Pod pretpostavkom da proizvođač umjetne inteligencije nije promijenio AI, kad god se pojavi slična situacija u posljednjem trenutku, AI će izvršiti taj prijenos bez preostalog vremena. Nadao bi se da se ovakve situacije ne dešavaju često. U rijetkim slučajevima kada se to dogodi, čovjek-u-petlji je i dalje zgodan tip za pad.

To je đavolski trik.

Možda želite da insistirate da proizvođač veštačke inteligencije nije učinio ništa loše. Oni govore istinu. AI je odustao od kontrole. Tada se smatralo da čovjek ima kontrolu. To su činjenice. Nema smisla to osporiti.

Bilo da se neko mudro i postavi teška pitanja, plus da li proizvođač veštačke inteligencije odgovara na ta pitanja na bilo koji direktan način, čini se da se to retko dešava.

Pitanja uključuju:

  • Kada je AI izvršila primopredaju čovjeku u petlji?
  • Na kojoj programiranoj osnovi je AI izvršila primopredaju?
  • Da li je čovjeku u petlji dato dovoljno vremena da preuzme kontrolu?
  • Kako je AI dizajniran i osmišljen za ove nedoumice?
  • I tako dalje.

U određenoj mjeri, zato su etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Propisi etike umjetne inteligencije navode nas da ostanemo budni. Tehnolozi AI ponekad mogu postati zaokupljeni tehnologijom, posebno optimizacijom visoke tehnologije. Oni ne razmišljaju nužno o većim društvenim posljedicama. Imati etički način razmišljanja o umjetnoj inteligenciji i činiti to integralno za razvoj umjetne inteligencije i njenu primjenu je od vitalnog značaja za proizvodnju odgovarajuće AI, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji firme usvajaju etiku AI.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. U stvari, upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku zaustavljanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti.

U ovom trenutku ove teške diskusije, kladim se da želite neke dodatne ilustrativne primjere koji bi mogli prikazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teorijska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koja na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o AI sindromu vrućeg krompira, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i AI sindrom vrućeg krompira

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću sada ispričati.

Za potpuno autonomna vozila možda nema šanse da dođe do prijenosa između AI i čovjeka, zbog mogućnosti da ne postoji čovjek u petlji za početak. Težnja mnogih današnjih proizvođača automobila koji se sami voze je da u potpunosti uklone ljudskog vozača iz zadatka vožnje. Vozilo neće sadržavati čak ni komande za vožnju koje su dostupne ljudima. U tom slučaju, ljudski vozač, ako je prisutan, neće moći sudjelovati u zadatku vožnje jer nema pristup svim kontrolama vožnje.

Za neka potpuno autonomna vozila, neki dizajni i dalje dozvoljavaju čovjeku da bude u krugu, iako čovjek uopće ne mora biti dostupan niti sudjelovati u procesu vožnje. Dakle, čovjek može učestvovati u vožnji, ako to želi. Međutim, ni u jednom trenutku AI se ne oslanja na čovjeka da izvrši bilo koji od zadataka vožnje.

U slučaju poluautonomnih vozila, postoji veza između ljudskog vozača i AI. Za neke dizajne, ljudski vozač može u potpunosti preuzeti kontrolu vožnje i u suštini spriječiti AI da učestvuje u vožnji. Ako čovjek-vozač želi vratiti AI u ulogu vozača, može to učiniti, iako to ponekad prisiljava čovjeka da se odrekne kontrole vožnje.

Drugi oblik poluautonomnog rada bi podrazumijevao da ljudski vozač i AI rade zajedno na timski način. AI vozi i čovjek vozi. Voze se zajedno. AI bi se mogao povinovati čovjeku. Čovjek bi se mogao povinovati AI.

U nekom trenutku, sistem za vožnju sa veštačkom inteligencijom mogao bi kompjuterski utvrditi da samovozeći automobil ide u neodrživu situaciju i da će se autonomno vozilo srušiti.

Na stranu, neki stručnjaci se vrte okolo tvrdeći da će automobili koji se sami voze biti neudarni, što je čista besmislica i nečuveno i pogrešno rečeno, pogledajte moje izvješće na link ovdje.

Nastavljajući scenario samovozećeg automobila koji ide prema sudaru ili automobilskoj nesreći, AI sistem za vožnju bi mogao biti programiran tako da sumarno preda kontrolu vožnje ljudskom vozaču. Ako ljudskom vozaču ima dovoljno vremena da preduzme akciju izbjegavanja, ovo bi zaista moglo biti razumno i ispravno za AI.

Ali pretpostavimo da AI izvrši primopredaju sa djelićem djelića sekunde do kraja. Vrijeme reakcije ljudskog vozača nije ni blizu dovoljno brzo da adekvatno odgovori. Osim toga, ako je nekim čudom čovjek bio dovoljno brz, velika je vjerojatnost da ne postoje izvodljive radnje izbjegavanja koje se mogu poduzeti uz ograničeno vrijeme preostalo prije pada. Ovo je dvojako: (1) nedovoljno vremena da ljudski vozač preduzme akciju, (2) nedovoljno vremena da, ako je radnja bila moguća od strane ljudskog vozača, radnja bi se mogla izvršiti u nedostatku predviđenog vremena.

Sve u svemu, ovo je slično mojoj ranijoj raspravi o situaciji sa košarkaškim zujanjem i fabričkim mašinama koje su poludjele.

Dodajmo ovome opaki sastojak.

Proizvođač automobila ili samovozeća tehnološka firma ne želi da bude označena raznim saobraćajnim nesrećama koje su se dešavale u njihovoj floti. AI sistem vožnje je programiran da uvijek prepusti kontrolu ljudskom vozaču, bez obzira na to da li ima dovoljno vremena da čovjek učini bilo šta u vezi s nevoljom. Kad god dođe do saobraćajne nesreće ove vrste, proizvođač automobila ili samovozeća tehnološka firma u stanju je glasno insistirati da je čovjek-vozač bio za kontrolama, dok AI nije.

Čini se da su njihovi rezultati za AI sisteme vožnje zvjezdani.

Ni jednom AI sistem vožnje nije „kriv“ za ove automobilske nesreće. Čini se da su ti prokleti ljudski vozači uvijek ti koji ne drže pogled na cesti. Možda ćemo skloni progutati ovu zabludu i vjerovati da potpuno precizna AI vjerovatno nikada nije u krivu. Možda smo skloni vjerovati (pošto znamo iz iskustva) da su ljudski vozači aljkavi i prave tone grešaka u vožnji. Logičan zaključak je da ljudski vozači moraju biti odgovorni, a AI sistem vožnje je potpuno nevin.

Prije nego što se neki zagovornici samovožnje uznemire zbog ove karakterizacije, hajde da apsolutno priznamo da bi čovjek mogao biti kriv i da je trebao poduzeti nešto ranije, kao što je preuzimanje kontrola vožnje od AI. Takođe postoji šansa da je čovek mogao da uradi nešto suštinski kada je AI predao kontrolu vožnje. itd.

Fokus je ovdje bio na okolnostima u kojima se AI smatrao vozačem vozila, a zatim naglo i sa malo pažnje na ono što bi čovjek mogao učiniti, bacio vruć krompir čovjeku vozaču. To je i razlog zašto su mnogi zabrinuti zbog dvostruke uloge poluautonomnih vozila u vožnji. Mogli biste reći da je previše vozača za volanom. Čini se da bi cilj bio da se stvar riješi tako što će imati potpuno autonomna vozila koja nemaju potrebu za čovjekom za volanom, a AI uvijek upravlja vozilom.

Ovo postavlja savezničko pitanje o tome šta ili ko je odgovoran kada AI vozi, o čemu sam se mnogo puta pozabavio u svojim kolumnama, kao npr. link ovdje i link ovdje.

zaključak

Moramo biti oprezni kada čujemo ili čitamo o saobraćajnim nesrećama koje uključuju poluautonomna vozila. Budite oprezni prema onima koji nas pokušavaju prevariti proglašavanjem da njihov sistem vožnje AI ima neosporan rekord. Prevarantski trik AI sindrom vrućeg krompira možda je u mješavini.

Za kompanije koje pokušavaju da budu lukave po ovim stvarima, možda možemo zadržati blizu srca čuvenu rečenicu Abrahama Linkolna: „Možete prevariti sve ljude povremeno i neke ljude sve vreme, ali ne možete prevariti svi ljudi sve vreme.”

Pokušao sam ovdje otkriti magiju umjetne inteligencije skrivenu iza ekrana i povremeno smještenu ispod haube, koju sam razjasnio kako bi više ljudi neće budite prevareni češće.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- naizgled-pokušavaju-izbjeći-odgovornost-za-svoj-život-odlučujući-autonomni-sistemi/