AI etiku uznemirila najnovija kineska potvrda o prepoznavanju lica koja bi mogla nagovijestiti opresivne autonomne sisteme.

Jeste li odani?

U teoriji, moglo bi biti moguće ispitati vaša otvorena djela i utvrditi da li se vašim postupcima pokazuje lojalnost.

Pretpostavimo da je umjesto toga učinjen pokušaj da vam se pročitaju misli i u međuvremenu skeniraju vaše lice kako bi se odredio vaš koeficijent lojalnosti. Ovo je sablasno nametljivo; mogli biste se lako osuditi. Zvuči kao jedan od onih ludih sci-fi filmova koji zamišljaju buduće distopijsko društvo.

Srećom, krišom šapućeš sebi, danas nemamo ništa slično.

Vau, drži svoje konje.

Nedavno se čuju naslovi vijesti da je istraživački rad objavljen na Internetu u Kini 1. jula 2022. prikazao studiju koja je navodno uključivala procjenu moždanih valova ljudi i njihovih izraza lica u svrhu izračunavanja da li su lojalni Komunističkoj partiji Kine (KPK) . Dakle, izvolite, budućnost je sve bliža i bliža, barem u smislu postizanja distopijskog društva od kojeg smo strahovali da bi se jednog dana moglo pojaviti.

Istraživački rad je brzo nestao sa svog objavljenog linka na mreži.

Vjerovatno je brzi prezir koji se brzo proširio internetom bio dovoljan da se papir skine. Ili, možda istraživači samo žele napraviti nekoliko izmjena formulacija i drugih bezazlenih ispravki, s ciljem da urade ponovno objavljivanje nakon što budu imali detaljniju priliku da osiguraju da su i-ova tačkasta, a t-ovi prekriženi. Morat ćemo držati oči otvorene da vidimo hoće li papir dobiti drugi život.

Idem dalje i duboko zaroniti u ono što znamo o istraživačkoj studiji i pokušati povezati tačke o tome kako ova vrsta rada vezan uz umjetnu inteligenciju ima značaj za sve nas, nadilazeći okvire viđenja ovoga kao ograničena na jednu određenu zemlju. Moje izvještavanje će biti malo opširnije od ostalih nedavnih izvještaja o ovoj vrijednoj vijesti, pa vas molim da me strpite.

Moj dodatni naglasak će također biti da postoji niz vitalnih lekcija etike umjetne inteligencije koje možemo izvući iz navodnog rada. Za moje tekuće i opsežno pokrivanje etike AI i Etičke AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Evo šta je do sada spomenuto o istraživačkoj studiji.

Očigledno, neki "dobrovoljci" su regrutovani da učestvuju u eksperimentu u vezi sa percepcijom KPK. Ne zna se da li su oni bili voljni volonteri ili sličniji podsticanim ili vođenim volonterima. Pretpostavićemo radi diskusije da su bili saglasni da budu subjekt u studiji.

Pominjem ovo da ne bih jednostavno bio oštar. Kad god se radi eksperiment koji uključuje ljudske subjekte, postoji mnoštvo općenito prihvaćenih praksi u vezi s regrutovanjem i uranjanjem takvih subjekata u istraživački napor. Ovo djelomično potječe do prethodnih studija koje su često prevarile ili prisiljavale ljude da se uključe u eksperiment, što je ponekad dovelo do negativnih psiholoških posljedica ili čak fizičkih ozljeda za te sudionike. Naučna zajednica je silno pokušala da ograniči te vrste podmuklih studija i zahtijeva da se svim vrstama otkrića i upozorenja daju oni koji se traže za uključivanje u studije o ljudima.

Da pojasnimo, ne pridržavaju se svi tako razboritih i savjesnih smjernica.

Dalje, navodno je bilo 43 subjekta, a za njih se govorilo da su članovi Komunističke partije Kine. Imajte na umu da je odabir subjekata za eksperiment vrlo ključan za eksperiment i da se također mora uzeti u obzir u vezi sa svim zaključcima do kojih biste mogli pokušati doći nakon toga o rezultatima eksperimenta.

Pretpostavimo da želim napraviti eksperiment o tome kako ljudi doživljavaju hvaljenu seriju Ratovi zvijezda. Ako unaprijed odaberem subjekte koji svi strašno mrze Ratove zvijezda (kako takvi ljudi mogu postojati?) i pokažem im video klipove Ratova zvijezda, vjerovatno će oni vjerovatno reći da još uvijek ne vole Ratove zvijezda. Na osnovu ovog pseudo-naučnog eksperimenta, možda podmuklo tvrdim da ljudi — općenito — zaista mrze Ratove zvijezda, što je „dokazano“ (namig-namig) u mom „pažljivo“ pripremljenom istraživačkom okruženju.

Možda ne znate da sam namestio točak ruleta tako što sam unapred birao predmete za koje sam očekivao da će proizvesti moje prikriveno željene rezultate. Naravno, da sam namjerno umjesto toga regrutovao ljude koji su voljeli Ratove zvijezda i bili revni fanovi, velike su šanse da bi prijavili da su oduševljeni gledanjem tih isječaka iz Ratova zvijezda. Opet, svi zaključci o tome kako ljudi, općenito, reaguju na Ratove zvijezda, bili bi ublaženi unaprijed odabranim skupom tema odabranih za napore.

Studija fokusirana na KPK činilo se da su ispitanici sjedili ispred video displeja nalik kiosku i čitali različite članke o politikama i postignućima KPK. Ovo se vjerovatno smatra "eksperimentalnim tretmanom" kojem su subjekti izloženi. Kada planirate eksperiment, obično dođete do eksperimentalnog faktora ili aspekta za koji želite da vidite da li utiče na učesnike.

Istraživačko pitanje koje se očigledno istraživalo bilo je da li bi čin pregleda ovih materijala imao bilo kakav uticaj na subjekte u smislu povećanja, smanjenja ili neutralnosti u pogledu njihovih naknadnih utisaka o KPK.

U klasičnoj nul hipotezi, takvu studiju možete organizirati tako da kažete da utrošeni materijali nemaju utjecaja na naknadne utiske koje su ispitanici izrazili. Nakon što izvršite usporedbu prije i poslije njihovih gledišta o KPK, statistički biste pokušali vidjeti da li je bilo statistički značajnog otkrivanja promjene u njihovim utiscima.

Moguće je da prije i poslije nisu statistički različiti, stoga biste mogli razumno provizorno zaključiti da za ovu konkretnu studiju prikazani materijali (eksperimentalni tretman) nisu činili razliku u njihovim utiscima. S druge strane, da postoji statistički valjana razlika, pogledali biste da li je poslije bilo veće od prethodnog, što vam omogućava da oprezno sugerirate da su materijali pojačali njihove utiske (i, s druge strane medalje, ako poslije je bilo manje nego prije, što bi moglo značiti da su materijali umanjili ili umanjili svoje utiske).

Postoji mnogo mučnih problema s kojima bi se trebalo pozabaviti u takvoj studiji.

Na primjer, obično želimo da imamo takozvanu kontrolnu grupu koju možemo uporediti s onima koje primaju eksperimentalni tretman. Evo zašto. Pretpostavimo da je čin sjedenja ispred kioska radi čitanja materijala bio prava osnova zašto su se utisci promijenili. Može biti da je priroda utrošenih materijala otprilike nebitna za uticaj na otisak. Samo sjedenje i čitanje bilo čega, kao što su najnovije priče o mačkama koje rade smiješne stvari, moglo bi učiniti trik. Stoga bismo mogli dogovoriti da neki subjekti budu u našoj kontrolnoj grupi koja je izložena nekom drugom materijalu za čitanje, osim materijala o politikama i postignućima KPK.

Ne znamo da li je to učinjeno u ovom slučaju (izgleda da niko još nije spomenuo ovu stranu).

Shvaćam da ste do sada ljuti zbog medijskog eksplozivnog dijela studije. U taj dio ćemo krenuti ekspeditivno.

Kako možemo otkriti da li su subjekti u ovom eksperimentu reagirali ili promijenili svoje utiske kao rezultat čitanja prikazanih materijala?

Uobičajeno sredstvo bi bilo da ih pitate.

Možda biste unaprijed dali upitnik koji ih pita njihove utiske o KPK. Zatim, nakon izlaganja eksperimentalnom tretmanu, kao u čitanju materijala koji se izlažu, mogli bismo dati još jedan upitnik. Odgovori koje su ispitanici dali na bazi prije i poslije mogu se zatim uporediti. Kada bismo koristili i kontrolnu grupu, pretpostavili bismo da se odgovori kontrolne grupe ne bi suštinski promijenili od prije do poslije (pod uvjerenjem da gledanje priča o mačkama koje se brčkaju ne bi trebalo utjecati na njihove dojmove KPK).

Ovaj čin pitanja subjekata za njihove utiske nije nužno tako jednostavan kao što se čini.

Pretpostavimo da subjekti u eksperimentu dobiju osjećaj ili ukupni pomak da želite da reagiraju na eksperimentalni tretman na određeni način. U tom slučaju, mogli bi namjerno preuveličati svoje reakcije u dijelu nakon eksperimentalne primjene. Sigurno ste vidjeli da se ovo dešava. Ako radim test ukusa za novi sok koji dolazi na tržište, mogao bih se ponašati kao da sam ludo uživao u gaziranom napitku, radeći to u nadi da ću možda biti predstavljen u reklami proizvođača sode i dobiti svojih zasluženih petnaest minuta slave .

Suština je da samo pitati ljude za njihovo mišljenje nije siguran način mjerenja promjena. To je jedan pristup. Drugi pristupi bi se mogli i često se preduzimaju.

Kako je ova studija odlučila da izmjeri reakcije ispitanika?

Očigledno su korištene najmanje dvije metode. Jedna metoda se sastojala od skeniranja lica i korištenja softvera za prepoznavanje lica zasnovanog na umjetnoj inteligenciji za procjenu reakcija ispitanika. Druga metoda je navodno bila neka vrsta skeniranja moždanih valova. Još uvijek nije objavljeno koja vrsta uređaja za skeniranje moždanih valova je korištena, niti kakav je softver za analizu moždanih valova zasnovan na umjetnoj inteligenciji.

Različiti izvještaji ukazuju na to da je studija navela ovo o prirodi eksperimenta: “S jedne strane, može se prosuditi kako su članovi stranke prihvatili misaono i političko obrazovanje.” A studija je navodno i ovo spomenula: „S druge strane, pružit će prave podatke za misaono i političko obrazovanje kako bi se moglo poboljšati i obogatiti.” Istraživanje je pripisano pod pokroviteljstvom kineskog Hefei sveobuhvatnog nacionalnog naučnog centra.

Medijski izvještaji sugeriraju da je studija aludirala na tvrdnju da su skeniranje prepoznavanja lica i skeniranja moždanih valova mogli pomoći u otkrivanju da su naknadni utisci pojačani o KPK.

Želeo bih da vam napomenem da bez mogućnosti da direktno pregledamo korišćene sisteme i pažljivo ispitamo istraživački rad, ne znamo pojedinosti o tome kako su ti sistemi zasnovani na veštačkoj inteligenciji tačno korišćeni.

Moguće je da su subjekti reagirali na eksperimentalno okruženje, a ne na eksperimentalni tretman. Svako ko učestvuje u studiji može biti zabrinut, za početak. Ovo bi moglo zbuniti sve napore da se uradi skeniranje moždanih valova ili analiza obrazaca lica. Postoji i šansa da su se osjećali motiviranima da udovolje istraživačima, odlučujući da izmisle pozitivne misli nakon što su vidjeli materijale, a to bi se u teoriji moglo odraziti na skeniranje moždanih valova i skeniranje lica (možda, ali molim vas da znate da postoji sjajna mnogo strastvene kontroverze oko valjanosti takvih tvrdnji, kao što ću odmah razjasniti), nadajući se da će iskriviti rezultate i pokazati da su na njih pozitivno uticali.

Reakcija na Twitteru u velikoj je mjeri osudila da je sam pojam korištenja skeniranja moždanih valova uz pomoć umjetne inteligencije i prepoznavanja lica sam po sebi užasan i nečuven čin. Samo ljudska čudovišta bi koristila takve uređaje, kažu nam neki od tih tvitova.

Moram vas zamoliti da sjednete i pripremite se za nešto što bi moglo biti grubo i šokantno iznenađenje.

Postoji mnogo istraživača širom svijeta koji koriste te iste vrste tehnologija u svojim istraživačkim studijama. Ovo sigurno nije prvi put da je mogućnost skeniranja moždanih valova korištena na ljudskim subjektima u istraživačkim naporima. Ovo također sigurno nije prvi put da se prepoznavanje lica koristi na ljudskim subjektima u eksperimentalne svrhe. Čak i površna pretraga na mreži će vam pokazati puno eksperimentalnih studija u svim zemljama i laboratorijama koje su koristile te vrste uređaja.

S obzirom na to, njihovo korištenje za procjenu lojalnosti KPK nije nešto na što biste se mnogo fokusirali. Kada se takav AI koristi za vladinu kontrolu, prešla je crvena linija, kako kažu.

To je očito zastrašujući dio cijelog kompleta i caboodlea.

Mnogi izražavaju zabrinutost da ćemo se naći u distopijskom svijetu povrijeđenosti, ako se vlade odluče da koriste tehnologiju skeniranja moždanih valova i prepoznavanje lica kako bi utvrdile lojalnost postojećim režimima. Kada hodate javnom ulicom, moguće je da će uređaj postavljen na lampu tajno odrediti vaš koeficijent lojalnosti.

Pretpostavlja se da ako vaše lice ne sugerira da ste dovoljno lojalni, ili ako skeniranje moždanih valova sugerira isto, vladini nasilnici bi mogli iznenada pojuriti i zgrabiti vas. Nervirajuće. Abysmal. Ne smije biti dozvoljeno.

To je suština razloga zašto je na ovoj vijesti izbio naslov koji je bujao i bijes.

Zamislite ovo. Možda ćemo izraditi, a zatim staviti u upotrebu kompjuterski bazirane sisteme koji koriste najnovije u AI da bi odlučili da li smo lojalni ili ne. Ako pokušate unajmiti ljude da sjede i rade isto, trebalo bi vam puno ljudi i imali biste problem sa logistikom pokušavajući ih pozicionirati da gledaju na sve. U slučaju sistema zasnovanog na veštačkoj inteligenciji, sve što treba da uradite je da postavite elektronske uređaje na stubove lampe, strane zgrada, itd. Skeniranje lojalnosti može se odvijati 24×7, u svakom trenutku, na svim tako opremljenim mjestima. Ovo se onda može uneti u ogromnu bazu podataka.

Postajemo ljudi koji su samo zupčanici u kolosnom, svevidećem, sve-posmatrajućem društvenom opresivnom ekosistemu. Oko koje vidi nije samo posmatranje onoga što radimo. To je također tumačenje onoga što naša lica tvrde da govore o našoj lojalnosti vladi. I naše umove treba ispitati zbog sličnog užasnog razloga.

Yikes!

Postoji i sekundarna briga koja proizilazi iz ovoga, iako možda nije tako trnovita u poređenju sa implikacijama Velikog brata kao što je već skicirano.

Razmislite o ova dva goruća pitanja:

  • Možemo li pouzdano tvrditi da skeniranje moždanih valova može potvrditi vašu lojalnost?
  • Možemo li pouzdano tvrditi da skeniranje prepoznavanja lica može potvrditi vašu lojalnost?

Sačekaj, možda ćeš vikati iz sveg glasa.

Shvaćam i priznajem da vam možda neće biti toliko stalo do aspekata pouzdanosti samih po sebi. Da li se to može pouzdano uraditi manje je bitno od činjenice da se to uopšte radi. Niko ne bi trebao biti pod takvom kontrolom. Zaboravite na to da li tehnologija radi prikladno za ovaj zadatak. Ne bi trebalo da preuzimamo zadatak na početku.

U svakom slučaju, odgovor je trenutno odlučno ne, naime da postojeći AI sistemi koji rade bilo kakav privid „skeniranja moždanih talasa“ i prepoznavanja lica nisu dovoljno sposobni da naprave taj skok.

Možda ste u posljednje vrijeme vidjeli da su neki proizvođači prepoznavanja lica malo unazadili u pogledu toga kako se njihovi sistemi za prepoznavanje lica stavljaju u upotrebu. U nadolazećoj kolumni, raspravljat ću o nedavnim naporima, na primjer od strane Microsofta da pokuša zaustaviti val onih koji koriste Microsoftove alate za prepoznavanje lica u svrhe koje su daleko iznad onoga što tehnologija može učiniti ili bi trebala biti korištena za . Možda će vas zanimati moj raniji pogled na nedoumice u vezi etike umjetne inteligencije koje su već bile dobro objavljene o prepoznavanju lica, vidi link ovdje. Takođe sam raspravljao o areni skeniranja moždanih talasa, pogledajte moju diskusiju na link ovdje.

Ukratko, još uvijek ne postoje pouzdani ili razumni načini da se sugerira da skeniranje moždanih valova ili skeniranje prepoznavanja lica može predstavljati nečiju lojalnost. Čak i o osnovnim aspektima poput toga da li možete pouzdano povezati te skeniranje s tim da li je neko srećan ili tužan i dalje se žestoko raspravlja. Pokušaj da se podigne šansa za nešto tako amorfno i varijabilno kao što je lojalnost je predaleko most.

Mogao bih dodati da neki gorljivo vjeruju da ćemo na kraju stići. Zato sam pažljivo pokušao da konstatujem da još nismo tamo, a ne da kažem da nikada nećemo stići. Nikad nije velika riječ. Morate biti potpuno sigurni ako ćete se bacati okolo da će ovo biti nikada biti izvodljiv (imajući na umu da „nikada“ ne obuhvata decenije od sada, vekove od sada i hiljade ili milione godina od sada).

Neki su reagovali na vijest o ovoj kineskoj laboratorijskoj istraživačkoj studiji kao pokazatelju koliko opasno svijet skreće ka neprikladnoj i opasnoj upotrebi AI. Podijelit ću s vama na trenutak uvid u ono što je etika umjetne inteligencije. Ovo će vam pomoći da jasnije vidite zašto se čini da ova konkretna studija krši mnoge, ako ne i skoro sve opšte prihvaćene propise etičke veštačke inteligencije.

Vjerovali ili ne, neki su sugerirali da možda pravimo planinu od krtičnjaka u vezi s ovom posebnom studijom.

Jesmo li?

Protuargument je da krtičnjak uskoro može postati planina. U poslovičnom pojmu grudve snijega koja postaje sve veća i veća dok se kotrlja niz snježno brdo, moramo spriječiti da snježna grudva krene. Ako tolerišemo ove vrste studija, dopuštamo toj snežnoj grudi da započne svoje putovanje. Govorenjem i pozivanjem na takve studije, možda možemo preduhitriti grudvu snijega.

Jedno je sigurno, na ivici smo otvaranja Pandorine kutije kada su u pitanju AI aspekti, a ostaje pitanje da li možemo spriječiti otvaranje kutije ili barem pronaći način da se razborito nosimo sa onim što izađe jednom kada kutija oslobodi svoj đavolski sadržaj.

Ako ništa drugo, nadamo se da će ovakve medijske oluje potaknuti široku raspravu o tome kako ćemo spriječiti zlodjela u vezi s umjetnom inteligencijom i spriječiti brojne egzistencijalne rizike izazvane umjetnom inteligencijom. Moramo podići našu društvenu svijest o etici AI i etičkim razmatranjima AI.

Prije nego što se upustimo u još malo mesa i krompira o razmatranjima divljeg i vunastog porijekla koji su u osnovi ovih vrsta AI sistema, hajde da uspostavimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno na pojavu mašinskog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da se jedan od najglasnijih glasova ovih dana u polju AI, pa čak i izvan polja AI, sastoji od traženja većeg privida etičke AI. Hajde da pogledamo šta znači upućivanje na etiku veštačke inteligencije i etičku veštačku inteligenciju. Povrh toga, istražićemo na šta mislim kada govorim o mašinskom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne i proverljive metodologije, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Uvjerimo se i da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na AI sisteme koji se koriste u neprikladne ili eventualno otvorene pogrešne svrhe i kako se to odnosi na nedavno objavljenu studiju o lojalnosti KPK.

Dva primarna razmatranja padaju na pamet:

1) Ova instanca AI dio je šireg tekućeg obrasca uznemirujuće upotrebe AI i stoga je zlokobna i otvara oči u pogledu onoga što se događa

2) Mačka bi se mogla pustiti iz vreće tako da ako se ovakva AI usvoji u jednoj zemlji, može se lako proširiti i na druge zemlje

Počnite s prvom tačkom o ovom slučaju da je AI dio tekućeg obrasca.

Jedna značajno važna osnova za posebno uznemirenje ovom posebnom studijom je da je ona dio šireg obrasca načina na koji AI namjeravaju da je koriste neki. Da je ovo jedina takva studija ikada sprovedena, možda bi nas to blago uznemirilo. Bez obzira na to, vjerovatno ne bi odjeknulo s takvim žarom kao što sada vidimo.

Ovo je možda kap-kapanje koraka prema nečemu što će izmaći kontroli.

Kako je objavljeno u vijestima, Kina je dobro poznata po tome što je insistirala na neizmjernoj lojalnosti KPK. Nadalje, uspostavljena su ili se uspostavljaju različita sredstva kako bi se osiguralo da ljudi budu indoktrinirani u vladinu doktrinu. Navedeni su primjeri ranijih studija koje su nastojale osmisliti algoritme umjetne inteligencije koji bi mogli procijeniti stanje mišljenja članova stranke (vidi Study Times 2019. u kojem se spominju ova nastojanja).

Možete se sjetiti da je 2018. potpredsjednik Mike Pence održao govor na Hudson institutu i naglasio da “kineski vladari imaju za cilj implementirati orvelovski sistem zasnovan na kontroli gotovo svakog aspekta ljudskog života” (ovo je bila referenca na implementaciju KPK sistem društvenog bodovanja, tema istaknute kontroverze). Možete lako tvrditi da je ova nedavna studija KPK još jedan korak u tom smjeru.

Ne znamo kada će ili da li će posljednja kap slomiti kičmu kamili, tako da se ove jednokratne studije pretvore u široko rasprostranjene sisteme za praćenje zasnovane na umjetnoj inteligenciji.

Druga stvar koja je vrijedna pažnje je da ne možemo pretpostaviti da će ova vrsta AI biti ograničena samo na Kinu. U suštini, iako je upotreba ove vrste veštačke inteligencije u Kini koja bi mogla da bude široko rasprostranjena samo po sebi uznemirujuća, druge zemlje bi mogle da urade isto.

Kada se kaže da je veštačka inteligencija za ovo spremna za udarno vreme, verovatno neće biti potrebno mnogo da druge zemlje odluče i da žele da je primene. Mačka će izaći iz vreće. Neke zemlje će vjerovatno koristiti ovu umjetnu inteligenciju na potpuno opresivne načine i neće pokušavati da se pretvaraju da to rade. Čini se da bi druge zemlje mogle nastojati da koriste ovu vrstu AI za ono što se čini korisnim, od čega na kraju postoji loša strana koja će biti gotovo neizbježna.

Zapravo, sugerirati da će ova vrsta AI možda biti usvojena tek nakon što se vidi da je spremna za udarno vrijeme pomalo je pogrešan naziv. Možda neće imati nikakvu razliku da li AI može sigurno raditi na ovaj način. AI se može koristiti kao naslovna priča, pogledajte moje objašnjenje na link ovdje. Bez obzira na to šta je AI zapravo u stanju da postigne, ideja je da AI može biti zgodan izgovor za praćenje stanovništva i šeme mjerenja i osiguravanja apsolutne lojalnosti vlastima.

U ovom trenutku ove teške rasprave, kladim se da želite neke ilustrativne primjere koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o zloupotrebama AI-a, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i zloupotreba umjetne inteligencije

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću sada ispričati.

Hajde da skiciramo scenario samovozećeg automobila koji bi mogao da iskoristi veštačku inteligenciju na neodređene ili pogrešne načine.

Podijelit ću s vama neke posljedice samovozećih automobila zasnovanih na umjetnoj inteligenciji koje bi mogle uzrokovati da se zadrhtite i budete uznemireni. To su aspekti o kojima trenutno gotovo niko ne raspravlja. U više navrata sam pominjao te stvari, iako otvoreno priznajem da dok ne budemo imali preovlađujuće usvajanje samovozećih automobila, nećemo imati mnogo pažnje u pogledu toga da će društvo biti zabrinuto ili uznemireno zbog onoga što danas izgleda kao samo apstraktni pojmovi .

Jesi li spreman?

Počećemo sa nekim postavljanjem temelja.

Samovozeći automobili zasnovani na veštačkoj inteligenciji biće opremljeni video kamerama, što je razumno. Ovo omogućava samovozećem automobilu da primi video snimke scene vožnje. Zauzvrat, AI sistem za vožnju koji radi na računarima u automobilu koji se samostalno vozi ima za cilj da kompjuterski pregleda prikupljeni video i utvrdi gdje je put, gdje su automobili u blizini, gdje su pješaci itd. Shvaćam da recitujem 101 osnove o samovozećim automobilima.

Na vanjskom dijelu autonomnog vozila postavljene su video kamere koje su usmjerene prema van. Osim toga, uglavnom, možete očekivati ​​da će na ili unutar vozila biti video kamere usmjerene prema unutra u unutrašnjost samovozećeg automobila. Zašto tako? Lako, jer će biti mnogo važnih upotreba za video snimanje događaja unutar autonomnog vozila.

Kada se vozite u samovozećem automobilu, više ne morate biti vozač. Šta ćete tada raditi dok ste u automobilu koji se samostalno vozi?

Jedna stvar koju biste mogli da uradite je da komunicirate sa drugima kod kuće ili u kancelariji. Tu ste, na putu do posla, što će reći uzmite sat vremena vožnje autom koji se samostalno vozi, a već možete započeti svoj radni dan radeći interaktivnu sesiju u realnom vremenu nalik na Zoom-u. Oni vas mogu vidjeti zbog kamera koje su usmjerene prema unutra u automobil koji se samostalno vozi. Možete ih vidjeti možda na LED ekranu unutar samovozećeg automobila. Na kraju svog dana, dok se vraćate kući, mogli biste voditi sličnu interaktivnu video diskusiju sa svojom djecom dok počinju da rade domaći zadatak za večer.

Druga upotreba bi bila za pohađanje nastave. Sada kada ne morate gubiti svoje vrijeme na vožnju, možete pretvoriti to vrijeme u samovozećem automobilu u poboljšanje svojih vještina ili dobijanje certifikata ili diplome. Putem kamera usmjerenih prema unutra, vaš instruktor vas može vidjeti i razgovarati o tome kako napreduje vaša obuka.

Još jedna upotreba bi bila da pokušate da osigurate da vozači u automobilima koji se sami voze ne polude. U automobilu kojim upravljaju ljudi, vozač je odrasla osoba koja obično sprečava vozače da rade lude stvari kao što je označavanje unutrašnjosti grafitima. Šta će se dogoditi sa samovozećim automobilima baziranim na umjetnoj inteligenciji? Neki se brinu da će se vozači odlučiti da pocijepaju unutrašnjost vozila. Kako bi to pokušala spriječiti, kompanija za dijeljenje vožnje koja koristi samovozeće automobile vjerovatno će koristiti video kamere okrenute prema unutra kako bi nadgledala šta ljudi rade dok su u autonomnom vozilu.

Pretpostavljam da ste uvjereni da ćemo imati i video kamere koje upućuju u unutrašnjost samovozećih automobila, pored kamera koje su usmjerene prema van kako bi se razabrala scena vožnje.

Sada ste spremni za ono što sam nazvao lutajućim okom, pogledajte moju analizu na link ovdje.

Prvo, razmotrite video kamere koje su usmjerene prema van.

Gdje god da samovozeći automobil krene, potencijalno će moći snimiti sve što vide kamere. Samovozeći automobil koji nekoga odveze iz njihove kuće i odveze ga u prodavnicu obići će susjedstvo, a video će snimiti ne samo kolovoz, već i sve ostalo što se događa u očima. Otac i sin se igraju u svom dvorištu. Porodica sjedi na prednjem trijemu. I dalje ide dalje.

Trenutno imamo toliko malo samovozećih automobila na javnim putevima da je ova mogućnost snimanja video zapisa svakodnevnih aktivnosti relativno oskudna i nematerijalna.

Zamislite da na kraju postignemo sigurne i rasprostranjene samovozeće automobile. Na hiljade njih. Možda milioni. Danas u SAD imamo oko 250 miliona automobila na ljudski pogon. Na kraju će ih u velikoj mjeri zamijeniti samovozeći automobili ili se jednostavno više neće koristiti, a mi ćemo uglavnom imati samovozeće automobile na našim putevima. Te automobile koji se sami voze upravlja AI i kao takvi mogu biti u roamingu 24×7. Nema pauze za odmor, nema pauze za kupatilo.

Video podaci se mogu učitati iz ovih samovozećih automobila putem OTA (Over-The-Air) elektronskih mrežnih veza. Automobili koji se sami voze koristit će OTA za preuzimanje najnovijih ažuriranja AI softvera u vozilo. Osim toga, OTA se može koristiti za učitavanje podataka iz automobila koji se samostalno vozi u bazu podataka baziranu na oblaku.

Sve u svemu, bilo bi izvodljivo spojiti ove učitane podatke. Sa šivanjem biste potencijalno mogli spojiti svakodnevne dolaske i odlaske svakoga ko je izašao napolje bilo kojeg dana u bilo kojoj lokaciji koja je u velikoj mjeri koristila samovozeće automobile.

To je lutajuće oko na koje sam upozoravao.

Sada možemo povezati studiju KPK sa ovom vrstom sposobnosti. Pretpostavimo da vlada ima pristup svim ovim prikupljenim video podacima. Zatim bi mogli koristiti algoritam za prepoznavanje lica zasnovan na umjetnoj inteligenciji kako bi utvrdili gdje ste išli, u koje doba dana, tokom svojih svakodnevnih životnih putovanja. Osim toga, vjerovatno bi mogli koristiti svoj analizator baziran na AI "lojalnosti" da vide da li izgleda da imate lojalan izgled na licu ili ne.

Zamislite samo da ste u utorak popodne šetali po sendvič u lokalnom restoranu. Putem su prolazili samovozeći automobili. Svi brojni video snimci su vas uhvatili dok hodate u petominutnoj šetnji da biste jeli. Podaci su učitani u centraliziranu bazu podataka. Vlada je pokrenula svoj program AI prepoznavanja lica na tim podacima.

Ispostavilo se da je AI "utvrdio" da imate nelojalan izraz na licu.

Možda se ovaj nelojalan pogled dogodio samo na trenutak. Čekali ste na uglu ulice da se promeni svetlo da biste mogli da pređete ulicu do restorana. U tom trenutku ste imali lagani trzaj gađenja da ste predugo čekali na simbol Šetnje. Je li to možda bio pokazatelj vaše nelojalnosti vladi?

Da, AI je računski izračunao, bili ste potpuno nelojalni u tom trenutku. Kada dođete kući te noći, vlada je sredila vaše hapšenje.

Ali čekaj, ima još.

Zapamtite da su i video kamere usmjerene prema unutra.

Tog istog utorka, dok ste se vozili na posao u samovozećem automobilu, video kamere su snimale svaki vaš trenutak. Ovo je učitano u centraliziranu bazu podataka. Softver za veštačku inteligenciju koji analizira obrasce lica na nelojalnost izvršio je kompjutersko ispitivanje vaših izraza lica tokom putovanja do kancelarije.

U jednom trenutku ste nehajno gledali van autonomnog vozila i primijetili građevinskog radnika koji je djelimično blokirao kolovoz i izazvao AI sistem vožnje da uspori samovozeći automobil. Na djelić sekunde, vaše lice je registrovalo izraz podsmijeha zbog ovog građevinskog radnika koji usporava saobraćaj.

Analiza AI uzorka lica ovo je protumačila kao znak nelojalnosti prema vladi.

Dva udarca protiv vas u jednom danu.

Živite na tankom ledu.

Naravno, da li je AI "u pravu" ili "pogrešno" u pogledu toga da može utvrditi vašu lojalnost, gotovo je nebitno u ovom kontekstu. Suština je u tome da je AI uveden u tu svrhu. Ljudi koji koriste AI mogu ili ne moraju brinuti da li je AI od bilo kakve prikladne upotrebe za ovu vrstu zadatka. AI dozvoljava vladinu kontrolu, bez obzira na samu tehnološku valjanost.

To pokriva skeniranje lica.

Ako eventualno budemo imali bilo kakvu vrstu prijenosnih isplativih uređaja za (navodno) skeniranje moždanih valova, to se svakako može uključiti i u automobile koji se sami voze. Video kamere su sada sigurna stvar. Mogućnost posedovanja uređaja za skeniranje moždanih talasa ovog kalibra trenutno nije na planu, ali je očigledno nešto što se predviđa za budućnost.

Za moje istraživanje o tome kako bi vlada mogla pokušati da preuzme stanovništvo tako što će preuzeti kontrolu nad automobilima koji se sami voze, vidi link ovdje. Postoji slična mogućnost da zlonamjerni akter pokuša učiniti isto, vidi link ovdje. To nisu zamišljene da budu taktike zastrašivanja u pogledu izvještavanja o tim povezanim temama, već umjesto toga upozorenje o važnosti kibernetičke sigurnosti i drugih mjera predostrožnosti koje kao društvo moramo nastojati poduzeti u vezi s pojavom sveprisutnih samovozećih automobila i druga autonomna vozila.

zaključak

Želio bih brzo da pokrijem jedan dodatni aspekt o AI koji se koristi za utvrđivanje lojalnosti za koji mislim da je donekle zasebna tema, ali tema o kojoj se bave neki tvitovi i društveni mediji.

Ranije sam spomenuo da nemamo razumnu AI i ne znamo hoćemo li i kada ćemo. Hajde da se pozabavimo idejom da ćemo imati razumnu AI. U tom slučaju razmislite o sljedećem scenariju.

Preko neosjetne umjetne inteligencije odlučujemo se za široko rasprostranjenu upotrebu AI koja kompjuterski utvrđuje jesu li ljudi lojalni svojoj vladi, koristeći skeniranje lica, skeniranje moždanih valova i tako dalje. Ovim u potpunosti upravljaju i koriste ga ljudi koji imaju vlast. To je uznemirujući scenario koji sam samo nekoliko trenutaka ranije opisao.

Vreme je da se poveća.

AI postaje razuman. Sada smo potencijalno predali ovoj razumnoj AI široko rasprostranjenu sposobnost vjerovatno identificiranja lojalnosti i nelojalnosti kod ljudi. Zlobni AI koji razmišlja o brisanju ljudi mogao bi iskoristiti ovu sposobnost da odluči da će ljudi zaista biti nelojalni i da ih treba potpuno uništiti. Ili možda samo one ljude koji svojim licem ili mislima pokazuju znak nelojalnosti treba posebno odbaciti.

Drugi ugao je da AI želi porobiti ljude, pogledajte moju raspravu na link ovdje.

Čini se da smo umjetnoj inteligenciji dali savršen poklon za izvođenje te misije. Postojeća infrastruktura koju smo postavili omogućava AI da pažljivo prati nas ljude. Oni za koje se čini da su izrazili nelojalnu indikaciju lica ili razmišljali o AI gospodaru(ima) će osjetiti gnjev AI.

Shvaćam da sam rekao da je ovo povećanje antea. Nisam siguran da je to tako. Čini mi se da bez obzira na to da li imamo gospodare umjetne inteligencije koji direktno odlučuju o našoj sudbini naspram ljudskih gospodara koji možda koriste AI sistem za određivanje lojalnosti, pa, ni jedan od prijedloga se ne čini posebno poželjnim.

Konačan komentar za sada.

Rimski učenjak i filozof Marko Tulije Ciceron izjavio je da nema ničeg plemenitijeg, ničeg časnijeg od lojalnosti. Možda ćemo dopustiti AI da nas preduzme i postane oruđe za angažovanje i osiguranje “lojalnosti” na strašna sredstva.

Vrijedan pažljiv razlog da etiku umjetne inteligencije stavimo na vrh naše liste obaveza.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- potvrda-koja-mogla-predvidjeti-opresivne-autonomne-sisteme/