Etika veštačke inteligencije koja oštro dovodi u pitanje kloniranje ljudskog glasa, kao što je kloniranje vaših preminulih rođaka, namenjeno za upotrebu u autonomnim sistemima veštačke inteligencije

Ups, naizgled zgodan komad nove tehnologije uvukao je sebe i svog tvorca u malo vruće vode.

Mislim na pojavu kloniranja ljudskog glasa zasnovanog na umjetnoj inteligenciji kao nove tehnologije koja je uspjela ući u oh-moj bože naslovne vijesti u posljednje vrijeme. U ovom slučaju, kompanija je Amazon i njegova Alexa koja stalno napreduje.

Čitaoci moje kolumne bi se mogli sjetiti da sam ranije izvještavao o nepristojnom buku koji se dogodio kada je javljeno da je Alexa ohrabrila mladića da stavi peni u električnu utičnicu (nemojte to raditi!), pogledajte moje izvješće na stranici. link ovdje. U tim okolnostima, srećom, niko nije povređen, a posledica je bila ta što je očigledno Alexa AI sistem pokupio prethodni virusni trend i bez ikakvog privida zdravorazumske procene samo je ponovio ludi predlog kada su ga pitali za nešto zabavno da uradi dijete koje komunicira sa Alexom. Ovo naglašava zabrinutost etike umjetne inteligencije da postajemo preplavljeni umjetnom inteligencijom kojoj nedostaje bilo kakav privid zdravorazumskog razmišljanja, što je posebno težak problem s kojim se AI suočava i koji nastavlja prkositi naporima da se utjelovi u AI (za moju analizu o zdravom razumu zasnovanom na umjetnoj inteligenciji napori, vidi link ovdje).

Najnoviji dustup uključuje kloniranje glasa, poznato i kao replikacija glasa. Najnovije u takvoj tehnologiji i AI podižu hitna razmatranja etike i etike AI. Za moje kontinuirano pokrivanje etike AI i Etičke AI, vidi link ovdje i link ovdje, Da nabrojimo samo neke.

Kloniranje glasa zasnovano na AI je jednostavan koncept.

AI sistem je programiran da audio snimi neke od vaših izgovorenih riječi. AI tada pokušava izračunati vaše govorne obrasce. Na osnovu otkrivenih govornih obrazaca, AI zatim pokušava emitovati audio govor koji zvuči baš kao vi. Teški dio je što govor pokriva riječi koje niste ranije dali kao audio uzorke AI. Drugim riječima, AI mora matematički procijeniti kako biste mogli izgovoriti riječi. Ovo uključuje sve karakteristike govora kao što su ton, podizanje i spuštanje glasa, tempo ili brzina govora, itd.

Kada čujete da se čovjek pokušava oponašati drugog čovjeka, obično možete uočiti da je taj napor lažno predstavljanje. Kratkoročno, kao da imitator koristi samo nekoliko riječi, moglo bi biti teško shvatiti da glas nije izvorni govornik. Nadalje, ako imitator oponaša riječi koje je izvorni govornik zapravo izgovorio, velika je vjerovatnoća da će moći prilagoditi svoj glas glasu druge osobe više za taj određeni izgovor.

Kratkoća i slušanje potpuno istih riječi mogu omogućiti nekome da u velikoj mjeri shvati lažno predstavljanje.

Izazov postaje pokrivanje riječi koje druga osoba nije izgovorila ili za koje imitator nikada nije čuo da osoba govori te specifične riječi. Pomalo ste u mraku u pokušaju da shvatite kako bi oponašana osoba izgovorila te riječi. Dobra vest je da ako bilo ko drugi koji sluša imitatora takođe ne zna kako bi originalna osoba izgovorila reči, imitator može biti relativno daleko od pravog glasa, a ipak i dalje delovati kao daj i na meti.

Također bih želio na trenutak ukloniti iz jednačine manire i fizičko kretanje imitacije. Kada vidite imitatora, mogli biste se pokolebati ako su u mogućnosti da naboraju lice ili da mlataraju rukama na način koji također oponaša osobu koja se predstavlja. Dodatni znakovi tijela i lica će prevariti vaš um da pomisli da je i glas mrtav, iako možda nije. Purist koji se lažno predstavlja u glasu bi insistirao da se samo glas koristi kao kriterij za određivanje da li glas prikladno oponaša oponašanu osobu.

Sigurno ste vidjeli razne deepfake videa koji se ovih dana vrte na društvenim mrežama. Neko pametno rejigeruje video kako bi se u videu pojavilo nečije lice, prekrivajući lice koje je bilo nečije drugo na originalnom snimku. Ovo je obično popraćeno i dubokim lažiranjem glasa. Dobivate dvostruki udarac, uključujući video koji se vizualno mijenja putem deepfake AI i audio koji se mijenja putem deepfake AI.

Radi diskusije u ovom tekstu, koncentrišem se samo na duboke lažne audio aspekte zasnovane na veštačkoj inteligenciji, koji se, kao što je ranije pomenuto, obično naziva kloniranjem glasa ili replikacija glasa. Neki drsko nazivaju ovo glasom u konzervi.

Siguran sam da neki od vas upravo sada podstiču da smo već duže vreme imali mogućnost da koristimo kompjuterske programe za kloniranje glasova. Ovo nije ništa novo samo po sebi. Slažem se. U isto vrijeme, moramo priznati da ova visokotehnološka sposobnost postaje sve bolja i bolja. Pa, ja kažem sve bolje i bolje, ali možda, kao što ćete vidjeti za trenutak, trebalo bi da kažem da postaje sve više zabrinjavajuće i zabrinjavajuće.

Drži se te misli.

Tehnološka sposobnost sigurno napreduje za kloniranje glasa. Na primjer, nekada je bilo da ste morali da "trenirate" program za replikaciju zvuka AI tako što ćete izgovoriti cijelu priču o miješanju i spajanju riječi. Slično poznatoj ili zloglasnoj liniji brze smeđe lisice koja je preskočila lijenog psa (linija koja je namijenjena da nekoga natjera da pokrije sva slova abecede), postoje posebno izrađene kratke priče koje sadrže mješavinu riječi za potrebe natjerati vas da kažete dovoljno riječi i dovoljno široku paletu riječi kako bi se uparivanje AI obrasca učinilo mnogo lakšim.

Možda ste morali da pročitate nekoliko stranica reči, često uključujući reči koje se borite da izgovorite, a niste ni sigurni šta znače, kako biste u dovoljnoj meri omogućili podudaranje AI šablona. Ovo bi moglo potrajati mnogo minuta ili ponekad sati razgovora kako bi AI pružio dovoljno zvuka za pronalaženje različitih obrazaca vašeg glasa. Ako biste skratili ovu aktivnost treninga, velike su šanse da će rezultirajuću replikaciju glasa lako srušiti svaki vaš prijatelj koji dobro poznaje vaš glas.

U redu, interes AI programera je tada bio fokusiran na to kako optimizirati aspekte replikacije zvuka. AI graditelji uživaju u izazovima. Za njih se kaže da su optimizatori u srcu. Dajte im problem i oni će težiti optimizaciji, bez obzira na to gdje bi to moglo dovesti (spominjem ovo kao predznak, što će uskoro postati jasnije).

odgovori mi ovo:

  • Koja je najmanja količina audio uzorka koja bi bila potrebna da bi se maksimalno klonirao nečiji glas i za koji audio uzorak može biti gotovo bilo koji nasumično dozvoljeni skup riječi, a ipak omogućiti kloniranje glasa da proizvede gotovo sve riječi koje bi se ikada mogle izgovoriti ciljanim glasom i zvukom koji je suštinski identičan glasu te osobe u konverzacijskom ili drugom kontekstualnom okruženju po izboru?

Ima dosta toga za raspakovati.

Imajte na umu da želite minimalni audio uzorak koji će maksimalno klonirati glas, tako da će rezultirajući izgovori AI u tom sada automatiziranom repliciranom glasu izgledati potpuno nerazlučivi od stvarne osobe. Ovo je teže nego što mislite.

To je skoro kao ona igrana emisija u kojoj morate pokušati imenovati pjesmu na osnovu najmanjeg broja slušanih nota. Što je manje odsviranih nota, teže je pogoditi o kojoj se pjesmi radi. Ako je vaša pretpostavka pogrešna, gubite bodove ili gubite igru. Pojavljuje se borba oko toga da li treba da koristite samo jednu notu, najmanji mogući trag, ali tada je verovatnoća da ćete pogoditi pesmu značajno smanjena. Što više nota čujete, veća je verovatnoća da ćete pogoditi tačnu pesmu, ali dozvoljavate i drugim takmičarima da takođe imaju povećane šanse da pogode.

Zapamtite da imamo posla i sa pojmom propisanih riječi nasuprot bilo koje riječi u slučaju kloniranja glasa. Ako osoba kaže riječi “Ne možete podnijeti istinu” i želimo da AI oponaša ili oponaša tu osobu, AI će kompjuterski vjerovatno lako uhvatiti obrazac. S druge strane, pretpostavimo da imamo samo ove riječi koje je izgovorila ta osoba „Je li to sve što treba da me pitaš” i želimo da koristimo te riječi da bi AI tada rekao „Ne možeš podnijeti istinu”. Mislim da možete uočiti poteškoću u obučavanju na jednom skupu riječi i ekstrapoliranju na potpuno drugačiji skup riječi.

Još jedan naporan element sastoji se od konteksta za izgovorene riječi. Pretpostavimo da vas natjeramo da audio snimite rečenicu kada ste mirni i opušteni. AI oblikuje te riječi. To bi takođe moglo biti uzor na smirenost vašeg glasa. Zamislite da onda želimo da se AI pretvara da ste to vi kada vičete ljuti i ljuti kao stršljen. To što AI izobliči originalni obrazac i postane tačno ljutita verzija vašeg glasa može biti zastrašujuće.

Kakve minimume gledamo?

Trenutno je cilj probiti minut.

Uzmite snimljeni glas za koji imate manje od jedne minute zvuka i navedite AI da izvrši sve zadivljujuće kloniranje glasa samo iz tog minijaturnog uzorka. Želim da pojasnim da skoro svako može da sastavi AI koji to može da uradi generalno za manje od jedne minute, iako je rezultirajući klon glasa slab i lako se detektuje kao nepotpun. Opet, izričito i nepokolebljivo povezujem da je vrijeme uzorkovanja minimalno i u međuvremenu je kloniranje glasa na maksimumu. Dolt može postići minimalno uzorkovanje ako im je također dozvoljeno da budu grubo submaksimalni u kloniranju glasa.

Ovo je zabavan i uzbudljiv tehnološki izazov. Možda se pitate kolika je vrijednost ili zasluge ovog činjenja. Koji cilj tražimo? Koje koristi za čovječanstvo možemo očekivati ​​ako budemo u mogućnosti da tako efikasno i efektivno radimo replikaciju glasa zasnovanu na umjetnoj inteligenciji?

Želim da razmislite o tom mesnatom pitanju.

Pogrešan odgovor može vas nehotice uvući u gomilu kaše.

Evo nečega što izgleda optimistično i sveukupno pozitivno.

Pretpostavimo da bismo mogli imati stare snimke poznatih ljudi kao što je Abraham Lincoln i da smo bili u mogućnosti da koristimo te prašnjave audio isječke za izradu glasovnog klona zasnovanog na umjetnoj inteligenciji. Tada smo mogli čuti Linkolna kako govori Gettysburg govor kao da smo bili tamo na dan kada je izgovorio četiri desetina i prije sedam godina nezaboravan govor. Kao sporedna napomena, nažalost, nemamo nijedan audio snimak Linkolnovog glasa (tehnologija još nije postojala), ali imamo glasovne snimke predsjednika Benjamina Harrisona (prvog od predsjednika SAD-a koji je napravio glasovni snimak ) i ostali predsjednici nakon toga.

Vjerujem da bismo se svi razumno složili da je ova specifična upotreba kloniranja glasa zasnovanog na umjetnoj inteligenciji sasvim u redu. Zapravo, vjerovatno bismo ovo željeli više nego da se glumac danas pretvara da govori kao Linkoln. Glumac bi vjerovatno izmišljao kako god mislili da zvuči Linkolnov glas. To bi bila izmišljotina, možda daleko od onoga što je bio Linkolnov glas. Umjesto toga, korištenjem dobro kvalifikovanog AI sistema za kloniranje glasa, bilo bi malo rasprave o tome kako Linkolnov glas zaista zvuči. AI bi bio činjenično tačan, barem u mjeri u kojoj je AI dobra u repliciranju ciljanog glasa.

U kategoriji dobrote o kloniranju AI glasa, možemo postići pobjedu s ovom vrstom slučaja upotrebe.

Ne želim biti tmuran, ali postoji loša strana čak i ove naizgled sveobuhvatne upotrebe.

Neko koristi AI sistem za kloniranje glasa da otkrije glas Teodora Ruzvelta (“Teddy”), našeg dragocjenog 26th Predsjednik Sjedinjenih Država, prirodnjak, konzervator, državnik, pisac, istoričar i gotovo univerzalno označen kao cijenjena osoba. Govori koje je on držao i za koje nemamo historijski sačuvane audio verzije sada bi se mogli „izgovarati“ kao da on lično danas govori. Pohvalno pojačanje za proučavanje istorije.

Hajde da ovo pretvorimo u ružno, jednostavno u svrhu otkrivanja njegovih mana.

Koristimo glasovni klon zasnovan na Teddyju AI da pročitamo govor koji je održao zli diktator. AI ne brine o tome šta govori jer u AI nema privida osjećaja. Riječi su jednostavno riječi, tačnije samo zvukovi.

Možda ćete se zgroziti da bi neko uradio nešto od ove skrivene prirode. Zašto bi, dovraga, klonirani glas poznatog i poštovanog Teodora Ruzvelta zasnovan na veštačkoj inteligenciji bio korišćen za održavanje govora koji Teddy ne samo da nije prvobitno uradio, već je povrh toga govorio o temi koja oslikava neku zloću odvratnog diktator?

Nečuveno, mogli biste uskliknuti.

Lako se radi, stiže odgovor.

U suštini, jedna vrlo važna briga u vezi repliciranja glasa zasnovanog na umjetnoj inteligenciji je da ćemo se iznenada naći zatrpani lažnim ili ćemo reći dubokim lažnim govorima i izjavama koje nemaju nikakve veze s bilo kakvim povijesnim činjenicama ili tačnostima. Ako se dovoljno njih napravi i objavi, mogli bismo postati zbunjeni oko toga šta je činjenica a šta je fikcija.

Možete vidjeti kako bi to moglo nastati. Koristeći glasovni klon zasnovan na veštačkoj inteligenciji, neko pravi audio snimak govora Vudroa Vilsona koji on zapravo nikada nije održao. Ovo je objavljeno na internetu. Neko drugi čuje snimak i veruje da je to prava stvar. Objavljuju ga negdje drugdje, napominjući da su pronašli ovaj veliki istorijski zapis Woodrowa Wilsona. Uskoro, učenici na časovima istorije koriste audio umesto čitanja pisane verzije govora.

Niko na kraju ne zna da li je govor održao Vudro Vilson ili ne. Možda jeste, a možda i nije, a svi misle da to nije ni bitno (pa, oni koji nisu fokusirani na istorijsku tačnost i činjenice). Naravno, ako je govor bezobrazan, to daje pogrešan utisak ili dezinformisanje te istorijske ličnosti. Istorija i fikcija spojeni su u jedno.

Vjerujem da ste, nadamo se, uvjereni da je ovo loša strana povezana s kloniranjem glasa zasnovanom na umjetnoj inteligenciji.

Opet, već možemo raditi ovakve stvari, čineći to bez novijeg i poboljšanog repliciranja glasa zasnovanog na umjetnoj inteligenciji, ali to će biti lakše učiniti i rezultirajući zvuk će biti izuzetno teško razlikovati pravi i lažni. Danas, koristeći konvencionalne programe za proizvodnju zvuka, obično možete slušati izlaz i često lako utvrditi da je zvuk lažan. Uz napredak u AI, uskoro više nećete moći vjerovati svojim ušima, na neki način.

Koliko god kloniranje historijskih ličnosti moglo biti loše, moramo razmisliti o možda posebno nevjerovatnoj upotrebi današnjih živih ljudi.

Prvo, jeste li ikada čuli za pomalo popularnu prevaru koja uključuje nekoga da se lažno predstavlja kao šef ili slično? Prije nekoliko godina, postojala je uznemirujuća moda pozivanja restorana ili trgovine i pretvaranja da ste gazda ustanove. Lažna stvar bi uključivala govorenje članu osoblja da radi smiješne stvari, što bi oni često poslušno radili pod lažnim uvjerenjem da razgovaraju sa svojim šefom.

Ne želim da se zaglavim u ovakvim razjarenim prekršajima, ali još jedan relevantan je pozivanje nekoga ko možda slabo čuje i pretvaranje da je njihov unuk ili unuka. Imitator pokušava uvjeriti baku i djeda da daju novac da im pomognu ili da ih na neki način spase. Na osnovu lažnog glasa, baka i djed su prevareni da to rade. Despicable. Sramota. Tužan.

Uskoro ćemo ući u eru u kojoj će kloniranje glasa zasnovano na umjetnoj inteligenciji omogućiti na steroidima, ako jeste, pojavu prevara i prevara povezanih s glasom. AI će obaviti tako izvanredan posao replikacije glasa da će se onaj ko čuje glas zakleti da je stvarna osoba bila ta koja govori.

Koliko daleko to može ići?

Neki su zabrinuti da bi do puštanja recimo atomskog oružja i vojnih napada moglo doći ako neko koristi glasovni klon baziran na umjetnoj inteligenciji koji prevari druge da povjeruju da vojni oficir najvišeg nivoa izdaje direktnu komandu. Isto se može reći za bilo koga na bilo kojoj istaknutoj poziciji. Upotrijebite vrhunski precizan AI glasovni klon da natjerate bankarskog rukovodioca da oslobodi milione dolara u fondovima, čineći to na osnovu toga što su prevareni u uvjerenju da razgovaraju s klijentom banke.

U prošlim godinama, ovo sa AI ne bi nužno bilo uvjerljivo. U trenutku kada čovjek s druge strane telefona počne postavljati pitanja, AI bi trebao odstupiti od pripremljenog scenarija. U tom trenutku, kloniranje glasa bi se pogoršalo, ponekad i radikalno. Jedini način da se prevara nastavi bilo je da se razgovor vrati u scenario.

Sa vrstom AI koji danas imamo, uključujući napredak u obradi prirodnog jezika (NLP), možete odstupiti od skripte i potencijalno se čini da klon AI glasa govori na prirodan konverzacijski način (ovo nije uvijek slučaj, i još uvijek postoje načini da se AI isključi).

Prije nego što se upustimo u još malo mesa i krumpira o divljim i vunastim razmatranjima koja su u osnovi kloniranja glasa zasnovanog na umjetnoj inteligenciji, uspostavimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno na pojavu mašinskog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da se jedan od najglasnijih glasova ovih dana u polju AI, pa čak i izvan polja AI, sastoji od traženja većeg privida etičke AI. Hajde da pogledamo šta znači upućivanje na etiku veštačke inteligencije i etičku veštačku inteligenciju. Povrh toga, istražićemo na šta mislim kada govorim o mašinskom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne i proverljive metodologije, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Uvjerimo se i da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi.

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na kloniranje glasa zasnovano na umjetnoj inteligenciji.

Na nedavnoj konferenciji, prezentacija koju je održao Amazon imala je za cilj da prikaže poželjne prednosti kloniranja glasa zasnovanog na veštačkoj inteligenciji i istakne najnoviju vrhunsku veštačku inteligenciju koja se koristi u Alexi za unapređenje njenih mogućnosti. Prema novinskim izvještajima, pripremljen primjer koji je trebao biti dirljiv i optimističan sastojao se od toga da dijete zamoli Alexu da im baka završi čitanje priče o Carobnjak iz Oza. Publici je rečeno da je baka preminula i da je to sredstvo da se dijete suštinski ponovo poveže sa svojim dragim bakom i djedom. Sve je ovo očigledno bilo dio videa koji je Amazon sastavio kako bi pomogao u prikazivanju najnovijih otkrića u kloniranju glasa od strane Alexa razvojnog tima (uključujući funkcije koje još nisu formalno lansirane za javnu upotrebu).

Jedna reakcija na ovaj primjer je da bismo mogli biti prilično dirnuti što je dijete moglo ponovo čuti glas svoje bake. Pretpostavljamo da baka nije već snimila čitavo čitanje priče, tako da je kloniranje AI radilo posao da stvari izgledaju kao da baka sada čita čitavo.

Izvanredan i sjajan način da se ponovo povežete sa voljenima koji više nisu sa nama.

Nisu svi novinari i analitičari (plus Twitter) bili toliko skloni pozitivnom tumačenju ovog napretka. Neki su ovo označili kao potpuno jezivo. Rečeno je da je pokušaj da se ponovo stvori glas preminule voljene osobe čudan i pomalo bizaran poduhvat.

Mnogo je pitanja, kao što su:

  • Da li bi se dijete zbunilo i vjerovalo da je preminula voljena osoba još živa?
  • Može li se dijete sada navesti na neku neslanu šalu ili prevaru pod lažnim uvjerenjem da je baka još uvijek s nama?
  • Može li dijete patiti od slušanja o preminuloj voljenoj osobi i postati malodušno jer mu sada još jednom nedostaje baka i djed, kao da otvara već namirene emocionalne rane?
  • Da li će dete pomisliti da pokojnik može da govori sa druge strane, odnosno da mu iz groba govori taj mistični glas koji se čini da je upravo njegova baka?
  • Da li je moguće da će dijete misliti da je AI nekako utjelovila njegovu baku, antropomorfizirajući AI tako da će dijete odrasti vjerujući da AI može u potpunosti replicirati ljude?
  • Pretpostavimo da dijete postane toliko zaljubljeno u bakin glas repliciran umjetnom inteligencijom da dijete postane opsjednuto i koristi glas za sve vrste audio slušanja?
  • Može li prodavac koji replicira glas odlučiti da koristi taj glas za druge koji koriste isti cjelokupni sistem, čineći to bez izričitog odobrenja porodice i na taj način „profitirajući“ od osmišljenog glasa?
  • I tako dalje.

Važno je shvatiti da možete dočarati jednako negativno koliko i pozitivnog, ili da kažemo onoliko pozitivnog koliko i negativnog. U osnovi ovih napretka AI postoje kompromisi. Gledanje samo na jednu stranu novčića je možda kratkovidno.

Ključno je osigurati da sagledavamo sve strane ovih pitanja. Nemojte biti pomućeni u svojim razmišljanjima. Može biti lako istražiti samo pozitivne strane. Može biti lako istražiti samo negativne strane. Moramo ispitati i jedno i drugo i shvatiti šta se može učiniti kako bismo, nadamo se, iskoristili prednosti i nastojali smanjiti, eliminirati ili barem ublažiti negativne.

U određenoj mjeri, zato su etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Propisi etike umjetne inteligencije navode nas da ostanemo budni. Tehnolozi AI ponekad mogu postati zaokupljeni tehnologijom, posebno optimizacijom visoke tehnologije. Oni ne razmišljaju nužno o većim društvenim posljedicama. Imati etički način razmišljanja o umjetnoj inteligenciji i činiti to integralno za razvoj i primjenu umjetne inteligencije od vitalnog je značaja za proizvodnju odgovarajuće AI.

Osim korištenja etike umjetne inteligencije, postavlja se odgovarajuće pitanje da li bismo trebali imati zakone koji regulišu različite upotrebe AI, kao što su funkcije kloniranja glasa zasnovane na AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika umjetne inteligencije u najmanju ruku služi kao zaustavna granica.

Uz to, neki tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. U stvari, upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku zaustavljanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti. Pogledajte na primjer moju pokrivenost na link ovdje i link ovdje.

U ovom trenutku ove teške rasprave, kladim se da želite neke ilustrativne primjere koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojavljivanje pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o kloniranju glasa zasnovanom na umjetnoj inteligenciji, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Automobili koji se sami voze i kloniranje glasa zasnovano na umjetnoj inteligenciji

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću sada ispričati.

Hajde da nacrtamo scenario koji bi mogao da iskoristi kloniranje glasa zasnovano na veštačkoj inteligenciji.

Roditelj i njihovo dijete ulaze u samovozeći automobil baziran na umjetnoj inteligenciji. Odlaze u lokalnu trgovinu. Očekuje se da će ovo biti relativno bez događaja. Samo sedmična vožnja do prodavnice, iako je vozač AI sistem za vožnju i roditelj ne mora ništa da vozi.

Za roditelja, ovo je velika blagodat. Umjesto da se fokusiraju na upravljanje i bavljenje činom vožnje, roditelj umjesto toga može svoju pažnju posvetiti svom djetetu. Oni se mogu igrati zajedno u autonomnom vozilu i provoditi vrijeme cijenjene prirode. Dok bi roditelj obično bio ometen vožnjom, i vjerovatno bi postao uznemiren i nervozan dok bi se kretao prometnim ulicama i imao posla s drugim ludim vozačima u blizini, ovdje roditelj blaženo nije svjestan tih briga i isključivo uživa u interakciji sa svojim dragocjenim djetetom.

Roditelj razgovara sa AI sistemom za vožnju i kaže AI da ih odvede u trgovinu. U tipičnom scenariju, AI bi reagovao neutralnim audio izgovorom koji biste mogli dobro čuti preko današnje Alexa ili Siri. AI bi mogao odgovoriti navodeći da je trgovina 15 minuta vožnje udaljena. Osim toga, AI bi mogao navesti da će ih samovozeći automobil ostaviti na samom prednjem dijelu trgovine.

To bi mogla biti jedina glasovna aktivnost AI u takvom scenariju. Možda, kada se samovozeći automobil približi trgovini, AI bi mogao reći nešto o destinaciji koja se približava. Može postojati i glasovni podsjetnik da ponesete svoje stvari sa sobom dok izlazite iz autonomnog vozila.

Objasnio sam da će neki AI sistemi za vožnju biti takoreći brbljive mačke. Oni će biti programirani da tečnije i kontinuirano komuniciraju sa ljudskim jahačima. Kada uđete u vozilo za dijeljenje vožnje koje vozi čovjek, ponekad želite da vozač bude brbljiv. Osim pozdrava, možda biste željeli da vam kažu o lokalnim vremenskim uvjetima ili možda ukažu na druga mjesta koja treba vidjeti u lokalnom području. Neće svi htjeti brbljivu mačku, stoga bi umjetnu inteligenciju trebalo osmisliti tako da se uključi u dijalog samo kada to čovjek traži, pogledajte moje izvješće na link ovdje.

Sada kada imam sve uspostavljeno, hajde da promijenimo stvari na mali, ali značajan način.

Zamislite da sistem vožnje AI ima funkciju kloniranja glasa zasnovanu na AI. Pretpostavimo i da je roditelj prethodno pokrenuo kloniranje glasa pomoću umjetne inteligencije tako što je dao audio isječak djetetove bake. Iznenađenje, misli roditelj, dat ću AI sistem vožnje da govori kao da je djetetova pokojna baka.

Dok se vozite do prodavnice, AI sistem za vožnju komunicira sa roditeljem i djetetom, isključivo koristeći klonirani bakin glas cijelo vrijeme.

Šta mislite o ovome?

Jezivo ili nezaboravno?

Podignuću stvari. Spremiti se. Vežite sigurnosni pojas.

Neki vjeruju kao i ja da ćemo na kraju dozvoliti djeci da se sama voze u automobilima baziranim na umjetnoj inteligenciji, pogledajte moju analizu na link ovdje.

U današnjim automobilima kojima upravljaju ljudi, odrasla osoba mora uvijek biti prisutna jer zakon nalaže da za volanom bude odrasli vozač. Za sve praktične svrhe, nikada ne možete imati dijete u automobilu u pokretu koje je samo u vozilu (da, znam da se to dešava, kao što je istaknuti 10-godišnji sin velike filmske zvijezde koji je nedavno podržao veoma skup auto u drugi veoma skup auto, ali svejedno su to retkosti).

Današnji roditelji bi se vjerovatno žestoko protivili tome da svojoj djeci dopuštaju da se voze u automobilu koji se samostalno vozi u kojem nedostaje odrasla osoba koja služi kao nadzor ili čuva njihovu djecu. Znam da se to čini gotovo nemoguće zamisliti, ali kladim se da ćemo jednom kada samovozeći automobili prevladaju, neizbježno prihvatiti ideju da djeca budu bez odraslih dok se voze u samovozećem automobilu.

Uzmite u obzir faktor pogodnosti.

Na poslu ste i vaš šef vas progoni da obavite zadatak. Morate pokupiti svoje dijete iz škole i odvesti ga na trening bejzbola. Zaglavili ste između kamena i nakovnja jer previše udovoljavate svom šefu ili ne vodite svoje dijete na vježbalište. Niko drugi koga poznajete nije dostupan da preveze vaše dijete. Ako ništa drugo, sigurno ne želite da koristite uslugu dijeljenja vožnje koja ima ljudskog vozača, jer biste prirodno bili zabrinuti šta bi taj nepoznati odrasli mogao reći ili učiniti dok vozite svoje dijete.

Nema problema, nema brige, samo koristite samovozeći automobil baziran na umjetnoj inteligenciji. Daljinski usmjeravate samovozeći auto da ode po vaše dijete. Preko kamera samovozećeg automobila možete vidjeti i gledati svoje dijete kako ulazi u autonomno vozilo. Osim toga, tu su i kamere okrenute prema unutra i možete pratiti svoje dijete cijelo vrijeme vožnje. Ovo se čini bezbednim ako ne i sigurnijim nego da tražite od stranca čoveka da vam obezbedi prevoz za dete. Uzimajući to u obzir, neki su s pravom zabrinuti da ako se čin vožnje pokvari, imate dijete prepušteno samo sebi i nijednu odraslu osobu koja je odmah prisutna da pomogne djetetu ili da mu da smjernice.

Ostavljajući po strani brojne nedoumice, pretpostavimo da su isti roditelj i dijete koje sam opisao u prethodnom scenariju u redu s tim da dijete ide na vožnju bez prisustva roditelja. Samo prihvatite da je ovo na kraju izvodljiv scenario.

Evo finalnog udarca.

Svaki put kada se dijete vozi u samovozećem automobilu zasnovanom na umjetnoj inteligenciji, pozdravlja ga i stupa u interakciju s AI-om jer koristi kloniranje glasa zasnovano na AI-u i replicira glas djetetove preminule bake.

Šta mislite o tim jabukama?

Kada je i roditelj bio prisutan u automobilu koji se samostalno vozi, možda bismo mogli opravdati korištenje AI glasa jer je roditelj tu da savjetuje dijete o tome šta se dešava kada AI audio govori. Ali kada roditelj nije prisutan, sada pretpostavljamo da je dijete idilično dobro s babinim glasom.

Ovo je definitivno jedan od onih trenutaka pauze za ozbiljno razmišljanje o tome da li je ovo na ravnoteži dobro ili loše za dijete.

zaključak

Hajde da napravimo jedan misaoni eksperiment kako bismo razmislili o ovim važnim stvarima.

Molim vas smislite tri solidno pozitivan razlozi za kloniranje glasa zasnovano na umjetnoj inteligenciji.

Čekaću da ih smisliš.

Zatim, smislite tri solidno negativan razlozi koji potkopavaju pojavu kloniranja glasa zasnovanog na umjetnoj inteligenciji.

Pretpostavljam da ste smislili neke.

Shvaćam da nesumnjivo možete smisliti mnogo više razloga od samo tri koja ili favoriziraju ili ne favoriziraju ovu tehnologiju. Po vašem mišljenju, da li su negativne strane veće od pozitivnih? Postoje oni kritičari koji tvrde da bismo trebali staviti kiboš na takve napore.

Neki žele pokušati spriječiti firme da koriste kloniranje glasa bazirano na umjetnoj inteligenciji, iako shvaćaju da je ovo jedna od onih klasičnih nevolja. Svaka firma koju prestanete koristiti, velika je vjerojatnost da će neka druga firma početi da je koristi. Zamrzavanje sata ili skrivanje ove vrste AI biće gotovo nemoguće preduzeti.

U završnoj napomeni o ovoj temi za sada, zamislite šta bi se moglo dogoditi ako jednog dana možemo postići razumnu AI. Ne kažem da će se to dogoditi. U svakom slučaju možemo nagađati i vidjeti kuda bi to moglo dovesti.

Prvo razmislite o pronicljivom citatu o govoru i posedovanju glasa. Medlin Olbrajt je slavno rekla ovo: „Trebalo mi je dosta vremena da razvijem glas, a sada kada ga imam, neću da ćutim.”

Ako smo u stanju da proizvedemo razumnu AI, ili se na neki način osjetilo javlja čak i ako ga direktno ne donesemo, kakav glas ta AI treba da ima? Pretpostavimo da može koristiti svoje kloniranje glasa zasnovano na umjetnoj inteligenciji i ergo proizvesti bilo koji glas bilo kojeg čovjeka putem nekog malenog isječka audio uzorkovanja koji bi mogao biti dostupan kako ga izgovori taj čovjek. Takav AI bi tada mogao progovoriti i prevariti vas da povjerujete da je AI naizgled ta osoba.

A opet, možda će AI poželjeti imati svoj glas i namjerno osmisliti glas potpuno drugačiji od svih drugih ljudskih glasova, želeći da bude poseban na svoj šarmantan način.

Zaboga, ovo ostavlja skoro bez teksta.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- namijenjen-za-upotrebu-u-ai-autonomnim-sistemima/