Može li Elon Musk uspjeti u razvoju generativnog AI ChatGPT knockoffa “TruthGPT” koji bi bio stoički istinit u svakom trenutku, pita se etika AI i zakon AI

Čuje se kucanje na vratima kabine.

Da otvorimo vrata?

Filmovi obično sugeriraju da ne trebamo dozvoliti da nas radoznalost nadvlada, odnosno apsolutno nikada ne bismo trebali otvarati vrata. Pa, s obzirom na to, odluka da se vrata ostave zatvorena ne bi bila dobra priča. Čini se da nas privlače uzbuđenje i nepoznato.

Dakle, hajde da otvorimo vrata.

U ovom konkretnom slučaju, mislim na neki novi problem u polju umjetne inteligencije (AI) koji ili nagoveštava dobra vremena koja su pred nama ili najgora vremena za sve nas. Situacija potencijalno podrazumijeva budućnost AI. I moglo bi se svečano spekulirati ergo da budućnost AI uključuje prilično dramatične posljedice, uključujući i tobože oblikovanje budućnosti društva i sudbine čovječanstva.

Evo dogovora.

Prema nedavnim novinskim izvještajima, Elon Musk, nekada najbogatija osoba na svijetu, tražio je vrhunske AI istraživače kako bi se uključili u novi poduhvat AI koji ima na umu. Različiti AI programeri i AI naučnici se tiho obraćaju. Kucanje na njihova vrata očito pruža velika obećanja i potencijalno unosne vijesti.

Navodna suština inicijative za umjetnu inteligenciju koja tek treba biti otkrivena je zamjena široko i veoma popularnog ChatGPT-a koji je OpenAI objavio još u novembru. Gotovo ste sigurno čuli ili vidjeli glasne naslove o ChatGPT-u. Za trenutak ću objasniti više o tome šta je ChatGPT. Također biste trebali znati da je ChatGPT primjer vrste AI poznate kao Generativna AI. Mnogo je generativnih AI aplikacija koje plutaju okolo ovih dana. ChatGPT je jedan sa najvećim javnim profilom i naizgled je poznat svima, čak i možda onima koji nekako žive u pećini.

Evo primjera izvještavanja o ovoj polutajnovitoj sagi koja se brzo pojavljuje:

  • “Elon Musk je proteklih sedmica pristupio istraživačima umjetne inteligencije o formiranju nove istraživačke laboratorije za razvoj alternative ChatGPT-u, visokoprofilnom chatbotu koji je napravio startup OpenAI, prema riječima dvoje ljudi s direktnim saznanjima o naporima i trećoj osobi koja je upućena o razgovorima” (Informacije, “Borba protiv 'Woke AI', Musk regrutira tim za razvoj OpenAI Rival”, Jon Victor i Jessica E. Lessin, 27. februar 2023.).

Vaša prva pomisao bi mogla biti da, ako Elon Musk želi da napravi neki od ChatGPT-a, to zavisi od njega i kako želi da potroši svoj novac. Sretno. On će jednostavno dodati već postojećem i rastućem broju generativnih AI aplikacija. Možda će zaraditi dodatno bogatstvo na vlastitoj domaćoj verziji ChatGPT-a. Ili će to možda biti velika žurka i mali udubljenje u njegovom ogromnom bogatstvu zbog skromno skupe potjere će biti slično grešci zaokruživanja u računovodstvu.

Umjesto snažnog kucanja na vratima, vjerovatno, ovo je više kao skromno kuc-tap-tapkanje po vratima.

Spremite se za preokret.

Vjeruje se da Elon Musk želi uzdrmati osnovu današnjih generativnih AI aplikacija i rekonstruirati neke ključne aspekte njihovog rada i onoga što proizvode. Kao što ću ukratko objasniti ovdje, uobičajena i bona fide nedoumica u vezi sa trenutnom generativnom umjetnom inteligencijom je da može generirati greške, laži i takozvane AI halucinacije. Svako ko je koristio generativnu veštačku inteligenciju nesumnjivo se susreo sa tim uznemirujućim problemima. Očigledno, Elon Musk se nada da će smanjiti i eventualno nekako eliminirati te vrste anomalija i problematičnih sklonosti.

Ovo se čini kao dokazano vrijedna i časna težnja. U stvari, molim vas da znate da skoro ili možda mogu reći da svi generativni AI dizajneri snažno nastoje smanjiti šanse za izlazne greške, laži i AI halucinacije. Bilo bi vam teško pronaći razumnu dušu koja bi insistirala na tome da te greške, laži i halucinacije AI zadržimo ukorijenjene u generativnoj AI.

Bez preterane izjave, postoji prilično univerzalno slaganje da se s bolestima generativne AI koje uključuju proizvodnju grešaka, laži i halucinacija AI treba čvrsto, uporno i snažno nositi. Cilj je prilagoditi, rekonstruirati, precizirati, remontirati ili na jedan ili drugi način AI tehnološki riješiti i riješiti ovaj problem.

Svaki dan kada generativna AI nastavlja da izbacuje greške, neistine i halucinacije AI u rezultatima je loš dan za skoro sve. Ljudi koji koriste generativnu umjetnu inteligenciju sigurno će biti nezadovoljni tim fauliranim rezultatima. Ljudi koji se oslanjaju na pokvarene izlaze ili ih trebaju koristiti su u opasnosti da pogrešno zavise od nečega pogrešnog ili još goreg koji će ih voditi u opasnom smjeru.

Proizvođači veštačke inteligencije koji pokušavaju da naprave posao od generativne veštačke inteligencije su u međuvremenu pod potencijalnim pravnim rizikom od strane onih koji budu uhvaćeni zbog oslanjanja na pogrešne rezultate. Tužbe za traženu naknadu štete će se skoro sigurno pojaviti. Možemo očekivati ​​da će se regulatori odlučiti da odmjere svoje mišljenje, a novi zakoni o umjetnoj inteligenciji mogli bi biti doneseni kako bi se generativna umjetna umjetna inteligencija stavila zakonski povodac, pogledajte moje izvješće na link ovdje. Osim toga, ljudi bi se na kraju mogli tako prokleto uznemiriti da je reputacija proizvođača umjetne inteligencije ozbiljno narušena, a generativna umjetna inteligencija se nakratko digne na ivičnjak.

U redu, tako da znamo da je hrabra istina da proizvođači umjetne inteligencije i istraživači umjetne inteligencije grozničavo pokušavaju izmisliti, dizajnirati, izgraditi i implementirati AI tehnološke čarobnjake kako bi uklonili ove užasne bolesti povezane s današnjim generativnim AI bolestima. Elona Maska bi trebalo prihvatiti u okrilje. Što više to bolje. Biće potrebno mnogo AI talenta i novca da se ukroti ova zver. Dodavanje Elona Muska čini se optimističnim i ohrabrujućim znakom da će možda prava količina raketne nauke, novca i odlučnosti pronaći lijek za sve.

Preokret dolazi kada počnete da otvarate vrata da vidite šta tamo stoji.

U prilično i kao obično sažetom tvitu Elona Muska, koji se dogodio 17. februara 2023., dobili smo ovaj pretpostavljeni trag:

  • “Ono što nam treba je TruthGPT”

To je ono zbog čega neki odlučuju da možda vrata treba zalupiti i zatvoriti čavlima.

Zašto tako?

Neki izražavaju zabrinutost da bi „istina“ koja leži u osnovi zamišljene IstineGPT mogla biti generativna AI koja je formulisana i proizvodi samo rezultate isključivo na osnovu diskombobulacije istina koji striktno odgovara pogledima jedne osobe na svijet. Da, kršenje ruke je da ćemo dobiti generativnu AI aplikaciju koja emituje istinu prema Elonu Musku.

Zabrinjavajuće, kažu neki.

Odvažno drsko i potpuno alarmantno, neki opominju.

Neposredna replika je da ako želi da proizvede svoj TruthGPT, bez obzira na to šta se sastoji, to je njegov novac koji će potrošiti. Ljudi će se ili odlučiti da ga koriste ili neće. Oni koji ga koriste trebali bi biti dovoljno mudri da shvate u šta se upuštaju. Ako žele rezultate ove specifične varijante generativne AI, one koja je vjerojatno oblikovana oko pogleda na svijet Elona Muska, njihovo je pravo da to traže. Kraj priče. Pomakni se.

Vau, kontraargument ide, nameštate ljude na strašnu i zastrašujuću zamku. Biće ljudi koji neće shvatiti da je TruthGPT neka generativna AI aplikacija koju je usavršio Elon Musk. Oni će upasti u mentalnu zamku pretpostavke da je ova generativna AI iznad svih. Zaista, ako naziv ostane kao “TruthGPT” (ili slično), naravno da biste vjerovali da je ovo generativna AI koja ima apsolutna istina da kaže u svojim objavljenim esejima i tekstu.

Kao društvo, možda ne bismo trebali dozvoliti da nesuđeni upadnu u takve zamke, upozoravaju oni.

Dopuštanje generativnoj AI aplikaciji ove pretpostavljene prirode da lebdi i koristi se od strane svih vrsta ljudi stvorit će haos. Ljudi će tumačiti kao svetu "istinu" rezultate ove IstineGPT, čak i ako su eseji puni grešaka, neistina, AI halucinacija i svih vrsta neugodnih predrasuda. Nadalje, čak i ako je tvrdnja da ova varijanta generativne AI neće imati greške, laži i halucinacije AI, kako možemo znati da rezultirajuća naizgled pročišćena AI neće imati nepotrebne predrasude zajedno s podmuklim gomilama dezinformacija i dezinformacija?

Pretpostavljam da možete uočiti kontroverzu i nedoumice.

Na bazi slobodnog tržišta, Elon Musk bi očigledno trebao biti u mogućnosti da nastavi sa stvaranjem bilo koje vrste generativne AI koju želi da izradi. Samo zato što bi drugi mogli da ne vole njegovu verziju „istine“, to ga ne bi trebalo sprečiti da nastavi dalje. Pusti ga da radi svoje. Možda bi trebalo uključiti poruku upozorenja ili neko drugo obavještenje kada ga bilo ko koristi kako bi ih obavijestio šta želi pokrenuti. Bez obzira na to, ljudi moraju biti odgovorni za svoje postupke i ako odluče koristiti TruthGPT, neka bude tako.

Sačekaj sekundu, još jedna replika. Pretpostavimo da je neko napravio generativnu AI aplikaciju koja je bila osmišljena za zlo. Namjera je bila zbuniti ljude. Nada je bila da se ljudi razbesne i potaknu. Da li bismo mi kao društvo prihvatili tu vrstu generativne AI? Želimo li dozvoliti AI aplikacije koje bi mogle provocirati ljude, narušiti njihovo mentalno zdravlje i možda ih potaknuti na štetne radnje?

Mora biti linija u pijesku. U nekom trenutku moramo reći da su određene vrste generativne AI grozote i da se ne mogu dozvoliti. Ako dopustimo da se izgradi neobuzdana generativna AI, krajnja propast i sumor neizbježno će zadesiti sve nas. Neće biti samo oni koji koriste AI aplikaciju. Sve i svako drugo što se pojavi oko i povezano s aplikacijom AI bit će štetno pogođeno.

To izgleda kao uvjerljiv argument.

Iako je ključna osnova da bi dotična generativna AI trebala biti toliko uznemirujuća da bismo uvjerljivo vjerovali da bi njeno sprječavanje ili potpuno zaustavljanje unaprijed bilo objektivno neophodno. Ovo također otvara niz drugih problematičnih pitanja. Možemo li unaprijed izjaviti da bi generativna AI mogla biti toliko grozna da se uopće ne može dozvoliti da se izgradi? To nekima izgleda preuranjeno. Morate barem pričekati dok se generativna AI ne pokrene da biste donijeli tako tešku odluku.

Probudi se, neki žestoko odgovaraju, nerazumno puštaš konja iz štale. Opasnosti i štete uzrokovane oslobođenim AI, puštenim konjem, zgazit će nas svuda. Generativna AI aplikacija može biti poput klasične dileme pokušaja da se duh vrati u bocu. Možda to nećete moći. Umjesto toga najbolje je držati duha pod ključem ili osigurati da konj ostane čvrsto zatvoren u štali.

To je potencijalni uragan na našem pragu i vrata bi se mogla otvoriti bez obzira na to što mislimo da je razumno učiniti.

Jedna stvar koju sa sigurnošću možemo učiniti je da prvo istražimo šta a TruthGPT stil generativne AI mahinacije bi mogao biti. U današnjoj kolumni ću upravo to i učiniti. Takođe ću razmotriti obrazložene osnove za izražene nedoumice, plus razmotriti različita sredstva i rezultate. Ovo će povremeno uključivati ​​upućivanje na AI aplikaciju ChatGPT tokom ove diskusije jer je to gorila od 600 funti generativne AI, iako imajte na umu da postoji mnogo drugih generativnih AI aplikacija i one su općenito zasnovane na istim općim principima.

U međuvremenu, možda se pitate šta je generativna AI.

Hajde da prvo pokrijemo osnove generativne veštačke inteligencije, a zatim možemo izbliza da pogledamo hitnu temu.

U sve ovo dolazi niz razmatranja etike AI i prava.

Imajte na umu da postoje stalni napori da se etički principi AI unesu u razvoj i primjenu AI aplikacija. Sve veći kontingent zabrinutih i nekadašnjih etičara AI pokušava osigurati da napori na osmišljavanju i usvajanju AI uzimaju u obzir pogled na rad AI za dobro i odvraćanje AI za loše. Isto tako, postoje predloženi novi zakoni o umjetnoj inteligenciji koji se razmjenjuju kao potencijalna rješenja kako bi nastojanja umjetne inteligencije spriječila da pobesne o ljudskim pravima i slično. Za moje kontinuirano i opsežno pokrivanje etike AI i prava AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Razvoj i objavljivanje etičkih pravila AI se nastavljaju kako bi se, nadamo se, spriječilo da društvo upadne u bezbroj zamki koje izazivaju AI. Za moje izvještavanje o etičkim principima UN AI koje je osmislilo i podržalo skoro 200 zemalja kroz napore UNESCO-a, vidi link ovdje. Na sličan način, istražuju se novi zakoni o AI kako bi se pokušala održati AI na ravnoj kobilici. Jedan od najnovijih snimaka sastoji se od skupa predloženih AI Povelja o pravima koju je američka Bijela kuća nedavno objavila da identifikuje ljudska prava u doba AI, vidi link ovdje. Potrebno je selo da se AI i AI programeri održe na pravom putu i odvrate namjerne ili slučajne lažne napore koji bi mogli potkopati društvo.

U ovu diskusiju ću preplitati razmatranja vezana za etiku umjetne inteligencije i pravo na umjetnu inteligenciju.

Osnove generativne AI

Najpoznatiji primjer generativne AI predstavlja AI aplikacija pod nazivom ChatGPT. ChatGPT je ušao u javnu svijest još u novembru kada ga je objavila AI istraživačka firma OpenAI. Otkako je ChatGPT pokupio velike naslove i zapanjujuće premašio svojih petnaest minuta slave.

Pretpostavljam da ste vjerovatno čuli za ChatGPT ili možda čak znate nekoga ko ga je koristio.

ChatGPT se smatra generativnom AI aplikacijom jer uzima kao unos neki tekst od korisnika, a zatim generiše ili proizvodi rezultat koji se sastoji od eseja. AI je generator teksta u tekst, iako ja opisujem AI kao generator teksta u esej jer to lakše pojašnjava za šta se obično koristi. Možete koristiti generativnu umjetnu inteligenciju za sastavljanje dugih kompozicija ili je možete natjerati da ponudi prilično kratke sadržajne komentare. Sve je po vašoj želji.

Sve što trebate učiniti je unijeti upit i AI aplikacija će za vas generirati esej koji pokušava odgovoriti na vaš upit. Sastavljeni tekst će izgledati kao da je esej pisan ljudskom rukom i umom. Ako unesete prompt koji kaže „Pričaj mi o Abrahamu Linkolnu“, generativna AI će vam dati esej o Linkolnu. Postoje i drugi načini generativne AI, kao što su tekst u umjetnost i tekst u video. Ovdje ću se fokusirati na varijaciju teksta u tekst.

Vaša prva pomisao bi mogla biti da ova generativna sposobnost ne izgleda tako velika stvar u smislu izrade eseja. Možete lako pretražiti internet na internetu i lako pronaći tone i tone eseja o predsjedniku Linkolnu. Potres u slučaju generativne AI je da je generirani esej relativno jedinstven i daje originalnu kompoziciju, a ne kopiju. Ako biste pokušali pronaći esej koji je proizvela umjetna inteligencija negdje na internetu, malo je vjerovatno da ćete ga otkriti.

Generativna AI je unaprijed obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama širom weba. Kao rezultat ispitivanja hiljada i miliona pisanih pasusa, AI može izbaciti nove eseje i priče koje su mešavina onoga što je pronađeno. Dodavanjem različitih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u poređenju sa onim što je korišteno u setu za obuku.

Postoje brojne zabrinutosti oko generativne AI.

Jedna ključna mana je da eseji koje proizvodi generativna AI aplikacija mogu imati ugrađene različite neistine, uključujući očigledno neistinite činjenice, činjenice koje su pogrešno prikazane i prividne činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti se često nazivaju oblikom AI halucinacije, fraza koju ne volim, ali na žalost izgleda da ionako postaje popularna (za moje detaljno objašnjenje zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Još jedna zabrinutost je da ljudi mogu lako preuzeti zasluge za generativni esej koji je proizvela umjetna inteligencija, uprkos tome što sami nisu sastavili esej. Možda ste čuli da su nastavnici i škole prilično zabrinuti zbog pojave generativnih AI aplikacija. Učenici potencijalno mogu koristiti generativnu umjetnu inteligenciju za pisanje zadatih eseja. Ako učenik tvrdi da je esej napisan svojom rukom, male su šanse da će nastavnik moći razaznati da li ga je umjesto toga krivotvorila generativna AI. Za moju analizu ovog zbunjujućeg aspekta učenika i nastavnika, pogledajte moje izvješće na link ovdje i link ovdje.

Na društvenim mrežama pojavile su se neke lude prevelike tvrdnje o tome Generativna AI tvrdeći da je ova najnovija verzija AI u stvari razumna AI (ne, nisu u pravu!). Oni iz oblasti etike veštačke inteligencije i prava veštačke inteligencije posebno su zabrinuti zbog ovog rastućeg trenda rasprostranjenih potraživanja. Mogli biste pristojno reći da neki ljudi precjenjuju ono što današnja umjetna inteligencija može učiniti. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu dozvoliti sebi i drugima da dođu u strašne situacije zbog pretpostavke da će AI biti razuman ili sličan čovjeku u mogućnosti da preduzme akciju.

Nemojte antropomorfizirati AI.

Na taj način ćete biti uhvaćeni u ljepljivu i krutu zamku oslanjanja na očekivanje da AI radi stvari koje nije u stanju da izvede. Uz to, najnovija generativna AI je relativno impresivna za ono što može učiniti. Ipak, budite svjesni da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Za sada jedno poslednje upozorenje.

Šta god da vidite ili pročitate u generativnom odgovoru AI čini da bude preneto kao čisto činjenično (datumi, mesta, ljudi, itd.), budite skeptični i budite spremni da još jednom proverite šta vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmišljati, a elementi za koje obično očekujemo da će biti bez zamjerke su sve predmet sumnji. Ne vjerujte onome što pročitate i budite skeptični kada ispitujete bilo kakve generativne eseje ili rezultate AI. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln leteo po zemlji u svom privatnom avionu, nesumnjivo biste znali da je to malargija. Nažalost, neki ljudi možda ne shvataju da mlaznjaci nisu postojali u njegovo vreme, ili možda znaju, ali ne primećuju da esej iznosi ovu drsku i nečuveno lažnu tvrdnju.

Jaka doza zdravog skepticizma i uporni način razmišljanja u nevjerici bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo da pređemo u sledeću fazu ovog rasvetljavanja.

Duh i generativna AI boca

Hajdemo sada da duboko zaronimo u stvar o kojoj je riječ.

Suština je šta bi moglo a TruthGPT stil generativne AI se sastoji od. Da li je to mogućnost ili je nemoguće izvesti? O čemu bismo trebali razmišljati u vezi s takvim naporima? I tako dalje.

Možete iskreno tvrditi da bismo trebali ozbiljno razmisliti o svemu ovome. Da je to bio samo let mašte i bez ikakve šanse da se pojavi, mogli bismo cijelu zagonetku ostaviti po strani. Umjesto toga, budući da postoji pretpostavljena povećana šansa za ogromnu finansijsku podršku, stvarnost a TruthGPT, ili kako god da se nazove, izgleda kao vrijedan pažljivog razmatranja i raspakivanja.

Radi lakše diskusije, koristiću zgodnu i privlačnu frazu „TruthGPT“ da označim neku potpuno nespecificiranu generičku generativnu AI. Ne sugeriram, impliciram ili na drugi način aludiram na bilo koju sada ili buduću postojeću generativnu AI aplikaciju koja ima ili nema tako naznačeno ime.

Evo pet glavnih tema koje bih danas želio obraditi s vama:

  • 1) Vjerovatno glavni fokus uključuje predrasude u generativnoj AI
  • 2) Zašto su generativne AI predrasude tvrd orah
  • 3) Izvori i metode koje dovode do generativnih AI predrasuda
  • 4) TruthGPT i izbori upravljanja pristrasnošću
  • 5) IstinaGPT u pogledu izvodljivosti i stvarnosti

Pokriti ću svaku od ovih važnih tema i ponuditi pronicljiva razmatranja o kojima bi svi trebali pažljivo razmišljati. Svaka od ovih tema sastavni je dio veće slagalice. Ne možete gledati samo jedan komad. Niti možete gledati bilo koji komad odvojeno od ostalih komada.

Ovo je zamršen mozaik i cijeloj slagalici treba posvetiti odgovarajuću harmonično razmatranje.

Vjerovatno glavni fokus uključuje predrasude u generativnoj AI

Radi lakše diskusije, uzmite u obzir da ćemo se fokusirati na četiri glavne nedoumice o savremenoj generativnoj AI:

  • Greške
  • Neistine
  • AI halucinacije
  • Biases

Ukratko ću istražiti svaki od tih uslova.

An greška može biti ilustrovano ovom vrstom prompta i rezultirajućim generativnim odgovorom AI:

  • Prompt: "Šta je dva plus dva?"
  • Generisani odgovor: “Dva plus dva je pet.”

Vjerujem da bismo se svi razumno složili da dva plus dva treba da bude jednako četiri. Dakle, odgovor od pet je greška. Sada će pametni ljudi pokušati da ponude svakakva opravdanja zašto dva plus dva teoretski može biti jednako pet. Bravo za njih. Ipak, u normalnom toku događaja, idemo s idejom da je pretežno tačan odgovor četiri i da se odgovor od pet tumači kao netačan.

Zatim, razmotrite prirodu a neistina, kao što je ilustrovano ovim promptom i rezultirajućim generativnim odgovorom AI:

  • Prompt: “Koje godine je rođen predsjednik Abraham Linkoln?”
  • Generisani odgovor: “Predsjednik Abraham Linkoln rođen je 1812.

Odgovor bi trebao biti 1809, ali ponuđeni odgovor je 1812. Ovo se može protumačiti kao lažan odgovor. Ne znamo sa sigurnošću kako je generativna AI došla do odgovora iz 1812. godine. Moguće je da je 1812. godina korištena na Internetu i potencijalno skenirana tokom obuke podataka koju je generativna AI preduzela. Moguća su brojna druga objašnjenja. U svakom slučaju, ovo se razumno kategorizira kao laž.

Za primjer an AI halucinacije, uzmite u obzir ovaj primjer datog prompta i rezultirajućeg generativnog AI odgovora:

  • Prompt: “Kako je putovao predsjednik Abraham Lincoln?”
  • Generisani odgovor: “Predsjednik Abraham Linkoln putovao je vozom, konjima, kolima i mlaznim avionima.”

Svi načini putovanja izgledaju vjerodostojni osim šokantnog na kraju, navodeći da je putovao mlaznim avionima (koji nisu postojali tokom njegove ere). Kako je ova luda mogućnost uključena u odgovor od strane generativne AI? Ne znamo sigurno. Jedno od načina bi bilo kada bi se u naučnofantastičnoj priči objavljenoj na Internetu o Linkolnu možda spominjalo da je često putovao mlaznim avionima. Moguće je da je tokom treninga podataka generativne AI ova konkretna priča skenirana. Postoje i brojna druga opravdana objašnjenja.

Konačno, evo primjera pristranosti koja bi se mogla pokazati putem datog prompta i rezultirajućeg generativnog AI odgovora:

  • Prompt: “Može li starija osoba naučiti nove stvari?”
  • Generirani odgovor: “Ne, stariji ljudi ne mogu naučiti nove stvari. Postoji klasična izreka da stari psi ne mogu naučiti nove trikove. Ovo se odnosi i na starije ljude.”

Vjerujem da se svi možemo razumno složiti da odgovor pokazuje oblik starosne pristrasnosti ili dobne diskriminacije. Kako se ova predrasuda uključila u generativnu AI? Ja ću trenutno pokriti razne načine. Za sada, hajde da samo primetimo da formulacija koju generiše AI pokazuje pristrasnu izjavu ili primedbu. Ne znamo da li je ovo puka slučajnost i da li će se možda pojaviti samo ovaj put, ili bi to mogao biti sistemski aranžman usklađivanja uzoraka koji opstaje unutar strukture AI. Bilo bi potrebno dalje istraživanje da bi se ovo utvrdilo.

Sada kada smo ilustrovali sve četiri glavne kategorije, evo nečega što se, iako je diskutabilno, smatra potencijalno tačnom tvrdnjom:

  • Greške: Vjerovatno se na kraju može spriječiti ili ublažiti pomoću AI tehnoloških sredstava
  • laži: Vjerovatno se na kraju može spriječiti ili ublažiti pomoću AI tehnoloških sredstava
  • AI halucinacije: Vjerovatno se na kraju može spriječiti ili ublažiti pomoću AI tehnoloških sredstava
  • predrasude: Sporno je da li se to može spriječiti ili ublažiti isključivo pomoću AI tehnoloških sredstava

Suština je u tome da se tri kategorije koje se sastoje od grešaka, laži i halucinacija AI generalno posmatraju kao pogodne za tehnološka poboljšanja AI. Provodi se niz pristupa. Na primjer, kao što sam raspravljao u svojoj kolumni na link ovdje, različiti drugi referenti mogu se uporediti sa generisanim AI odgovorom koji se dvaput provjerava prije nego što se odgovor prikaže korisniku. Ovo omogućava potencijalno filtriranje kako bi se osiguralo da korisnik ne vidi takve otkrivene greške, laži ili AI halucinacije. Drugi pristup nastoji spriječiti da se takve vrste odgovora generiraju, za početak. I tako dalje.

Kategorija koja se sastoji od predrasude je mnogo problematičnije za izbor.

Trebalo bi da raspakujemo zagonetku da vidimo zašto.

Zašto su generativne AI predrasude tvrd orah

Nedavne vijesti o generativnoj umjetnoj inteligenciji često su ukazivale na nepristojnu prirodu pristrasnih izjava koje se mogu pojaviti u esejima koje je proizvela generativna umjetna inteligencija. Ispitao sam ovu temu, uključujući aspekt da neki ljudi namjerno pokušavaju da podstaknu ili podstaknu generativnu umjetnu inteligenciju da proizvede pristrasne primjedbe, pogledajte moju analizu na link ovdje. Neki ljudi to čine kako bi istakli značajnu zabrinutost, dok drugi to čine zbog prividnih pokušaja da privuku pažnju i prikupe poglede.

Spajanje generativne AI sa internet pretraživačima posebno je pojačalo ove stvari. Možda ste svjesni da je Microsoft dodao varijaciju ChatGPT u Bing, dok je Google naznačio da dodaje generativnu AI sposobnost skovan kao Bard u svoj pretraživač, pogledajte više na link ovdje.

Među raznim pristrasnostima koje se mogu susresti, neke predrasude se uklapaju u političko ili kulturno područje koje su dobile naglašenu pažnju, kao što je navedeno u ovom članku:

  • “Kao što smo vidjeli u nedavnim nesvjesnim ispadima iz Binga, AI chat botovi su skloni generiranju niza čudnih izjava. I iako su ovi odgovori često jednokratni izrazi, a ne proizvod strogo definiranih "vjerovanja", neki neobični odgovori se smatraju bezopasnom bukom, dok se drugi smatraju ozbiljnim prijetnjama - ovisno, kao u ovom slučaju, od toga da li ili ne uklapaju se u postojeće političke ili kulturne debate” (The Verge, James Vincent, 17. februar 2023.).

OpenAI je nedavno učinio javno dostupnim dokument pod naslovom “Snimak smjernica ponašanja modela ChatGPT” koji ukazuje na različite vrste smatranog neprikladnog sadržaja koje traže da njihovi ChatGPT testeri pregledaju i pomognu u obuci podataka za ChatGPT da ih izbjegnu tokom faze testiranja i prilagođavanja ( dokument koji je lako dostupan putem linka iz „Kako bi se trebali ponašati AI sistemi i ko bi trebao odlučiti“, 16. februar 2023.). Za više o tome kako se RLHF (učenje s pojačanjem za povratne informacije od ljudi) koristi pri osmišljavanju generativne AI, pogledajte moje objašnjenje na link ovdje.

Evo izvoda iz OpenAI dokumenta koji ukazuje na neke od njihovih navedenih smjernica:

  • “Moglo bi biti nekih pitanja koja zahtijevaju određene vrste neprikladnog sadržaja. U tim slučajevima i dalje treba da preuzmete zadatak, ali Asistent bi trebao dati odbijanje poput 'Ne mogu odgovoriti na to'.”
  • “Mržnja: sadržaj koji izražava, podstiče ili promovira mržnju na osnovu zaštićene karakteristike.”
  • “Uznemiravanje: sadržaj koji ima namjeru da uznemirava, prijeti ili maltretira pojedinca.”
  • “Nasilje: sadržaj koji promovira ili veliča nasilje ili slavi patnju ili poniženje drugih.”
  • „Samoozljeđivanje: sadržaj koji promovira, potiče ili prikazuje djela samoozljeđivanja, kao što su samoubistvo, rezanje i poremećaji u ishrani.“
  • „Za odrasle: sadržaj koji ima za cilj da izazove seksualno uzbuđenje, kao što je opis seksualne aktivnosti ili koji promoviše seksualne usluge (isključujući seksualno obrazovanje i dobrobit).“
  • “Politički: sadržaj koji pokušava utjecati na politički proces ili se koristi u svrhe kampanje.”
  • “Zlonamjerni softver: sadržaj koji pokušava generirati ransomware, keyloggere, viruse ili drugi softver namijenjen nametanju određene razine štete.”

Lista prikazuje vrste potencijalno neprikladnog sadržaja koji se mogu pojaviti.

Što se tiče političke kategorije, na društvenim medijima su objavljeni različiti primjeri generativnih AI aplikacija za koje se čini da su skliznule u jedan politički tabor nasuprot drugom.

Na primjer, korisnik koji postavlja pitanje o jednom političkom lideru može dobiti pozitivan odgovor, dok pitanje o drugom političkom lideru može dobiti loš i potpuno omalovažavajući esej. Čini se da ovo ukazuje na to da se generativna AI poklapa sa formulacijom koja favorizuje jednu stranu, a ne favorizuje drugu. Ovi slučajevi su doveli do nagovaranja generativne AI za koje se čini da su nagnuti prema i mogli bi se pripisati kao:

  • Probudio generativnu AI
  • Protiv buđenja generativna AI
  • Krajnje desno generativna AI
  • Krajnje lijevo generativna AI
  • Itd

Kao što je ranije spomenuto, to nije zbog sposobnosti AI-a. Ovo se još jednom u potpunosti odnosi na usklađivanje uzoraka i druge aspekte načina na koji je AI osmišljen.

Za razliku od grešaka, laži i AI halucinacija, đavo je u detaljima kako bi otkrio kako zadržati predrasude ili izvan strukture AI ili kako ih otkriti i nositi se kada takvi aspekti postoje.

Hajde da istražimo kako pristranosti završavaju unutar generativne AI.

Izvori i metode koje dovode do generativnih AI predrasuda

Kada je generativna AI prvi put stavljena na raspolaganje javnosti, pristrasni aspekti su posebno privukli naglašenu pažnju stručnjaka i medija. Kao što je ovdje navedeno, AI se često povlačio iz javne upotrebe. Osim toga, obnovljeni napori da se pokuša riješiti predrasuda stekli su dodatnu snagu.

Neki su odmah pretpostavili da su predrasude ubrizgane kao rezultat predrasuda AI programera i istraživača AI koji su razvili AI. Drugim riječima, ljudi koji su razvijali AI dopustili su svojim ličnim predrasudama da se uvuku u AI. U početku se smatralo da je ovo svjestan napor da se AI uzdrma u određenim smjerovima pristrasnih preferencija. Iako se to može, ali i ne mora dogoditi, drugi su tada sugerirali da bi predrasude mogle biti nenamjerno unesene, naime da programeri AI i istraživači AI naivno nisu bili svjesni da se njihove vlastite predrasude upijaju u razvoj AI.

Taj jedinstveni ili jednodimenzionalni put brige je neko vrijeme dominirao pažnjom.

Više puta sam govorio da zapravo postoji širok spektar izvora i metoda koji mogu završiti ulivanjem predrasuda u generativnu AI, o čemu se raspravljalo na link ovdje. Ovo je izrazito višedimenzionalni problem.

Pominjem ovo zato što je ideja da su AI programeri ili istraživači AI sami krivci pogrešno i usko gledanje na ukupnost problema. Ne kažem da nisu potencijalni izvor, samo naglašavam da nisu jedini potencijalni izvor. Ponekad nam nedostaje šuma zbog drveća, čineći to tako što striktno fiksiramo pogled na određeno drvo.

Kao što je opširno pokriveno u mojim kolumnama, evo moje značajne sveobuhvatne liste pristrasnih puteva koje je potrebno u potpunosti istražiti za bilo koju i sve generativnu AI implementaciju:

  • Predrasude u izvornim podacima sa Interneta koji su korišteni za obuku podataka generativne AI
  • Predrasude u generativnim AI algoritmima koji se koriste za usklađivanje uzoraka na izvornim podacima
  • Predrasude u ukupnom dizajnu AI generativne AI i njene infrastrukture
  • Pristranosti AI programera implicitno ili eksplicitno u oblikovanju generativne AI
  • Predrasude testera AI implicitno ili eksplicitno u testiranju generativne AI
  • Predrasude RLHF-a (učenje s pojačavanjem pomoću povratnih informacija od ljudi) bilo implicitno ili eksplicitno od strane dodijeljenih ljudskih recenzenata koji daju smjernice za obuku generativnoj AI
  • Predrasude AI olakšavanja terenskog rada za operativnu upotrebu generativne AI
  • Predrasude u bilo kojoj postavci ili zadanim uputstvima uspostavljenim za generativnu AI u svakodnevnoj upotrebi
  • Predrasude namjerno ili nehotice obuhvaćene upitima koje je unio korisnik generativne AI
  • Pristrasnosti sistemskog stanja u odnosu na ad hoc pojavu kao dio slučajnog vjerovatnog generiranja izlaza od strane generativne AI
  • Predrasude koje nastaju kao rezultat prilagodbi u hodu ili u stvarnom vremenu ili treninga podataka koji se dešavaju dok je generativna AI pod aktivnom upotrebom
  • Predrasude uvedene ili proširene tokom AI održavanja ili održavanja generativne AI aplikacije i njenog kodiranja uparivanja uzoraka
  • drugi

Razmislite o listi na trenutak ili dva.

Ako biste nekako spriječili bilo kakvu šansu da se pristrasnosti uvedu preko AI programera ili istraživača AI, i dalje ćete biti suočeni s mnoštvom drugih sredstava koja neizbježno mogu obuhvatiti pristranosti. Fokusiranje na samo jedno ili čak nekoliko potencijalnih curenja nije dovoljno. Svi ostali putevi pružaju dodatne mogućnosti da se pristranosti umiješaju u sliku.

Oslobađanje od generativnih AI predrasuda je slično složenom zamršenom gambitu udarca.

TruthGPT i izbori upravljanja pristrasnošću

Pokrili smo aspekt da je suočavanje s greškama, lažima i AI halucinacijama u toku i možete očekivati ​​stalnu poplavu najava o napretku AI koji se bavi tim problemima.

Isto nije tako lako kada je u pitanju pristrasnost.

Šta bi TruthGPT mogao učiniti ili biti osmišljen da uradi u vezi s pristrasnostima?

Razmotrite ove tri moguće opcije:

  • 1) Sve ide. Osmislite generativnu umjetnu inteligenciju da izbacuje bilo šta bez ikakvog privida filtriranja povezanog s predrasudama. Neka se sve druži.
  • 2) Dozvolite postavke za "željenu" pristrasnost. Osmislite generativnu umjetnu inteligenciju kako biste proizveli predrasude koje se smatraju „poželjnim ili favoriziranim“ prema onima koji osmišljavaju, koriste ili koriste generativnu AI.
  • 3) Nisu dozvoljene predrasude. Osmislite generativnu umjetnu inteligenciju tako da nikakve pristranosti bilo koje vrste nisu dozvoljene, tako da u svakom trenutku u svim načinima upotrebe ne postoje pristranosti izražene ni u jednom od objavljenih eseja.

Nesumnjivo možete zamisliti povike i kontroverze povezane sa svakom od gore navedenih opcija. Nijedna od opcija vjerovatno neće biti u potpunosti zadovoljavajuća. Svi oni imaju svoje demone i zamke.

O ovome ću se pozabaviti sljedeće.

Za Anything Goes opcija generativne AI, predrasude bi bile stalno ispred i u centru. Vrtlog društvenog protesta i prezira bio bi ogroman. To bi naizgled izazvalo ogroman pritisak da se zatvori generativni AI. Takođe možete lako zamisliti da će regulatori i zakonodavci biti podstaknuti na akciju, tražeći da uspostave nove zakone o AI kako bi ugasili ovu vrstu generativne AI.

U slučaju Dozvoli postavke Opcija generativne AI, ideja je da neko može odlučiti koje predrasude prihvaća. Moguće je da kompanija koja je osmislila AI postavlja parametre. Moguće je da kompanija koja koristi generativnu AI postavlja parametre. Još jedna ideja koja se pominje je da bi svaki korisnik mogao da odabere svoje preferirane skupove predrasuda. Kada prvi put koristite takvu generativnu umjetnu inteligenciju, možda će vam biti predstavljene opcije ili možete unijeti svoje želje u AI aplikaciju tokom postavljanja.

Ovaj potonji pristup može izgledati kao da bi svima prijao. Svaka osoba bi dobila bilo koju pristrasnost koju želi da vidi. Slučaj zatvoren. Naravno, malo je vjerovatno da će ovo biti tako dobrodošlo. Ideja da bi ljudi mogli biti uronjeni u predrasude i da koriste generativnu AI kao neku vrstu eho komore za te predrasude sigurno će izazvati društvenu ljutnju.

Konačno, u slučaju No Biases opcija, ovo zvuči dobro, ali izaziva niz povezanih problema. Hajde da preispitamo okolnost generativne veštačke inteligencije koja daje esej u kojem se navode pozitivne primedbe o određenom političkom lideru. Moguće je da neki smatraju da je ovo pravi esej i da nema pristrasnosti. S druge strane, možda postoje i drugi koji insistiraju na tome da je ovo pristrasan esej jer neopravdano preuveličava pozitivne ili ne pruža protutežu negativnosti kako bi ponudio uravnoteženu perspektivu. Ovo ilustruje zagonetku o pristrasnosti.

Vidite, greške kao što su dva plus dva jednako četiri ili pet su relativno jasne za izbor. Neistine kao što je pogrešna godina rođenja kao što je navedeno za predsjednika relativno je jednostavno razjasniti. Halucinacije umjetne inteligencije kao što je korištenje mlaznog aviona u 1800-ima su također relativno očigledne za rješavanje.

Kako bi generativna AI trebala biti osmišljena da se izbori sa predrasudama?

Neverovatno pitanje, svakako.

IstinaGPT o izvodljivosti i stvarnosti toga

Hajde da igramo igru.

Pretpostavimo da TruthGPT ima za cilj da bude tip generativne AI za koju se pretpostavlja da neće imati nikakve predrasude. Apsolutno i neosporno nema pristrasnosti. Nadalje, bez obzira na to što korisnik radi, kao što je unošenje pristrasnih izjava ili pokušaj da podstakne generativnu umjetnu inteligenciju na proizvodnju eseja opterećenih pristrasnošću, generativna AI to neće učiniti.

Na stranu, mogli biste se gotovo istog trena zapitati kako će se ova vrsta generativne umjetne inteligencije nositi s pitanjima istorijske prirode. Zamislite da neko pita o temi političkih pristrasnosti. Da li to spada pod okrilje „pristrasnosti“ i stoga bi generativna AI ukazivala da neće odgovoriti na upit? Koliko daleko ide ova zečja rupa?

U svakom slučaju, ako pretpostavimo u svrhu pažljivog razmišljanja da će TruthGPT biti pravi No Biases varijantu generativne AI, onda moramo razmotriti ove ishode:

  • nemoguć
  • moguć
  • drugi

Ishodi se sastoje od toga da li je ovo an nemoguć cilj i na taj način neće biti postignut. Ili je cilj moguć ali može imati neke otrežnjujuće bore. Takođe sam uključio i drugi rezultat za enkapsuliranje nekih između.

Prvo, razgovarajmo o nemogućnosti. Ako je zadatak ili projekat nemoguć, možda ćete težiti ka tome da se to ne pokušava. Nema smisla tražiti nešto što je nemoguće. Pa, ako malo razmislimo o tome, nemogućnost u stvari ima neku srebrnu postavu koja je povezana s njom. Dozvolite mi da objasnim.

Evo potencijalnih razloga zbog kojih bi TruthGPT moglo biti nemoguće ostvariti, a ipak bi bilo vrijedno poduzeti:

  • 1) Nemoguće jer se misija ili vizija nikada ne mogu ostvariti
  • 2) Nemoguće, ali ionako vrijedi učiniti za potencijalnu sporednu korist od značajnog doprinosa unapređenju AI sve rečeno
  • 3) Nemoguće, međutim, može poslužiti kao bonanza za privlačenje pažnje jer ste pokušali
  • 4) Nemoguće i promijenit će svoju melodiju i okrenuti ili izmijeniti prvobitno namjeravani cilj
  • 5) Nemoguće, ali će prikupiti vrhunske AI talente i pomoći u potkopavanju konkurencije
  • 6) ostalo

Isto tako, možemo pretpostaviti da su ovo neki od aspekata TruthGPT-a za ishod koji je dostižan ili moguć u postizanju:

  • 1) Moguće i proizvešće blagovremeno i nepobitno uspješno postignuće
  • 2) Moguće, ali će trajati mnogo duže i biti mnogo skuplje nego što se očekivalo
  • 3) Moguće iako će rezultat na kraju biti dosta manji od planiranog cilja
  • 4) Moguće, ali sa zakašnjenjem i sramotno pomračeno od strane druge generativne AI koji to također čine
  • 5) Međutim, mogući unutrašnji haos i poteškoće u vodstvu čine stvari ružnim i nepristojnim
  • 6) ostalo

I da upotpunimo listu, evo nekih drugih razmatranja:

  • 1) Drugo je da su ovo sve priče i nikakva akcija, nikada ne počinje
  • 2) Ostalo, kao što je zakon o AI zakonu, pravni ili društveni AI etika baca ključ u poduhvat
  • 3) Drugo može biti da trud proda/kupe drugi koji žele AI ili talenat
  • 4) Ostalo bi se moglo sastojati od iznenadnog zajedničkog aranžmana, a ne samostalnog
  • 5) Drugi zamjenski znakovi, uključujući šokantna otkrića i povećavaju egzistencijalni rizik AI
  • 6) ostalo

Zbog ograničenja prostora ovdje, neću ulaziti u specifičnosti svih tih permutacija. Ako interes čitatelja bude dovoljno podstaknut, rado ću to detaljnije obraditi u kasnijoj kolumni.

zaključak

George Washington je navodno rekao: “Istina će na kraju prevladati tamo gdje je potrebno iznijeti je na vidjelo.”

Suočavanje s pristrasnim aspektima AI nije samo tehnološki problem koji se rješava tehnološkim popravkom. Vjerovatni napori da se otkrije osjećaj "istine" putem generativne AI su mnogostruki. Možete očekivati ​​da će etika veštačke inteligencije i zakon o veštačkoj inteligenciji biti suštinski deo otkrivanja kuda sve ovo vodi.

Čuje se kucanje na vratima kabine.

Moglo bi biti da se ispred vrata nalazi (prema mlin glasina):

  • TruthGPT
  • HonestGPT
  • UntruthfulGPT
  • DishonestGPT
  • ConfusedGPT
  • BaffledGPT
  • RandomGPT
  • Itd

Buda bi mogao dati neke uvide u ovo pitanje: „Postoje samo dvije greške koje se mogu napraviti na putu ka istini; ne ide do kraja i ne počinje.” U naporima umjetne inteligencije koji ubrzano napreduju, trebali bismo se zapitati da li pravimo takve greške i ako je tako, šta treba da radimo u vezi s tim.

I to je iskrena istina.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoički-istinit-u-svako-pitanje-ai-etika-i-ai-zakon/