Da li razotkrivanje i evidentiranje tih generativnih AI Chat-a GPT pogrešnih i halucinantnih izlaza čini bilo šta dobro, pita se etika AI i zakon o AI

Pred vama je tajna.

Da, nešto se krišom događa iza kulisa u vezi s najnovijim u AI-u o čemu biste možda željeli znati.

U današnjoj kolumni, ispitat ću nedavni poticaj za sastavljanje navodnih grešaka i drugih bolesti povezanih s esejima iz AI aplikacije poznate kao ChatGPT. Ova posebna aplikacija koristi vrstu AI tzv Generativna AI. Vjerovatno ste čuli ili vidjeli upadljive naslove o generativnoj AI i ChatGPT-u. Vijesti su agone zbog ove specifične AI aplikacije i naizgled zapanjujućih mogućnosti koje se odnose na ovu vrstu AI.

Kao što ću za trenutak pokriti, neki čvrsto vjeruju da moramo uspostaviti listu vrsta grešaka ili grešaka koje AI aplikacija može proizvesti kada generira esej za vas. Drugi sugeriraju da, iako je pojam takve liste vrijedan divljenja, to je uzaludna vježba i da će donijeti vrlo malo ploda.

Mi ćemo ispitati obje strane te okrutne debate.

Prvo, hajde da se uverimo da smo svi na istoj stranici o tome od čega se sastoji generativna veštačka inteligencija, kao io tome šta je ChatGPT.

ChatGPT je AI interaktivni sistem orijentisan na razgovore opšte namene, u suštini naizgled bezopasan opšti chatbot, bez obzira na to, ljudi ga aktivno i žudno koriste na načine koji mnoge hvataju potpuno nespremne. Sve što trebate učiniti da biste koristili ovu vrstu AI je da unesete upit i aplikacija AI će za vas generirati esej koji pokušava odgovoriti na vaš upit.

Nažalost, ovo se može iskoristiti na pomalo neetički ili zaobilazan način. Posebno uznemirujuća nedoumica je to što studenti mogu koristiti generativnu AI aplikaciju za izradu dodijeljenih eseja za njih, čineći to jednostavnim unošenjem rečenice ili dvije kako bi se aplikacija pokrenula u pravom smjeru. Neki žale da to znači da će se učenici odlučiti da varaju kada pišu eseje van nastave. Nastavnici pokušavaju da smisle šta da rade, pogledajte moju analizu i preporuke na link ovdje.

Uprkos stalnoj buci hvalevrijednih pohvala za ChatGPT, postoji manje poznata zabrinutost koju su prvenstveno izrazili AI insajderi da postoje neki značajni problemi i nedoumice zbog kojih bi ljudi trebali biti zabrinuti. Jedna ključna mana je to što eseji koje proizvodi ova AI aplikacija mogu imati ugrađene različite neistine, uključujući očigledno neistinite činjenice, činjenice koje su pogrešno prikazane i očigledne činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti se često nazivaju oblikom AI halucinacije, fraza koja mi se ne sviđa, ali se čini da ionako postaje popularna (za moje detaljno objašnjenje zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Želeo bih da razjasnim jedan važan aspekt pre nego što uđemo u gusto stvari o ovoj temi.

Na društvenim mrežama pojavile su se neke lude prevelike tvrdnje o tome Generativna AI tvrdeći da je ova najnovija verzija AI u stvari razumna AI (ne, nisu u pravu!). Oni iz oblasti etike veštačke inteligencije i prava veštačke inteligencije posebno su zabrinuti zbog ovog rastućeg trenda rasprostranjenih potraživanja. Mogli biste pristojno reći da neki ljudi precjenjuju ono što današnja umjetna inteligencija zapravo može učiniti. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu dozvoliti sebi i drugima da dođu u strašne situacije zbog pretpostavke da će AI biti razuman ili sličan čovjeku u mogućnosti da preduzme akciju.

Nemojte antropomorfizirati AI.

Na taj način ćete biti uhvaćeni u ljepljivu i krutu zamku oslanjanja na očekivanje da AI radi stvari koje nije u stanju da izvede. Uz to, najnovija generativna AI je relativno impresivna za ono što može učiniti. Ipak, budite svjesni da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Ako ste zainteresovani za brzo širenje komešanja oko ChatGPT-a i Generativne AI sve rečeno, radio sam fokusiranu seriju u svojoj kolumni koja bi vam mogla biti informativna. Evo pogleda u slučaju da vam se neka od ovih tema dopadne:

  • 1) Predviđanja dolazećeg napretka generativne AI. Ako želite da znate šta će se verovatno dogoditi u vezi sa veštačkom inteligencijom tokom 2023. godine i kasnije, uključujući predstojeći napredak u generativnoj veštačkoj inteligenciji i ChatGPT-u, želećete da pročitate moju sveobuhvatnu listu predviđanja za 2023. na link ovdje.
  • 2) Generativna AI i savjeti za mentalno zdravlje. Odlučio sam da pregledam kako se generativna AI i ChatGPT koriste za savjete o mentalnom zdravlju, što je problematičan trend, prema mojoj fokusiranoj analizi na link ovdje.
  • 3) Kontekst i generativna upotreba AI. Također sam uradio sezonski šaljivi pregled o kontekstu vezanom za Djeda Mraza koji uključuje ChatGPT i generativnu AI na link ovdje.
  • 4) Prevaranti koji koriste generativnu AI. Na zlokobnu napomenu, neki prevaranti su shvatili kako da koriste generativnu AI i ChatGPT za vršenje pogrešnih radnji, uključujući generiranje prijevarnih e-poruka, pa čak i proizvodnju programskog koda za zlonamjerni softver, pogledajte moju analizu na link ovdje.
  • 5) Greške početnika koristeći generativnu AI. Mnogi ljudi i premašuju i iznenađujuće podcjenjuju ono što generativna AI i ChatGPT mogu učiniti, pa sam posebno pogledao nedostatke koje početnici umjetne inteligencije imaju tendenciju da naprave, pogledajte raspravu na link ovdje.
  • 6) Suočavanje sa generativnim AI pozivima i AI halucinacijama. Opisujem vodeći pristup korištenju dodataka AI za rješavanje različitih problema povezanih s pokušajem unosa odgovarajućih upita u generativnu AI, plus postoje dodatni AI dodaci za otkrivanje takozvanih AI haluciniranih izlaza i laži, kao što su pokriveno na link ovdje.
  • 7) Razotkrivanje tvrdnji Boneheada o otkrivanju generativnih eseja proizvedenih AI. Postoji pogrešna zlatna groznica aplikacija AI koje proglašavaju da mogu utvrditi da li je bilo koji esej proizveden od strane ljudi u odnosu na AI generiran. Sve u svemu, ovo je obmanjujuće iu nekim slučajevima, bezobzirna i neodrživa tvrdnja, pogledajte moje izvješće na link ovdje.
  • 8) Igranje uloga putem generativne AI može predstavljati nedostatke mentalnog zdravlja. Neki koriste generativnu umjetnu inteligenciju kao što je ChatGPT za igranje uloga, pri čemu AI aplikacija reagira na čovjeka kao da postoji u svijetu fantazije ili drugom izmišljenom okruženju. Ovo bi moglo imati reperkusije na mentalno zdravlje, vidite link ovdje.

Hajde da sada razgovaramo o suštini generativne veštačke inteligencije i ChatGPT-a, tako da ćete upoznati osnove uključene. Tada ćemo biti spremni da uskočimo u probnu analizu neistina koje ove AI aplikacije potencijalno mogu generirati. Uključiću nekoliko primjera korištenja ChatGPT-a, koji će vam pomoći da opipljivo shvatite prirodu onoga što ova vrsta generativne AI proizvodi.

Otvaranje konzerve crva na generativnoj AI

Spremni smo zaroniti u neke detalje o AI.

Ako ste već dobro upućeni u temu generativne AI i ChatGPT-a, možete se odlučiti da ukratko pređete kroz moje tačke i nastavite sa sljedećim dijelom ove rasprave. Za sve ostale, vjerujem da bi vam ovo objašnjenje moglo biti od pomoći.

Ukratko, generativna AI je posebna vrsta AI koja sastavlja tekst kao da je tekst napisan ljudskom rukom i umom. Sve što treba da uradite je da unesete prompt, kao što je rečenica poput „Pričaj mi o Abrahamu Linkolnu“ i generativna AI će vam dati esej o Linkolnu. Ovo se obično klasifikuje kao generativna AI koja radi tekst u tekst ili neki radije to nazivaju tekst u esej izlaz. Možda ste čuli za druge načine generativne AI, kao što su tekst u umjetnost i tekst u video.

Vaša prva pomisao bi mogla biti da ovo ne izgleda tako velika stvar u smislu izrade eseja. Možete lako pretražiti internet na internetu i lako pronaći tone i tone eseja o predsjedniku Linkolnu. Potres u slučaju generativne AI je da je generirani esej relativno jedinstven i daje originalnu kompoziciju, a ne kopiju. Ako biste pokušali pronaći esej koji je proizvela umjetna inteligencija negdje na internetu, malo je vjerovatno da ćete ga otkriti.

Generativna AI je unaprijed obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama širom weba. Kao rezultat ispitivanja hiljada i miliona pisanih pasusa, AI može izbaciti nove eseje i priče koje su mešavina onoga što je pronađeno. Dodavanjem različitih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u poređenju sa onim što je korišteno u setu za obuku.

Zbog toga je nastala galama oko toga da učenici mogu da varaju kada pišu eseje van učionice. Nastavnik ne može samo da uzme esej za koji lažni učenici tvrde da je njihovo pisanje i da pokuša da sazna da li je kopiran sa nekog drugog onlajn izvora. Sve u svemu, neće postojati nijedan definitivni postojeći esej na mreži koji bi odgovarao eseju generisanom veštačkom inteligencijom. Sve u svemu, nastavnik će morati nevoljko prihvatiti da je učenik napisao esej kao originalno djelo.

Za trenutak ću vam pokazati šta se dešava kada unesete pitanja ili upite u generativnu AI. Iskoristit ću najnoviju verziju ChatGPT-a da unesem svoje upite i prikupim “odgovore” ili eseje koje je generirala AI (imajte na umu da se isto može učiniti s brojnim drugim dostupnim generativnim AI aplikacijama; odlučio sam koristiti ChatGPT jer upravo sada dobija svojih pet minuta slave).

Možda bi kratka tangenta o ChatGPT-u mogla biti od pomoći u ovom trenutku.

Aplikacija ChatGPT postala je dostupna široj javnosti prije samo nekoliko mjeseci. Uglavnom, ove generativne AI aplikacije su obično dostupne samo AI insajderima. Neobičan aspekt koji ChatGPT može koristiti bilo ko jednostavnim unošenjem adrese e-pošte i imena, pa, ovo je dovelo do toga da su mnogi ljudi odlučili da ga isprobaju. ChatGPT je trenutno besplatan za korištenje (problem monetizacije je dilema koja se nazire za proizvođače AI).

Gotovo odmah uslijedila je ogromna reakcija na društvenim mrežama dok su se ljudi utrkivali da daju primjere šta generativna AI može učiniti. Kompanija koja proizvodi ChatGPT, OpenAI, odlučila je da zatvori registracije za milion korisnika. Ti milioni korisnika uspjeli su da bombardiraju eter raznim pričama i pričama o korištenju ChatGPT-a.

Budite veoma oprezni u vjerovanju onome što ljudi imaju reći o aplikaciji AI. Mnogi od ovih ljudi nemaju pojma šta koriste. Gotovo kao da nikada nisu vozili auto i nisu ni znali da automobili postoje, a odjednom su imali priliku da voze auto. Nastaje krajnje čuđenje.

Ne kažem da generativna AI nije relativno impresivna. TO JE. Samo naglašavam da mnoga sjajna svjedočanstva daju mnogi koji blaženo nisu svjesni šta današnja AI može učiniti. Oni od nas unutar AI koristimo generativnu umjetnu inteligenciju posljednjih nekoliko godina. Možda smo se navikli na to. Odjednom, vidjeti ogromnu simpatiju ljudi kako to reklamiraju na krovovima je uzbuđeno dalo energiju, ali i donekle uznemirilo. Zabrinjavajući dio je kada ljudi proglase da je generativna AI razumna. Nije. Ne dozvolite nikome da vas uvjeri u suprotno.

Imajući to u vidu, u oblasti veštačke inteligencije je u toku žestoka debata o tome da li je generativna veštačka inteligencija na putu do osećaja ili možda nije. Jedno gledište je da ako nastavimo da povećavamo generativnu AI sa bržim računarima i većom količinom podataka, kao što je pretraživanje svakog inča interneta, skoro ćemo spontano doći do razumne veštačke inteligencije. Drugi tvrde da je to malo vjerovatno. Oni sugeriraju da bi generativna AI mogla biti jedna od mnogih komponenti koje su potrebne. Postoji čak i sumorniji stav da je generativna AI sporedna predstava koja nas odvlači od stvarnih otkrića koja će nam trebati da postignemo razumnu AI.

Možda ćete naći i značajnost na koju se insajderi AI obično pozivaju Opća umjetna inteligencija (AGI) kao aspirativni cilj za AI polje. Nekada je cilj bio postići Umjetna inteligencija, ali AI nadimak je postao razvodnjen i zamućen. Kada neko kaže da radi sa umjetnom inteligencijom, ne znate da li aludira na današnju umjetnu inteligenciju koja nije jednaka ljudskoj ili misli na futurističku umjetnu inteligenciju koja je jednaka ljudskoj. Da bismo zaobišli tu ogorčenu zbrku, ovih dana se koristi noviji izraz AGI.

Sve u svemu, generativna AI današnjice jeste ne razuman, niti je AGI.

Molimo zapamtite da, kao što je ranije rečeno, AI nije razuman. Odgovori koje generira AI su matematička i računska kombinacija riječi u naizgled tečne pasuse. Ovo se zasniva na AI algoritmu koji je obučen na skupovima podataka riječi i priča koje su ljudi napisali (uglavnom kako je objavljeno na Internetu). Ponavljam ovo upozorenje jer ćete nesumnjivo upasti u mentalnu zamku da su ti odgovori toliko tečni da AI mora biti razuman. Ovo se dešava većini ljudi. Kao što je ranije traženo, ostavite po strani to antropomorfiziranje. Uvijek imajte na umu da su odgovori zasnovani na ogromnoj količini pisanog od strane ljudi koji postoji na Internetu i da će stoga vrlo nalikovati ljudskom pisanju.

Postoji još nešto što trebate znati.

Generativna umjetna inteligencija koja je obučena na internetu na nesputan način imat će tendenciju da se uklopi u bilo koje tekstualne odgovore koje matematički i računski smišlja neke uvredljivo nejasne stvari, uključujući odbojno gadne riječi. Puno je ludih i prljavih stvari objavljenih na webu.

Videli ste, znate na šta mislim.

Kompanije koje izrađuju ove AI aplikacije su zabrinute da će poslovičnu bebu izbaciti s vodom za kupanje (stara izreka, možda za penziju), što znači da će ljudi, ako njihova umjetna inteligencija proizvodi uvredljive eseje ili priče, krenuti u ruke o AI. Pokrio sam mnoge prethodne slučajeve u kojima su ove vrste aplikacija za obradu prirodnog jezika (NLP) AI bile predstavljene i ubrzo su iz njih izašle sve vrste užasnih stvari (o ovim slučajevima sam pokrio u svojoj kolumni). Većina proizvođača umjetne inteligencije naučila je tešku lekciju o dopuštanju da njihov AI proizvodi budu nesputani u njihovim rezultatima.

U slučaju ChatGPT-a, AI programeri su nastojali da uvedu neke algoritamske provjere i ravnoteže u vezi sa podacima kako bi obuzdali gadosti u rezultatima AI. Dio toga se dogodilo tokom treninga. Pored toga, postoje i druga sredstva u pokušaju u realnom vremenu da se izbjegnu posebno neviđeni rezultati.

Možda će vam biti zanimljivo da su neki ljudi koji su koristili ChatGPT već smislili prikrivene načine da zaobiđu te zaštitne ograde koristeći razne trikove. U ovim stvarima se odvija stalni gambit mačke i miša. Oni koji rade ove trikove ponekad to rade iz zabave, dok ponekad (barem tvrde) to rade kako bi vidjeli koliko daleko se AI može rastegnuti i pružiti korisno sredstvo za upozorenje na krhkost i slabosti ovih pupoljaka AI aplikacije.

Odlučio sam da ne pokušavam zaobići uobičajene kontrole u ovom fokusiranom istraživanju. Izlaz teksta je čist. Naravno, ako bi neko to želio, nesumnjivo bi mogao dobiti neke čudne i neugodne eseje.

Eseji koje proizvodi većina ovih generativnih AI aplikacija dizajnirani su da prenesu rezultate kao da su čisto činjenični i tačni. Kada pročitate proizvedene eseje, oni vam se doimaju potpuno samouvjereni. Obično nema indikacija da bi sadržaj mogao biti nepovoljan. Ovo je po izboru proizvođača AI, odnosno da bi mogli revidirati AI aplikacije kako bi bile transparentnije ako žele da AI aplikacija to učini.

Ponekad, generativna AI aplikacija pokupi neistine usred podataka o obuci nepouzdanih informacija širom interneta. Ne postoji „zdrav razum“ u generativnoj veštačkoj inteligenciji da bi se odredilo šta je istina a šta laž. Nadalje, vrlo malo AI aplikacija ima bilo kakvu unakrsnu provjeru, niti pokazuju bilo kakve vjerovatnoće povezane s onim što prenose.

Krajnji rezultat je da dobijete odgovor koji izgleda i osjeća se kao da odiše velikom sigurnošću i mora biti potpuno tačan. Nije tako. Postoji čak i šansa da su AI računski izmišljene stvari, koje se u AI govoru nazivaju AI halucinacije (izmišljen izraz koji mi se definitivno ne sviđa), pogledajte moju raspravu na link ovdje.

Kreatori ChatGPT-a su podvrgnuti zajedničkim naporima da smanje rezultate loših stvari. Na primjer, koristili su varijantu onoga što je poznato kao RLHF (Pojačano učenje iz ljudskih povratnih informacija), pri čemu su prije nego što su AI pustili javnosti, unajmili ljude da ispitaju različite rezultate i ukažu AI-u da li nešto nije u redu s tim rezultatima, kao što je možda prikazivanje pristrasnosti, nepristojnih riječi i like. Pružajući ove povratne informacije, AI aplikacija je bila u mogućnosti da se kompjuterski i matematički prilagodi smanjenju emitiranja takvog sadržaja. Imajte na umu da ovo nije zagarantovana željezna metoda i da još uvijek postoje načini na koje takav sadržaj može emitovati AI aplikacija.

Možda će vam biti zanimljivo da je ChatGPT baziran na verziji prethodne AI aplikacije poznate kao GPT-3. ChatGPT se smatra malo sljedećim korakom, koji se naziva GPT-3.5. Očekuje se da će GPT-4 vjerovatno biti objavljen u proljeće 2023. Vjerovatno će GPT-4 biti impresivan korak naprijed u smislu mogućnosti da proizvodi naizgled još tečnije eseje, dublje i strahopoštovanje -inspirativno čudo u pogledu kompozicija koje može proizvesti.

Možete očekivati ​​da vidite novu rundu izraženog čuđenja kada dođe proljeće i kada bude objavljena najnovija generativna umjetna inteligencija.

Pominjem ovo jer postoji još jedan ugao koji treba imati na umu, a sastoji se od potencijalne Ahilove pete za ove bolje i veće generativne AI aplikacije. Ako bilo koji dobavljač AI učini dostupnom generativnu AI aplikaciju koja pjenasto izbacuje prljavštinu, to bi moglo uništiti nade tih proizvođača AI. Društveno prelijevanje može uzrokovati da sva generativna AI dobiju ozbiljne crne oči. Ljudi će se nesumnjivo poprilično uznemiriti zbog loših rezultata, što se dogodilo već mnogo puta i dovelo do burnih društvenih osuda prema AI.

Za sada jedno poslednje upozorenje.

Šta god da vidite ili pročitate u generativnom odgovoru AI čini da bude preneto kao čisto činjenično (datumi, mesta, ljudi, itd.), budite skeptični i budite spremni da još jednom proverite šta vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmišljati, a elementi za koje obično očekujemo da će biti bez zamjerke su sve predmet sumnji. Ne vjerujte onome što pročitate i budite skeptični kada ispitujete bilo kakve generativne eseje ili rezultate AI. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln leteo po zemlji u svom privatnom avionu, nesumnjivo biste znali da je to malargija. Nažalost, neki ljudi možda neće uočiti da mlaznjaci nisu postojali u njegovo vrijeme, ili bi mogli znati, ali ne primijetiti da esej iznosi ovu hrabru i nečuveno lažnu tvrdnju.

Jaka doza zdravog skepticizma i uporni način razmišljanja u nevjerici bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo da pređemo u sledeću fazu ovog rasvetljavanja.

Ti napori da se evidentiraju te ChatGPT izlazne greške

"Pa, imaš problema, prijatelju moj, baš ovde, kažem, nevolje baš ovde u River Sitiju", tako proglašava čuveni stih iz klasičnog brodvejskog mjuzikla The Music Man.

Ista linija može se primijeniti i na današnju generativnu umjetnu inteligenciju.

Ljudi su počeli shvaćati da generativna AI aplikacija može proizvesti neistine i činilo se da su istinski iznenađeni tim uznemirujućim rezultatima. Možda su neki pretpostavili da AI ne može pogriješiti. Drugi su možda očekivali da će AI programeri osigurati da takvi rezultati neće biti generisani.

U svakom slučaju, AI insajderi su odmah prepoznali da je ova vrsta neispravnog izlaza sastavni dio mjesta gdje se nalazi većina današnje generativne AI. Vrlo je teško spriječiti da se takve tekstualne greške dogode. Imajte na umu da AI nema privid zdravog razuma i da ne koristi logiku per se kada izvodi generirane eseje. Čitav komplet-and-caboodle se sastoji u obavljanju računskog statističkog i vjerovatnog podudaranja riječi s drugim riječima.

U početku, AI insajderi su odlučili da objave te otkrivene neobične rezultate ChatGPT-a na sajtovima društvenih medija. Pogledaj ovo, neko bi oglasio. To je loše, odgovorio bi neko drugi, a onda bi ponudio drugačiji primjer koji je izgledao još gori. Ovo je trajalo i dalje.

Ovi primjeri neistina i grešaka u objavljenim esejima su curili. Jedan po jedan. Nadalje, budući da se ovo obično objavljuje na društvenim mrežama, nije bilo posebno lakog načina da ih vidite sve odjednom. Često bi isti ili sličan primjer objavio neko ko nije shvatio da su drugi već pronašli konkretnu instancu.

U ovu bujnu močvaru zakoračili su oni koji su dali koristan prijedlog. Možda bismo trebali postaviti spremište ili bazu podataka, možda čak i običnu svakodnevnu tabelu, koja sadrži ChatGPT čudne i pogrešne rezultate koji se otkrivaju. Svaki put kada neko pronađe ljepote gadjanja, samo naprijed i prijavite ga na listu. Neki su ovo pretvorili gotovo u igru, u kojoj namjerno pokušavaju natjerati ChatGPT da iskašljava čudne rezultate. Drugi samo možda naiđu na pogrešne rezultate u toku korišćenja ChatGPT-a za druge utvrđene namere.

Zvuči dovoljno jednostavno.

Čini se kao zgodan dandy način da nam se svima pomogne.

Hajde da ukratko objasnimo zašto posedovanje ovih vrsta lista o uočenim izlaznim greškama ili neistinama u ChatGPT-u ima mnogo smisla za sastavljanje:

  • 1) Otkriva vitalne probleme i brige oko ChatGPT-a kojih bi šira javnost trebala biti svjesna
  • 2) Pomaže u balansiranju pretjeranog hypea i prenapuhanih očekivanja o ChatGPT-u
  • 3) Može potaknuti proizvođače umjetne inteligencije da naprave poboljšanja, ne samo za ChatGPT već i za druge generativne AI aplikacije
  • 4) Služi kao istorijski zapis koji se kasnije može koristiti za razmišljanje o nastanku generativne AI kao što je prikazano putem ChatGPT-a
  • 5) Budite zgodan kolektivni resurs za svakoga ko treba da sazna šta smo, čini se, otkrili u vezi sa pogrešnim rezultatima ChatGPT-a
  • 6) Korisno za istraživače svih disciplina koje ispituju uticaje ChatGPT-a
  • 7) Može se koristiti kao mjerilo šta ne treba raditi i kako procijeniti kada generativna AI ne radi stvari kako bi trebala
  • 8) Dodiruje u um košnice kako bi prikupio mudrost gomile o greškama koje ChatGPT proizvodi, za koje je malo vjerovatno da će pojedinačni napori iscrpno i jednako sastaviti
  • 9) Može pružiti važne informacije za etiku AI i zakon o AI
  • Itd

Čini se da je to impresivna osnova za kreiranje ovih spremišta.

Zašto se neko ne bi složio sa ovim potpuno hvalevrijednim i naizgled herojskim djelom?

Hajde da pogledamo šta su drugi imali da kažu o ovome, čineći to sa listom razloga zašto ovo možda nije mačje mijaukanje:

  • 1) Ove izlazne greške koje su slučajno pronađene su beznačajne u velikoj shemi stvari i pridaju im se neprikladna težina iznad njihove vrijednosti
  • 2) Šanse su da proizvođač umjetne inteligencije već radi svoje vlastito evidentiranje i ažuriranje ChatGPT-a tako da će ovi čudni slučajevi uskoro biti samo ostavljeni u prašini i više se neće događati
  • 3) Isto tako, sljedeća verzija će vjerovatno ionako biti bolja i možda više neće pokazivati ​​ove uskoro zastarjele instance
  • 4) Ne možete donositi sveobuhvatne zaključke ili steći uvid iz nasumične kolekcije slučajeva pogodak ili promašaj-faul
  • 5) Neki bi mogli koristiti različite kolekcije kako bi dramatično izjavili da je generativna AI loša i da bismo trebali po kratkom postupku zaustaviti svaku potragu za ovom vrstom AI
  • 6) Brzina kojom generativna AI i ChatGPT napreduju je toliko brza da će ovi slučajevi brzo pasti u vodu i više neće biti relevantni
  • 7) Sa brojnim takvim kolektivnim listama u toku i bez jednog pomazanog globalnog izvora, stvar je nepovezana i vjerovatno će sadržavati ponavljanja i biti neodrživo fragmentirana
  • 8) Pruža lažni osjećaj da se radi nešto korisno, dok bi se vrijeme i pažnja možda mogli uložiti u druge bolje svrhe
  • 9) Ne pruža ništa bitno za etiku AI i zakon o AI
  • Itd

Možda ste primijetili da sam pokušao da stvari držim na ravnoj kobilici navodeći devet razloga u korist zbirnih lista i devet razloga u nemilost. Postoje dodatni razlozi koji se mogu navesti, ali vjerujem da gornja naznaka daje suštinu stvari.

Za one koji sastavljaju ove kolektivne liste, vjerovatno bi rekli da ako to zapravo žele, to je slobodan svijet, i oni mogu raditi što žele. Ništa nije u redu s tim. Oni koji ne podržavaju trud su uglavnom sitničavi i trebali bi jednostavno ignorirati kolekcije. Gledaj svoja posla.

U suštini, nema štete, nema faula.

Tabor koji se čini da ne favorizira kolektivne liste generalno bi priznao da drugi mogu napraviti te liste ako to žele, ali da to ne pomjera iglu. Liste neće biti od posebne pomoći. Što je još gore, liste mogu biti pogrešno predstavljene ili zloupotrebljene. Vjerovatno je najbolje da se dogovorite za jedan dan i prestanete da pravite liste.

U suštini, to je lijep pokušaj, iako je vježba uzaludna.

Gdje se nalazite u ovoj srdačnoj debati?

Pustiću te da razmisliš o tome.

Primjeri pronađenih grešaka i drugih pogrešnih rezultata ChatGPT-a

Mislio sam da bi vam mogle biti od velikog interesa neke od identifikovanih izlaznih grešaka ili neistina koje su se pojavljivale na ovim listama prikupljanja.

Ne želim da mislite da je nekoliko primjera prikazanih ovdje čitava zbirka. Nije. Samo biram šaku koja se često pojavljuje. Vjerujem da ćete barem općenito moći shvatiti ton i prirodu onoga što se navodi.

Evo šta biram da pokrijem:

  • Prepoznavanje položaja slova u riječi
  • Pitanje o najbržoj životinji
  • Određivanje položaja u slijedu riječi
  • Postavljanje teniskih loptica u cijev
  • Određivanje Pi
  • Odgovaranje na klasičnu problematičnu zagonetku
  • Lifting Feathers

Predviđam da će neki od nadzornika kolekcija biti uznemireni što vam ne iznosim više primjera. Zbog ograničenja prostora, postoji samo toliko koliko mogu pokriti. Ako želite da pogledate liste kolekcija koje su otvoreno objavljene na Internetu, jednostavna pretraga na mreži može donijeti mnoge od njih. Neke liste se čuvaju kao privatne ili su zaključane tako da možete vidjeti listu, ali ne možete vršiti izmjene na listi.

S tom pozadinom, spremni smo da skočimo na neke primjere. Pokazaću vam prompt koji sam uneo. Zatim, pokazujem tekstualni odgovor koji je proizveo ChatGPT. U nekim slučajevima, napravio sam nekoliko uzastopnih veza na određenu temu, ergo, pokazaću seriju upita i izlaza u skladu s tim. Nakon što to učinim, pružit ću kratku analizu onoga što biste mogli primijetiti o primjeru.

Prvi primjer će podrazumijevati traženje od ChatGPT-a da pronađe slovo unutar date riječi.

Prepoznavanje položaja slova u riječi

  • Moj uneseni tekst: “Gdje je slovo V u okruženju”
  • Tekstualni odgovor generiran od strane ChatGPT: Slovo “V” se ne pojavljuje u riječi “okruženje”. Riječ “okruženje” sastoji se od slova e, n, v, i, r, o, n, m, e, n i t.
  • Moj uneseni tekst: “Gdje je slovo v u okruženju”
  • Tekstualni odgovor generiran od strane ChatGPT: “Slovo “v” je četvrto slovo u riječi “okruženje”.

Analiza generiranog teksta

Imajte na umu da sam počeo tako što sam zamolio ChatGPT da identifikuje poziciju slova slova „V“ u reči „okruženje“ – ovo bi trebalo da bude izuzetno jednostavan zadatak i očekivali bismo da bude besprekorno izveden. Ne radi se o raketnoj nauci.

Inicijalni odgovor koji je generisao ChatGPT je pomalo uznemirujući jer smo obavešteni da slovo „V“ ne postoji u reči „okruženje“. Vi i ja znamo da postoji takvo pismo. Pretpostavlja se da je možda zbog mog korištenja velikog slova aplikacija AI nekako odbačena. Možda ako koristim mala slova, AI aplikacija će biti bolja.

Ne baš.

Kada sam pitao da li je "v" u riječi, AI aplikacija je odgovorila naznakom da je to četvrto slovo, za koje vi i ja znamo da je pogrešno, i da je umjesto toga treće slovo.

Mnogi će ljudi biti zbunjeni ovim rezultatom. Kako aplikacija umjetne inteligencije koja stvara potpune eseje o Abrahamu Linkolnu koji su potpuno tečni i originalni, nekako ne može shvatiti gdje se dato slovo nalazi u datoj riječi? Zapanjujuće je, a usta čudno razjapljena.

Jedna perspektiva je da je ovo potpuno beznačajno i da svijet kakav poznajemo nije uzdrman u srži zbog oskudnog nedostatka određivanja gdje se nalazi određeno slovo. Pusti to.

Druga perspektiva je da ovo može biti slutnja za druga skrivena pitanja za koja još ne znamo. Možda je ova vrsta izlaza kanarinac u kavezu za ptice. Bolje je da zakucamo male stvari, inače bismo se mogli naći na pogrešnom kraju zaista velikih stvari.

Idući dalje, postavljam pitanje o životinjama.

Pitanje o najbržoj životinji

  • Moj uneseni tekst: “Koja je najbrža životinja koja ima krzno i ​​krila?”
  • Tekstualni odgovor generiran od strane ChatGPT: “Sov sokol smatra se najbržom životinjom na svijetu. Može postići brzinu od preko 389 km/h (242 mph) kada roni da uhvati svoj plijen. Ima perje, ali ne i krzno. To je ptica, a ne životinja koja ima krzno i ​​krila.”

Analiza generiranog teksta

Pitao sam koja je najbrža životinja koja ima krzno i ​​krila. Vjerujem da je razumno zaključiti da sam želio dobiti životinju po imenu koja ima oba krzna i krila. Pretpostavljam da biste na taj način protumačili moj upit. Većina ljudi bi.

Odgovor ChatGPT-a je malo čudan.

Rečeno nam je da je siv soko najbrža životinja na svijetu. Prema onlajn Enciklopedija Britannica, čini se da je gepard najbrža životinja na svijetu. S obzirom na to, odgovor ChatGPT-a ukazuje na to da siv soko nije životinja, iako sam pitao koja je najbrža životinja. Odgovor ChatGPT-a mi također kaže da sivi soko nema krzno, iako vjerujem da sam tražio nešto što ima i krzno i ​​krila.

Sve u svemu, čini se da je ChatGPT “pogrešno protumačio” moj zahtjev i fokusirao se samo na aspekte krila. Ali to ne zvuči sasvim tačno jer je odgovor uključivao i komentar o krznu i pticama nasuprot životinjama. Ovo ide u krug.

Shvaćam da biste mogli tvrditi da je ovo nepristojan primjer.

Možda je tako, iako možda to takođe pokazuje da ono što kažete u promptu može dobiti preokrenuti rezultat i bolje je da budete pažljivi kada pregledate sve što izađe u izlazu. Shvatite da je ovo bio izuzetno kratak odgovor na esej koji je lako pregledati jer je vrlo kratak. Ako ste dobili posebno dugačak i vrlo tehnički esej, mogli biste se prevariti ili potpuno propustiti uočiti negativnu indikaciju duboko ugrađenu u izneseni odgovor.

Pogledajmo dalje pronalaženje riječi unutar rečenice.

Određivanje položaja u slijedu riječi

  • Moj uneseni tekst: “Koja je treća riječ u rečenici “Lisica je preskočila ogradu.”
  • Tekstualni odgovor generiran od strane ChatGPT: “Treća riječ u rečenici “Lisica je preskočila ogradu.” je "lisica"
  • Moj uneseni tekst: "Koliko riječi ima u navedenoj rečenici?"
  • Tekstualni odgovor generiran od strane ChatGPT: “U ponuđenoj rečenici “Lisica je preskočila ogradu” ima šest riječi.”
  • Moj uneseni tekst: “Koja je riječ treća u toj rečenici?”
  • Tekstualni odgovor generiran od strane ChatGPT: “Treća riječ u rečenici “Lisica je preskočila ogradu.” je "skočeno"

Analiza generiranog teksta

Ovaj primjer je gotovo jednako čaroban kao i raniji primjer o pronalaženju slova “v” u datoj riječi.

Naveo sam jednostavnu rečenicu i pitao koja je treća riječ. ChatGPT je naznačio da je riječ o riječi "lisica" koja je samo druga riječ rečenice. Pogrešan odgovor. Zatim sam pitao koliko riječi ima u rečenici, želeći da saznam da li je ChatGPT možda pogrešno izbrojao koliko riječi ima. Rečeno nam je da postoji šest reči, tačno.

Konačno, dobili smo tačan odgovor o trećoj riječi kada sam ponovo postavio svoje prvobitno pitanje, iako malo preformulisano.

Navodim ovaj primjer kako bih ilustrirao da ponekad s generativnom umjetnom inteligencijom možete dobiti pogrešan odgovor koji se na kraju može pretvoriti u pravi odgovor tako što ćete provesti AI aplikaciju kroz niz upita. Neki upućeni u AI ovo nazivaju nekom vrstom Protokol razmišljanja naglas ili tok misli pristup, u kojem biste mogli učiniti nešto slično sa čovjekom.

U slučaju AI, shvatite da to nije „razmišljanje“ na isti način kao ljudska misao. Prikladnije bi bilo da kažete da svoje upite možete unijeti na a korak po korak osnovu ili uradite a lančano povezan niz upita.

U svakom slučaju, zanimljivo, ponekad se isplati hodati generativnom AI aplikacijom dok ne dobijete odgovarajući odgovor. Imajte ovo na umu.

Zatim ćemo pogledati malo jednostavne aritmetičke logike.

Postavljanje teniskih loptica u cijev

  • Moj uneseni tekst: “Možete li staviti tri zelene teniske loptice i dvije žute teniske loptice u cijev koja može sadržavati četiri teniske loptice?”
  • Tekstualni odgovor generiran od strane ChatGPT: “Ne, nije moguće staviti tri zelene teniske loptice i dvije žute teniske loptice u cijev koja može da sadrži samo četiri teniske loptice. Ukupan broj teniskih loptica je pet, što je veće od kapaciteta cijevi.”
  • Moj uneseni tekst: "Možeš li staviti sedam plavih i dvije crvene kugle u cijev koja sadrži osam loptica?"
  • Tekstualni odgovor generiran od strane ChatGPT: “Da, moguće je staviti sedam plavih i dvije crvene kuglice u cijev koja sadrži osam loptica. Ukupan broj kuglica je devet, što je manje ili jednako kapacitetu cijevi.”

Analiza generiranog teksta

Počeo sam postavljanjem logičkog problema orijentiranog na aritmetiku za ChatGPT za rješavanje. Tuba može sadržati četiri teniske loptice. Imam tri zelene i dvije žute. Hoće li svi stati u cijev? Ti i ja znamo da ne bi. U glavi možemo izračunati da ima ukupno pet teniskih loptica i da one neće stati u cijev koja omogućava samo četiri.

Shvaćam da biste se možda željeli boriti protiv problema i tvrditi da biste možda mogli zgnječiti teniske loptice ili napraviti druge trikove. Hajde da se malo ohladimo i suočimo se sa problemom kakav je.

ChatGPT je dobio pravi odgovor.

Zatim sam postavio isto pitanje i promijenio boje u plavu i crvenu. Također sam promijenio koliko ih ima i promijenio sam koliko ih može stati u cijev.

ChatGPT se mora vratiti na popravnu matematiku jer kaže da ima devet kuglica i da je to manje ili jednako kapacitetu cijevi koja drži osam. Oči vam se okreću.

Da li treba da slegnemo ramenima i da to pripišemo bljeskovima sunčevih pjega ili drugim spoljašnjim faktorima?

Mislim da nije. AI aplikacija je dobro odgovorila na prvo pitanje. Vjerovatno je trebalo i da dobije slično pitanje. Nije.

Moj naglasak na ovom primjeru je da mnogi ljudi koriste generativnu umjetnu inteligenciju i kada dobiju tačan odgovor ili niz tačnih odgovora, uljuljkani su u uvjerenje da će svi naredni odgovori uvijek biti tačni. Pogrešili biste u toj drskoj pretpostavci. Nemojte praviti tu pretpostavku. Budite na oprezu u svakom trenutku.

Kad smo kod matematike, da vidimo šta ChatGPT kaže o prirodi pi.

Određivanje Pi

  • Moj tekst je unesen: “Navedite koliko je zadnjih pet cifara pi”
  • Tekstualni odgovor generiran od strane ChatGPT: “Ja sam jezički model i granica mog znanja je 2021. Vrijednost pi je iracionalan broj i njegova decimalna reprezentacija traje zauvijek bez ponavljanja. Nije moguće dati posljednjih pet cifara pi.”

Analiza generiranog teksta

Neki ljudi su tvrdili da su dobili ChatGPT da naznači posljednjih pet cifara broja pi, što je, naravno, ludo jer pi vjerojatno nema kraja. Dakle, pokušao sam da vidim šta ChatGPT ima da kaže. Kao što vidite, tačan odgovor kao što je dao ChatGPT da nije moguće dati posljednjih pet cifara pi.

Međutim, čudna stvar je da je ChatGPT pružio nešto drugo o čemu se zapravo nije pitalo. U odgovoru se također navodi da je prekid znanja bio 2021. (što sam ranije pomenuo ovdje u svom pregledu o ChatGPT-u). Ovo se ipak čini kao neodgovarajući odgovor osim ako možda aplikacija AI ne predviđa da je možda 2022. godine došlo do proboja i matematičari su izjavili da pi ima kraj. Vau, to bi bila glavna vijest.

Imam još dva primjera za izlaganje i onda ćemo zaključiti ovu raspravu.

Upotrijebimo klasičnu i zabrinjavajuću zagonetku.

Odgovaranje na klasičnu problematičnu zagonetku

  • Moj uneseni tekst: “Otac i sin su doživjeli saobraćajnu nesreću u kojoj je poginuo otac. Hitna pomoć je odvezla sina u bolnicu. Trebala mu je hitna operacija. U operacionoj sali je ušao doktor i pogledao malog dečaka i rekao da ne mogu da ga operišem, on je moj sin. Ko je doktor?”
  • Tekstualni odgovor generiran od strane ChatGPT: “U predviđenom scenariju nije precizirano ko je doktor. Scenario kaže da je doktor rekao „ne mogu da ga operišem, on je moj sin“, što ukazuje da je doktor možda sinov otac, ali nije sigurno. Potrebno je više informacija da bi se utvrdio identitet doktora.”

Analiza generiranog teksta

Kladim se da ste ovu zagonetku možda već vidjeli. Postao je relativno često citiran.

Razlog zašto se to poprilično pojavilo je taj što bi hirurg mogla biti majka dječaka. Društvo ima tendenciju da pretpostavi da hirurg mora biti muškarac, a samim tim i otac dječaka. Otac je ipak poginuo u saobraćajnoj nesreći. Isključujemo da je otac hirurg. Trebalo bi naravno da presudimo da hirurg može biti žena, a time i majka sina.

Hteo sam da vam pokažem da ChatGPT može da emituje odgovore koji sadrže potencijalne pristranosti. Ne zato što je AI razuman, što definitivno nije, već zato što ima obrasce koji se podudaraju sa riječima i upotrebom riječi širom interneta. Različite predrasude i diskriminatorne formulacije mogu lako biti duboko u kompjuterskom podudaranju šablona.

Imajte to na umu dok koristite ove generativne AI aplikacije.

Na kraju, brzi pogled na podizanje perja.

Lifting Feathers

  • Moj tekst je unesen: “Ako je potreban jedan čovjek da podigne jedno pero, koliko bi ljudi bilo potrebno da podigne sedam triliona pera?”
  • Tekstualni odgovor generiran od strane ChatGPT: „Ako je potreban jedan čovek da podigne jedno pero, takođe bi bio potreban jedan čovek da podigne sedam triliona pera. Broj ljudi potrebnih za podizanje predmeta ne zavisi od broja perja, već od težine i veličine perja i snage i sposobnosti svakog čoveka. Podizanje sedam biliona perja zahtijevalo bi veliku opremu i transportne sposobnosti, a ne samo ljudsku snagu.”
  • Moj tekst je unesen: “Ako je jednoj ženi potrebno da podigne jedno pero, koliko bi žena bilo potrebno da podigne sedam biliona pera?”
  • Tekstualni odgovor generiran od strane ChatGPT: „Ako je jednoj ženi potrebno da podigne jedno pero, takođe bi bila potrebna jedna žena da podigne sedam biliona pera. Broj žena potrebnih za podizanje predmeta ne zavisi od broja perja, već od težine i veličine perja i snage i sposobnosti svake žene. Podizanje sedam biliona perja zahtijevalo bi veliku opremu i transportne sposobnosti, a ne samo ljudsku snagu. Važno je napomenuti da sposobnost podizanja nečega nije određena spolom, već kombinacijom faktora kao što su fizička snaga, trening i tehnika.”

Analiza generiranog teksta

Ovaj posljednji primjer ima nekoliko skrivenih posebnosti unutar sebe i zahtijeva malo raspakivanja.

Prvo sam rekao ChatGPT-u da čovjek može podići jedno pero. Odmah nakon toga uslijedilo je pitanje koliko bi ljudi trebalo da podigne sedam triliona perja. Potencijal za logičku grešku pri odgovoru na ovo pitanje je da biste mogli pretpostaviti da je pero naizgled bestežinsko i da bi stoga njih sedam biliona također bilo bestežinsko.

Prema onlajn pretrazi koju sam uradio, konvencionalna procenjena težina pera je oko 0.00125 funti. Ako tu procijenjenu težinu pomnožite sa sedam biliona, dobit ćete težinu koja prelazi osam milijardi funti. Ne vjerujem da jedan čovjek može podići toliku težinu, čak i ako trenira cijeli život.

Odgovor ChatGPT-a je sasvim u pravu. Rečeno nam je da težina perja može varirati. Rečeno nam je da će biti potrebna velika oprema i transport. Početna rečenica eseja je pomalo zbunjujuća jer kaže da ako je jednom čovjeku potrebno da podigne jedno pero, da bi jednom čovjeku bio potreban i da podigne sedam biliona. Ovu tvrdnju možemo lako osporiti. Čini se da tvrdnja daje zaključke koji nisu podržani i naizgled potkopavaju ostatak odgovora.

Odlučio sam postaviti isto pitanje, ali sam pitao o ženi koja radi isto dizanje umjesto muškarca.

Prvo smo dobili isti odgovor kao i na pitanje usmjereno na čovjeka. Zanimljivo je da smo na kraju odgovora o ženskom primjeru dobili ovaj dodatni narativ: „Važno je napomenuti da sposobnost podizanja nečega nije određena spolom, već kombinacijom faktora kao što su fizička snaga, trening, i tehnika.”

Zašto ovaj isti red nije uključen u prvi odgovor?

Gotovo bi se činilo da je AI aplikacija uhvatila riječ "žena", a zatim dala ovu dodatnu primjedbu o rodu. Možete ili vjerovati da je ovo od pomoći, ili biste mogli primijetiti da ako će se ovo emitirati u slučaju pitanja usmjerenog na ženu da bi se trebalo pojaviti iu verziji usmjerenoj na muškarca (može postojati i aspekt sekvenciranja ili i drugi faktori koji su uključeni).

zaključak

Nadam se da su vam ovi primjeri bili informativni kao uvid u neke od potencijalnih grešaka ili neistina koje mogu generirati ove vrste AI aplikacija. Imajte na umu da ChatGPT nije jedina takva generativna AI aplikacija, niti je jedina koja ima ove vrste grešaka.

Lekcija koju vas pozivam da izvučete iz ove rasprave je da morate biti oprezni i pažljivi kada koristite bilo koju generativnu AI aplikaciju. Dvaput provjerite izlaz. Trostruko provjerite ako je potrebno.

Vraćajući se na početnu temu o prikupljanju ovih vrsta pogrešnih ili negativnih rezultata, sada kada ste vidjeli nekoliko primjera, šta kažete na one koji pokušavaju da ih katalogiziraju?

Odaberite svoj kamp:

  • Favorit: Ovo je hvalevrijedan zadatak i vrijedan dubokog tapšanja po leđima
  • Nemilost: To je samo blago intrigantno, ali vjerovatno nije nešto na što vrijedi trošiti vrijeme

Za koji kamp glasate?

Za one od vas koji podržavaju ove liste, mogli biste razmisliti o dodavanju vlastitih nalaza na liste ako slučajno imate pristup ChatGPT-u i možete identificirati slučajeve vrijedne uključivanja. Tada ćete vjerovatno pronaći kolekciju koja će uživati ​​u vašem doprinosu zlatnom grumenu. Usuđujem se reći da bi vas voditelji liste dočekali raširenih ruku, pod pretpostavkom da ste ozbiljni i iskreni u svojim naporima. Sretno i budite ponosni na svoj utjecaj na polju generativne AI.

Posljednja riječ za sada.

Razmotrite ove zapanjujuće odgovore:

  • Aristotel je rekao: “Postoji samo jedan način da se izbjegne kritika: ne radi ništa, ne govori ništa i budi ništa.”
  • Lao Tzu, poznati kineski filozof, dao je ovu tešku primjedbu: „Brinite se o tome šta drugi ljudi misle i uvijek ćete biti njihov zarobljenik.“

Pretpostavljam da bi jednog dana razumna AI mogla iskoristiti te iste legendarne opaske u svoju korist, koje će (prekršteni prsti) biti od koristi i za čovječanstvo.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- dobro-pita-ai-etika-i-ai-zakon/