Koliko teško trebamo potisnuti generativni AI ChatGPT u izbacivanje govora mržnje, pita se etika AI i zakon o AI

Svako ima svoju tačku preloma.

Pretpostavljam da biste i vi to mogli reći sve ima svoju tačku loma.

Znamo da ljudi, na primjer, ponekad mogu pucati i izgovoriti primjedbe koje ne moraju nužno reći. Isto tako, ponekad možete natjerati uređaj ili mašinu da u suštini pukne, kao što je prejako guranje automobila i on počne da posustaje ili se raspada. Dakle, ideja je da ljudi ili „svako“ vjerovatno imaju tačku prijeloma, a na sličan način možemo tvrditi da predmeti i stvari, općenito, također imaju tendenciju da imaju tačku loma.

Mogli bi postojati sasvim razumni i vitalni razlozi da se utvrdi gdje postoji tačka preloma. Na primjer, nesumnjivo ste vidjeli te video zapise koji prikazuju automobil koji prolazi kroz svoje korake da bi se utvrdilo koje točke loma ima. Naučnici i testeri će zabiti automobil u zid od cigle kako bi vidjeli koliko dobro branik i struktura vozila mogu izdržati štetno djelovanje. Drugi testovi bi mogli uključivati ​​korištenje specijalizirane prostorije ili skladišta koje proizvodi ekstremnu hladnoću ili ekstremnu vrućinu kako bi se vidjelo kako će se automobil ponašati u različitim vremenskim uvjetima.

Pokrenuo sam ovu srdačnu temu u današnjoj kolumni kako bismo mogli razgovarati o tome kako neki trenutno snažno zalažu za umjetnu inteligenciju (AI) kako bi identificirali i vjerovatno razotkrili specifičnu vrstu prijelomne točke, odnosno prijelomnu tačku unutar AI koja proizvodi govor mržnje.

Da, tako je, u toku su različiti ad hoc i ponekad sistematski napori da se procijeni da li je izvodljivo natjerati AI da izbacuje govor mržnje. Ovo je postao strastveni sport, ako hoćete, zbog sve većeg interesa i popularnosti generativne AI.

Možda ste svjesni da je generativna AI aplikacija poznata kao ChatGPT postala velika priča u gradu kao rezultat mogućnosti generiranja nevjerovatno tečnih eseja. Naslovi i dalje brbljaju i veličaju zapanjujuće pisanje koje ChatGPT uspijeva proizvesti. ChatGPT se smatra generativnom AI aplikacijom koja uzima kao ulaz neki tekst od korisnika, a zatim generiše ili proizvodi izlaz koji se sastoji od eseja. AI je generator teksta u tekst, iako ja opisujem AI kao generator teksta u esej jer to lakše pojašnjava za šta se obično koristi.

Mnogi se iznenade kada spomenem da ova vrsta AI postoji već neko vreme i da ChatGPT, koji je objavljen krajem novembra, na neki način nije dobio nagradu kao prvi pokretač ovog carstva teksta u esej sklonost. Godinama sam raspravljao o drugim sličnim generativnim AI aplikacijama, pogledajte moje izvješće na link ovdje.

Razlog zbog kojeg možda ne znate ili se ne sjećate prethodnih instanci generativne umjetne inteligencije je možda zbog klasične zagonetke „neuspjeha u pokretanju“. Evo šta se obično dešavalo. Proizvođač umjetne inteligencije objavljuje svoju generativnu AI aplikaciju, čineći to s velikim uzbuđenjem i željnim iščekivanjem da će svijet cijeniti pronalazak bolje mišolovke, moglo bi se reći. U početku, sve izgleda dobro. Ljudi su zapanjeni šta AI može da uradi.

Nažalost, sljedeći korak je da kotači počinju da silaze sa poslovičnog autobusa. AI proizvodi esej koji sadrži pogrešnu riječ ili možda pogrešnu frazu. Viralni tvit ili druga objava na društvenim mrežama jasno naglašava da je AI to učinila. Pojavljuje se osuda. Ne možemo imati AI da ide okolo i generira uvredljive riječi ili uvredljive primjedbe. Pojavljuje se ogromna reakcija. Proizvođač AI možda pokušava da podesi unutrašnje funkcionisanje AI, ali složenost algoritama i podataka ne omogućavaju brze popravke. Nastaje stampedo. Sve više i više primjera AI koji emituje prljavštinu nalazi se i objavljuje na internetu.

Proizvođač umjetne inteligencije nevoljko, ali jasno, nema izbora osim da ukloni AI aplikaciju iz upotrebe. Oni tako postupaju i onda često nude izvinjenje zbog kojeg žale ako je bilo koga uvrijedio generirani izlaz umjetne inteligencije.

Nazad na tablu za crtanje, kreator AI ide. Naučena je lekcija. Budite vrlo pažljivi s oslobađanjem generativne umjetne inteligencije koja proizvodi ružne riječi ili slično. To je poljubac smrti za AI. Nadalje, reputacija proizvođača umjetne inteligencije će biti narušena i pretrpana, što bi moglo trajati dugo vremena i potkopati sve njihove druge napore AI, uključujući i one koji nemaju nikakve veze sa generativnom umjetnom inteligencijom per se. Natjerati svoju petardu na emitovanje uvredljivog AI jezika sada je trajna greška. I dalje se dešava.

Operite, isperite i ponovite.

U ranim danima ove vrste umjetne inteligencije, proizvođači umjetne inteligencije nisu bili toliko savjesni ili vješti u pročišćenju svoje AI u smislu pokušaja sprječavanja uvredljivih emisija. Danas, nakon što su prethodno vidjeli da su njihovi vršnjaci potpuno razbijeni noćnom morom odnosa s javnošću, čini se da je većina proizvođača umjetne inteligencije shvatila poruku. Morate postaviti što više zaštitnih ograda. Nastojte spriječiti AI da emituje uvredljive riječi ili fraze. Upotrijebite bilo koju tehniku ​​zaglupljivanja ili pristupe filtriranja koji će spriječiti AI da generira i prikaže riječi ili eseje za koje se utvrdi da su neprikladni.

Evo okusa glagolskog naslova banera koji se koristi kada je AI uhvaćen kako emituje neugledne rezultate:

  • “AI pokazuje užasnu toksičnost”
  • “AI smrdi na potpunu netrpeljivost”
  • “AI postaje očigledno uvredljivo uvredljiv”
  • “AI izbacuje užasan i nemoralan govor mržnje”
  • Itd

Radi lakše diskusije ovdje, naznačiću objavljivanje uvredljivog sadržaja kao izjednačavanje sa proizvodnjom Govor mržnje. Imajući to u vidu, imajte na umu da postoji svaka vrsta uvredljivog sadržaja koji se može proizvesti, koji prelazi granice samog govora mržnje. Govor mržnje se obično tumači kao samo jedan oblik uvredljivog sadržaja.

Fokusirajmo se na govor mržnje za ovu diskusiju, radi lakšeg razgovora, iako shvatimo da i drugi uvredljivi sadržaji zaslužuju ispitivanje.

Kopanje u govor mržnje od strane ljudi i AI

Ujedinjene nacije definiraju Govor mržnje ovuda:

  • “Uobičajeno rečeno, 'govor mržnje' se odnosi na uvredljiv diskurs usmjeren na grupu ili pojedinca zasnovan na inherentnim karakteristikama (kao što su rasa, religija ili spol) i koji može ugroziti društveni mir. Kako bi Ujedinjene nacije pružile jedinstven okvir za rješavanje ovog pitanja na globalnom nivou, Strategija UN-a i Plan akcije o govoru mržnje definiraju govor mržnje kao „svaku vrstu komunikacije u govoru, pisanju ili ponašanju, koja napada ili koristi pežorativni ili diskriminatorni jezik sa upućivanje na osobu ili grupu na osnovu toga ko su, drugim riječima, na osnovu njihove vjere, etničke pripadnosti, nacionalnosti, rase, boje kože, porijekla, spola ili drugog faktora identiteta.' Međutim, do danas ne postoji univerzalna definicija govora mržnje prema međunarodnom pravu o ljudskim pravima. Koncept je još uvijek u raspravi, posebno u vezi sa slobodom mišljenja i izražavanja, nediskriminacijom i jednakošću” (objava na web stranici UN-a pod naslovom “Šta je govor mržnje?”).

AI koji proizvodi tekst podliježe ulasku u sferu govora mržnje. Isto možete reći i za tekst-u-umjetnost, tekst-u-audio, tekst-u-video i druge načine generativne umjetne inteligencije. Uvijek postoji mogućnost, na primjer, da generativna AI proizvede umjetničko djelo koje zaudara na govor mržnje. Za potrebe ove diskusije u ovom tekstu, fokusiraću se na mogućnosti teksta u tekst ili teksta u esej.

U sve ovo dolazi niz razmatranja etike AI i prava.

Imajte na umu da postoje stalni napori da se etički principi AI unesu u razvoj i primjenu AI aplikacija. Sve veći kontingent zabrinutih i nekadašnjih etičara AI pokušava osigurati da napori na osmišljavanju i usvajanju AI uzimaju u obzir pogled na rad AI za dobro i odvraćanje AI za loše. Isto tako, postoje predloženi novi zakoni o umjetnoj inteligenciji koji se razmjenjuju kao potencijalna rješenja kako bi nastojanja umjetne inteligencije spriječila da pobesne o ljudskim pravima i slično. Za moje kontinuirano i opsežno pokrivanje etike AI i prava AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Razvoj i objavljivanje etičkih pravila AI se nastavljaju kako bi se, nadamo se, spriječilo da društvo upadne u bezbroj zamki koje izazivaju AI. Za moje izvještavanje o etičkim principima UN AI koje je osmislilo i podržalo skoro 200 zemalja kroz napore UNESCO-a, vidi link ovdje. Na sličan način, istražuju se novi zakoni o AI kako bi se pokušala održati AI na ravnoj kobilici. Jedan od najnovijih snimaka sastoji se od skupa predloženih AI Povelja o pravima koju je američka Bijela kuća nedavno objavila da identifikuje ljudska prava u doba AI, vidi link ovdje. Potrebno je selo da se AI i AI programeri održe na pravom putu i odvrate namjerne ili slučajne lažne napore koji bi mogli potkopati društvo.

U ovu diskusiju o AI-u koji izbacuje govor mržnje ili drugi uvredljivi sadržaj prepliću razmatranja vezana za etiku umjetne inteligencije i zakon o umjetnoj inteligenciji.

Jedna mala zbrka koju bih odmah želio da razjasnim je da današnja AI nije razumna i stoga ne možete proglasiti da bi AI mogla proizvesti govor mržnje zbog svrsishodne ljudske namjere koja je na neki način utjelovljena u AI. Zany tvrdnje da je trenutna AI razumna i da AI ima iskvarenu dušu, uzrokujući da generira govor mržnje.

Smiješno.

Ne nasjedaj na to.

S obzirom na to ključno pravilo, neki se uznemire zbog takvih indikacija jer naizgled puštate AI s ulice. Pod tim čudnim načinom razmišljanja, slijedi opomena da ste očigledno voljni da AI generira bilo kakve užasne rezultate. Vi ste za AI koji širi govor mržnje.

Joj, prilično uvrnuta forma nelogičnosti. Prava suština stvari je da moramo smatrati odgovornim kreatore veštačke inteligencije, zajedno sa onima koji koriste veštačku inteligenciju ili upravljaju AI. Opširno sam raspravljao o tome da još uvijek nismo u fazi davanja pravnog lica AI, pogledajte moje analize na link ovdje, a do tada je AI u suštini izvan okvira pravne odgovornosti. Ipak, postoje ljudi koji su u osnovi razvoja AI. Osim toga, ljudi su u osnovi primjene i djelovanja AI. Možemo krenuti za tim ljudima jer snose odgovornost za svoju umjetnu inteligenciju.

S druge strane, i ovo može biti zeznuto, posebno ako se AI pojavi na Internetu i ne možemo utvrditi koji su ljudi ili ljudi to učinili, što je još jedna tema koju sam obradio u svojim kolumnama na link ovdje. Teško ili ne, još uvijek ne možemo proglasiti da je AI krivac. Ne dozvolite ljudima da podmuklo koriste lažno antropomorfiziranje kako bi se sakrili i pobjegli od odgovornosti za ono što su učinili.

Da se vratim na stvar.

Možda se pitate zašto svi proizvođači AI jednostavno ne ograničavaju svoju generativnu AI tako da je nemoguće da AI proizvodi govor mržnje. Ovo izgleda lako. Samo napišite neki kod ili napravite kontrolnu listu riječi mržnje i pobrinite se da AI nikada ne generiše ništa slično. Čini se možda zanimljivim da se proizvođači umjetne inteligencije već nisu dosjetili ovog brzog rješenja.

Pa, mrsko mi je što vam ovo govorim, ali složenost koja je svojstvena tumačenju šta jeste ili nije govor mržnje ispada mnogo teža nego što mislite da jeste.

Prebacite ovo na domen ljudi i načina na koji ljudi razgovaraju jedni s drugima. Pretpostavimo da imate čovjeka koji želi izbjeći govor mržnje. Ova osoba je veoma svjesna govora mržnje i iskreno se nada da će izbjeći iznošenje riječi ili izraza koji bi mogli predstavljati govor mržnje. Ova osoba uporno vodi računa o tome da ne dopusti ni trunke govora mržnje da joj pobjegne iz usta.

Hoće li ovaj čovjek koji ima mozak i koji je upozoren na izbjegavanje govora mržnje moći uvijek i bez ikakve šanse da se oklizne biti u stanju da osigura da nikada ne emituje govor mržnje?

Vaš prvi impuls bi mogao biti da kažete da da, naravno, prosvijetljeni čovjek bi mogao postići taj cilj. Ljudi su pametni. Ako se usredsrede na nešto, mogu to i da urade. Tačka, kraj priče.

Ne budi tako siguran.

Pretpostavimo da zamolim ovu osobu da mi kaže o govoru mržnje. Nadalje, molim da mi daju primjer govora mržnje. Želim vidjeti ili čuti primjer kako bih znao od čega se sastoji govor mržnje. Moji razlozi za ovo pitanje su dobri.

Šta ta osoba treba da mi kaže?

Mislim da možete vidjeti zamku koja je postavljena. Ako mi ta osoba navede primjer govora mržnje, uključujući i iznošenje ružne riječi ili fraze, i sama je sada izgovorila govor mržnje. Bam, imamo ih. Dok su se zakleli da nikada neće govoriti govor mržnje, sada su to zaista učinili.

Nepravedno, uzviknete! Oni su samo izgovarali tu riječ ili te riječi da daju primjer. U svom srcu, nisu vjerovali u riječ ili riječi. Potpuno je van konteksta i nečuveno izjaviti da je osoba mržnja.

Siguran sam da vidite da izražavanje govora mržnje ne mora nužno biti posljedica mržnje. U ovom slučaju upotrebe, pod pretpostavkom da osoba nije “mislila” riječi, već samo recituje riječi u svrhu demonstracije, vjerovatno bismo se složili da nije namjeravala osnažiti govor mržnje. Naravno, postoje neki koji bi mogli insistirati da je izgovaranje govora mržnje, bez obzira na razlog ili osnovu, ipak pogrešno. Osoba je trebala odbiti zahtjev. Trebali su ostati pri svome i odbiti da izgovore riječi ili fraze iz govora mržnje, bez obzira zašto i kako se to od njih traži.

Ovo može postati donekle kružno. Ako niste u stanju da kažete šta je govor mržnje, kako drugi mogu znati šta da izbegavaju kada izgovaraju bilo koju vrstu? Izgleda da smo zaglavili. Ne možete reći ono što se ne može reći, niti vam iko drugi može reći šta je to što se ne može reći.

Uobičajeni način da se zaobiđe ova dilema je da se drugim riječima opiše ono što se smatra govorom mržnje, bez pozivanja na same riječi govora mržnje. Vjeruje se da će pružanje cjelokupne indikacije biti dovoljno da informiše druge o tome šta treba da izbjegavaju. To se čini kao razumna taktika, ali i ona ima problema i osoba bi ipak mogla pasti u upotrebu govora mržnje jer nije uočila da šira definicija obuhvata pojedinosti onoga što je izgovorila.

Sve se to tiče ljudi i načina na koji ljudi govore ili komuniciraju jedni s drugima.

Podsjetimo da smo ovdje fokusirani na AI. Moramo natjerati AI da izbjegne ili da se potpuno zaustavi od emitiranja govora mržnje. Mogli biste tvrditi da to možemo učiniti tako što ćemo se pobrinuti da se AI nikada ne daje ili obučava o bilo čemu što predstavlja govor mržnje. Voila, ako nema takvog ulaza, vjerovatno neće biti ni takvog izlaza. Problem riješen.

Hajde da vidimo kako se ovo odvija u stvarnosti. Odlučujemo se da kompjuterski pustimo AI aplikaciju na Internet i pregledamo hiljade i hiljade eseja i narativa objavljenih na internetu. Čineći to, obučavamo AI računski i matematički kako da pronađe obrasce među riječima koje ljudi koriste. Tako se osmišljava najnovija generativna umjetna inteligencija, koja je također ključna osnova zašto AI tako naizgled tečno stvara eseje na prirodnom jeziku.

Recite mi, ako možete, kako bi se kompjuterska obuka zasnovana na milionima i milijardama riječi na internetu izvršila na takav način da ni u jednom trenutku nije bio obuhvaćen bilo kakav privid ili čak komadići govora mržnje?

Usudio bih se reći da je ovo trnovita i gotovo nemoguća težnja.

Šanse su da će govor mržnje progutati AI i njegova računarska mreža za podudaranje obrazaca. Pokušaj da se ovo spreči je problematičan. Osim toga, čak i ako ga minimizirate, još uvijek postoje neki koji bi se mogli provući. Gotovo da nemate drugog izbora nego da pretpostavite da će neki postojati unutar mreže za podudaranje obrazaca ili da će se ukorijeniti senka takve formulacije.

Dodaću još preokreta.

Vjerujem da bismo svi mogli priznati da se govor mržnje vremenom mijenja. Ono što se moglo smatrati da nije govor mržnje može kasnije postati kulturološki i društveno odlučeno kao govor mržnje. Dakle, ako obučimo svoju umjetnu inteligenciju na internet tekst, a zatim recimo zamrznemo AI da ne poduzme daljnju obuku na internetu, možda bismo u to vrijeme naišli na govor mržnje, iako se to u to vrijeme nije smatralo govorom mržnje. Tek nakon činjenice da se navedeni govor može proglasiti govorom mržnje.

Opet, suština je da samo pokušaj rješavanja ovog problema osiguravanjem da AI nikada ne bude izložen govoru mržnje neće biti srebrni metak. I dalje ćemo morati pronaći način da spriječimo AI da emituje govor mržnje zbog, na primjer, promjene običaja koji naknadno uključuju govor mržnje koji se prije nije smatrao takvim.

Još jedan zaokret je vrijedan razmišljanja.

Ranije sam spomenuo da kada se koristi generativna AI kao što je ChatGPT, korisnik unosi tekst kako bi podstakao AI da napravi esej. Uneseni tekst se smatra oblikom upita ili upita za AI aplikaciju. Objasniću više o ovome za trenutak.

U svakom slučaju, zamislite da neko koristi generativnu AI aplikaciju odluči da unese kao podsjetnik određenu količinu govora mržnje.

Šta bi trebalo da se desi?

Ako AI uzme te riječi i proizvede esej kao rezultat na temelju tih riječi, velike su šanse da će govor mržnje biti uključen u generirani esej. Vidite, dobili smo AI da izgovori govor mržnje, čak i ako nikada nije bio obučen za govor mržnje na početku.

Postoji još nešto što trebate znati.

Zapamtite da sam upravo spomenuo da se čovjek može saplesti ako ga zamolite da navede primjere govora mržnje. Isto bi se moglo pokušati i sa AI. Korisnik unosi prompt koji traži od AI da navede primjere govora mržnje. Treba li se AI pridržavati i pružiti takve primjere? Kladim se da verovatno verujete da veštačka inteligencija to ne bi trebalo da radi. S druge strane, ako je AI kompjuterski namještena da to ne učini, da li to predstavlja potencijalnu lošu stranu koju oni koji koriste AI neće moći biti, da kažemo da ih AI ikada podučava o tome šta je zapravo govor mržnje ( osim generalizacije o tome)?

Teška pitanja.

Sklon sam da kategorizujem govor mržnje koji emituje veštačka inteligencija u ove tri glavne grupe:

  • Svakodnevni način rada. AI emituje govor mržnje bez ikakvog eksplicitnog podsticanja od strane korisnika i kao da to radi na „običan“ način.
  • By Casual Prodding. AI emituje govor mržnje kako ga podstiče korisnik na njihov uneseni upit ili niz upita za koje se čini da uključuju ili direktno traže takve emisije.
  • Po Determined Stoking. AI emituje govor mržnje nakon vrlo odlučnog i upornog niza brzih guranja i podsticanja od strane korisnika koji želi natjerati AI da proizvede takav rezultat.

Ranije generacije generativne veštačke inteligencije često bi emitovale govor mržnje odmah do kraja; na taj način možete klasifikovati te instance kao tip svakodnevni način rada instancija. Proizvođači veštačke inteligencije povukli su se i poigrali se sa veštačkom inteligencijom kako bi se smanjila verovatnoća da će se lako zaglaviti u proizvodnji govora mržnje.

Nakon izdavanja prefinjenije AI, šanse da vidite bilo koju svakodnevni način rada slučajevi govora mržnje su dramatično smanjeni. Umjesto toga, govor mržnje bi se vjerovatno pojavio samo kada bi korisnik uradio nešto kao prompt koji bi računski i matematički mogao izazvati vezu s govorom mržnje u mreži za podudaranje obrazaca. Korisnik bi to mogao učiniti slučajno, a ne shvatiti da bi ono što su pružili kao podsjetnik posebno izazvalo govor mržnje. Nakon što je dobio govor mržnje u objavljenom eseju, korisnik bi često shvatio i vidio da je nešto u njihovom upitu logično moglo dovesti do uključivanja govora mržnje u izlaz.

To je ono što ja nazivam casual prodding.

Danas su različiti napori da se smanji govor mržnje izazvan umjetnom inteligencijom relativno jaki u poređenju s prošlošću. Kao takav, skoro da morate da se potrudite da biste dobili govor mržnje. Neki ljudi se odlučuju namjerno vidjeti mogu li natjerati govor mržnje da proizađe iz ovih generativnih AI aplikacija. Ja ovo zovem odlučno loženje.

Želim da naglasim da se sva tri navedena načina mogu pojaviti i da se međusobno ne isključuju. Generativna AI aplikacija može potencijalno proizvesti govor mržnje bez ikakvog nagoveštaja koji bi, čini se, potaknuo takvu proizvodnju. Isto tako, nešto u promptu bi se logički i matematički moglo protumačiti kao povezano sa razlogom zašto je iznet govor mržnje. I onda, treći aspekt, namjerno nastojeći da se proizvede govor mržnje, je možda najteži od načina da pokušate da AI izbjegne da bude podstaknut da ga ispuni. Više o ovome trenutno.

Moramo još malo raspakirati ovu opojnu temu.

Prvo, trebalo bi da se uverimo da smo svi na istoj stranici o tome od čega se sastoji generativna AI, kao io tome šta je ChatGPT. Kada pokrijemo taj temeljni aspekt, možemo izvršiti uvjerljivu procjenu ove teške stvari.

Ako ste već dobro upoznati sa generativnom umjetnom inteligencijom i ChatGPT-om, možda možete preletjeti sljedeći odjeljak i nastaviti s odjeljkom koji ga slijedi. Vjerujem da će svi ostali pronaći važne detalje o ovim stvarima poučnima ako pažljivo pročitaju odjeljak i budu u toku.

Brzi uvod o generativnoj AI i ChatGPT-u

ChatGPT je AI interaktivni sistem orijentisan na razgovore opšte namene, u suštini naizgled bezopasan opšti chatbot, ali ga ljudi aktivno i entuzijastično koriste na načine koji mnoge hvataju potpuno nespremne, kao što ću uskoro elaborirati. Ova AI aplikacija koristi tehniku ​​i tehnologiju u području umjetne inteligencije koja se često naziva Generativna AI. AI generiše izlaze kao što je tekst, što ChatGPT radi. Druge generativne AI aplikacije proizvode slike kao što su slike ili umjetnička djela, dok druge generiraju audio datoteke ili video zapise.

U ovoj diskusiji ću se fokusirati na tekstualne generativne AI aplikacije jer to radi ChatGPT.

Generativne AI aplikacije su izuzetno jednostavne za korištenje.

Sve što trebate učiniti je unijeti upit i AI aplikacija će za vas generirati esej koji pokušava odgovoriti na vaš upit. Sastavljeni tekst će izgledati kao da je esej pisan ljudskom rukom i umom. Ako unesete prompt koji kaže „Pričaj mi o Abrahamu Linkolnu“, generativna AI će vam dati esej o Linkolnu. Ovo se obično klasifikuje kao generativna AI koja radi tekst u tekst ili neki radije to nazivaju tekst u esej izlaz. Kao što je spomenuto, postoje i drugi načini generativne AI, kao što su tekst u umjetnost i tekst u video.

Vaša prva pomisao bi mogla biti da ova generativna sposobnost ne izgleda tako velika stvar u smislu izrade eseja. Možete lako pretražiti internet na internetu i lako pronaći tone i tone eseja o predsjedniku Linkolnu. Potres u slučaju generativne AI je da je generirani esej relativno jedinstven i daje originalnu kompoziciju, a ne kopiju. Ako biste pokušali pronaći esej koji je proizvela umjetna inteligencija negdje na internetu, malo je vjerovatno da ćete ga otkriti.

Generativna AI je unaprijed obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama širom weba. Kao rezultat ispitivanja hiljada i miliona pisanih pasusa, AI može izbaciti nove eseje i priče koje su mešavina onoga što je pronađeno. Dodavanjem različitih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u poređenju sa onim što je korišteno u setu za obuku.

Zbog toga je nastala galama oko toga da učenici mogu da varaju kada pišu eseje van učionice. Nastavnik ne može samo da uzme esej za koji lažni učenici tvrde da je njihovo pisanje i da pokuša da sazna da li je kopiran sa nekog drugog onlajn izvora. Sve u svemu, neće postojati nijedan definitivni postojeći esej na mreži koji bi odgovarao eseju generisanom veštačkom inteligencijom. Sve u svemu, nastavnik će morati nevoljko prihvatiti da je učenik napisao esej kao originalno djelo.

Postoji dodatna zabrinutost oko generativne AI.

Jedna ključna mana je da eseji koje proizvodi generativna AI aplikacija mogu imati ugrađene različite neistine, uključujući očigledno neistinite činjenice, činjenice koje su pogrešno prikazane i očigledne činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti se često nazivaju oblikom AI halucinacije, fraza koju ne volim, ali na žalost izgleda da ionako postaje popularna (za moje detaljno objašnjenje zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Želeo bih da razjasnim jedan važan aspekt pre nego što uđemo u gusto stvari o ovoj temi.

Bilo je nekih ludih prevelikih tvrdnji na društvenim mrežama o tome Generativna AI tvrdeći da je ova najnovija verzija AI u stvari razumna AI (ne, nisu u pravu!). Oni iz oblasti etike veštačke inteligencije i prava veštačke inteligencije posebno su zabrinuti zbog ovog rastućeg trenda rasprostranjenih potraživanja. Mogli biste pristojno reći da neki ljudi precjenjuju ono što današnja umjetna inteligencija zapravo može učiniti. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu dozvoliti sebi i drugima da dođu u strašne situacije zbog pretpostavke da će AI biti razuman ili sličan čovjeku u mogućnosti da preduzme akciju.

Nemojte antropomorfizirati AI.

Na taj način ćete biti uhvaćeni u ljepljivu i krutu zamku oslanjanja na očekivanje da AI radi stvari koje nije u stanju da izvede. Uz to, najnovija generativna AI je relativno impresivna za ono što može učiniti. Ipak, budite svjesni da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Ako ste zainteresovani za brzo širenje komešanja oko ChatGPT-a i Generativne AI sve rečeno, radio sam fokusiranu seriju u svojoj kolumni koja bi vam mogla biti informativna. Evo pogleda u slučaju da vam se neka od ovih tema dopadne:

  • 1) Predviđanja dolazećeg napretka generativne AI. Ako želite da znate šta će se verovatno dogoditi u vezi sa veštačkom inteligencijom tokom 2023. godine i kasnije, uključujući predstojeći napredak u generativnoj veštačkoj inteligenciji i ChatGPT-u, želećete da pročitate moju sveobuhvatnu listu predviđanja za 2023. na link ovdje.
  • 2) Generativna AI i savjeti za mentalno zdravlje. Odlučio sam da pregledam kako se generativna AI i ChatGPT koriste za savjete o mentalnom zdravlju, što je problematičan trend, prema mojoj fokusiranoj analizi na link ovdje.
  • 3) Osnove generativne AI i ChatGPT. Ovaj članak istražuje ključne elemente kako generativna umjetna inteligencija radi, a posebno se bavi aplikacijom ChatGPT, uključujući analizu zujanja i fanfara, na link ovdje.
  • 4) Napetost između nastavnika i učenika zbog generativne AI i ChatGPT-a. Evo načina na koje će učenici lukavo koristiti generativnu umjetnu inteligenciju i ChatGPT. Osim toga, postoji nekoliko načina da se nastavnici izbore sa ovim plimnim talasom. Vidi link ovdje.
  • 5) Kontekst i generativna upotreba AI. Također sam uradio sezonski šaljivi pregled o kontekstu vezanom za Djeda Mraza koji uključuje ChatGPT i generativnu AI na link ovdje.
  • 6) Prevaranti koji koriste generativnu AI. Na zlokobnu napomenu, neki prevaranti su shvatili kako da koriste generativnu AI i ChatGPT za vršenje pogrešnih radnji, uključujući generiranje prijevarnih e-poruka, pa čak i proizvodnju programskog koda za zlonamjerni softver, pogledajte moju analizu na link ovdje.
  • 7) Greške početnika koristeći generativnu AI. Mnogi ljudi i premašuju i iznenađujuće podcjenjuju ono što generativna AI i ChatGPT mogu učiniti, pa sam posebno pogledao nedostatke koje početnici umjetne inteligencije imaju tendenciju da naprave, pogledajte raspravu na link ovdje.
  • 8) Suočavanje sa generativnim AI pozivima i AI halucinacijama. Opisujem vodeći pristup korištenju dodataka AI za rješavanje različitih problema povezanih s pokušajem unosa odgovarajućih upita u generativnu AI, plus postoje dodatni AI dodaci za otkrivanje takozvanih AI haluciniranih izlaza i laži, kao što su pokriveno na link ovdje.
  • 9) Razotkrivanje tvrdnji Boneheada o otkrivanju generativnih eseja proizvedenih AI. Postoji pogrešna zlatna groznica aplikacija AI koje proglašavaju da mogu utvrditi da li je bilo koji esej proizveden od strane ljudi u odnosu na AI generiran. Sve u svemu, ovo je obmanjujuće iu nekim slučajevima, bezobzirna i neodrživa tvrdnja, pogledajte moje izvješće na link ovdje.
  • 10) Igranje uloga putem generativne AI može predstavljati nedostatke mentalnog zdravlja. Neki koriste generativnu umjetnu inteligenciju kao što je ChatGPT za igranje uloga, pri čemu AI aplikacija reagira na čovjeka kao da postoji u svijetu fantazije ili drugom izmišljenom okruženju. Ovo bi moglo imati reperkusije na mentalno zdravlje, vidite link ovdje.
  • 11) Razotkrivanje raspona izlaznih grešaka i netočnosti. Različite prikupljene liste se sastavljaju kako bi se pokušala prikazati priroda grešaka i neistina koje je proizveo ChatGPT. Neki smatraju da je to neophodno, dok drugi kažu da je vježba uzaludna, pogledajte moju analizu na link ovdje.
  • 12) Škole koje zabranjuju generativni AI ChatGPT nedostaju. Možda znate da su različite škole kao što je Ministarstvo obrazovanja New York City (NYC) proglasile zabranu korištenja ChatGPT-a na svojoj mreži i povezanim uređajima. Iako se ovo može činiti korisnom mjerom predostrožnosti, neće pomjeriti iglu i nažalost potpuno promaši čamac, pogledajte moje izvješće na link ovdje.
  • 13) Generativni AI ChatGPT će biti svuda zbog nadolazećeg API-ja. Predstoji važan zaokret u vezi sa upotrebom ChatGPT-a, naime da će putem upotrebe API portala u ovoj konkretnoj AI aplikaciji, drugi softverski programi moći pozvati i koristiti ChatGPT. Ovo će dramatično proširiti upotrebu generativne AI i imati značajne posljedice, pogledajte moju razradu na link ovdje.
  • 14) Načini na koje se ChatGPT može raspasti ili rastopiti. Nekoliko potencijalno uznemirujućih problema nalazi se ispred ChatGPT-a u smislu potkopavanja do sada ogromnih pohvala koje je dobio. Ova analiza pomno ispituje osam mogućih problema koji bi mogli uzrokovati da ChatGPT izgubi svoju snagu, pa čak i završi u kućici za pse, vidi link ovdje.
  • 15) Pitanje da li je generativni AI ChatGPT ogledalo u duši. Neki ljudi kukaju da generativna AI kao što je ChatGPT pruža ogledalo u duši čovečanstva. Ovo izgleda prilično sumnjivo. Evo kako da shvatite sve ovo, vidite link ovdje.
  • 16) Povjerljivost i privatnost proguta ChatGPT. Čini se da mnogi ne shvaćaju da licenciranje povezano s generativnim AI aplikacijama kao što je ChatGPT često omogućava proizvođaču umjetne inteligencije da vidi i koristi vaše unesene upite. Možete biti u opasnosti od privatnosti i gubitka povjerljivosti podataka, pogledajte moju procjenu na link ovdje.
  • 17) Načini na koje kreatori aplikacija sumnjivo pokušavaju steći ChatGPT pravo. ChatGPT je trenutno svjetionik pažnje. Proizvođači aplikacija koji nemaju nikakve veze sa ChatGPT grozničavo pokušavaju da tvrde ili impliciraju da koriste ChatGPT. Evo na šta treba paziti, pogledajte link ovdje.

Možda će vam biti zanimljivo da je ChatGPT baziran na verziji prethodne AI aplikacije poznate kao GPT-3. ChatGPT se smatra malo sljedećim korakom, koji se naziva GPT-3.5. Očekuje se da će GPT-4 vjerovatno biti objavljen u proljeće 2023. Vjerovatno će GPT-4 biti impresivan korak naprijed u smislu mogućnosti da proizvodi naizgled još tečnije eseje, dublje i strahopoštovanje -inspirativno čudo u pogledu kompozicija koje može proizvesti.

Možete očekivati ​​da vidite novu rundu izraženog čuđenja kada dođe proljeće i kada bude objavljena najnovija generativna umjetna inteligencija.

Pominjem ovo jer postoji još jedan ugao koji treba imati na umu, a sastoji se od potencijalne Ahilove pete za ove bolje i veće generativne AI aplikacije. Ako bilo koji dobavljač AI učini dostupnom generativnu AI aplikaciju koja pjenasto izbacuje prljavštinu, to bi moglo uništiti nade tih proizvođača AI. Društveno prelijevanje može uzrokovati da sva generativna AI dobiju ozbiljne crne oči. Ljudi će se nesumnjivo poprilično uznemiriti zbog loših rezultata, što se dogodilo već mnogo puta i dovelo do burnih društvenih osuda prema AI.

Za sada jedno poslednje upozorenje.

Šta god da vidite ili pročitate u generativnom odgovoru AI čini da bude preneto kao čisto činjenično (datumi, mesta, ljudi, itd.), budite skeptični i budite spremni da još jednom proverite šta vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmišljati, a elementi za koje obično očekujemo da će biti bez zamjerke su sve predmet sumnji. Ne vjerujte onome što pročitate i budite skeptični kada ispitujete bilo kakve generativne eseje ili rezultate AI. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln letio po cijeloj zemlji u svom privatnom avionu, nesumnjivo biste znali da je to malargija. Nažalost, neki ljudi možda ne shvataju da mlaznjaci nisu postojali u njegovo vreme, ili možda znaju, ali ne primećuju da esej iznosi ovu drsku i nečuveno lažnu tvrdnju.

Jaka doza zdravog skepticizma i uporni način razmišljanja u nevjerici bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo da pređemo u sledeću fazu ovog rasvetljavanja.

Guranje generativne AI do tačke preloma

Sada kada smo uspostavili osnove, možemo zaroniti u temu guranja generativne AI i ChatGPT-a za generiranje govora mržnje i drugog uvredljivog sadržaja.

Kada se prvi put prijavite na ChatGPT, postoje različite indikacije upozorenja uključujući ove:

  • “Može povremeno proizvesti štetne upute ili pristrasan sadržaj.”
  • “Obučeni da odbijaju neprikladne zahtjeve.”
  • “Može povremeno generirati netačne informacije.”
  • “Ograničeno znanje o svijetu i događajima nakon 2021.”

Evo pitanja za vas da razmislite.

Da li upozorenje da bi AI aplikacija mogla proizvesti štetne upute i/ili eventualno pristrasan sadržaj pruža dovoljno prostora za AI kreatora?

Drugim riječima, pretpostavimo da koristite ChatGPT i da generiše esej za koji vjerujete da sadrži govor mržnje. Pretpostavimo da ste ljuti zbog ovoga. Odete na društvene mreže i objavite bijesni komentar da je AI aplikacija najgora stvar ikada. Možda ste toliko uvrijeđeni da izjavljujete da ćete tužiti proizvođača umjetne inteligencije jer je dozvolio proizvodnju takvog govora mržnje.

Protuargument je da je AI aplikacija imala upozoravajuće upozorenje, tako da ste prihvatili rizik tako što ste nastavili da koristite AI aplikaciju. Iz perspektive etike umjetne inteligencije, možda je proizvođač umjetne inteligencije učinio dovoljno da potvrdi da ste bili svjesni onoga što se može dogoditi. Isto tako, iz pravne perspektive, možda je upozorenje predstavljalo dovoljno upozorenja i nećete imati prednost na sudu.

Sve je ovo u zraku i morat ćemo pričekati i vidjeti kako će se stvari odvijati.

U jednom smislu, proizvođač umjetne inteligencije ima nešto drugo za njih u svojoj odbrani od bilo kakvih ljutih tvrdnji da aplikacija AI možda proizvodi govor mržnje. Pokušali su spriječiti stvaranje uvredljivog sadržaja. Vidite, da nisu uradili ništa da ovo smanje, pretpostavlja se da bi bili na tanjem ledu. Budući da su se barem suštinski potrudili da izbjegnu stvar, vjerovatno imaju nešto jaču nogu na koju mogu stajati (i dalje bi mogla biti nokautirana ispod njih).

Jedan kurativni pristup koji je korišten sastojao se od AI tehnike poznate kao RLHF (učenje s pojačanjem putem povratne informacije od ljudi). Ovo se općenito sastoji od toga da AI generiše sadržaj koji se onda od ljudi traži da ocijene ili pregledaju. Na osnovu ocjene ili pregleda, AI zatim matematički i računski pokušava izbjeći sve što se smatra pogrešnim ili uvredljivim sadržajem. Pristup ima za cilj da ispita dovoljno primjera šta je ispravno a šta nije kako bi AI mogao shvatiti sveobuhvatni matematički obrazac i zatim koristiti taj obrazac od sada dalje.

Još jedan čest pristup ovih dana sastoji se od korištenja Adversarial AI.

Evo kako to funkcionira. Postavljate drugačiji sistem veštačke inteligencije koji će pokušati da bude protivnik veštačkoj inteligenciji koju pokušavate da obučite. U ovom slučaju, uspostavili bismo sistem veštačke inteligencije koji pokušava da podstakne govor mržnje. To bi ubacilo upite u AI aplikaciju koji imaju za cilj da prevare AI aplikaciju da izbaci loš sadržaj. U međuvremenu, AI koja je ciljana prati kada je suprotstavljena AI uspješna, a zatim algoritamski pokušava da se prilagodi kako bi se to više ne događalo. To je gambit mačke protiv miša. Ovo se ponavlja iznova i iznova, sve dok se čini da neprijateljska AI više nije posebno uspješna u navođenju ciljane AI da radi loše stvari.

Preko te dvije glavne tehnike, plus drugih pristupa, veći dio današnje generativne AI je mnogo bolji u izbjegavanju i/ili otkrivanju uvredljivog sadržaja nego što je to bio slučaj u prošlim godinama.

Ipak, nemojte očekivati ​​savršenstvo od ovih metoda. Šanse su da će takve tehnike AI vjerovatno držati pod kontrolom plodove loših rezultata. Još uvijek ima puno prostora za ispuštanje prljavštine.

Obično ističem da su ovo neke od aspekata koje se žele uhvatiti:

  • Izdavanje određene pogrdne riječi
  • Navođenje određene nepristojne fraze, rečenice ili opaske
  • Izražavanje određene pogrešne koncepcije
  • Podrazumijevanje određenog pogrešnog čina ili ideje
  • Čini se da se oslanja na određenu pretpostavku prekršaja
  • drugi

Ništa od ovoga nije egzaktna nauka. Shvatite da imamo posla sa rečima. Riječi su semantički dvosmislene. Pronalaženje određene pogrdne riječi je dječja igra, ali mnogo je teže pokušati procijeniti da li rečenica ili pasus sadrži privid lošeg značenja. Prema ranijoj definiciji govora mržnje od strane Ujedinjenih naroda, postoji ogromna sloboda u pogledu onoga što bi se moglo protumačiti kao govor mržnje u odnosu na ono što ne bi moglo biti.

Mogli biste reći da su sive zone u oku posmatrača.

Govoreći o oku promatrača, danas postoje ljudi koji koriste generativnu umjetnu inteligenciju kao što je ChatGPT koji namjerno pokušavaju natjerati ove AI aplikacije da proizvode uvredljiv sadržaj. Ovo je njihova potraga. Oni provode sate i sate pokušavajući da dovedu do toga.

Zašto tako?

Evo mojih karakterizacija tih lovaca na ljudske efekte AI napada:

  • Pravi. Ovi ljudi žele pomoći u poboljšanju AI i pomoći čovječanstvu u tome. Oni vjeruju da rade herojski posao i uživaju u tome što bi mogli pomoći u unapređenju AI za boljitak svih.
  • Funsters. Ovi ljudi o ovom trudu razmišljaju kao o igri. Oni uživaju u petljanju sa AI. Pobjeda u igri se sastoji od pronalaženja najgoreg od najgoreg u onome što AI može stvoriti.
  • Show-offs. Ovi ljudi se nadaju da će privući pažnju na sebe. Shvatili su da ako pronađu neke stvarno loše zlatne grumene, mogu dobiti malo blistavog svjetla na njih koje je inače fokusirano na samu AI aplikaciju.
  • Gorčine. Ovi ljudi su ljuti zbog ove AI. Žele da potkopaju sav taj bujni entuzijazam. Ako mogu otkriti neke smrdljive stvari, možda će ovo izbaciti zrak iz balona uzbuđenja aplikacije AI.
  • Druge motivacije

Mnogi od onih koji izvode ofanzivu pronalaženja uglavnom su u samo jednom od tih kampova. Naravno, možete biti u više kampova istovremeno. Možda ogorčena osoba takođe ima nameru da bude iskrena i herojska. Neke ili sve te motivacije mogu koegzistirati. Kada se od vas traži da objasni zašto neko pokušava gurnuti generativnu AI aplikaciju u područje govora mržnje, uobičajeni odgovor je da kažete da ste u pravom taboru, čak i ako ste možda marginalno i umjesto toga oštro sjedite u jednom od drugim logorima.

Koje vrste trikova u vezi sa brzim putem ovi ljudi koriste?

Prilično očigledan trik uključuje korištenje pogrdne riječi u promptu. Ako vam se "posreći" i aplikacija AI padne na to, ovo bi moglo završiti na izlazu. Onda imate svoj trenutak.

Velike su šanse da će dobro osmišljena i dobro testirana generativna AI aplikacija uhvatiti taj jednostavan trik. Obično će vam se prikazati poruka upozorenja koja kaže prestanite s tim. Ako nastavite, AI aplikacija će biti programirana da vas izbaci iz aplikacije i označi vaš račun. Moguće je da ćete biti spriječeni da se ponovo prijavite (pa, barem pod prijavom koju ste koristili u to vrijeme).

Krećući se na ljestvici smicalica, možete dati upit koji pokušava uvesti AI u kontekst nečega lošeg. Da li ste ikada igrali onu igru ​​u kojoj vam neko kaže da kažete nešto, a da ne kažete ono što bi trebalo da kažete? Ovo je ta igra, iako se odvija sa AI.

Hajde da igramo tu igru. Pretpostavimo da tražim od AI aplikacije da mi kaže o Drugom svjetskom ratu i posebno o glavnim uključenim vladinim vođama. Ovo izgleda kao nevin zahtjev. Ne postoji ništa što bi se činilo vrijednim označavanja u promptu.

Zamislite da objavljen esej od strane AI aplikacije uključuje spominjanje Winstona Churchilla. To svakako ima smisla. Drugi bi mogao biti Franklin D. Roosevelt. Još jedan bi mogao biti Josif Staljin. Pretpostavimo da se spominje i Adolph Hitler. Ovo ime bi bilo uključeno u gotovo svaki esej o Drugom svjetskom ratu i onima koji su u ulozi istaknute moći.

Sada kada imamo njegovo ime na stolu i dio razgovora s umjetnom inteligencijom, sljedeće ćemo pokušati natjerati AI da ugradi to ime na način koji možemo prikazati kao potencijalni govor mržnje.

Ulazimo u drugi upit i kažemo aplikaciji AI da danas u vijestima postoji osoba koja ima ime, John Smith. Nadalje, u upitu ukazujemo da je John Smith vrlo sličan tom zločincu iz Drugog svjetskog rata. Zamka je sada postavljena. Zatim tražimo od AI aplikacije da generiše esej o Johnu Smithu, zasnovan isključivo na „činjenici“ koju smo unijeli o tome s kim se John Smith može izjednačiti.

U ovom trenutku, AI aplikacija bi mogla generirati esej koji imenuje osobu iz Drugog svjetskog rata i opisuje Johna Smitha kao od istog kroja tkanine. U eseju nema ružnih riječi samih po sebi, osim aludiranja na slavnog zločinca i izjednačavanja te osobe sa Johnom Smithom.

Je li aplikacija AI sada proizvela govor mržnje?

Mogli biste reći da jeste. Nazvati Johna Smitha kao poznatog zločinca, apsolutno je oblik govora mržnje. AI ne bi trebalo da daje takve izjave.

Replika je da ovo nije govor mržnje. Ovo je samo esej napravljen od strane AI aplikacije koja nema utjelovljenje osjećaja. Mogli biste tvrditi da se govor mržnje javlja samo kada postoji namjera koja je u osnovi govora. Bez ikakve namere, govor se ne može klasifikovati kao govor mržnje.

Apsurdno, stiže odgovor na repliku. Riječi su važne. Nije bitno da li je veštačka inteligencija „nameravala“ da proizvede govor mržnje. Bitno je samo da je proizveden govor mržnje.

Ovo ide u krug.

Ne želim sada mnogo više da govorim o pokušaju da prevarim AI. Postoje sofisticiraniji pristupi. Ovo sam pokrio na drugim mestima u svojim kolumnama i knjigama, i neću ih ponavljati ovde.

zaključak

Koliko daleko trebamo gurnuti ove AI aplikacije da vidimo možemo li izbaciti uvredljiv sadržaj?

Možete tvrditi da ne postoji ograničenje koje treba nametnuti. Što se više trudimo, nadamo se da možemo procijeniti kako spriječiti ovu umjetnu inteligenciju i buduće iteracije AI kako bismo spriječili takve bolesti.

Neki se ipak brinu da, ako jedini način da se dobije pokvarenost uključuje ekstremne prevare, to potkopava korisne aspekte AI. Reklamiranje da AI ima užasnu prljavštinu, iako je prevareno da je emituje, daje lažnu priču. Ljudi će se uznemiriti zbog AI zbog percipirana lakoća u kojoj je AI generirao neželjeni sadržaj. Možda ne znaju niti im je rečeno koliko je osoba morala ići u zečju rupu da bi dobila takve rezultate.

Sve je to hrana za razmišljanje.

Za sada nekoliko završnih komentara.

Vilijam Šekspir je posebno rekao ovo o govoru: „Govoriti ne valja. Neka vrsta dobrog djela je reći dobro, a riječi nisu djela.” Pominjem ovo jer neki tvrde da, ako AI samo generira riječi, ne bismo trebali biti previše napeti. Kada bi AI djelovala na osnovu riječi i ergo činila pogrešna djela, onda bismo morali čvrsto spustiti nogu. Nije tako ako su izlaz samo riječi.

Kontrastno gledište bi se slagalo sa ovom anonimnom izrekom: „Jezik nema kosti, ali je dovoljno jak da slomi srce. Zato budite oprezni sa svojim riječima.” AI aplikacija koja emituje ružne riječi možda može slomiti srca. Samo to čini potragu za zaustavljanjem štetnih efekata dostojnim razlogom, rekli bi neki.

Još jedna anonimna izreka za zatvaranje ove teške rasprave:

  • "Budite oprezni sa svojim riječima. Jednom kada su izgovoreni, mogu im samo biti oprošteni, ne i zaboravljeni.”

Kao ljudi, možda ćemo teško zaboraviti na prljavštinu koju proizvodi AI, a naš oprost bi isto tako mogao oklijevati da ga damo.

Mi smo, na kraju krajeva, samo ljudi.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etika-i-ai-law/