Generativni AI ChatGPT može uznemirujuće progutati vaše privatne i povjerljive podatke, upozorava na etiku AI i zakon o AI

Sada vidite svoje podatke, sada ne.

U međuvremenu, vaši dragocjeni podaci su takoreći postali dio kolektiva.

Mislim na aspekt koji bi mogao biti prilično iznenađujući za one od vas koji željno i ozbiljno koriste najnovije u umjetnoj inteligenciji (AI). Podaci koje unosite u AI aplikaciju potencijalno nisu u potpunosti privatni samo za vas i za vas. Moguće je da će vaše podatke upotrijebiti proizvođač umjetne inteligencije kako bi vjerojatno pokušao poboljšati svoje usluge umjetne inteligencije ili će ih oni i/ili čak njihovi partneri koristiti u različite svrhe.

Sada ste unaprijed upozoreni.

Ova predaja vaših podataka se dešava na najbezazleniji način i potencijalno hiljadama ili milionima ljudi. Kako to? Postoji vrsta AI poznata kao generativna AI koja je nedavno izazvala velike naslove i veliku pažnju javnosti. Najznačajnija od postojećih generativnih AI aplikacija je ona koja se zove ChatGPT koju je osmislila firma OpenAI.

Navodno postoji oko milion registrovanih korisnika za ChatGPT. Čini se da mnogi od tih korisnika uživaju u isprobavanju ove najpopularnije i najnovije generativne AI aplikacije. Proces je izuzetno jednostavan. Unesite neki tekst kao upit, i voila, aplikacija ChatGPT generira tekstualni izlaz koji je obično u obliku eseja. Neki ovo nazivaju tekstom u tekst, iako ja radije označavam kao tekst u esej, jer ovaj izraz ima više svakodnevnog smisla.

U početku će korisnik početnik vjerovatno unijeti nešto zabavno i bezbrižno. Pričajte mi o životu i vremenu Džordža Vašingtona, neko bi mogao da uđe kao upit. ChatGPT bi tada napravio esej o našem legendarnom prvom predsjedniku. Esej bi bio potpuno tečan i bilo bi vam teško razaznati da ga je proizvela AI aplikacija. Uzbudljiva stvar za vidjeti kako se dešava.

Šanse su da će se, nakon što se neko vrijeme poigrati, segment početnika zadovoljiti i potencijalno odlučiti da prestane da se igra sa ChatGPT-om. Sada su prevladali svoj FOMO (strah od propuštanja), čineći to nakon eksperimentiranja s AI aplikacijom o kojoj se čini da skoro svi brbljaju. Deed done.

Neki će ipak početi razmišljati o drugim i ozbiljnijim načinima korištenja generativne AI.

Možda koristite ChatGPT da napišete taj dopis za koji vas je šef harangirao. Sve što treba da uradite je da date upit sa tačkama koje imate na umu, a sledeća stvar za koju znate da je ChatGPT generisao ceo dopis koji bi vaš šef učinio ponosnim na vas. Izvedeni esej kopirate iz ChatGPT-a, zalijepite ga u službeni predložak kompanije u vašem paketu za obradu teksta i pošaljete elegantni memorandum e-poštom svom menadžeru. Vrijediš milion dolara. I koristili ste svoj mozak da pronađete praktičan alat koji će obaviti težak posao umjesto vas. Potapšajte se po leđima.

To nije sve.

Da, ima još.

Imajte na umu da generativna AI može obaviti niz drugih zadataka vezanih za pisanje.

Na primjer, pretpostavimo da ste napisali neku vrstu naracije za cijenjenog klijenta i jako želite da se materijal pregleda prije nego što izađe.

Lako grašak.

Zalijepite tekst svoje naracije u ChatGPT prompt, a zatim naložite ChatGPT da analizira tekst koji ste sastavili. Rezultirajući esej mogao bi duboko zaroniti u vašu formulaciju, i na vaše ugodno iznenađenje pokušat će naizgled provjeriti značenje onoga što ste rekli (idi daleko dalje od provjere pravopisa ili analizatora gramatike). Aplikacija AI bi mogla otkriti greške u logici vaše priče ili bi mogla otkriti kontradikcije za koje niste znali da su u vašem vlastitom pisanju. Gotovo je kao da ste unajmili lukavog ljudskog urednika da promotri vaš nacrt i pruži niz korisnih prijedloga i istaknutih zabrinutosti (pa, želim kategorički reći da ne pokušavam antropomorfizirati aplikaciju AI, posebno da je ljudski urednik čovjek dok je AI aplikacija samo kompjuterski program).

Hvala Bogu što ste koristili generativnu AI aplikaciju da pomno pregledate svoju dragocjenu pisanu priču. Nesumnjivo biste više voljeli da AI pronađe te uznemirujuće pisane probleme, a ne nakon što pošalje dokument vašem cijenjenom klijentu. Zamislite da ste sastavili narativ za nekoga ko vas je unajmio da osmislite vrlo važan prikaz. Da ste klijentu dali originalnu verziju, prije pregleda AI aplikacije, mogli biste doživjeti veliku sramotu. Klijent bi gotovo sigurno gajio ozbiljne sumnje u vaše sposobnosti da obavite traženi posao.

Hajde da podignemo ulog.

Razmotrite kreiranje pravnih dokumenata. To je očigledno posebno ozbiljna stvar. Riječi i način na koji su sastavljene mogu predstavljati duhovitu pravnu odbranu ili sumornu pravnu nesreću.

U svom tekućem istraživanju i savjetovanju, redovno komuniciram sa puno advokata koji su jako zainteresirani za korištenje AI u oblasti prava. Različiti LegalTech programi se povezuju sa AI mogućnostima. Advokat može koristiti generativnu umjetnu inteligenciju da sastavi nacrt ugovora ili druge pravne dokumente. Osim toga, ako je advokat sam napravio početni nacrt, može proslijediti tekst generativnoj AI aplikaciji kao što je ChatGPT da pogleda i vidi koje rupe ili praznine mogu biti otkrivene. Za više o tome kako se advokati i pravna oblast odlučuju za korištenje AI, pogledajte moju raspravu na link ovdje.

Ipak smo spremni za trljanje po ovom pitanju.

Advokat uzima nacrt ugovora i kopira tekst u prompt za ChatGPT. Aplikacija AI proizvodi recenziju za advokata. Ispostavilo se da ChatGPT pronalazi nekoliko problema. Advokat revidira ugovor. Oni također mogu zatražiti od ChatGPT-a da im predloži preformulisanje ili ponavljanje sastavljenog teksta. Novu i bolju verziju ugovora tada proizvodi generativna AI aplikacija. Advokat hvata izlazni tekst i ubacuje ga u datoteku za obradu teksta. Poslanica ide njihovom klijentu. Zadatak izvršen.

Možete li pogoditi šta se upravo dogodilo?

Iza kulisa i ispod haube, ugovor je mogao biti progutan kao riba u usta kitu. Iako ovaj advokat koji koristi umjetnu inteligenciju to možda neće shvatiti, tekst ugovora, koji je postavljen kao prompt u ChatGPT, potencijalno bi mogao biti progutan aplikacijom AI. To je sada hrana za usklađivanje uzoraka i druge računske zamršenosti aplikacije AI. Ovo se zauzvrat može koristiti na razne načine. Ako u nacrtu postoje povjerljivi podaci, i to je sada potencijalno unutar granica ChatGPT-a. Vaš upit koji je dostavljen aplikaciji AI sada je na ovaj ili onaj način navodno dio kolektiva.

Nadalje, izrađeni esej se također smatra dijelom kolektiva. Ako ste tražili od ChatGPT-a da izmijeni nacrt umjesto vas i predstavi novu verziju ugovora, ovo se tumači kao izlazni esej. Rezultati ChatGPT-a su također vrsta sadržaja koji se može zadržati ili na drugi način transformirati pomoću AI aplikacije.

Ajme, možda ste nevino odali privatne ili povjerljive informacije. Nije dobro. Osim toga, ne biste ni bili svjesni da ste to učinili. Zastave nisu podignute. Sirena nije zatrubila. Nijedna trepćuća svjetla se nisu ugasila da vas šokiraju u stvarnost.

Mogli bismo predvidjeti da bi ne-pravnici lako mogli napraviti takvu grešku, ali za iskusnog advokata da učini istu početničku grešku je gotovo nezamislivo. Ipak, vjerovatno postoje pravni profesionalci koji upravo sada prave ovu istu potencijalnu grešku. Rizikuju da naruše značajan element privilegije advokat-klijent i da možda prekrše Model pravila profesionalnog ponašanja (MRPC) Američke advokatske komore (ABA). Konkretno: „Advokat neće otkriti informacije koje se odnose na zastupanje klijenta osim ako klijent ne daje informirani pristanak, ako je otkrivanje implicitno ovlašteno da bi se izvršilo zastupanje ili je otkrivanje dozvoljeno stavom (b)” (citirano od MRPC, a za koje se čini da izuzeci povezani s pododjeljkom b ne obuhvataju korištenje generativne AI aplikacije na nesiguran način).

Neki odvjetnici bi mogli tražiti da se opravdaju za svoj prijestup tvrdeći da nisu tehnički čarobnjaci i da ne bi imali spremna sredstva da znaju da bi njihovo unošenje povjerljivih informacija u generativnu AI aplikaciju na neki način moglo biti svojevrsno kršenje. ABA je jasno stavila do znanja da dužnost advokata obuhvata ažuriranje AI i tehnologije iz pravne perspektive: „Da bi održao potrebno znanje i veštinu, advokat treba da bude u toku sa promenama u zakonu i njegovoj praksi, uključujući koristi i rizike povezane sa relevantnom tehnologijom, uključiti se u kontinuirano učenje i obrazovanje i ispuniti sve zahtjeve kontinuiranog pravnog obrazovanja kojima podliježe advokat” (po MRPC).

Nekoliko odredbi dolazi u ovaj privid pravne dužnosti, uključujući održavanje povjerljivih informacija o klijentu (Pravilo 1.6), zaštitu imovine klijenta kao što su podaci (Pravilo 1.15), pravilnu komunikaciju sa klijentom (Pravilo 1.4), pribavljanje informiranog pristanka klijenta (Pravilo 1.6), i osiguranje kompetentnog zastupanja u ime klijenta (Pravilo 1.1). A tu je i malo poznata, ali vrlo zapažena rezolucija fokusirana na umjetnu inteligenciju koju je donijela ABA: „Da Američka advokatska komora podstiče sudove i advokate da se pozabave nastalim etičkim i pravnim pitanjima vezanim za korištenje umjetne inteligencije ('AI') u pravnoj praksi uključujući: (1) pristrasnost, objašnjivost i transparentnost automatizovanih odluka koje donosi AI; (2) etička i korisna upotreba AI; i (3) kontrole i nadzora AI i dobavljača koji pružaju AI.”

Riječi mudrima za moje pravne prijatelje i kolege.

Suština stvari je u tome što se skoro svako može uvući u gužvu kada koristi generativnu AI. Ne-advokati to mogu učiniti zbog svog pretpostavljenog nedostatka pravne pronicljivosti. I advokati to mogu učiniti, možda zaljubljeni u AI ili ne udahnu duboko i razmišljaju o pravnim posljedicama koje mogu nastati kada se koristi generativna AI.

Svi smo potencijalno u istom čamcu.

Također biste trebali shvatiti da ChatGPT nije jedina generativna AI aplikacija u bloku. Postoje i druge generativne AI aplikacije koje možete koristiti. I oni su vjerovatno izrezani iz iste tkanine, naime da se ulazi koje unosite kao upiti i izlazi koje primate kao generirani izlazni eseji smatraju dijelom kolektiva i mogu ih koristiti AI proizvođač.

U današnjoj kolumni ću razotkriti prirodu načina na koji podaci koje unosite i podaci koje primate od generativne AI mogu biti potencijalno ugroženi u pogledu privatnosti i povjerljivosti. Proizvođači umjetne inteligencije stavljaju na raspolaganje svoje zahtjeve za licenciranje i bilo bi mudro da pročitate te vitalne odredbe prije nego počnete aktivno koristiti AI aplikaciju sa bilo kakvim prividom stvarnih podataka. Provest ću vas kroz primjer takvog licenciranja, radeći to za aplikaciju ChatGPT AI.

U sve ovo dolazi niz razmatranja etike AI i prava.

Imajte na umu da postoje stalni napori da se etički principi AI unesu u razvoj i primjenu AI aplikacija. Sve veći kontingent zabrinutih i nekadašnjih etičara AI pokušava osigurati da napori na osmišljavanju i usvajanju AI uzimaju u obzir pogled na rad AI za dobro i odvraćanje AI za loše. Isto tako, postoje predloženi novi zakoni o umjetnoj inteligenciji koji se razmjenjuju kao potencijalna rješenja kako bi nastojanja umjetne inteligencije spriječila da pobesne o ljudskim pravima i slično. Za moje kontinuirano i opsežno pokrivanje etike AI i prava AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Postoje značajne etičke nijanse umjetne inteligencije i odredbe povezane s načinom na koji proizvođači umjetne inteligencije mogu ili bi trebali postupati s podacima ili informacijama koje se njihovim korisnicima čine privatnim ili povjerljivim. Vjerovatno i vi znate da gomila postojećih zakona pogađa srž načina na koji tehnološki subjekti treba da rukuju podacima. Šanse su i da će se novopredloženi zakoni o umjetnoj inteligenciji ukrstiti na istu teritoriju. Pogledajte na primjer moje izvještavanje o AI Povelja o pravima i druge pravne prepirke koje se vode oko AI, na link ovdje.

Evo ključnih zaključaka iz ove diskusije:

  • Budite vrlo, vrlo, vrlo oprezni o tome koje podatke ili informacije odlučite staviti u svoje upite kada koristite generativnu umjetnu inteligenciju, i na sličan način budite izuzetno oprezni i predvidite koje vrste izlaznih eseja možete dobiti jer se i rezultati također mogu apsorbirati.

Da li to implicira da ne biste trebali koristiti generativnu umjetnu inteligenciju?

Ne, to uopšte nije ono što govorim.

Koristite generativnu umjetnu inteligenciju do mile volje. Suština je da morate voditi računa o tome kako ga koristite. Saznajte koje su odredbe o licenciranju povezane s upotrebom. Odlučite možete li živjeti s tim odredbama. Ako postoje načini da informišete proizvođača veštačke inteligencije da želite da se pozovete na određene vrste dodatne zaštite ili dopuštenja, obavezno to učinite.

Takođe ću spomenuti još jedan aspekt za koji sam shvatio da će neke ljude naljutiti. Evo ide. Bez obzira na sve uslove licenciranja, također morate pretpostaviti da postoji mogućnost da se ti zahtjevi ne poštuju u potpunosti. Stvari mogu krenuti po zlu. Stvari mogu skliznuti između pukotina. Na kraju, naravno, možda ćete imati tužbu protiv proizvođača umjetne inteligencije zbog nepoštovanja njihovih odredbi, ali to je nešto nakon što je konj već izašao iz štale.

Potencijalno vrlo siguran način da nastavite bilo bi postavljanje vlastite instance na vlastitim sistemima, bilo u oblaku ili unutar kuće (i, pod pretpostavkom da se pridržavate odgovarajućih mjera predostrožnosti za kibernetičku sigurnost, koje doduše neke ne čine i one su gore isključeni u vlastitom oblaku nego korištenjem oblaka dobavljača softvera). Ipak, malo mučan problem je to što nekoliko generativnih AI velikih aplikacija to trenutno dozvoljava. Svi oni uglavnom rade na bazi samo u našem oblaku. Malo je onih koji su omogućili mogućnost izrade cijele instance samo za vas. Predvidio sam da ćemo postepeno vidjeti da se ova opcija pojavljuje, iako će u početku biti prilično skupa i pomalo komplikovana, pogledajte moja predviđanja na link ovdje.

Kako inače posebno bistri i posebno pronicljivi ljudi dospiju u tvar narušavanja povjerljivosti podataka ili informacija?

Privlačnost ovih generativnih AI aplikacija je prilično magnetična kada je počnete koristiti. Korak po korak, nalazite se hipnotizirani i odlučujete da svoje prste stavljate sve dalje i dalje u vode generativne AI. Sljedeće što znate je da spremno predate vlasnički sadržaj koji bi trebao biti privatan i povjerljiv u generativnu AI aplikaciju.

Oduprite se porivu i molimo vas da se suzdržite od postepenog upadanja u neugodnu zamku.

Za poslovne lidere i rukovodioce najvišeg nivoa, isto upozorenje odnosi se na vas i sve ljude u vašoj kompaniji. Viši rukovodioci su zahvaćeni entuzijazmom i čuđenjem korištenja generativne AI. Oni zaista mogu zabrljati i potencijalno unijeti tajne informacije najvišeg nivoa u AI aplikaciju.

Povrh svega, mogli bi imati široke grupe svojih zaposlenih koji se također igraju s generativnom umjetnom inteligencijom. Mnogi od onih inače pažljivog osoblja bezumno i blaženo unose privatne i povjerljive informacije kompanije u ove AI aplikacije. Prema nedavnim novinskim izvještajima, Amazon je očito otkrio da neki zaposlenici unose različite vlasničke informacije u ChatGPT. Rečeno je da je interno poslano upozorenje orijentirano na zakon kako bi bili oprezni u korištenju neodoljive AI aplikacije.

Sve u svemu, malo ironije dolazi u rastući fenomen da zaposleni hteli-nehteli unose poverljive podatke u ChatGPT i drugu generativnu veštačku inteligenciju. Dozvolite mi da detaljnije objasnim. Današnje moderne kompanije obično imaju stroge politike kibernetičke sigurnosti koje su mukotrpno osmislile i implementirale. Postoje brojne tehnološke zaštite. Nada je da se spriječi slučajna puštanja ključnih stvari. Neprekidno udaranje bubnjeva je da budete oprezni kada posjećujete web stranice, budite oprezni kada koristite bilo koju neodobrenu aplikaciju itd.

Uz to dolaze generativne AI aplikacije kao što je ChatGPT. Vijesti o AI aplikaciji prolaze kroz krov i dobivaju široku pažnju. Nastaje ludnica. Ljudi u ovim kompanijama koje imaju sve ove zaštite od kibernetičke sigurnosti odlučuju se za generativnu AI aplikaciju. Isprva se dokono igraju s tim. Zatim počinju unositi podatke o kompaniji. Wham, sada su potencijalno razotkrili informacije koje nisu smjele biti otkrivene.

Sjajna nova igračka koja magično zaobilazi milione dolara troškova za zaštitu sajber sigurnosti i stalnu obuku o tome šta ne treba raditi. Ali, hej, uzbudljivo je koristiti generativnu umjetnu inteligenciju i biti dio "in" gomile. To je ono što se računa, očigledno.

Vjerujem da ste shvatili moje mišljenje o izrazitom oprezu.

Pogledajmo izbliza kako se generativna AI tehnički bavi tekstom upita i objavljenih eseja. Također ćemo istražiti neke odredbe o licenciranju, koristeći ChatGPT kao primjer. Imajte na umu da neću pokriti cijeli raspon tih elemenata licenciranja. Obavezno uključite svog pravnog savjetnika za sve generativne AI aplikacije za koje se odlučite koristiti. Takođe, licenciranje se razlikuje od proizvođača AI do proizvođača, plus određeni proizvođač AI može odlučiti da promijeni svoje licenciranje, tako da budite oprezni u pogledu onoga što najnovija verzija licenciranja predviđa.

Imamo uzbudljivo raspakivanje ove opojne teme.

Prvo, trebalo bi da se uverimo da smo svi na istoj stranici o tome od čega se sastoji generativna AI, kao io tome šta je ChatGPT. Kada pokrijemo taj temeljni aspekt, možemo izvršiti uvjerljivu procjenu zrcalne metafore povezane s ovom vrstom AI.

Ako ste već dobro upoznati sa generativnom umjetnom inteligencijom i ChatGPT-om, možda možete preletjeti sljedeći odjeljak i nastaviti s odjeljkom koji ga slijedi. Vjerujem da će svi ostali pronaći važne detalje o ovim stvarima poučnima ako pažljivo pročitaju odjeljak i budu u toku.

Brzi uvod o generativnoj AI i ChatGPT-u

ChatGPT je AI interaktivni sistem orijentisan na razgovore opšte namene, u suštini naizgled bezopasan opšti chatbot, ali ga ljudi aktivno i entuzijastično koriste na načine koji mnoge hvataju potpuno nespremne, kao što ću uskoro elaborirati. Ova AI aplikacija koristi tehniku ​​i tehnologiju u području umjetne inteligencije koja se često naziva Generativna AI. AI generiše izlaze kao što je tekst, što ChatGPT radi. Druge generativne AI aplikacije proizvode slike kao što su slike ili umjetnička djela, dok druge generiraju audio datoteke ili video zapise.

U ovoj diskusiji ću se fokusirati na tekstualne generativne AI aplikacije jer to radi ChatGPT.

Generativne AI aplikacije su izuzetno jednostavne za korištenje.

Sve što trebate učiniti je unijeti upit i AI aplikacija će za vas generirati esej koji pokušava odgovoriti na vaš upit. Sastavljeni tekst će izgledati kao da je esej pisan ljudskom rukom i umom. Ako unesete prompt koji kaže „Pričaj mi o Abrahamu Linkolnu“, generativna AI će vam dati esej o Linkolnu. Ovo se obično klasifikuje kao generativna AI koja radi tekst u tekst ili neki radije to nazivaju tekst u esej izlaz. Kao što je spomenuto, postoje i drugi načini generativne AI, kao što su tekst u umjetnost i tekst u video.

Vaša prva pomisao bi mogla biti da ova generativna sposobnost ne izgleda tako velika stvar u smislu izrade eseja. Možete lako pretražiti internet na internetu i lako pronaći tone i tone eseja o predsjedniku Linkolnu. Potres u slučaju generativne AI je da je generirani esej relativno jedinstven i daje originalnu kompoziciju, a ne kopiju. Ako biste pokušali pronaći esej koji je proizvela umjetna inteligencija negdje na internetu, malo je vjerovatno da ćete ga otkriti.

Generativna AI je unaprijed obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama širom weba. Kao rezultat ispitivanja hiljada i miliona pisanih pasusa, AI može izbaciti nove eseje i priče koje su mešavina onoga što je pronađeno. Dodavanjem različitih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u poređenju sa onim što je korišteno u setu za obuku.

Zbog toga je nastala galama oko toga da učenici mogu da varaju kada pišu eseje van učionice. Nastavnik ne može samo da uzme esej za koji lažni učenici tvrde da je njihovo pisanje i da pokuša da sazna da li je kopiran sa nekog drugog onlajn izvora. Sve u svemu, neće postojati nijedan definitivni postojeći esej na mreži koji bi odgovarao eseju generisanom veštačkom inteligencijom. Sve u svemu, nastavnik će morati nevoljko prihvatiti da je učenik napisao esej kao originalno djelo.

Postoji dodatna zabrinutost oko generativne AI.

Jedna ključna mana je da eseji koje proizvodi generativna AI aplikacija mogu imati ugrađene različite neistine, uključujući očigledno neistinite činjenice, činjenice koje su pogrešno prikazane i očigledne činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti se često nazivaju oblikom AI halucinacije, fraza koju ne volim, ali na žalost izgleda da ionako postaje popularna (za moje detaljno objašnjenje zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Želeo bih da razjasnim jedan važan aspekt pre nego što uđemo u gusto stvari o ovoj temi.

Na društvenim mrežama pojavile su se neke lude prevelike tvrdnje o tome Generativna AI tvrdeći da je ova najnovija verzija AI u stvari razumna AI (ne, nisu u pravu!). Oni iz oblasti etike veštačke inteligencije i prava veštačke inteligencije posebno su zabrinuti zbog ovog rastućeg trenda rasprostranjenih potraživanja. Mogli biste pristojno reći da neki ljudi precjenjuju ono što današnja umjetna inteligencija zapravo može učiniti. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu dozvoliti sebi i drugima da dođu u strašne situacije zbog pretpostavke da će AI biti razuman ili sličan čovjeku u mogućnosti da preduzme akciju.

Nemojte antropomorfizirati AI.

Na taj način ćete biti uhvaćeni u ljepljivu i krutu zamku oslanjanja na očekivanje da AI radi stvari koje nije u stanju da izvede. Uz to, najnovija generativna AI je relativno impresivna za ono što može učiniti. Ipak, budite svjesni da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Ako ste zainteresovani za brzo širenje komešanja oko ChatGPT-a i Generativne AI sve rečeno, radio sam fokusiranu seriju u svojoj kolumni koja bi vam mogla biti informativna. Evo pogleda u slučaju da vam se neka od ovih tema dopadne:

  • 1) Predviđanja dolazećeg napretka generativne AI. Ako želite da znate šta će se verovatno dogoditi u vezi sa veštačkom inteligencijom tokom 2023. godine i kasnije, uključujući predstojeći napredak u generativnoj veštačkoj inteligenciji i ChatGPT-u, želećete da pročitate moju sveobuhvatnu listu predviđanja za 2023. na link ovdje.
  • 2) Generativna AI i savjeti za mentalno zdravlje. Odlučio sam da pregledam kako se generativna AI i ChatGPT koriste za savjete o mentalnom zdravlju, što je problematičan trend, prema mojoj fokusiranoj analizi na link ovdje.
  • 3) Osnove generativne AI i ChatGPT. Ovaj članak istražuje ključne elemente kako generativna umjetna inteligencija radi, a posebno se bavi aplikacijom ChatGPT, uključujući analizu zujanja i fanfara, na link ovdje.
  • 4) Napetost između nastavnika i učenika zbog generativne AI i ChatGPT-a. Evo načina na koje će učenici lukavo koristiti generativnu umjetnu inteligenciju i ChatGPT. Osim toga, postoji nekoliko načina da se nastavnici izbore sa ovim plimnim talasom. Vidi link ovdje.
  • 5) Kontekst i generativna upotreba AI. Također sam uradio sezonski šaljivi pregled o kontekstu vezanom za Djeda Mraza koji uključuje ChatGPT i generativnu AI na link ovdje.
  • 6) Prevaranti koji koriste generativnu AI. Na zlokobnu napomenu, neki prevaranti su shvatili kako da koriste generativnu AI i ChatGPT za vršenje pogrešnih radnji, uključujući generiranje prijevarnih e-poruka, pa čak i proizvodnju programskog koda za zlonamjerni softver, pogledajte moju analizu na link ovdje.
  • 7) Greške početnika koristeći generativnu AI. Mnogi ljudi i premašuju i iznenađujuće podcjenjuju ono što generativna AI i ChatGPT mogu učiniti, pa sam posebno pogledao nedostatke koje početnici umjetne inteligencije imaju tendenciju da naprave, pogledajte raspravu na link ovdje.
  • 8) Suočavanje sa generativnim AI pozivima i AI halucinacijama. Opisujem vodeći pristup korištenju dodataka AI za rješavanje različitih problema povezanih s pokušajem unosa odgovarajućih upita u generativnu AI, plus postoje dodatni AI dodaci za otkrivanje takozvanih AI haluciniranih izlaza i laži, kao što su pokriveno na link ovdje.
  • 9) Razotkrivanje tvrdnji Boneheada o otkrivanju generativnih eseja proizvedenih AI. Postoji pogrešna zlatna groznica aplikacija AI koje proglašavaju da mogu utvrditi da li je bilo koji esej proizveden od strane ljudi u odnosu na AI generiran. Sve u svemu, ovo je obmanjujuće iu nekim slučajevima, bezobzirna i neodrživa tvrdnja, pogledajte moje izvješće na link ovdje.
  • 10) Igranje uloga putem generativne AI može predstavljati nedostatke mentalnog zdravlja. Neki koriste generativnu umjetnu inteligenciju kao što je ChatGPT za igranje uloga, pri čemu AI aplikacija reagira na čovjeka kao da postoji u svijetu fantazije ili drugom izmišljenom okruženju. Ovo bi moglo imati reperkusije na mentalno zdravlje, vidite link ovdje.
  • 11) Razotkrivanje raspona izlaznih grešaka i netočnosti. Različite prikupljene liste se sastavljaju kako bi se pokušala prikazati priroda grešaka i neistina koje je proizveo ChatGPT. Neki smatraju da je to neophodno, dok drugi kažu da je vježba uzaludna, pogledajte moju analizu na link ovdje.
  • 12) Škole koje zabranjuju generativni AI ChatGPT nedostaju. Možda znate da su različite škole kao što je Ministarstvo obrazovanja New York City (NYC) proglasile zabranu korištenja ChatGPT-a na svojoj mreži i povezanim uređajima. Iako se ovo može činiti korisnom mjerom predostrožnosti, neće pomjeriti iglu i nažalost potpuno promaši čamac, pogledajte moje izvješće na link ovdje.
  • 13) Generativni AI ChatGPT će biti svuda zbog nadolazećeg API-ja. Predstoji važan zaokret u vezi sa upotrebom ChatGPT-a, naime da će putem upotrebe API portala u ovoj konkretnoj AI aplikaciji, drugi softverski programi moći pozvati i koristiti ChatGPT. Ovo će dramatično proširiti upotrebu generativne AI i imati značajne posljedice, pogledajte moju razradu na link ovdje.
  • 14) Načini na koje se ChatGPT može raspasti ili rastopiti. Nekoliko potencijalno uznemirujućih problema nalazi se ispred ChatGPT-a u smislu potkopavanja do sada ogromnih pohvala koje je dobio. Ova analiza pomno ispituje osam mogućih problema koji bi mogli uzrokovati da ChatGPT izgubi svoju snagu, pa čak i završi u kućici za pse, vidi link ovdje.

Možda će vam biti zanimljivo da je ChatGPT baziran na verziji prethodne AI aplikacije poznate kao GPT-3. ChatGPT se smatra malo sljedećim korakom, koji se naziva GPT-3.5. Očekuje se da će GPT-4 vjerovatno biti objavljen u proljeće 2023. Vjerovatno će GPT-4 biti impresivan korak naprijed u smislu mogućnosti da proizvodi naizgled još tečnije eseje, dublje i strahopoštovanje -inspirativno čudo u pogledu kompozicija koje može proizvesti.

Možete očekivati ​​da vidite novu rundu izraženog čuđenja kada dođe proljeće i kada bude objavljena najnovija generativna umjetna inteligencija.

Pominjem ovo jer postoji još jedan ugao koji treba imati na umu, a sastoji se od potencijalne Ahilove pete za ove bolje i veće generativne AI aplikacije. Ako bilo koji dobavljač AI učini dostupnom generativnu AI aplikaciju koja pjenasto izbacuje prljavštinu, to bi moglo uništiti nade tih proizvođača AI. Društveno prelijevanje može uzrokovati da sva generativna AI dobiju ozbiljne crne oči. Ljudi će se nesumnjivo poprilično uznemiriti zbog loših rezultata, što se dogodilo već mnogo puta i dovelo do burnih društvenih osuda prema AI.

Za sada jedno poslednje upozorenje.

Šta god da vidite ili pročitate u generativnom odgovoru AI čini da bude preneto kao čisto činjenično (datumi, mesta, ljudi, itd.), budite skeptični i budite spremni da još jednom proverite šta vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmišljati, a elementi za koje obično očekujemo da će biti bez zamjerke su sve predmet sumnji. Ne vjerujte onome što pročitate i budite skeptični kada ispitujete bilo kakve generativne eseje ili rezultate AI. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln letio po cijeloj zemlji u svom privatnom avionu, nesumnjivo biste znali da je to malargija. Nažalost, neki ljudi možda ne shvataju da mlaznjaci nisu postojali u njegovo vreme, ili možda znaju, ali ne primećuju da esej iznosi ovu drsku i nečuveno lažnu tvrdnju.

Jaka doza zdravog skepticizma i uporni način razmišljanja u nevjerici bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo da pređemo u sledeću fazu ovog rasvetljavanja.

Znajući šta će se dođavola dogoditi s tim tekstom

Sada kada smo uspostavili osnove, možemo zaroniti u razmatranje podataka i informacija kada koristimo generativnu AI.

Prvo, hajde da ukratko razmotrimo šta se dešava kada unesete neki tekst u prompt za ChatGPT. Ne znamo sa sigurnošću šta se dešava unutar ChatGPT pošto se program smatra vlasničkim. Neki su istakli da to podriva osjećaj transparentnosti u vezi s aplikacijom AI. Pomalo gadna primjedba je da je za kompaniju koja se zove OpenAI, njihova AI zapravo zatvorena za javni pristup i nije dostupna kao open source.

Hajde da razgovaramo o tokenizaciji.

Kada unesete običan tekst u prompt i pritisnete povratak, vjerovatno dolazi do konverzije koja se odmah dogodi. Tekst se pretvara u format koji se sastoji od tokena. Tokeni su poddijelovi riječi. Na primjer, riječ "hamburger" obično bi bila podijeljena u tri leksema koji se sastoje od dijela "šunka", "bur" i "ger". Opće pravilo je da tokeni obično predstavljaju oko četiri znaka ili se smatraju otprilike 75% konvencionalne engleske riječi.

Svaki token se zatim preformuliše kao broj. Različite interne tabele određuju koji token je dodeljen kojem određenom broju. Ovo je činjenica da je tekst koji ste uneli sada u potpunosti skup brojeva. Ti brojevi se koriste za računsku analizu prompta. Nadalje, mreža za podudaranje uzoraka koju sam ranije spomenuo je također zasnovana na tokeniziranim vrijednostima. Konačno, prilikom sastavljanja ili generiranja izlaznog eseja, ovi numerički žetoni se prvo koriste, a zatim se prije prikazivanja pretvaraju natrag u skupove slova i riječi.

Razmislite o tome na trenutak.

Kada kažem ljudima da tako funkcionira mehanika obrade, često se zaprepasti. Pretpostavili su da generativna AI aplikacija kao što je ChatGPT mora koristiti potpuno integrativne riječi. Logično pretpostavljamo da riječi djeluju kao kamen temeljac za statističku identifikaciju odnosa u pisanim narativima i kompozicijama. Ispostavilo se da obrada zapravo teži korištenju tokena. Možda ovo doprinosi čuđenju kako se čini da računski proces obavlja prilično uvjerljiv posao oponašanja ljudskog jezika.

Proveo sam vas kroz taj proces zbog jedne uobičajene zablude koja se čini da se širi. Čini se da neki ljudi vjeruju da, budući da se vaš prompt tekst pretvara u numeričke tokene, vi ste sigurni da unutrašnjost aplikacije AI nekako više nema vaš izvorno uneseni tekst. Dakle, tvrdi se, čak i ako ste uneli povjerljive podatke u svoj prompt, nemate brige jer je sve to naizgled tokenizirano.

Taj pojam je zabluda. Upravo sam istakao da se numerički tokeni mogu lako vratiti u tekstualni format slova i riječi. Isto se može učiniti sa konvertovanim promptom koji je tokeniziran. Ne postoji ništa magično zaštitno u tome da ste tokenizirani. S obzirom na to, nakon konverzije u tokene, ako postoji dodatni proces koji se odluči za izbacivanje tokena, njihovo pomicanje i na drugi način premješavanje ili sjeckanje stvari, u tom slučaju zaista postoji mogućnost da neki dijelovi originala prompt više nisu netaknuti (i pod pretpostavkom da originalna kopija nije na drugi način zadržana ili pohranjena negdje interno).

Želio bih sljedeće da pogledam različita obavještenja i odredbe o licenciranju ChatGPT-a.

Kada se prijavite na ChatGPT, prikazuje se niz upozorenja i informativnih komentara.

Evo ih:

  • “Može povremeno generirati netačne informacije.”
  • “Može povremeno proizvesti štetne upute ili pristrasan sadržaj.”
  • “Obučeni da odbijaju neprikladne zahtjeve.”
  • “Naš cilj je dobiti povratne informacije od eksternih kako bismo poboljšali naše sisteme i učinili ih sigurnijim.”
  • “Dok imamo zaštitne mjere, sistem može povremeno generirati netačne ili obmanjujuće informacije i proizvoditi uvredljiv ili pristrasan sadržaj. Nije namijenjena davanju savjeta.”
  • “Razgovore mogu pregledati naši AI treneri kako bi poboljšali naše sisteme.”
  • “Molim vas, nemojte dijeliti nikakve osjetljive informacije u svojim razgovorima.”
  • “Ovaj sistem je optimiziran za dijalog. Javite nam da li je određeni odgovor bio dobar ili beskorisan.”
  • “Ograničeno znanje o svijetu i događajima nakon 2021.”

Dva od navedenih upozorenja posebno su relevantna za ovu raspravu. Pogledajte šestu tačku i sedmu označenu tačku.

Hajde da raspakujemo ovo dvoje:

“Razgovore mogu pregledati naši AI treneri kako bi poboljšali naše sisteme.”

Ova šesta tačka nabrajana objašnjava da tekstualne razgovore kada se koristi ChatGPT može pregledati ChatGPT preko svojih „AI trenera“ što se radi kako bi se poboljšali njihovi sistemi. Ovim vas želimo obavijestiti da za sve vaše unesene tekstualne upite i odgovarajuće izlazne eseje, koji su svi dio “razgovora” koji vodite sa ChatGPT-om, njihovi ljudi mogu u potpunosti vidjeti. Predloženo obrazloženje je da se to radi kako bi se poboljšala AI aplikacija, a također nam je rečeno da je to vrsta radnog zadatka koji obavljaju njihovi AI treneri. Možda i jeste, ali rezultat je da su vas upozorili da mogu pogledati vaš tekst. Tačka, tačka.

Ako bi uradili nešto drugo s vašim tekstom, vjerovatno biste tražili pravni savjet o tome da li su ozbiljno gravitirali izvan predloženih granica pukog pregleda teksta u svrhu poboljšanja sistema (pod pretpostavkom da ste uspjeli otkriti da su to učinili, koji od samo po sebi izgleda malo vjerovatno). U svakom slučaju, možete zamisliti pravnu prepirku u pokušaju da ih prikovate za ovo i njihove pokušaje da se izvuku iz uhićenja jer su na neki način prekršili granice svog odricanja odgovornosti.

“Molim vas, nemojte dijeliti nikakve osjetljive informacije u svojim razgovorima.”

Sedma tačka označava da ne smijete dijeliti nikakve osjetljive informacije u svojim razgovorima. To izgleda relativno jednostavno. Pretpostavljam da biste se mogli prepirati o tome od čega se sastoji definicija osjetljivih informacija. Takođe, tačka sa nabrajanjem vam ne govori zašto ne biste trebali dijeliti nikakve osjetljive informacije. Ako jednog dana budete morali da pokušate i u strašnom znoju objasnite zašto ste glupo uneli poverljive podatke, možete pokušati sa podignutom tvrdnjom da je upozorenje bilo nespecifično, dakle, niste shvatili značaj. Zadrži dah na tome.

Sve u svemu, usuđujem se reći da većina ljudi koje sam vidio da koriste ChatGPT obično ne čitaju naznačene točke, ili prelete mjere predostrožnosti s nabrajanjem i samo klimnu glavom kao da je to uobičajena glupost koju vidite sve vrijeme. Čini se da malo ko uzima upozorenja strogo k srcu. Da li je to greška prodavca što nije učinio mere predostrožnosti izraženijima? Ili treba pretpostaviti da bi korisnici trebali biti odgovorni i pažljivo pročitati, razumjeti i naknadno razumno postupati na osnovu upozorenja?

Neki čak tvrde da bi AI aplikacija trebalo da vas iznova upozorava. Svaki put kada unesete prompt, softver bi trebao iskočiti upozorenje i pitati vas da li želite da pritisnete povratak. Iznova i iznova. Iako ovo može izgledati kao korisna mjera predostrožnosti, doduše, to bi iritiralo korisnike. Uključen je trnovit kompromis.

U redu, to su očigledna upozorenja koja su predstavljena svim korisnicima da ih lako vide.

Korisnici koji bi mogli biti radoznaliji, mogli bi se odlučiti da slijede neke od detaljnih odredbi o licenciranju koje su također objavljene na internetu. Sumnjam da mnogi to rade. Moja predosjećaj je da malo tko ozbiljno gleda na točke označene nabrajanjem prilikom prijavljivanja, a još manje ih s velikom marginom onda pogleda detalje licenciranja. Opet, svi smo ovih dana pomalo otupjeli za takve stvari. Ne opravdavam ponašanje, samo napominjem zašto se to događa.

Proučit ću nekoliko izvoda iz objavljenih uslova licenciranja.

Prvo, evo definicije onoga što smatraju "sadržajem" povezanim s upotrebom ChatGPT-a:

  • “Vaš sadržaj. Možete dati ulaz za Usluge ('Input') i primati izlaz generisan i vraćen od strane Usluge na osnovu Inputa ('Output'). Ulaz i izlaz su zajedno "Sadržaj". Među stranama iu mjeri u kojoj je to dozvoljeno važećim zakonom, vi posjedujete sav Input, a u skladu sa vašim poštovanjem ovih Uslova, OpenAI vam ovime dodeljuje sva svoja prava, vlasništvo i interes u i na Output. OpenAI može koristiti Sadržaj po potrebi za pružanje i održavanje Usluga, usklađenost sa važećim zakonom i provođenje naših politika. Vi ste odgovorni za Sadržaj, uključujući osiguravanje da ne krši nijedan primjenjiv zakon ili ove Uslove.”

Ako pažljivo ispitate tu definiciju, primijetit ćete da OpenAI izjavljuje da može koristiti sadržaj kako smatra potrebnim za održavanje svojih usluga, uključujući usklađenost sa primjenjivim zakonima i provođenje svojih politika. Ovo je zgodna za njih. U nadolazećoj jednoj od mojih kolumni, raspravljat ću o drugoj, ali povezanoj temi, posebno o pravima intelektualnog vlasništva (IP) koja imate u vezi s unesenim tekstualnim upitima i objavljenim esejima (na ovo ukazujem od definicije Sadržaj se odnosi na tu temu).

U daljem dijelu termina, označenom kao odjeljak c, oni spominju ovaj aspekt: ​​„Jedna od glavnih prednosti modela mašinskog učenja je da se mogu poboljšati tokom vremena. Da biste pomogli OpenAI-ju da pruži i održava Usluge, slažete se i dajete instrukcije da možemo koristiti Sadržaj za razvoj i poboljšanje Usluga.” Ovo je slično ranije diskutovanom oprezu u jednom redu koji se pojavljuje kada se prijavite na ChatGPT.

Poseban dokument koji je povezan s ovim pruža neke dodatne aspekte o ovim važnim pitanjima:

  • “Kao dio ovog kontinuiranog poboljšanja, kada koristite OpenAI modele putem našeg API-ja, možemo koristiti podatke koje nam dostavite za poboljšanje naših modela. Ne samo da ovo pomaže našim modelima da postanu precizniji i bolji u rješavanju vašeg specifičnog problema, već pomaže i u poboljšanju njihovih općih mogućnosti i sigurnosti. Znamo da su privatnost i sigurnost podataka kritični za naše klijente. Veoma pazimo da koristimo odgovarajuće tehničke i procesne kontrole kako bismo osigurali vaše podatke. Uklanjamo sve lične podatke iz podataka koje namjeravamo koristiti za poboljšanje performansi modela. Također koristimo samo mali uzorak podataka po korisniku za naše napore da poboljšamo performanse modela. Na primjer, za jedan zadatak, maksimalni broj API zahtjeva koje uzorkujemo po korisniku je ograničen na 200 svakih 6 mjeseci” (izvod iz dokumenta pod naslovom “Kako se vaši podaci koriste za poboljšanje performansi modela”).

Imajte na umu da odredba ukazuje da se odredba primjenjuje na korištenje API-ja kao sredstvo za povezivanje i korištenje OpenAI modela sve rečeno. Pomalo je nejasno da li se ovo podjednako odnosi i na krajnje korisnike koji direktno koriste ChatGPT.

U još jednom drugom dokumentu, koji sadrži njihovu listu različitih često postavljanih pitanja, oni pružaju niz pitanja i odgovora, od kojih se dva čine posebno relevantnima za ovu raspravu:

  • “(5) Ko može vidjeti moje razgovore? Kao dio naše posvećenosti sigurnoj i odgovornoj umjetnoj inteligenciji, pregledavamo razgovore kako bismo poboljšali naše sisteme i osigurali da je sadržaj u skladu s našim politikama i sigurnosnim zahtjevima.”
  • “(8) Možete li izbrisati određene upite? Ne, nismo u mogućnosti da izbrišemo određene upite iz vaše historije. Nemojte dijeliti nikakve osjetljive informacije u svojim razgovorima.”

Postoji dodatni dokument koji pokriva njihovu politiku privatnosti. Kaže ovo: „Prikupljamo informacije koje se same ili u kombinaciji s drugim informacijama koje posjedujemo mogu koristiti za vašu identifikaciju („Lične informacije“)“, a zatim nastavljamo s objašnjenjem da oni mogu koristiti podatke dnevnika, podatke o upotrebi, komunikacijske informacije, informacije o uređaju, kolačići, analitika i druge potencijalno prikupljene informacije o vama. Obavezno pročitajte sitni otisak.

Mislim da to u velikoj mjeri pruža obilazak nekih razmatranja u osnovi kako bi se vaši podaci mogli koristiti. Kao što sam spomenuo na početku, neću mukotrpno prelaziti kroz sve odredbe o licenciranju.

Nadamo se da će vas ovo dovesti u stanje uma o ovim stvarima i da će vam ostati na umu.

zaključak

Već sam to rekao i ponovit ću, nemojte unositi povjerljive ili privatne podatke u ove generativne AI aplikacije.

Razmotrite nekoliko korisnih savjeta ili opcija o ovom savjetu mudraca:

  • Razmislite prije korištenja generativne AI
  • Prethodno uklonite stvari
  • Maskirajte ili lažirajte svoj unos
  • Postavite vlastitu instancu
  • drugi

U nastavku ću naznačiti od čega se svaki od njih sastoji. Postavljanje vaše vlastite instance je ranije bilo pokriveno ovdje. Upotreba "ostalo" na mojoj listi je zbog mogućnosti drugih načina da se izborim sa sprečavanjem uključivanja povjerljivih podataka, o čemu ću dalje govoriti u budućoj kolumni.

Hajde da ispitamo ove:

  • Razmislite prije korištenja generativne AI. Jedan pristup uključuje potpuno izbjegavanje korištenja generativne AI. Ili barem dvaput razmislite prije nego što to učinite. Pretpostavljam da je najsigurniji način da se ne koriste ove AI aplikacije. Ali i ovo izgleda prilično ozbiljno i gotovo prekomjerno.
  • Prethodno uklonite stvari. Drugi pristup se sastoji od uklanjanja povjerljivih ili privatnih informacija iz svega što unesete kao prompt. U tom smislu, ako ne uđete u njega, nema šanse da se ulije u Borg. Loša strana je što možda uklanjanje povjerljivog dijela na neki način smanjuje ili potkopava ono što pokušavate natjerati generativnu umjetnu inteligenciju da učini umjesto vas.
  • Maskirajte ili lažirajte svoje unose. Možete izmijeniti predloženi tekst mijenjanjem informacija tako da sve što se činilo povjerljivo ili privatno sada bude drugačije prikazano. Na primjer, umjesto ugovora u kojem se spominju Widget Company i John Smith, mijenjate tekst da se odnosi na Specious Company i Jane Capone. Ovdje je pitanje hoćete li obaviti dovoljno iscrpan posao tako da svi povjerljivi i privatni aspekti budu u potpunosti izmijenjeni ili lažirani. Bilo bi lako propustiti neke od zamućenja i ostaviti stvari kojih ne bi trebalo biti.

Evo jednog zanimljivog dodanog zaokreta koji bi mogao dodatno potaknuti vašu glavu na ovu temu. Ako možete u potpunosti osigurati da nijedan od vaših upitnika za unos ne sadrži nikakve povjerljive informacije, znači li to da ne morate imati ni mrvicu brige o izlaznim esejima koji također sadrže bilo koju od vaših povjerljivih informacija?

Ovo bi izgledalo aksiomatski tačno. Nema povjerljivog unosa, nema povjerljivog izlaza.

Evo tvog zapanjujućeg preokreta.

Generativna AI je često postavljena da se računarski ponovo obuči iz tekstualnih upita koji se pružaju. Isto tako, generativna AI se često osmišljava kako bi se računarski preobučio iz izvedenih eseja. Sva ova prekvalifikacija ima za cilj poboljšanje sposobnosti generativne AI.

U jednoj od mojih drugih kolumni opisao sam sljedeći eksperiment koji sam preduzeo. Advokat je pokušavao da otkrije novo sredstvo za rešavanje pravnog pitanja. Nakon iscrpnog pregleda pravne literature, činilo se da su pronađeni svi uglovi koji su već isplivali. Koristeći generativnu umjetnu inteligenciju, dobili smo AI aplikaciju da proizvede novinu pravnog pristupa koji naizgled ranije nije bio identificiran. Vjerovalo se da niko drugi još nije došao na ovaj pravni položaj. Legalni grumen zlata, takoreći. Ovo bi mogla biti strateški vrijedna konkurentna pravna bonanca koja bi se u pravo vrijeme mogla iskoristiti i iskoristiti.

Da li taj izneseni esej predstavlja oblik povjerljivih informacija, tako da ga je generirala AI za ovu konkretnu osobu i sadrži nešto posebno i naizgled jedinstveno?

Aha, ovo nas vodi do druge srodne i isprepletene teme o vlasništvu i pravima intelektualne svojine povezanim s generativnom umjetnom inteligencijom. Ostanite sa nama da vidite kako će ovo ispasti.

Posljednja napomena za sada.

Sofokle je dao ovu mudrost: „Ne radi ništa tajno; jer Vrijeme sve vidi i čuje, i sve otkriva.” Pretpostavljam da biste mogli modernizirati formulaciju i tvrditi da su generativna AI i oni koji osmišljavaju i održavaju AI također spremni da vide.

To je skromno simboličan savjet vrijedan pamćenja.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etika-i-ai-law/