Etika umjetne inteligencije i psihološka inokulacija izazvana umjetnom inteligencijom za pomoć ljudima s dezinformacijama

Šta ćemo učiniti u vezi sa ogromnom prezasićenošću dezinformacijama i dezinformacijama?

Sve je vidljivo sve gore i gore, svakim danom.

Možda nam umjetna inteligencija (AI) može priskočiti u pomoć. Da, tako je, možda bismo mogli iskoristiti korisnu upotrebu AI da se nosimo s našim nemilosrdnim cunamijem dezinformacija i dezinformacija. Možda bi nam bilo pametno pokušati to učiniti. Svaki put potencijalnog rješenja bi se činio vrijednim potrage.

Na stranu, želio bih odmah priznati i napomenuti da će AI nesumnjivo takođe budi i ti dio problema. Nema sumnje da ljudi mogu lako iskoristiti AI za stvaranje dezinformacija i dezinformacija. Štaviše, AI se može podmuklo koristiti kako bi dezinformacije i dezinformacije izgledale nevjerovatno valjane i zavarale ljude da vjeruju da su predstavljene informacije primamljivo tačne i činjenične. Izrazito tužna strana onoga što AI donosi na stol. Vratit ćemo se na ovu lošu zagonetku pred kraj ove rasprave.

Za sada, hajde da se nabacimo smajlićima i istražimo kako je AI korisna za bacanje dezinformacija i dezinformacija na svoja moćna koljena. Jedna važna potkožna struja će biti da se sve ovo uklapa u vitalne elemente etike veštačke inteligencije. Moja kolumna o etici veštačke inteligencije i etičkoj veštačkoj inteligenciji je u toku i opsežna, uključujući link ovdje i link ovdje, Da nabrojimo samo neke.

Razmotrite ove temeljne načine na koje AI može biti posebno koristan saveznik u ratu protiv dezinformacija i dezinformacija:

  • Zaustavite se na Get-Go: AI se može koristiti za otkrivanje i pokušaj uklanjanja dezinformacija i dezinformacija prije nego što prođu
  • Filtriraj prije viđenja: AI se može koristiti za filtriranje dezinformacija i dezinformacija tako da ne morate brinuti da ćete ih vidjeti
  • Pripremite se da budete imuni: AI se može koristiti za jačanje vaše spremnosti i sposobnosti da se borite s dezinformacijama i dezinformacijama (formalno poznato kao pružanje svojevrsne psihološke vakcinacije)
  • drugi

Prva navedena tačka podrazumijeva pokušaj zaustavljanja dezinformacija i dezinformacija što je prije moguće, prije nego što sadržaj dođe u svijet.

Ovo je vrlo problematičan pristup. Neki bi glasno tvrdili da bi ovo mogao biti pokušaj Velikog brata da suzbije slobodu govora. Koliko daleko bi ovaj AI mogao ići? Može li to spriječiti ljude da slobodno izraze svoje stavove? Ovo bi sablasno moglo postati klizav teren AI koji bi na kraju postao najgora noćna mora zlih rezultata koji su nevino započeli s najboljim namjerama.

Siguran sam da ste shvatili sliku.

Druga tačka je malo umjerenija i sugerira da bismo mogli koristiti AI za filtriranje sadržaja umjesto nas.

Možda imate bota za AI filter koji će skenirati sve vaše dolazne izvore podataka iz različitih vijesti i drugih izvora. AI je skrojen da uhvati sve dezinformacije ili dezinformacije koje odgovaraju vašim ličnim kriterijima. Dakle, u takvom scenariju ne radi se o situaciji cenzure Velikog brata. Vi kontrolišete veštačku inteligenciju i način na koji ona filtrira vaš pravi inbox sa informacijama u vaše ime.

Zvuči prilično dobro.

Ipak, postoje neke brige vredne pažnje.

Na primjer, mi smo već uvelike polarizirani u našim pogledima i ova upotreba AI bi mogla učiniti tu polarizaciju dubljom i mračnijom. Zamislite da sa ovom glatkom AI koja radi non-stop 24×7, nikada nećete morati da vidite ni djelić informacija koje ste klasificirali kao potencijalno dezinformacije i dezinformacije. Vaša polarizovana perspektiva sada je gotovo zagarantovana da će ostati netaknuta. Cijeli dan i kad god želite da pogledate informacije koje čekaju vašu pažnju, one su uvijek u potpunosti unaprijed odabrane i nema šanse da pogledate takozvane dezinformacije i dezinformacije.

Ja kažem da dezinformacije i dezinformacije mogu biti takozvani jer postoji ogromna količina kontroverzi oko toga šta zapravo predstavlja dezinformacije i dezinformacije. Neki stručnjaci insistiraju na tome da postoji apsolutna osnova za utvrđivanje šta je dezinformacija, a šta dezinformacija. Postoji ispravno i pogrešno. Sve se može izračunati bez greške da je nešto ili dezinformacija ili dezinformacija.

Ne vide svi stvari tako jasne.

Rečeno je da je poslovični kontrast dihotomije uključeno-isključeno međusobno isključivi obmanjujući stav. Dezinformacija jedne osobe se ne može smatrati dezinformacijom za drugu osobu. Isto tako i o dezinformacijama. Tvrdnja je da se dezinformacije i dezinformacije razlikuju po prirodi i veličini. Pokušati definitivno klasificirati sve informacije u jednu ili drugu gomilu mnogo je teže nego što sugerira mahanje rukom.

Suština je da druga tačka o korištenju AI kao mehanizma za filtriranje ima svoje kompromise. Nema sumnje da će se AI sve više koristiti u ovoj upotrebi. U isto vrijeme, moramo imati na umu izazove koje će takva umjetna inteligencija staviti u prvi plan. AI kao filter za dezinformacije i dezinformacije nije neki srebrni metak ili zakucavanje.

To nas vodi do treće tačke, odnosno mogućnosti korištenja AI kako bi se ljudi bolje nosili s dezinformacijama i dezinformacijama.

Sumnjam da ste vjerovatno čuli mnogo o ovom trećem načinu korištenja AI u ovom kontekstu. Tek počinje da se pojavljuje. Sada ste na samom vrhu nečega što će vjerovatno rasti i postepeno biti stavljeno u upotrebu. Imajte na umu da će kako se ova popularnost širi, kontroverze oko toga da li je to prikladan pristup također postati vrlo vidljive.

Dio problema je što se AI donekle koristi za ono što bi neki na pogrdan način nazvali igranje umnih igrica sa ljudima.

To izgleda zlokobno.

Ovo nas također dovodi do područja etike umjetne inteligencije.

Sve ovo se također odnosi na trezveno nastajuću zabrinutost o današnjoj umjetnoj inteligenciji, a posebno o korištenju strojnog učenja i dubokog učenja kao oblika tehnologije i načina na koji se ona koristi. Vidite, postoje upotrebe ML/DL koje obično uključuju antropomorfizaciju AI od strane široke javnosti, vjerujući ili birajući pretpostaviti da je ML/DL ili razumna AI ili blizu (nije). Osim toga, ML/DL može sadržavati aspekte podudaranja računskog uzorka koji su nepoželjni ili potpuno neprikladni, ili nezakoniti iz etičke ili pravne perspektive.

Možda bi bilo korisno prvo razjasniti na šta mislim kada govorim o AI općenito i također dati kratak pregled mašinskog učenja i dubokog učenja. Postoji velika konfuzija o tome šta umjetna inteligencija podrazumijeva. Također bih želio da vam predstavim propise etike umjetne inteligencije, koji će biti posebno sastavni dio ostatka ovog diskursa.

Navođenje zapisa o AI

Uvjerimo se da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna.

Nemamo ovo.

Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva Singularnost, pogledajte moje izveštavanje na link ovdje).

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje i duboko učenje, koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Dio problema je naša tendencija da antropomorfiziramo kompjutere, a posebno AI. Kada se čini da računarski sistem ili veštačka inteligencija deluju na način koji povezujemo sa ljudskim ponašanjem, postoji skoro neodoljiva želja da se sistemu pripišu ljudski kvaliteti. To je uobičajena mentalna zamka koja može uhvatiti čak i najnepopustljivijeg skeptika u pogledu šansi za postizanje osjećaja.

U određenoj mjeri, zato su etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema.

Propisi etike umjetne inteligencije navode nas da ostanemo budni. Tehnolozi AI ponekad mogu postati zaokupljeni tehnologijom, posebno optimizacijom visoke tehnologije. Oni ne razmišljaju nužno o većim društvenim posljedicama. Imati etički način razmišljanja AI i činiti to integralno za razvoj AI i postavljanje na teren od vitalnog je značaja za proizvodnju odgovarajuće AI, uključujući procjenu kako kompanije usvajaju etiku AI.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. Oni unaprijed upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku suzbijanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti. Pogledajte na primjer moju pokrivenost na link ovdje.

U prethodnim kolumnama pokrio sam različite nacionalne i međunarodne napore za izradu i donošenje zakona koji regulišu AI, vidi link ovdje, na primjer. Također sam pokrio različite principe i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih nacija kao što je UNESCO-ov skup etike umjetne inteligencije koji je usvojilo skoro 200 zemalja, vidi link ovdje.

Evo korisne ključne liste etičkih AI kriterija ili karakteristika u vezi s AI sistemima koje sam prethodno pomno istražio:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ovdje ranije naglašeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Spustimo stvari na zemlju i fokusirajmo se na današnju kompjutersku neosjetnu umjetnu inteligenciju.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vjerujem da sam sada pripremio teren da dovoljno raspravljam o ulozi AI kao sredstva za podsticanje psihološke vakcinacije u vezi sa suočavanjem s dezinformacijama i dezinformacijama.

Ulazak u umove ljudi

Počnimo s osnovama ili osnovama u osnovi dezinformacija i dezinformacija.

Općenito, dezinformacije se odnose na lažne ili obmanjujuće informacije.

Dezinformacija je otprilike ista, iako se sastoji od dodanog elementa namjera. Informaciju obično tumačimo kao dezinformaciju kada je to informacija namijenjen dezinformisati.

Mogao bih vam reći da je trenutno 10 sati noću, što je recimo netačno jer je vrijeme stvarno ponoć. Da sam vam rekao 10 sati kao predosjećaj i da ne pokušavam biti varljiv, obično bismo rekli da sam vas pogrešno informirao. Prenio sam dezinformacije. Možda sam bio lijen ili sam zaista vjerovao da je 10 sati. S druge strane, da sam spomenuo 10 sati jer sam vas namjerno htio prevariti da mislite da je vrijeme 10 sati i da znam da je vrijeme zapravo ponoć, moglo bi se reći da je to oblik dezinformacije .

Jedan značajan aspekt informacija u cjelini je da smo obično u mogućnosti širiti informacije i stoga informacije mogu postati donekle raširene. Informacije mogu zaista teći poput vode, u širem smislu.

Kažem vam da je 10 sati noću. Sada imate tu određenu informaciju. Mogli biste naglas viknuti grupi ljudi u blizini da je 10 sati noću. I oni sada imaju iste informacije. Možda neki od tih ljudi uđu na svoje mobilne telefone i zovu druge da im kažu da je 10 sati. Sve u svemu, informacije se mogu širiti ili dijeliti i to ponekad tako brzo, dok se u drugim slučajevima to čini sporo.

U određenom smislu, mogli biste tvrditi da informacije mogu postati viralne.

Postoji skovana riječ ili terminologija koju možda niste posebno vidjeli ili koristili, a koja pomaže u opisivanju ovog fenomena informacija koje postaju viralne, riječ je infodemski. Ova riječ je kombinacija informacija i epidemije. Uglavnom, infodemija je povezana s okolnostima koje uključuju širenje dezinformacija ili dezinformacija. Ideja je da lažne ili obmanjujuće informacije mogu postati virusne, nepoželjno, slično neželjenom širenju bolesti ili bolesti.

U primjeru oko 10 sati noću, ova prividna činjenica je bila informacija koja je proslijeđena obližnjoj grupi ljudi. Oni su zauzvrat širili tu činjenicu drugima. Ako je 10 sati bilo lažno, onda se ovaj konkretni slučaj dezinformacija ili dezinformacija proširio na mnoge druge. Možda ne znaju da su informacije bile dezinformacije ili možda dezinformacije.

Vjerujem da se sve ove definicije i osnove čine razumnim i da ste za sada uključeni.

Odlično, nastavimo.

Uveo sam te pomalo krišom u nešto što zaokuplja veliku dozu fascinacije, ali i ljutnje. Suština je u tome da postoje razumno razumne paralele između onoga što bolesti čine virusnim i onoga što dezinformacije ili dezinformacije čine virusnim.

Ne slažu se svi sa ovim tvrdim paralelama. Ipak, oni su intrigantni i vrijedni razmatranja.

Dozvolite mi da detaljnije objasnim.

Vidite, možemo pokušati iskoristiti zgodnu analogiju upućivanja na bolesti i bolesti koje se prenose ljudima, čineći to da uporedimo sličnu mogućnost sa širenjem dezinformacija i dezinformacija. Da bismo pokušali zaustaviti širenje bolesti, možemo imati za cilj rano otkrivanje i nastojanje da zadržimo izvor bolesti u nastajanju, tačku potencijalnog širenja bolesti. Drugi pristup u rješavanju bolesti koja se širi bi bio da se zaštitite od zaraze kroz razumnu upotrebu nošenja maske ili zaštitne opreme. Treći pristup mogao bi se sastojati od uzimanja vakcina kako biste pokušali izgraditi svoj imunitet povezan s bolešću.

Sada smo napravili puni krug u tome da se ti isti pristupi suočavanju sa bolestima mogu eksplicitno uporediti sa suočavanjem sa dezinformacijama i dezinformacijama. Ranije sam spomenuo da su u toku slični napori da se koristi umjetna inteligencija u svrhu pokušaja suočavanja s dezinformacijama i dezinformacijama, posebno (kao što je ranije spomenuto):

  • Zaustavite se na Get-Go: AI se može koristiti za otkrivanje i pokušaj uklanjanja dezinformacija i dezinformacija prije nego što prođu
  • Filtriraj prije viđenja: AI se može koristiti za filtriranje dezinformacija i dezinformacija tako da ne morate brinuti da ćete ih vidjeti
  • Pripremite se da budete imuni: AI se može koristiti za jačanje vaše spremnosti i sposobnosti da se borite s dezinformacijama i dezinformacijama (formalno poznato kao pružanje svojevrsne psihološke vakcinacije)
  • drugi

Treći aspekt će ovdje biti od najvećeg interesa.

Evo dogovora.

Znamo da bolesti obično pogađaju ljudsko tijelo. Analogijom načina na koji nastaju dezinformacije i dezinformacije, mogli bismo sugerirati da pogrešne informacije pogađaju ljudski um. Da, vjerovatno možete doći u kontakt s dezinformacijama ili dezinformacijama koje vam se ulijevaju u um. Dezinformacije ili dezinformacije potencijalno kvare ili truju vaš način razmišljanja.

Ljudsko tijelo se može vakcinisati kako bi se pokušalo pripremiti za kontakt sa bolestima. Postavlja se veliko pitanje da li to možemo učiniti i za ljudski um. Da li je moguće pokušati cijepiti um tako da kada vam dezinformacije ili dezinformacije padnu na pamet da ste spremni za to i da ste u skladu s tim cijepljeni?

Područje studija poznato kao psihološka inokulacija smatra da se um zaista može cijepiti u smislu da je spreman da se nosi s dezinformacijama ili dezinformacijama.

Razmotrite ovaj opis u nedavnoj istraživačkoj studiji o psihološkoj inokulaciji i onome što se ponekad označava kao radnja prebunking:

  • „Raskrinkavanje dezinformacija je takođe problematično jer ispravljanje dezinformacija ne poništava uvek njihove efekte u potpunosti, što je fenomen poznat kao efekat kontinuiranog uticaja. Shodno tome, za razliku od debunkinga, prebunking je dobio na značaju kao sredstvo za preventivnu izgradnju otpornosti na očekivanu izloženost dezinformacijama. Ovaj pristup se obično temelji na teoriji inokulacije. Teorija inokulacije slijedi analogiju medicinske imunizacije i tvrdi da je moguće izgraditi psihološku otpornost protiv neželjenih pokušaja uvjeravanja, slično kao što medicinske inokulacije grade fiziološku otpornost na patogene” (Nauka napredak, 24. avgusta 2022., „Psihološka vakcinacija poboljšava otpornost na dezinformacije na društvenim medijima“ koautora Jon Roozenbeek, Sander van der Linden, Beth Goldberg, Steve Rathje i Stephan Lewandowsky).

Vraćajući se na moj primjer o vremenu koje je 10 sati noću, pretpostavimo da sam vam ranije rekao da ponekad navedeno vrijeme nije stvarno vrijeme. Od sada imate oblik cijepljenja da budete oprezni u vezi s tvrdnjama vremena. Ova vakcinacija vas je pripremila da dođete u kontakt sa tvrdnjama koje su dezinformacije ili dezinformacije.

Da sam vas prije nekoliko godina upozorio da navedena vremena nisu stvarna vremena, postoji šansa da se možda ne biste setili tog davnog upozorenja. Dakle, ranija inokulacija je (da kažemo) nestala. Moju inokulaciju za vas možda treba pojačati.

Postoji i mogućnost da vakcinacija nije bila dovoljno specifična da biste je mogli koristiti kada je to potrebno. Da sam vas prije nekoliko godina upozorio na tražena vremena u odnosu na stvarna vremena, to bi moglo biti previše široko. Inokulacija možda neće djelovati u konkretnom slučaju kada vam je rečeno oko 10 sati. U tom smislu, možda je moja vakcinacija trebala biti da treba biti oprezan kada se koristi zadato vrijeme od 10 sati. Naravno, inokulacije u slučaju bolesti su donekle iste, ponekad su vrlo specifične za poznate bolesti, dok su u drugim slučajevima širokog spektra.

Često citirana istraživačka studija koju je 1961. godine uradio William McGuire sa Univerziteta Columbia o psihološkoj inokulaciji danas se općenito smatra klasikom u ovoj oblasti proučavanja. Možda će vas zanimati ove ključne stvari koje je iznio u to vrijeme:

  • “Takva generalizirana imunizacija mogla bi proizaći iz bilo kojeg od dva mehanizma. Prethodno izlaganje može šokirati osobu da shvati da su „truizmi“ koje je uvijek prihvaćao zaista ranjivi, provocirajući je na taj način da razvije odbranu svog uvjerenja, s rezultatom da je otpornija na snažne kontraargumente kada dođu. Alternativno, pobijanja uključena u prethodno izlaganje mogu učiniti da svi naknadno izneseni kontraargumenti protiv vjerovanja izgledaju manje impresivno” (William McGuire, “Otpor ubjeđivanju dodijeljen aktivnim i pasivnim prethodnim opovrgavanjem istih i alternativnih kontraargumenata”, Journal of Abnormal and Socijalna psihologija, 1961).

Smatrate li ovu analogiju cijepljenja i imunizacije korisnom i prikladnom poređenjem s područjem dezinformacija i dezinformacija?

Neki to rade, neki ne.

Za potrebe ove rasprave, prihvatite da je premisa razumna i prikladna.

Kako da pokušamo cijepiti ili imunizirati umove ljudi?

Mogli bismo navesti ljude da čitaju knjige koje bi im mogle prosvetliti um. Možemo im reći o tome, ili ih zamoliti da gledaju video zapise ili slušaju audio kasete. itd.

I mogli bismo koristiti AI da učinimo isto.

AI sistem bi mogao biti osmišljen kao vaš inokulator. Kad god počnete da idete na internet, kao što je gledanje interneta, aplikacija zasnovana na umjetnoj inteligenciji mogla bi vas pripremiti za vaše online putovanje. AI bi vas mogao hraniti malom količinom dezinformacija koje su označene kao takve, omogućavajući vam da shvatite da ćete uskoro vidjeti nešto što je namjerno lažno.

Nakon izlaganja ovoj dezinformaciji hranjenoj umjetnom inteligencijom, vaš um se sada priprema da se nosi s dezinformacijama ili dezinformacijama na koje možete naići u divljini na internetu. Vaš um je spreman. Voila, vidite blog na internetu koji nudi tvrdnjenu činjenicu da su vanzemaljska stvorenja sa Marsa već ovdje na zemlji i da se kriju na vidiku, ali ovu prividnu dezinformaciju ili dezinformaciju vaš um lako odbacuje zbog prethodne vakcinacije (pa, opet, možda je istina i oni su zaista tu!).

U svakom slučaju, nadam se da ste sada u mogućnosti da shvatite kako bi AI mogla pomoći u cijepljenju ili imunizaciji ljudi s obzirom na dezinformacije ili dezinformacije.

Smišljaju se razne AI aplikacije koje će djelovati kao inokulatori dezinformacija ili dezinformacija. AI bi mogao nastojati da obezbijedi široku inokulaciju i pruža ukupan privid imunizacije. AI bi također mogao biti osmišljen za specifičnije oblike inokulacije. Nadalje, AI može raditi na personaliziranoj osnovi koja je prilagođena vašim posebnim potrebama ili interesima. Napredna AI u ovom prostoru će takođe pokušati da odredi vaš nivo tolerancije, stopu mentalne apsorpcije, kapacitet zadržavanja i druge faktore prilikom sastavljanja i predstavljanja takozvanih vakcina za imunizaciju.

Izgleda prilično zgodno.

AI kao igrač opasnih igara uma

AI korišten na ovaj način bi na prvi pogled izgledao prilično zgodno (hej, spomenuo sam to prije samo sekundu).

Postoji niz potencijalnih nedostataka i problema koji su zabrinjavajući i možda zastrašujući.

U svojim kolumnama često raspravljam o mogućnostima dvostruke namjene AI, vidi na primjer link ovdje. AI može biti važan doprinos čovječanstvu. Nažalost, AI je takođe opterećena mnogim opasnostima i nesrećnim zamkama.

Za slučaj AI kao inkulkatora, razmotrimo ova demonstrativna pitanja vezana za AI etiku:

  • Neželjene reakcije kod ljudi
  • Nereagirajuće reakcije ljudi
  • AI pogrešno usmjereno
  • AI nedovoljno ciljanje
  • Cyber ​​Breach of the AI
  • drugi

Ukratko ćemo istražiti te nedoumice.

Neželjene reakcije od strane ljudi

Pretpostavimo da čovjek koji primi ovu vrstu inokulacije zasnovane na umjetnoj inteligenciji ima štetnu reakciju ili proizvodi neželjeni učinak.

Osoba bi mogla pogrešno protumačiti imunizaciju i odjednom postati neprihvatljiva za bilo koju informaciju koju primi. Blokiraju sve informacije. AI ih je nekako natjerao da izbace bebu s vodom za kupanje (stara izreka, možda vrijedi povući se). Umjesto da samo pokušava da se izbori s dezinformacijama i dezinformacijama, osoba je reagirala tako što je odlučila da su sve informacije uvijek lažne.

Mislim da ne želimo da ljudi preteraju.

Postoji mnoštvo neželjenih reakcija koje AI može potaknuti. To je djelomično zbog načina na koji je AI pokušao izvršiti inokulaciju, ali također moramo položiti dio problema na noge čovjeka koji je primio inokulaciju. Možda su reagovali na divlje ili bizarne načine da drugi koji su primili istu vakcinu AI to nisu učinili.

Opet, ovo možete uporediti sa analogijom vakcinacija protiv bolesti.

Ukratko, bit će važno da kada se takvi napori AI koriste, oni budu učinjeni na odgovoran način koji nastoji minimizirati štetne efekte. Također bi trebao postojati dodatni aspekt AI kako bi se pokušalo utvrditi da li je došlo do neželjene reakcije. Ako postoji otkrivena neželjena reakcija, treba osmisliti AI tako da pokuša pomoći osobi u njenoj štetnoj reakciji i nastojati da prevlada ili ublaži odgovor.

Nereagirajuće reakcije ljudi

Druga mogućnost je da inokulacija hranjena umjetnom inteligencijom nema utjecaja na osobu koja prima.

Osoba dobija vakcinu zasnovanu na veštačkoj inteligenciji u vezi sa dezinformacijama ili dezinformacijama. Dok većina ljudi to „dobije“ i imunizira se, sigurno će postojati ljudi koji uopće neće reagirati. Ništa ne uče iz vakcinacije. Oni ne reagiraju na pokušaj umjetne inteligencije da ih imunizira za sve ili određene vrste dezinformacija ili dezinformacija.

Još jednom, ovo je uporedivo sa inokulacijama za bolesti.

Trebalo bi osmisliti AI da se izbori sa takvim okolnostima.

AI Mistargeting

Zamislite da se AI nada da će imunizirati ljude u vezi s određenom temom za koju ćemo reći da je tema X, ali se ispostavilo da je tema Y umjesto toga pokrivena. AI je pogrešno usmjerena.

Ovo je dvostruki problem. Prvo, tema X tada nije pokrivena kao pretpostavljena i očekivana svrha AI inokulatora. Drugo, tema Y je pokrivena, ali možda nismo željeli da se ljudi imuniziraju na tu temu.

Ups.

Mnogo je pitanja. Da li se ovo moglo spriječiti? Ako se to dogodi, možemo li poništiti temu Y imunizacije? Možemo li nastojati da pokrijemo temu X inokulacija, ili će osoba biti manje prijemčiva ili nereceptivna zbog prvobitno pogrešnog ciljanja od strane AI?

Pojavljuje se mnogo problematičnih briga.

AI nedovoljno ciljanje

AI daje vakcinu na temu Z. Čini se da ljudi koji primaju vakcinu imaju minimalnu ili gotovo zanemarljivu reakciju. Inokulacija je bila nedovoljna da se zadrži.

Možda ćete biti u iskušenju da brzo tvrdite da se ovo lako rješava. Sve što treba da uradite je da ponovite inokulaciju. Možda da, možda ne.

Inokulacija umjetnom inteligencijom može imati toliko ograničenu vrijednost da bez obzira da li je ljudi iskuse sto puta, rezultat je i dalje marginalan ishod. Možda ćete morati pojačati inokulaciju umjesto da je jednostavno ponavljate.

U međuvremenu, zamislite da se pokušava pojačati inokulacija hranjena umjetnom inteligencijom, ali to ide previše. Pojačana verzija izaziva hiperreakcije. Joj, prešli smo od lošeg do goreg.

Cyber ​​Breach of the AI

Zamislite da se AI intenzivno koristi kako bi se pomoglo ljudima da budu cijepljeni od dezinformacija i dezinformacija.

Ljudi se oslanjaju na opšte oslanjanje. Oni znaju i očekuju da će im AI predstaviti isječke koji će im otvoriti oči za ono što je poznato kao dezinformacije i dezinformacije.

Sve je u redu, izgleda.

Zločin je nekako u stanju da izvrši cyber provalu u AI. Oni tajno ubacuju u AI neku željenu dezinformaciju za koju žele da ljudi misle da nije dezinformacija. AI je uređen tako da stvarna dezinformacija izgleda kao istinita informacija. Isto tako, prave informacije se čine da se pojavljuju kao dezinformacije.

Ljudi su potpuno snukerisani. AI ih dezinformiše. Povrh toga, zato što su postali ovisni o AI-u, i zbog povjerenja da AI radi pravu stvar, padaju na udicu, liniju i potapaju za ovu probijenu AI. Bez oklijevanja.

S obzirom na to koliko brzo se dezinformacije mogu dalje širiti, zlikovcu bi se moglo svidjeti da je postojanje ove vrste umjetne inteligencije njihov najlakši i najbrži način da svoje podmukle laži rasprostre svijetom. Ironično, naravno, što smo iskoristili AI inokulator za suštinski širenje bolesti.

zaključak

Trebamo li imati AI da se igra umnih igrica s nama?

Može li AI za cijepljenje dezinformacija i dezinformacija biti prijeteći trojanski konj?

Možete dati suštinski argument za zabrinutost zbog takve noćne more.

Drugi se rugaju takvoj mogućnosti. Ljudi su dovoljno pametni da znaju kada ih AI pokuša prevariti. Ljudi neće pasti na takav dribling. Samo idioti bi se doveli u zabludu takvom AI. To su uobičajene replike i kontraargumenti.

Ne želeći da izgledam manje nego da se potpuno divim ljudima i ljudskoj prirodi, samo bih sugerirao da postoji dovoljno naznaka da bi ljudi mogli pasti na AI koja ih dovodi u zabludu.

Postoji još veći problem koji se možda nadvija nad svim ovim.

Ko pravi AI i kako AI algoritamski odlučuje šta se smatra dezinformacijama i dezinformacijama?

Danas se u svijetu vodi čitava svađa oko toga šta su dezinformacije i dezinformacije. Neki tvrde da su činjenice činjenice, tako da nikada ne može biti zabune oko toga šta je tačna informacija a ne netačna informacija. Đavo je, međutim, ponekad u detaljima, to je sasvim sigurno.

Posljednja napomena za sada. Abraham Lincoln je slavno rekao: “Možete prevariti sve ljude povremeno i neke ljude cijelo vrijeme, ali ne možete zavaravati sve ljude cijelo vrijeme.”

Hoće li umjetna inteligencija koja se koristi za cijepljenje čovječanstva od dezinformacija i dezinformacija biti vitalno sredstvo za osiguranje da se svi ljudi ne mogu zavaravati cijelo vrijeme? Ili bi se to moglo koristiti za zavaravanje većeg broja ljudi više vremena?

Vrijeme će pokazati.

I to sigurno nije dezinformacija ili dezinformacija.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/