Evo kako OpenAI planira da očisti ChatGPT od lažnih informacija

OpenAI je 31. maja najavio svoje napore da poboljša sposobnosti ChatGPT-a za rješavanje matematičkih problema, s ciljem smanjenja slučajeva halucinacija umjetnom inteligencijom (AI). OpenAI je naglasio ublažavanje halucinacija kao ključni korak ka razvoju usklađene AGI.

U martu, uvođenje najnovije verzije ChatGPT-a, GPT-4, dodatno je gurnulo umjetnu inteligenciju u mainstream. Međutim, generativni AI chat botovi dugo su se borili sa preciznošću činjenica, povremeno generirajući lažne informacije, koje se obično nazivaju "halucinacije". Napori da se smanje ove AI halucinacije objavljene su putem objave na njihovoj web stranici.

AI halucinacije se odnose na slučajeve u kojima sistemi umjetne inteligencije generiraju rezultate koji su činjenično netačni, obmanjujući ili nepodržani podacima iz stvarnog svijeta. Ove halucinacije se mogu manifestirati u različitim oblicima, kao što su generiranje lažnih informacija, izmišljanje nepostojećih događaja ili ljudi ili davanje netačnih detalja o određenim temama.

OpenAI je sproveo istraživanje kako bi ispitao efikasnost dvije vrste povratnih informacija – „nadzor ishoda“ i „nadzor procesa“. Nadzor ishoda uključuje povratnu informaciju zasnovanu na konačnom rezultatu, dok nadzor procesa daje input za svaki korak u lancu razmišljanja. OpenAI je procijenio ove modele koristeći matematičke probleme, generirajući više rješenja i birajući najbolje rangirano rješenje prema svakom modelu povratne informacije.

Nakon detaljne analize, istraživački tim je otkrio da je nadzor procesa dao superiorne performanse jer je ohrabrio model da se pridržava procesa koji su odobrili ljudi. Za razliku od toga, pokazalo se da je nadzor ishoda težim za dosljedno ispitivanje.

OpenAI je prepoznao da se implikacije nadzora procesa protežu izvan matematike, te je potrebno dalje istraživanje kako bi se razumjeli njegovi efekti u različitim domenima. Izražena je mogućnost da, ako posmatrani ishodi budu istiniti u širim kontekstima, nadzor procesa može ponuditi povoljnu kombinaciju učinka i usklađenosti u poređenju sa supervizijom ishoda. Kako bi olakšala istraživanje, kompanija je javno objavila kompletan skup podataka o nadzoru procesa, pozivajući na istraživanje i proučavanje u ovoj oblasti.

Povezano: AI zahtjev nakratko katapultira Nvidiju u klub od 1T dolara

Iako OpenAI nije pružio eksplicitne slučajeve koji su potaknuli njihovu istragu o halucinacijama, dvije nedavne pojave su primjer problema u scenarijima iz stvarnog života.

U nedavnom incidentu, advokat Steven A. Schwartz u slučaju Mata protiv Avianca Airlines priznao je oslanjanje na chatbot kao istraživački resurs. Međutim, ispostavilo se da su informacije koje je pružio ChatGPT u potpunosti izmišljene, naglašavajući problem.

OpenAI ChatGPT nije jedini primjer sistema umjetne inteligencije koji se susreću sa halucinacijama. Microsoftova AI, tokom demonstracije svoje chatbot tehnologije u martu, ispitala je izvještaje o zaradi i generirala netačne brojke za kompanije kao što su Gap i Lululemon.

Časopis: 25 trgovaca se klade na ChatGPT-ove dionice, AI je loš u bacanju kockica i još mnogo toga

Izvor: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information