Microsoft unapređuje AI Chatbot sigurnost kako bi spriječio prevarante

Microsoft Corp je dodao brojne sigurnosne karakteristike u Azure AI Studio koje bi s vremenom trebale nastaviti da smanjuju vjerovatnoću da korisnici konfigurišu AI modele u način da se ponašaju nenormalno ili neprikladno. Multinacionalna tehnološka kompanija sa sjedištem u Redmondu, Washington, iznio je poboljšanja u postu na blogu, naglašavajući garantiranje integriteta interakcija AI i podsticanje povjerenja u bazu korisnika.

Brzi štitovi i još mnogo toga 

Među glavnim razvojem je stvaranje „prompt shield-a“, tehnologije koja je dizajnirana da pronađe i ubije brze injekcije dok razgovara sa AI chatbotovima. Ovo su takozvani jailbreakovi i u osnovi su inputi korisnika koji se namjerno formiraju na takav način da izazovu neželjeni odgovor od AI modela.

Na primjer, Microsoft igra svoju ulogu indirektno brzim injekcijama, gdje je moguće izvršavanje zlih naredbi, a takav scenario može dovesti do ozbiljnih sigurnosnih posljedica poput krađe podataka i otmice sistema. Mehanizmi su ključni za otkrivanje i reagovanje na ove jedinstvene prijetnje u realnom vremenu, kaže Sarah Bird, Microsoftov glavni proizvodni direktor za odgovornu umjetnu inteligenciju.

Microsoft dodaje da će se uskoro na ekranu korisnika pojaviti upozorenja koja će ukazivati ​​na to kada će model najvjerovatnije izražavati lažne ili obmanjujuće informacije, osiguravajući više pristupačnosti i povjerenja korisnicima.

Izgradnja povjerenja u AI alate 

Napor Microsofta dio je veće inicijative, čiji je cilj da ljudima pruži povjerenje u sve popularniju generativnu umjetnu inteligenciju koja se intenzivno primjenjuje u uslugama usmjerenim na pojedinačne potrošače i korporativnu klijentelu. Microsoft je prošao kroz češalj s finim zupcima, nakon što je napravio instance, pri čemu su korisnici imali mogućnost da poigraju Copilot chatbot-a da proizvodi bizarne ili štetne rezultate. Ovo će ići u prilog rezultatu koji pokazuje potrebu za snažnom odbranom od spomenutih manipulativnih taktika, koje će vjerovatno porasti s AI tehnologijama i popularnim znanjem. Predviđanje, a zatim ublažavanje je u prepoznavanju obrazaca napada, kao što je slučaj kada napadač ponavlja ispitivanje ili podstiče u igranju uloga.

Kao najveći investitor i strateški partner OpenAI-a, Microsoft pomera granice kako da ugradi i stvori odgovorne, sigurne generativne AI tehnologije. Oboje su posvećeni odgovornoj implementaciji i temeljnim modelima Generativne AI za sigurnosne mjere. No, Bird je priznao da ovi veliki jezički modeli, iako će se smatrati temeljom za većinu budućih AI inovacija, nisu otporni na manipulaciju.

Izgradnja na ovim temeljima će trajati mnogo više od oslanjanja na same modele; bio bi potreban sveobuhvatan pristup sigurnosti i sigurnosti AI.

Microsoft je nedavno najavio jačanje sigurnosnih mjera za svoj Azure AI Studio kako bi pokazao i garantirao proaktivne korake koji se poduzimaju za zaštitu promjenjivog pejzaža AI prijetnji.

Nastoji da izbjegne zloupotrebe AI i očuva integritet i pouzdanost interakcije AI uključivanjem pravovremenih ekrana i upozorenja.

Uz stalnu evoluciju AI tehnologije i njeno usvajanje u mnogim elementima svakodnevnog života, biće krajnje vrijeme da Microsoft i ostatak AI zajednice zadrže vrlo oprezan sigurnosni stav.

Izvor: https://www.cryptopolitan.com/microsoft-ai-chatbot-security-to-tricksters/