Kreatori politike moraju se nositi sa stvarnim izazovima umjetne inteligencije

Fokusiranje na magloviti rizik od izumiranja od AI opasna je distrakcija.

Prošle nedelje, grupa koju finansira Silicijumska dolina pod nazivom Centar za bezbednost veštačke inteligencije objavila je izjavu u jednoj rečenici: „Ublažavanje rizika od izumiranja od veštačke inteligencije trebalo bi da bude globalni prioritet pored drugih društvenih rizika kao što su pandemije i nuklearni rat. Potpisali su ga mnogi lideri u industriji i uvaženi istraživači umjetne inteligencije i dobio je široku pokrivenost u štampi.

Šira reakcija na izjavu bila je oštra. Profesorka Univerziteta Oksford Sandra Wachter rekla je da je to samo reklamni trik. Neki od razumnijih potpisnika, kao što je stručnjak za sigurnost Bruce Schneier, brzo su izrazili kajanje potpisnika. “Zapravo ne mislim da umjetna inteligencija predstavlja rizik za izumiranje ljudi,” rekao je Schneier.

Drugi su mislili da je izjava zaista trik za prikupljanje sredstava. Profesor sociologije na Univerzitetu Duke, Kieren Healy, objavio je lažnu parafrazu: “mojim prijateljima i meni će biti potreban apsolutni kamion bespovratnih sredstava da bismo ublažili doslovno egzistencijalne prijetnje na nivou vrste povezane s ovom stvari za koju tvrdimo da stvaramo.”

Marietje Schaake, bivša članica EU parlamenta koja sada radi u Centru za sajber politiku Univerziteta Stanford, sugerirala je da je podtekst izjave da se kreatori politike trebaju baviti egzistencijalnim rizikom, dok poslovni rukovodioci postavljaju stvarna pravila za korištenje AI. Iako bi umjetna inteligencija mogla biti nova, rekla je, ovaj implicitni argument da su lideri industrije umjetne inteligencije „najbolje pozicionirani da reguliraju same tehnologije koje proizvode“ nije ništa više od riječi recikliranih iz njihove prethodne upotrebe u društvenim medijima i kontroverzama o kriptovalutama.

Moje mišljenje je da apokaliptična upozorenja o AI postizanju svjesnog i neovisnog djelovanja odvlače pažnju od stvarnih izazova AI koji zahtijevaju od regulatora da pojačaju provođenje postojećeg zakona i kreatora politike da razmotre revizije kako bi se pozabavili pravnim prazninama.

Prevara izvršena korištenjem AI je nezakonita, kako je rekla predsjednica Federalne trgovinske komisije Lina Khan. Agencija je već upozorila na korištenje umjetne inteligencije za lažno predstavljanje ljudi kako bi počinili video i telefonske prevare. Kina je primijetila istu stvar i suzbija prevare vođene umjetnom inteligencijom. Nije jasno da postoje nova pravna pitanja, ali bi bili potrebni ogromni napori da se kontroliše ova nadolazeća poplava AI prijevara. Potpuno finansiranje budžetskog zahtjeva agencije od 590 miliona dolara bilo bi daleko produktivnije korištenje javnog novca od studije o egzistencijalnim rizicima AI.

Svi su ispravno zabrinuti zbog dezinformacija koje je stvorila umjetna inteligencija, kao što je nedavna najava 'lažnog Putina' da je Rusija napadnuta. Označavanje bi moglo uvelike pomoći u smanjenju ovih rizika. Reklama Republičkog nacionalnog komiteta koja je uslijedila nakon Bajdenove objave o njegovoj predsjedničkoj kandidaturi koristila je AI za stvaranje slika onoga što bi se moglo dogoditi pod novim Bidenovim predsjedništvom, ali je tako označena i to je smanjilo rizik od dezinformacija.

Transparentnost za AI je plod politike koji kreatori politike treba da zgrabe, kao što se čini da neki čine. Ove sedmice potpredsjednica Evropske komisije Vera Jourova pozvala je tehnološke kompanije da označe sadržaj koji generiše umjetna inteligencija. U SAD-u, predstavnik Ritchie Torres (DN.Y.) uskoro će uvesti zakon koji će zahtijevati od usluga poput ChatGPT-a da otkriju da je njihov rezultat "generiran umjetnom inteligencijom".

Autorska prava i AI su još jedan izazov. Potrebna je određena jasnoća oko kompenzacije vlasnicima autorskih prava za korištenje njihovog materijala za obuku AI. Getty je u februaru tužio Stability AI u SAD-u rekavši da je kompanija AI kopirala 12 miliona Getty slika bez dozvole za obuku svog softvera za generiranje slika Stable Diffusion AI. Prošle sedmice je zatražio od suda u Londonu da blokira stabilnost AI u Velikoj Britaniji jer je AI kompanija prekršila Gettyjeva autorska prava u obuci svog sistema.

Ovi slučajevi će biti rešeni na sudu. Ali postoji pristojan argument da vlasnici autorskih prava uopće ne moraju dobiti naknadu bilo zbog poštene upotrebe ili zato što se samo nezaštićene činjenice i ideje izdvajaju za obuku AI. Štoviše, Direktiva Europske unije o autorskim pravima na jedinstvenom digitalnom tržištu iz 2019. sadrži izuzetak koji dozvoljava rudarenje teksta i podataka online materijala zaštićenog autorskim pravima osim ako vlasnik autorskih prava ne odustane korištenjem tehnološke zaštite kao što je blokator zaglavlja kako bi se spriječilo skeniranje. Ovo bi moglo pokriti podatke o obuci AI.

Trenutni nacrt Zakona o vještačkoj inteligenciji Evropske unije zahtijeva otkrivanje djela zaštićenih autorskim pravima koja se koriste u obuci AI sistema. Čini se da ovo ima za cilj omogućiti vlasnicima autorskih prava da iskoriste svoje pravo da se odustanu od rudarenja teksta i podataka za obuku AI. Ali to može biti i korak ka nečem daljem. To bi moglo dovesti do režima prinudne licence koji bi spriječio nosioce autorskih prava da blokiraju obuku za umjetnu inteligenciju, ali im omogućio određenu nadoknadu za korištenje njihovog intelektualnog vlasništva. Rešavanje ovih problema vezanih za autorska prava zahtevaće fokusiranu pažnju kreatora politike.

Zakon o veštačkoj inteligenciji EU takođe zahteva da rizični sistemi veštačke inteligencije prođu proces sertifikacije sa ciljem da se osigura da su rizici adekvatno procenjeni i da su usvojene razumne mere za ublažavanje. Trenutni nacrt tretira temeljne modele kao što je ChatGPT kao rizične sisteme koji podliježu sertifikaciji, što je potencijalni teret koji je očigledno podstakao šefa Open AI Sema Altmana da kaže da će povući ChatGPT iz Evrope ako ne bude mogao da se pridržava. Od tada je otklonio tu prijetnju, rekavši da ne planira otići.

Ipak, on ima pravo. Kreatori politike koji traže konkretan problem za prožvakanje trebali bi se zapitati kako se sistem umjetne inteligencije opće namjene, kao što je ChatGPT, može certificirati kao „siguran“ kada će se mnogi rizici pojaviti tek kada se sistem primjenjuje u praksi.

Ovo su samo neka od ključnih pitanja umjetne inteligencije koja bi trebala brinuti kreatore politike. Drugi uključuju uticaje na zapošljavanje sve sposobnijih sistema veštačke inteligencije, izazove privatnosti kada podaci o obuci uključuju lične podatke, tendenciju ka koncentraciji koju stvaraju ogromni troškovi i mrežni efekti softvera za obuku veštačke inteligencije, primenu pravila o odgovornosti iz Odeljka 230 i sprovođenje zakoni protiv pristrasnosti u kreditiranju, stanovanju i zapošljavanju kada AI vodi procjenu podobnosti.

Kreatori politike ne moraju i ne bi trebali odlutati u maglovita područja u kojima se autonomni AI programi izmiču kontroli i prijete ljudskom opstanku. Imaju dosta posla da se suoče sa brojnim izazovima veštačke inteligencije u stvarnom svetu.

Izvor: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/