Etika AI i zakon o veštačkoj inteligenciji koji važe ključne načine za implementaciju nedavno objavljene Povelje o pravima veštačke inteligencije, uključujući i zapanjujuće korišćenje AI otvorenog tipa

Nema sumnje da su nam nacrti potrebni u svakodnevnom životu.

Ako ćete graditi tu svoju dugo zamišljenu kuću iz snova, bilo bi mudro da prvo sastavite upotrebljiv nacrt.

Nacrt prikazuje na opipljiv i dokumentiran način bilo koju vizionarsku perspektivu razrogačenih očiju koja bi mogla biti zaključana u vašoj nozi. Oni koji će biti pozvani da izgrade vašu dragu farmu moći će da pogledaju nacrt i zabeleže detalje o tome kako obaviti posao. Nacrti su zgodni. Nedostatak nacrta sigurno će biti problematičan za rješavanje bilo kakvog složenog posla ili projekta.

Prebacimo ovu pomalo sentimentalnu, ali istinsku počast nacrtima u carstvo umjetne inteligencije (AI).

Oni od vas koji se suštinski bave AI možda su nejasno svjesni da važna politika orijentirana plan je nedavno objavljen u SAD-u koji se očigledno odnosi na budućnost AI. Neformalno poznat kao AI Povelja o pravima, službeni naziv proglašene bijele knjige je “Nacrt za AI Bill of Rights: Making Automated Systems Work for American People” i lako je dostupan na internetu.

Dokument je rezultat jednogodišnjeg truda i pažljivog proučavanja Ureda za nauku i tehnologiju (OSTP). OSTP je federalni entitet koji je osnovan sredinom 1970-ih i služi za savjetovanje američkog predsjednika i Izvršnog ureda SAD-a o različitim tehnološkim, naučnim i inženjerskim aspektima od nacionalnog značaja. U tom smislu, možete reći da je ova Povelja o pravima umjetne inteligencije dokument koji je odobrila i podržala postojeća Bijela kuća SAD-a.

Povelja o pravima AI opisuje ljudska prava koje bi čovječanstvo trebalo imati s obzirom na pojavu umjetne inteligencije u našem svakodnevnom životu. Naglašavam ovu važnu tačku jer su neki ljudi isprva bili zbunjeni da je to možda neka vrsta priznanja AI pravne osobe i da je ovo litanija prava za razumne AI i humanoidne robote. Ne, još nismo tamo. Kao što ćete za trenutak vidjeti, nismo ni blizu razumne AI, uprkos naslovima na banerima koji nam izgleda drugačije govore.

U redu, da li nam je potreban nacrt koji opisuje ljudska prava u doba umjetne inteligencije?

Da, sigurno je tako.

Skoro bi trebalo da budete zaključani u pećini i da nemate pristup internetu da ne biste znali da AI već i sve više zadire u naša prava. Nedavna era AI u početku se smatrala AI za dobro, što znači da bismo mogli koristiti AI za boljitak čovječanstva. Za petama AI za dobro došla je spoznaja da smo i mi uronjeni AI za loše. Ovo uključuje umjetnu inteligenciju koja je osmišljena ili samopromijenjena u diskriminatornu i koja donosi računske izbore prožimajući nepotrebne predrasude. Ponekad je veštačka inteligencija izgrađena na taj način, dok u drugim slučajevima skreće na tu neprikladnu teritoriju.

Za moje kontinuirano i opsežno pokrivanje i analizu zakona o AI, etike AI i drugih ključnih tehnoloških i društvenih trendova AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Raspakivanje Povelje o pravima veštačke inteligencije

Ranije sam raspravljao o Povelji o pravima umjetne inteligencije i ovdje ću napraviti kratak rezime.

Sa strane, ako želite znati moje detaljne prednosti i nedostatke nedavno objavljene Povelje o pravima umjetne inteligencije, detaljno sam opisao svoju analizu u objavi na pravnik, vidi link ovdje. The pravnik je značajna internetska stranica za pravne vijesti i komentare, nadaleko poznata kao nagrađivana usluga pravnih vijesti koju pokreće globalni tim novinara studenata prava, urednika, komentatora, dopisnika i programera sadržaja, a sa sjedištem u školi Univerziteta u Pittsburghu Pravo u Pittsburghu, gdje je počelo prije više od 25 godina. Sve pohvale za izvanredan i vrijedan tim na pravnik.

U Povelji o pravima AI postoji pet ključnih kategorija:

  • Sigurni i efikasni sistemi
  • Algoritamske zaštite od diskriminacije
  • Privatnost podataka
  • Obaveštenje i objašnjenje
  • Ljudske alternative, razmatranje i rezerva

Primijetite da ih nisam numerirao od jedan do pet jer bi to moglo značiti da se nalaze u određenom nizu ili da je jedno od prava naizgled važnije od drugog. Pretpostavićemo da su svako od njih zasluga. Svi su u nekom smislu podjednako zaslužni.

Kao kratka naznaka od čega se svaki sastoji, evo izvoda iz službene bijele knjige:

  • Sigurni i efikasni sistemi: “Trebali biste biti zaštićeni od nesigurnih ili neefikasnih sistema. Automatizirane sisteme treba razviti uz konsultacije različitih zajednica, dionika i stručnjaka iz domena kako bi se identificirali problemi, rizici i potencijalni uticaji sistema.”
  • Algoritamska zaštita od diskriminacije: „Ne treba da se suočavate sa diskriminacijom od strane algoritama i sisteme treba koristiti i dizajnirati na pravičan način. Algoritamska diskriminacija se događa kada automatizirani sistemi doprinose neopravdanom različitom tretmanu ili utječu na nemilost ljudi na osnovu njihove rase, boje kože, etničke pripadnosti, spola (uključujući trudnoću, porođaj i srodna medicinska stanja, rodni identitet, interseksualni status i seksualnu orijentaciju), religiju, godine , nacionalnog porijekla, invaliditeta, statusa veterana, genetske informacije ili bilo koje druge klasifikacije zaštićene zakonom.”
  • Privatnost podataka: “Trebali biste biti zaštićeni od zloupotrebe podataka putem ugrađene zaštite i trebali biste imati agenciju nad načinom na koji se podaci o vama koriste. Trebali biste biti zaštićeni od kršenja privatnosti kroz izbor dizajna koji osigurava da su takve zaštite uključene prema zadanim postavkama, uključujući osiguravanje da je prikupljanje podataka u skladu s razumnim očekivanjima i da se prikupljaju samo podaci koji su striktno potrebni za određeni kontekst.”
  • Obavijest i objašnjenje: „Trebali biste znati da se koristi automatizirani sistem i razumjeti kako i zašto doprinosi rezultatima koji utiču na vas. Dizajneri, programeri i implementeri automatizovanih sistema treba da obezbede opštedostupnu dokumentaciju na jednostavnom jeziku, uključujući jasne opise celokupnog funkcionisanja sistema i uloge koju automatizacija igra, primetiti da su takvi sistemi u upotrebi, pojedinca ili organizaciju odgovornu za sistem i objašnjenja rezultati koji su jasni, pravovremeni i dostupni.”
  • Ljudske alternative, razmatranje i rezerva: „Trebali biste biti u mogućnosti da se odjavite, gdje je to prikladno, i da imate pristup osobi koja može brzo razmotriti i riješiti probleme na koje naiđete. Trebali biste biti u mogućnosti da se isključite iz automatiziranih sistema u korist ljudske alternative, gdje je to prikladno.”

Uopšteno govoreći, ovo su aspekti prava čovečanstva koji su se bavili već duže vreme u kontekstu etike veštačke inteligencije i zakona o veštačkoj inteligenciji, pogledajte moje izveštavanje kao na link ovdje. Bijela knjiga naizgled magično ne izvlači zeca iz šešira u vezi s nekim novootkrivenim ili iskopanim pravom koji do sada nije bio razjašnjen u kontekstu AI ere.

To je u redu.

Možete tvrditi da njihova kompilacija u jednu uredno upakovanu i formalizovanu kolekciju pruža vitalnu uslugu. Plus, time što ste pomazani kao priznati AI Povelja o pravima, ovo dalje stavlja cijelu stvar otvoreno i vješto u svijest javne sfere. On objedinjuje postojeću gomilu različitih diskusija u jedinstven skup koji se sada može trubiti i prenositi svim zainteresovanim stranama.

Dozvolite mi da ponudim ovu listu pozitivnih reakcija na najavljenu Povelju o pravima veštačke inteligencije:

  • Pruža bitnu kompilaciju ključnih principa
  • Služi kao nacrt ili temelj za nadogradnju
  • Djeluje kao vokalizirani poziv na akciju
  • Podstiče interesovanje i pokazuje da su to ozbiljna razmatranja
  • Objedinjuje mnoštvo različitih diskusija
  • Podstiče i doprinosi naporima za usvajanje etičke veštačke inteligencije
  • Nesumnjivo će doprinijeti uspostavljanju zakona o umjetnoj inteligenciji
  • drugi

Moramo uzeti u obzir i manje nego povoljne reakcije, uzimajući u obzir da je potrebno još puno posla i da je ovo samo početak dugog putovanja na mukotrpnom putu upravljanja umjetnom inteligencijom.

Kao takve, donekle oštre ili da kažemo konstruktivne kritike upućene Povelji o pravima umjetne inteligencije uključuju:

  • Nije pravno provedivo i potpuno neobavezujuće
  • Samo savjetodavna i ne smatra se vladinom politikom
  • Manje sveobuhvatan u odnosu na druge objavljene radove
  • Prvenstveno se sastoji od širokih koncepata i nema detalja implementacije
  • Biće izazovno pretvoriti se u stvarne održive praktične zakone
  • Naizgled šuti o nadolazećem pitanju moguće zabrane AI u nekim kontekstima
  • Marginalno priznaje prednosti korištenja AI koji je dobro osmišljen
  • drugi

Možda je najistaknutiji oštar komentar usredsređen na činjenicu da ova Povelja o pravima veštačke inteligencije nije pravno primenjiva i da stoga nema nikakvu ulogu kada je u pitanju uspostavljanje jasnih stativa. Neki su rekli da, iako je bela knjiga od pomoći i ohrabruje, u njoj definitivno nedostaju zubi. Oni postavljaju pitanje šta može proizaći iz navodnog skupa sjajnih pravila sa šupljim zubima.

Za trenutak ću se pozabaviti tim oštrim primjedbama.

U međuvremenu, bela knjiga obilno navodi ograničenja onoga što ova Povelja o pravima veštačke inteligencije podrazumeva:

  • “Nacrt za AI zakon o pravima je neobavezujući i ne predstavlja politiku američke vlade. On ne zamjenjuje, ne mijenja niti usmjerava tumačenje bilo kojeg postojećeg statuta, propisa, politike ili međunarodnog instrumenta. On ne predstavlja obavezujuće uputstvo za javnost ili savezne agencije i stoga ne zahteva poštovanje principa opisanih ovde. To također nije odlučujuće o tome kakav će biti stav američke vlade u bilo kakvim međunarodnim pregovorima. Usvajanje ovih principa možda neće ispuniti zahtjeve postojećih statuta, propisa, politika ili međunarodnih instrumenata, ili zahtjeve saveznih agencija koje ih provode. Ovi principi nemaju za cilj, i ne zabranjuju ili ograničavaju bilo koju zakonitu aktivnost vladine agencije, uključujući provođenje zakona, nacionalnu sigurnost ili obavještajne aktivnosti” (prema bijeloj knjizi).

Za one koji su brzo potkopali Povelju o pravima umjetne inteligencije kao pravno neobavezujuću, hajde da napravimo mali misaoni eksperiment na toj ljutoj tvrdnji. Pretpostavimo da je bijeli papir objavljen i da je imao punu snagu zakona. Usuđujem se reći da bi rezultat bio donekle kataklizmičan, barem u smislu pravnog i društvenog odgovora na proglas.

Zakonodavci bi bili oduševljeni što napori nisu preduzeli normativne procese i pravne procedure u sastavljanju takvih zakona. Kompanije bi bile razbješnjene, s pravom, kada bi se pojavili novi zakoni bez dovoljno obavještenja i svijesti o tome šta su to zakoni. Uslijedile bi svakakve konsternacije i zgražanja.

Nije dobar način da se teži ka jačanju ljudskih prava u eri umjetne inteligencije.

Prisjetite se da sam ranije započeo ovu raspravu iznoseći vrijednost i vitalnost nacrta.

Zamislite da je neko preskočio korak izrade nacrta i odmah uskočio u izgradnju vaše kuće iz snova. Šta mislite kako bi kuća izgledala? Čini se poštenom opkladom da kuća ne bi posebno odgovarala onome što ste imali na umu. Rezultirajuća kuća mogla bi biti potpuni nered.

Suština je u tome da nam trebaju nacrti i sada ih imamo da bismo napredovali u pronalaženju razumnih zakona o AI i osnaživanju usvajanja etičke umjetne inteligencije.

Stoga bih želio da se pozabavim načinima na koje se ovaj nacrt Povelje o pravima umjetne inteligencije može pretvoriti u kuću, takoreći. Kako ćemo iskoristiti nacrt? Koji su odgovarajući sljedeći koraci? Može li ovaj nacrt biti dovoljan ili treba više mesa na kostima?

Prije nego što pređemo na te teške stvari, želio bih prvo biti siguran da smo svi na istoj strani o prirodi AI i od čega se sastoji današnji status.

Postavljanje rekorda o današnjoj umjetnoj inteligenciji

Želeo bih da dam izuzetno naglašenu izjavu.

Jesi li spreman?

Danas ne postoji AI koja je razumna.

Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može prikladno predvidjeti hoćemo li postići osjećajnu AI, niti da li će osjetilna AI na neki čudan način spontano nastati u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitet, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Ako bismo hteli divlje spekulirati o razumnoj AI, ova rasprava bi mogla krenuti u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Ja bih snažno predložio da stvari zadržimo na zemlji i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite veoma oprezni sa antropomorfizacijom današnje veštačke inteligencije.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima značajno značajne implikacije na etiku AI i nudi zgodan prozor u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj da se AI legalizuje.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. Oni unaprijed upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku suzbijanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti.

U prethodnim kolumnama pokrio sam različite nacionalne i međunarodne napore za izradu i donošenje zakona koji regulišu AI, vidi link ovdje, na primjer. Također sam pokrio različite principe i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih nacija kao što je UNESCO-ov skup etike umjetne inteligencije koji je usvojilo skoro 200 zemalja, vidi link ovdje.

Evo korisne ključne liste etičkih AI kriterija ili karakteristika u vezi s AI sistemima koje sam prethodno pomno istražio:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme.

Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ovdje ranije naglašeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Sada kada sam postavio korisne temelje, spremni smo da zaronimo dalje u Povelju o pravima veštačke inteligencije.

Četiri osnovna načina za implementaciju Povelje o pravima umjetne inteligencije

Neko vam daje nacrt i kaže da se bacite na posao.

Šta radiš?

U slučaju AI Povelje o pravima kao nacrta, razmotrite ova četiri ključna koraka u napredovanju:

  • Služi kao input za formulisanje AI zakona: Koristite nacrt da pomognete u formulisanju zakona o AI, čineći to, nadamo se, na usklađenoj osnovi na saveznom, državnom i lokalnom nivou (možda pomaže i međunarodnim pravnim naporima AI).
  • Pomoć u širenju etike AI: Koristite nacrt da potaknete formulacije etike umjetne inteligencije (ponekad se nazivaju „meki zakoni” u poređenju sa pravno obavezujućim „tvrdim zakonima”), čineći to da inspirišete i usmjeravate kompanije, pojedince, vladine subjekte i druge birače prema boljim i dosljednijim etičkim AI ishodi.
  • Aktivnosti razvoja AI oblika: Koristite nacrt da potaknete kreiranje metodologija razvoja AI i aspekata obuke, čineći to da pokušate da naterate programere AI i one koji se bave ili koriste AI da budu svjesniji kako osmisliti AI u skladu s poželjnim etičkim pravilima AI i u iščekivanju predstojećih zakona o AI koji se donose.
  • Motivirajte pojavu AI da pomogne u kontroli AI: Upotrijebite nacrt da osmislite AI koji će se koristiti da pokuša i poslužiti kao kontrola i ravnoteža protiv druge AI koja bi mogla skrenuti na neprikladnu teritoriju. Ovo je jedno od onih makroskopskih gledišta u kojima možemo koristiti upravo ono što smatramo prividno zabrinjavajućim da nam (ironično, moglo bi se reći) pomoći u zaštiti.

Razgovarao sam o svakom od gore spomenutih četiri koraka kroz svoje objave u kolumni.

Za ovu diskusiju u ovom tekstu, želio bih da se fokusiram na četvrti navedeni korak, naime da Povelja o pravima AI može poslužiti kao motivator za pojavu AI da pomogne u kontroli AI. Ovo je pomalo šokantan ili iznenađujući korak za mnoge koji još nisu u potpunosti ušli u ovo područje napredovanja umjetne inteligencije.

Dozvolite mi da detaljnije objasnim.

Jednostavna analogija bi trebala pomoći. Svi smo ovih dana navikli na provale u sajber sigurnost i hakerske provale. Gotovo svaki dan čujemo ili smo pogođeni nekim najnovijim propustom u našim kompjuterima koji će omogućiti zlobnim zlikovcima da otmu naše podatke ili postave podli komad ransomwarea na naše laptope.

Jedno od načina borbe protiv tih gnusnih pokušaja sastoji se u korištenju specijaliziranog softvera koji pokušava spriječiti te provale. Gotovo sigurno imate antivirusni softverski paket na svom računaru kod kuće ili na poslu. Vjerovatno postoji nešto slično na vašem pametnom telefonu, bez obzira da li znate da je na njemu ili ne.

Moja poenta je da se ponekad morate boriti protiv vatre vatrom (pogledajte moje izvješće o ovome, na primjer na link ovdje i link ovdje).

U slučaju AI koji sleti u verboten carstvo AI za loše, možemo tražiti da koristimo AI za dobro koji se bori sa tim zlonamernim AI za loše. Ovo naravno nije čudotvorni lijek. Kao što znate, postoji neprekidan gambit mačke i miša između zlikovaca koji žele da provale u naše računare i napretka koji se postiže u zaštiti sajber bezbednosti. To je skoro beskonačna igra.

Možemo koristiti AI da pokušamo da se nosimo sa AI koja je krenula zabranjenim putem. To će pomoći. To neće posebno biti srebrni metak jer će štetna AI koja je ciljana gotovo sigurno biti osmišljena kako bi se izbjegla takva zaštita. Ovo će biti stalna mačka i miš AI protiv AI.

U svakom slučaju, umjetna inteligencija koju koristimo da se zaštitimo pružit će određenu količinu zaštite od loše umjetne inteligencije. Stoga, nesumnjivo moramo osmisliti AI koja nas može zaštititi ili zaštititi. Takođe bi trebalo da težimo da napravimo zaštitnu veštačku inteligenciju koja će se prilagođavati kako se loša veštačka inteligencija prilagođava. Doći će do žestokog privida munjevite mačke i miša.

Ne sviđa se svima ovo povećanje uloge AI.

Oni koji već percipiraju AI kao homogeni amorfni konglomerat, naježili bi se i imali bi noćne more zbog ovog lažnog gambita AI-versus-AI. Ako pokušamo da zapalimo vatru na vatru, možda samo pravimo još veću vatru. AI će postati ogromna lomača, vatra koju više nećemo kontrolirati i odlučit će porobiti čovječanstvo ili nas izbrisati sa planete. Kada je u pitanju rasprava o AI kao o egzistencijalnom riziku, obično nas navode da vjerujemo da će se sva AI udružiti, pogledajte moju raspravu o ovim pitanjima na link ovdje. Vidite, rečeno nam je da će svaki dio AI-a zgrabiti svoju braću AI i postati jedna velika vladarska unitarna porodica.

To je užasan i izrazito uznemirujući scenario razumne AI kao besprijekorne mafije svi za jedan i jedan za sve.

Iako ste slobodno dobrodošli da iznosite takve pretpostavke o tome da bi se to jednog dana moglo dogoditi, uvjeravam vas da se za sada AI koji imamo danas sastoji od gomile nepovezanih različitih AI programa koji nemaju poseban način da se međusobno zavjere.

Rekavši to, siguran sam da će oni koji žarko vjeruju u teorije zavjere AI insistirati na tome da sam ovo namjerno rekao kako bih sakrio istinu. Aha! Možda me plaća današnja AI koja već planira veliko preuzimanje AI (da, siree, kupaću se u bogatstvu kada vladaju AI gospodari). Ili, a ja sasvim sigurno ne preferiram ovaj drugi ugao, možda sam slijepo nesvjestan kako AI tajno kuje zavjeru iza naših leđa. Pretpostavljam da ćemo morati da sačekamo da vidimo da li sam ja deo AI puča ili AI odvratna packalica (jao, to boli).

Vraćajući se na zemaljska razmatranja, hajde da ukratko istražimo kako se savremena AI može koristiti za pomoć u implementaciji Povelje o pravima AI. Ovo ću zgodno i sažeto nazvati kao Dobar AI.

Koristićemo pet ključnih kamena oličenih u Povelji o pravima veštačke inteligencije:

  • Dobar AI za promociju Sigurni i efikasni sistemi: Kad god ste podložni ili koristite AI sistem, Dobra AI pokušava otkriti da li je AI koja se koristi nesigurna ili neefikasna. Nakon takvog otkrivanja, dobar AI bi vas mogao upozoriti ili poduzeti druge radnje uključujući blokiranje loše AI.
  • Dobar AI za pružanje Algoritamska zaštita od diskriminacije: Dok koristite AI sistem koji može sadržavati diskriminatorne algoritme, Dobar AI pokušava utvrditi postoje li neadekvatne zaštite za vas i nastoji utvrditi da li zaista postoje neprimjerene predrasude u AI koji se koristi. Dobra AI bi vas mogla obavijestiti i potencijalno automatski prijaviti drugu AI različitim vlastima, kako bi to moglo biti propisano zakonima o AI i zakonskim zahtjevima.
  • Dobar AI za očuvanje Zaštita podataka: Ova vrsta dobre umjetne inteligencije pokušava vas zaštititi od invazija na privatnost podataka. Kada drugi AI traži od vas podatke koji možda nisu zaista potrebni, dobra AI će vas obavijestiti o prekoračenju. Dobra veštačka inteligencija takođe može potencijalno da maskira vaše podatke na način koji će i dalje sačuvati vaša prava na privatnost podataka nakon što se ustupi drugoj veštačkoj inteligenciji. itd.
  • Dobar AI za uspostavljanje Napomena i objašnjenje: Vjerovatno ćemo svi naići na AI sisteme koji jako nedostaju u pružanju odgovarajućih i odgovarajućih obavještenja i koji nažalost ne uspijevaju pokazati adekvatno objašnjenje za svoje postupke. Dobra AI može pokušati protumačiti ili ispitati drugu AI, čineći to kako bi potencijalno identificirala obavještenja i objašnjenja koja su trebala biti pružena. Čak i ako to nije izvodljivo u datom slučaju, dobra AI će vas barem upozoriti na nedostatke druge AI i možda prijaviti AI određenim vlastima na osnovu propisanih AI zakona i zakonskih zahtjeva.
  • Dobar AI za ponudu Ljudske alternative, razmatranje i rezerva: Pretpostavimo da koristite sistem veštačke inteligencije i čini se da veštačka inteligencija nije dorasla svom zadatku. Možda ne shvatate da stvari idu naopako ili ste pomalo oprezni i niste sigurni šta da radite u vezi sa situacijom. U takvom slučaju, Good AI bi u tišini ispitivao šta drugi AI radi i mogao bi vas upozoriti na vitalnu zabrinutost u vezi s tom AI. Od vas će tada biti zatraženo da zatražite ljudsku alternativu AI (ili bi Dobra AI to mogla učiniti u vaše ime).

Da bismo dalje razumjeli kako je ova vrsta Dobar AI može se razviti i upotrijebiti, pogledajte moju popularnu i visoko ocijenjenu AI knjigu (počašćen što je označena kao "Top Ten") o onome što sam općenito nazivao anđelima čuvarima AI, pogledajte link ovdje.

zaključak

Znam šta misliš. Ako imamo dobru umjetnu inteligenciju koja je osmišljena da nas zaštiti, pretpostavimo da se dobra umjetna inteligencija pokvari i postane loša AI. Čuvena ili zloglasna latinska fraza izgleda potpuno relevantna za ovu mogućnost: Quis custodiet ipsos custodes?

Fraza se pripisuje rimskom pjesniku Juvenalu i može se naći u njegovom djelu pod naslovom Satire, i može se slobodno prevesti kao što znači ko će čuvati ili čuvati same čuvare. Mnogi filmovi i TV emisije kao npr Zvjezdane staze koristili ovu liniju više puta.

To je sigurno zato što je to odlična poenta.

Naravno, svi zakoni o umjetnoj inteligenciji koji budu doneseni morat će obuhvatiti i lošu umjetnu inteligenciju, pa čak i dobru umjetnu inteligenciju koja se pokvari. Zato će biti ključno napisati razumne i sveobuhvatne zakone o umjetnoj inteligenciji. Zakonodavci koji samo pokušavaju nasumično baciti legalne tekstove na zid i nadaju se da će se pridržavati zakona o umjetnoj inteligenciji naći će se da duboko promaše cilj.

Ne treba nam to.

Nemamo ni vremena niti možemo podnijeti društveni trošak da se nosimo s neadekvatno osmišljenim zakonima o umjetnoj inteligenciji. Naglasio sam da smo nažalost ponekad svjedoci novih zakona koji se odnose na umjetnu inteligenciju koji su loše sastavljeni i prepuni svih vrsta pravnih bolesti, pogledajte na primjer moju istražujuću analizu zakona o reviziji AI pristrasnosti New York City (NYC) na link ovdje.

Potrudimo se da na odgovarajući način koristimo plan AI Povelje o pravima koji sada imamo u ruci u vezi sa AI. Ako zanemarimo plan, izgubili smo što smo pojačali našu igru. Ako pogrešno implementiramo nacrt, sram nas bilo što smo uzurpirali korisnu osnovu.

Uvaženi rimski pjesnik Juvenal rekao je još nešto što možemo iskoristiti u ovoj situaciji: Anima sana in corpore sano.

Generalno, ovo se prevodi u tvrdnju da bi bilo mudro imati i zdrav ili zdrav um i zdravo ili zdravo tijelo. Ovo nam omogućava da izdržimo bilo kakvu vrstu muke, prema Juvenalu, i sigurno će biti jedini put do života u miru ili vrlini.

Vrijeme je da koristimo zdrav um i zdravo tijelo kako bismo osigurali da će čovječanstvo imati očuvana i čvrsto utvrđena ljudska prava u svijetu sveprisutnog, a ponekad i nepristrasnog AI-a u nastajanju. To je dobar savjet Rimljana kojeg se trebamo pridržavati u današnjoj žurbi usred epohe AI-a i budućnosti koja je odlučno ispunjena i dobrim i lošim AI.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- zakon o pravima-uključujući-i-zapanjujuće-direktnim korištenjem-ai/