Ugrađivanje pravnog obrazloženja u AI bi moglo pametno postići usklađivanje ljudskih vrijednosti, kaže etika AI i zakon o AI

U današnjoj kolumni, upleću bezbroj naizgled različitih tema vezanih za veštačku inteligenciju u jednu lepo tkanu tkaninu.

Jesi li spreman?

Zamislite da koristite aplikaciju sa umjetnom inteligencijom koja vam pomaže dok obavljate neku vrstu značajnog zadatka. Možda je stvar finansijska ili bi mogla biti povezana sa zdravljem. Suština je u tome da ovisite o AI-u da učinite pravu stvar i izvedete na pretpostavljeno siguran i zdrav način.

Pretpostavimo da AI skrene na neetičku teritoriju.

Možda ne shvatate da AI to radi.

Na primjer, AI bi se mogao oslanjati na potencijalno skrivene diskriminatorne faktore kao što su rasa ili spol, iako možda nemate nikakva održiva sredstva da uočite neželjenu upotrebu. Tu ste, sasvim sami, dobijate kratak kraj štapa putem AI koja je ili osmišljena od samog početka na problematičan način ili je uspjela da se usmjeri u kockasto i granično etičko ugrožavanje (reći ću više o ovo za trenutak).

Šta možete učiniti ili šta se može učiniti u vezi sa umjetnom inteligencijom koja se odluči da krene neetičkim putem?

Osim što sam pokušao unaprijed konstruirati AI tako da ne radi ovu vrstu podmuklih radnji, prethodno sam također naveo da postoji sve veći interes za ugrađivanje Provjera etike AI komponenta u rastuću močvaru inače Divljeg Zapada, bilo šta, AI sistemi koji se bacaju na tržište. Ideja je da bismo pokušali spriječiti aplikaciju koja je prožeta umjetnom inteligencijom da izađe iz etičkih dimenzija, mogli bismo koristiti dodatnu umjetnu inteligenciju za provjeru i ravnotežu. Ovaj dodatni AI može biti izvan ciljane AI aplikacije ili može biti komponenta ugrađena ili implantirana direktno u AI koju želimo još jednom provjeriti.

Kao što sam već rekao, vidi link ovdje: „Trend koji se nedavno pojavio sastoji se od pokušaja da se u AI ugrade etičke zaštitne ograde koje će uhvatiti kada ostatak AI sistema počne da prelazi unapred postavljene etičke granice. U određenom smislu, cilj je koristiti samu umjetnu inteligenciju kako bi se spriječio da se etički ne pokvari. Moglo bi se reći da nam je cilj da AI izliječi samu sebe” (Lance Eliot, „Izrada etičke umjetne inteligencije koja prati neetičku umjetnu inteligenciju i pokušava odvratiti lošu umjetnu inteligenciju da ne djeluje”, Forbes28. marta 2022.).

Možda će vas zanimati i moja knjiga AI botovi čuvari, koji se ponekad naziva i anđeli čuvari, koji pokriva tehničku osnovu ove najsavremenije AI-unutar-AI ugrađene dvostruke provere, vidi link ovdje.

Suština je da bi se vaša slanina mogla srećom spasiti upotrebom ugrađenog AI elementa za dvostruku provjeru etičkog mjerenja koji je osmišljen i implantiran u AI aplikaciju koju koristite. Ali hoće li to biti dovoljan čuvar da se zaista pobrine da vas umjetna inteligencija u potpunosti ne ukoči i da se upusti u čak i štetno tlo?

Vidite, AI aplikacija bi mogla prividno da radi Ilegalno djela.

Jedna je stvar imati AI koja ulazi u sivu zonu onoga što smatramo etičkim ili neetičkim ponašanjem. Jednako uznemirujuće ponašanje i vjerovatno pogoršanje zabrinutosti podrazumijevaju umjetnu inteligenciju koja takoreći skače ajkulu i spušta se u lošu tamu otvorenih nezakonitih radnji.

Nezakonita AI je loša. Dozvoliti nezakonitoj AI da ostane bez nadzora je loše. Neki pravni naučnici su otvoreno zabrinuti da će pojava i sveprisutnost AI postepeno i zastrašujuće potkopavati naš privid vladavina zakona, pogledajte moju analizu na link ovdje.

Čekaj malo, možda ćeš reći.

Možda ćete biti u iskušenju da mislite da bi AI programeri nikada programirajte svoju AI da bude protiv zakona. Nezamislivo. To bi radili samo zli zlikovci (koji, usput rečeno, imaju na umu da postoje oni koji namjerno smišljaju i koriste AI u zle svrhe, što je sve veća oblast od interesa za kriminalce i druge koji žele koristiti AI za podle aktivnosti).

Žao nam je, ali je pusta želja pretpostaviti da će svi ne-zli AI programeri striktno osigurati da njihova AI u potpunosti poštuje zakon. Moguće je da se AI samoprilagođava i odluta u ilegalne aktivnosti. Naravno, postoji i potencijal da su programeri AI ili htjeli da AI djeluje nezakonito ili da nisu bili svjesni šta je činilo nezakonite naspram zakonskih radnji kada su kreirali AI (da, to je sasvim moguće, naime da AI tim za sve tehnologije može biti neupućen u pravne smicalice njihove AI, što nije opravdano, a ipak se dešava sa alarmantnom učestalošću).

Šta se može učiniti povodom toga?

Još jednom, osim pokušaja da se osigura da je AI izvan kapije željezna i zakonita, dodatni pristup za dobivanje pare uključuje ugrađivanje ili implantaciju AI komponente koja vrši legalnu dvostruku provjeru za ostatak AI aplikacije. Sjedeći tiho i često nenajavljeno, ova dodana AI promatra ostatak AI kako bi pokušala razaznati hoće li AI krenuti odmetnički ili će barem prekoračiti granice zakonskih ili regulatornih ograničenja.

Sada imamo dvije vrste dvostruke provjere AI koje su potencijalno ugrađene u AI aplikaciju:

  • Dvostruka provjera etike AI: U realnom vremenu, ova komponenta ili dodatak AI procjenjuje ostatak AI za etičko i neetičko ponašanje koje AI pokazuje
  • AI Pravna dvostruka provjera: U realnom vremenu, ova komponenta ili dodatak AI procjenjuje ostatak AI-a kako bi osigurao da ostane unutar zakonskih temelja i za hvatanje novih nezakonitih aktivnosti od strane AI

Da pojasnimo, to su relativno nove koncepcije i kao takva AI koju danas koristite može biti u bilo kojem od ovih sadašnjih stanja:

  • AI koji uopće nema uključene dvostruke provjere
  • AI koji ima uključenu dvostruku provjeru etike umjetne inteligencije, ali ne i druge dvostruke provjere
  • AI koji ima uključen AI Legal dvostruku provjeru, ali ne i druge dvostruke provjere
  • AI koji ima i AI Ethics dvostruku provjeru i AI Legal dvostruku provjeru
  • drugi

Postoje neki izrazito škakljivi aspekti da i AI Ethics dvostruka provjera i AI Legal dvostruka provjera rade rame uz rame u AI aplikaciji kao srodni brat i sestra. Ovo je tip dualizma koji može biti teže koordinirati nego što biste pretpostavili (mislim da svi znamo da braća i sestre mogu imati najčvršće veze, iako se također mogu s vremena na vrijeme boriti poput dickensa i snažno se suprotstaviti pregledi).

Dugo sam raspravljao o ovoj vrsti napornog dualizam: „Zapostavljeni dualizam se javlja u AI za društveno dobro koji uključuje nedostatak obuhvatanja i uloge veštačkog moralnog delovanja i veštačkog pravnog rasuđivanja u naprednim sistemima veštačke inteligencije. Napori istraživača umjetne inteligencije i AI programera težili su da se fokusiraju na to kako izraditi i ugraditi umjetne moralne agente da usmjeravaju moralno donošenje odluka kada AI sistem djeluje na terenu, ali se također nisu fokusirali na i spojili korištenje sposobnosti umjetnog pravnog rasuđivanja. , što je podjednako neophodno za snažne moralne i pravne ishode” (Lance Eliot, „Zanemareni dualizam veštačkog moralnog posredovanja i veštačkog pravnog rezonovanja u veštačkoj inteligenciji za društveno dobro,” Godišnja konferencija Univerziteta Harvard CRCS 2020., Harvard Centre for Research and Computation Society)

Ako želite da se bavite pitanjem zašto bi moglo doći do napetosti između dvostruke provere etike veštačke inteligencije i dvostruke provere pravnih veština, možda ćete pronaći ovaj upečatljiv citat konceptualne vrednosti koji zadire u um: „Zakon može dozvoliti neki određeni čin, iako je taj čin nemoralan; a zakon može zabraniti čin, iako je to moralno dopušteno, ili čak moralno zahtijevano” (Shelly Kagan, Granice morala, 1998).

Hajde da malo pomjerimo fokus i vidimo kako se ovi dvostruki čekeri uklapaju u još jednu vrlo pažljivo proučenu temu AI, naime Odgovorna AI ili usklađeno razmatranje usklađivanja ljudskih vrijednosti i AI.

Opća ideja je da želimo AI koja se pridržava pravih i poželjnih ljudskih vrijednosti. Neki to nazivaju Odgovorna AI. Drugi slično raspravljaju Odgovorna AI, Pouzdana AI, I AI Alignment, od kojih se svi dotiču istog principa kamena temeljca. Za moju raspravu o ovim važnim pitanjima, vidi link ovdje i link ovdje, Da nabrojimo samo neke.

Kako možemo natjerati AI da se uskladi s ljudskim vrijednostima?

Kao što je ranije sugerirano, nadamo se da će AI programeri biti svjesni razvoja AI koji postiže odgovorno pridržavanje AI. Nažalost, možda i neće, iz razloga koji su ranije razjašnjeni. Osim toga, mogli bi pokušati to učiniti, ali ipak AI završava samoprilagođavanjem izvan istaknutog područja etičkog ponašanja ili možda u nezakonite vode.

U redu, onda trebamo uzeti u obzir naše zgodne duple dame kao sredstvo za podupiranje ovih rizika i izloženosti. Upotreba dobro osmišljene dvostruke provjere etike umjetne inteligencije može materijalno pomoći u usklađivanju AI s ljudskim vrijednostima. Slično tome, upotreba dobro osmišljene AI Legal dvostruke provjere može suštinski pomoći u usklađivanju AI sa ljudskim vrijednostima.

Stoga bi ključno i još uvijek nedovoljno poznato sredstvo za postizanje odgovorne AI, pouzdane AI, odgovorne umjetne inteligencije, usklađivanja umjetne inteligencije, itd., uključivalo korištenje AI dvostrukih provjera kao što su dvostruka provjera etike AI i AI Pravna dvostruka provjera koja bi neumorno radila kao dvostruka provjera AI u koju su ugrađeni.

U ovoj diskusiji, želio bih da uđem u malo detaljnije o prirodi i konstrukciji AI Legal dvostrukih provjera koji bi mogli biti ugrađeni u AI. Da biste to učinili, moglo bi biti korisno podijeliti s vama neku dodatnu pozadinu o cjelokupnoj temi AI i pravo.

Za besmisleno ispitivanje kako se AI i zakon miješaju jedni s drugima, pogledajte moju raspravu na link ovdje. U mom pronicljivom pogledu na AI i pravo u kombinaciji, pružam ovu direktnu koncepciju dva glavna načina za međusobno povezivanje AI i zakona:

  • (1) Zakon koji se primjenjuje na AI: Formulisanje, donošenje i sprovođenje zakona koji se primenjuju na regulisanje ili upravljanje veštačkom inteligencijom u našem društvu
  • (2) AI-primijenjeno pravo: Tehnologija umjetne inteligencije osmišljena i primijenjena u zakonu uključujući AI-based Legal Reasoning (AILR) ugrađenu u visokotehnološke aplikacije LegalTech za autonomno ili poluautonomno obavljanje advokatskih zadataka

Prvo navedeno gledište sastoji se od razmatranja kako će postojeći i novi zakoni regulisati AI. Druga navedena perspektiva se odnosi na primjenu AI na zakon.

Ova posljednja kategorija obično uključuje korištenje pravnog obrazloženja zasnovanog na umjetnoj inteligenciji (AILR) u različitim online alatima koje koriste pravnici. Na primjer, AI bi mogao biti dio paketa za upravljanje životnim ciklusom ugovora (CLM) koji pomaže advokatima identifikacijom ugovornog jezika koji će biti koristan za sastavljanje novih ugovora ili može otkriti ugovore koji imaju pravno neobičan jezik koji dozvoljava nesreće ili pravne rupe. (za moj pogled na takozvane „mirise zakona” koje može razaznati AI, vidi link ovdje).

Neizbežno ćemo primeniti AI na zakon koji postaje dostupan za upotrebu široj javnosti i koji ne zahteva da advokat bude u toku. Upravo sada, kao rezultat različitih ograničenja, uključujući UPL (Neovlašteno praktikovanje prava), stavljanje dostupnih aplikacija za pravno savjetovanje zasnovane na umjetnoj inteligenciji je trnovita i kontroverzna stvar, pogledajte moju raspravu na link ovdje.

Pokrenuo sam ovaj uvod o AI i pravu kako bih istakao da bi još jedna instrumentalna upotreba AI primijenjene na zakon bila kreiranje AI Legal dvostrukih provjera.

Da, ista vrsta tehnološke sposobnosti koja je uključena u primjenu AI na zakon može služiti kao dvostruka dužnost korištenjem AI kao ugrađenog ili implantiranog AI Legal dvostruke provjere. AI Legal dvostruka provjera je komponenta koja mora biti upućena u pravne aspekte. Kada ostatak AI aplikacije izvodi različite radnje, dvostruka provjera AI Legal procjenjuje da li AI aplikacija to čini legalno i unutar zakonskih ograničenja.

Komponenta dvostruke provjere AI Legal ne mora nužno pokriti cijeli raspon svega što se može znati o zakonu. Ovisno o prirodi aplikacije AI u pogledu svrhe i djelovanja AI u cjelini, AI Legal dvostruka provjera može biti mnogo uža u smislu pravne ekspertize koju sadrži.

Identifikovao sam koristan okvir za pokazivanje kako se AI u pravnom domenu kreće kroz niz autonomnih kapaciteta, poznatih kao Nivoi autonomije (LoA). Za pregled pogledajte moj Forbes objava u kolumni od 21. novembra 2022., „Bez besmislica, sveobuhvatan uvjerljiv slučaj zašto advokati moraju znati o AI i zakonu“ na link ovdje, a za detaljan tehnički prikaz pogledajte moj dubinski istraživački članak u MIT Computational Law Journal od 7. decembra 2021, vidi link ovdje.

Okvir razjašnjava pet nivoa AI koji se koristi u pravnim nastojanjima:

  • Nivo 0: Nema automatizacije za pravni rad zasnovan na AI
  • Nivo 1: Jednostavna automatizacija pomoći za pravni rad zasnovan na AI
  • Nivo 2: Napredna automatizacija pomoći za pravni rad zasnovan na AI
  • Nivo 3: Poluautonomna automatizacija za pravni rad zasnovan na AI
  • Nivo 4: Autonomna domena za pravni rad zasnovan na AI
  • Nivo 5: Potpuno autonoman za pravni rad zasnovan na AI

Ovdje ću ih ukratko opisati.

Nivo 0 se smatra nivoom bez automatizacije. Pravno obrazloženje i pravni zadaci izvode se ručnim metodama i uglavnom se odvijaju putem pristupa na papiru.

Nivo 1 sastoji se od jednostavne automatizacije pomoći za pravna razmišljanja AI. Primjeri ove kategorije bi uključivali korištenje svakodnevne kompjuterske obrade teksta, korištenje svakodnevnih kompjuterskih tabela, pristup pravnim dokumentima na mreži koji se pohranjuju i preuzimaju elektronski, itd.

Nivo 2 sastoji se od napredne automatizacije pomoći za pravna razmišljanja AI. Primeri ove kategorije bi uključivali upotrebu rudimentarne obrade prirodnog jezika (NLP), u stilu upita, pojednostavljene elemente mašinskog učenja (ML), alate za statističku analizu za predviđanje pravnih slučajeva, itd.

Nivo 3 se sastoji od poluautonomne automatizacije za AI pravno rezonovanje. Primeri ove kategorije bi uključivali upotrebu naprednih sistema zasnovanih na znanju (KBS) za pravno rezonovanje, korišćenje mašinskog učenja i dubokog učenja (ML/DL) za pravno rezonovanje, napredni NLP i tako dalje.

Nivo 4 se sastoji od domenskih autonomnih kompjuterski baziranih sistema za pravno rezonovanje AI. Ovaj nivo ponovo koristi konceptualni pojam domena operativnog dizajna (ODD), koji se koristi za samovozeće automobile, ali koji se primjenjuje na pravni domen. Pravni domeni se mogu klasifikovati po funkcionalnim oblastima, kao što su porodično pravo, pravo nekretnina, zakon o stečaju, pravo životne sredine, poresko pravo, itd.

Nivo 5 sastoji se od potpuno autonomnih kompjuterski baziranih sistema za pravno rezonovanje AI. U određenom smislu, nivo 5 je nadskup nivoa 4 u smislu obuhvata svih mogućih pravnih domena. Imajte na umu da je ovo prilično težak zadatak.

Možete zamisliti ove nivoe autonomije uporedo sa sličnim upotrebama kada razgovarate o samovozećim automobilima i autonomnim vozilima (također na osnovu zvaničnog SAE standarda, pogledajte moje izveštavanje na link ovdje). Još nemamo samovozeće automobile SAE Level 5. Idemo prema samovozećim automobilima SAE Level 4. Većina konvencionalnih automobila je na SAE nivou 2, dok neki noviji automobili guraju u SAE nivo 3.

U pravnom domenu još uvijek nemamo AILR nivoa 5. Dotičemo se nekog Nivoa 4, iako u izuzetno uskim ODD-ima. Nivo 3 počinje da vidi svjetlo dana, dok je danas glavni oslonac AILR-a prvenstveno na nivou 2.

Nedavni istraživački članak o AI primijenjenoj na zakon postavio je tipizaciju poznatu kao Zakon informiše kod. Istraživač ovo navodi: „Jedan od primarnih ciljeva Zakon informiše kod agenda je naučiti AI da slijedi duh zakona” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Human”, Northwestern Journal of Technology and Intellectual Property, sveska 20, u pripremi). Postoje neka bitna razmatranja da Zakon informiše kod mantra donosi i ja ću vas provesti kroz nekoliko tih ključnih pravila.

Prije nego što se upustim u temu, želio bih prvo postaviti neke suštinske temelje o AI, a posebno o etici AI i zakonu o AI, čineći to kako bih bio siguran da će rasprava biti kontekstualno razumna.

Rastuća svijest o etičkom AI i zakonu o AI

Nedavna era AI u početku se smatrala AI za dobro, što znači da bismo mogli koristiti AI za boljitak čovječanstva. Za petama AI za dobro došla je spoznaja da smo i mi uronjeni AI za loše. Ovo uključuje umjetnu inteligenciju koja je osmišljena ili samopromijenjena u diskriminatornu i koja donosi računske izbore prožimajući nepotrebne predrasude. Ponekad je veštačka inteligencija izgrađena na taj način, dok u drugim slučajevima skreće na tu neprikladnu teritoriju.

Želim da budem potpuno siguran da smo na istoj strani po pitanju prirode današnje veštačke inteligencije.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Ako bismo hteli divlje spekulirati o razumnoj AI, ova rasprava bi mogla krenuti u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Ja bih snažno predložio da stvari zadržimo na zemlji i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite veoma oprezni sa antropomorfizacijom današnje veštačke inteligencije.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima značajno značajne implikacije na etiku AI i nudi zgodan prozor u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj da se AI legalizuje.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. Oni unaprijed upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku suzbijanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti.

U prethodnim kolumnama pokrio sam različite nacionalne i međunarodne napore za izradu i donošenje zakona koji regulišu AI, vidi link ovdje, na primjer. Također sam pokrio različite principe i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih nacija kao što je UNESCO-ov skup etike umjetne inteligencije koji je usvojilo skoro 200 zemalja, vidi link ovdje.

Evo korisne ključne liste etičkih AI kriterija ili karakteristika u vezi s AI sistemima koje sam prethodno pomno istražio:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme.

Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ovdje ranije naglašeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Nedavno sam također pregledao AI Povelja o pravima što je službeni naziv službenog dokumenta američke vlade pod naslovom “Nacrt za AI Bill of Rights: Making Automated Systems Work for American People” koji je rezultat jednogodišnjih napora Ureda za nauku i tehnološku politiku (OSTP ). OSTP je savezni entitet koji služi za savjetovanje američkog predsjednika i Izvršnog ureda SAD-a o različitim tehnološkim, naučnim i inženjerskim aspektima od nacionalnog značaja. U tom smislu, možete reći da je ova Povelja o pravima umjetne inteligencije dokument koji je odobrila i podržala postojeća Bijela kuća SAD-a.

U Povelji o pravima AI postoji pet ključnih kategorija:

  • Sigurni i efikasni sistemi
  • Algoritamske zaštite od diskriminacije
  • Privatnost podataka
  • Obaveštenje i objašnjenje
  • Ljudske alternative, razmatranje i rezerva

Pažljivo sam pregledao te propise, vidite link ovdje.

Sada kada sam postavio korisnu osnovu o ovim povezanim temama etike AI i prava, spremni smo da uskočimo u žestoku temu dvostrukih provjera pravnih AI i oblasti Zakon informiše kod.

AI Legal Double-Checkers ugrađen u AI za usklađivanje ljudskih vrijednosti

Ponekad se pozivam na AI Legal Double-Checkers preko akronima od AI-LDC. Ovo je malo vizuelno neugodno za one koji nisu upoznati sa akronimom. Kao takav, neću koristiti ovaj konkretan akronim u ovoj diskusiji, ali sam želio da vam ga spomenem kao upozorenje.

Da bismo raspakirali neke od složenosti AI Legal dvostrukih provjera, pozabavimo se ovim glavnim točkama:

  • Upotreba AI Legal dvostrukih provjera kao AI mehanizma za usklađivanje ljudskih vrijednosti
  • Ekspanzivnija AI će shodno tome zahtijevati robusnije AI Legal dvostruke provjere
  • AI Pravne duple provjere donose zakon i posebno ne donose zakon (vjerovatno)
  • Delikatna ravnoteža između AI Pravno oličenje zakona kao pravila naspram standarda
  • Zahtijevanje dokaza o pudingu kada je u pitanju AI poštivanje zakona

Zbog ograničenosti prostora, za sada ću pokriti samo tih pet tačaka, iako budite na oprezu za daljnje izvještavanje u mojoj kolumni koja pokriva dodatna i jednako važna razmatranja o ovim pitanjima koja se brzo razvijaju i napreduju.

Odmah zategnite pojas i pripremite se za okrepljujuće putovanje.

  • Upotreba AI Legal dvostrukih provjera kao AI mehanizma za usklađivanje ljudskih vrijednosti

Postoje brojni načini da pokušate postići harmonično usklađivanje između AI i ljudskih vrijednosti.

Kao što je ranije spomenuto, možemo proizvesti i objaviti etičke propise AI i nastojati navesti programere umjetne inteligencije i one koji rade i upravljaju AI da se pridržavaju tih ključnih kamena. Nažalost, ovo samo po sebi neće uspjeti. Imate neke dizajnere koji neizbežno neće shvatiti poruku. Imate neke domišljatelje koji će se razmetati Etičkom umjetnom inteligencijom i pokušati zaobići pomalo labavo-guska propisana načela. I tako dalje.

Upotreba pristupa „mekog prava“ koji podrazumevaju etiku veštačke inteligencije gotovo neizostavno treba da bude uparena sa „tvrdim zakonima“ kao što je donošenje zakona i propisa koji će poslati snažan signal svima koji stvaraju ili koriste veštačku inteligenciju. Duga ruka zakona bi mogla doći da vas uhvati ako ne koristite razumno AI. Zvuk zveckanja zatvorskih vrata mogao bi privući oštru pažnju.

Međutim, veliki problem je to što su ponekad vrata štale već pustili konje napolje. AI koja je postavljena potencijalno će proizvoditi sve vrste nezakonitih radnji i nastaviti to činiti sve dok ne bude samo uhvaćena, već i kada se konačno pokrenu neki organi koji će zaustaviti tok nezakonitih radnji. Sve to može potrajati. U međuvremenu, ljudi su naneseni na ovaj ili onaj način.

U ovaj pohod dolazi dvostruka provjera AI Legal.

Ako se nalazi unutar AI aplikacije, AI Legal dvostruka provjera može odmah otkriti kada se čini da AI nije u skladu sa zakonom. Dvostruka provera AI Legal mogla bi zaustaviti AI u svojim stazama. Ili komponenta može upozoriti ljude na uočene nezakonite aktivnosti, čineći to na vrijeme što bi moglo podstaći nadzornike na hitne korektivne mjere. Postoji i smatrano formalizovano evidentiranje koje bi komponenta mogla kreirati, pružajući opipljiv privid revizorskog traga u svrhu kodifikacije štetnih radnji AI.

Za naše zakone se kaže da su oblik multi-agentskog konglomerata tako da su zakoni neizbježno mješavina onoga što je društvo nastojalo postaviti kao ravnotežu između vjerovatno suprotstavljenih pogleda na ispravno i neprikladno društveno ponašanje. Dvostruka provjera AI Legal zasnovana na našim zakonima stoga utjelovljuje tu mješavinu.

Primjetno, ovo je više od samo programiranja liste konačnih pravnih pravila. Zakoni imaju tendenciju da budu savitljiviji i teže sveobuhvatnim standardima, umjesto da specificiraju najsitnija mikroskopska pravila. Kompleksnosti ima dosta.

Vraćajući se na ranije pomenuti istraživački rad, evo kako se ova razmatranja takođe mogu posmatrati u vezi sa potragom za AI poravnanjem: „Pravo, primenjena filozofija usklađivanja sa više agenata, jedinstveno ispunjava ove kriterijume. Usklađivanje je problem jer ne možemo ex ante specificirati pravila koja u potpunosti i dokazivo usmjeravaju dobro ponašanje AI. Slično, strane u pravnom ugovoru ne mogu predvidjeti svaku nepredviđenu situaciju u svom odnosu, a zakonodavci ne mogu predvidjeti specifične okolnosti pod kojima će se primjenjivati ​​njihovi zakoni. Zato je veći dio zakona konstelacija standarda” (ibid).

Utjelovljenje zakona u AI Legal dvostruku provjeru je mnogo izazovnije nego što biste na prvi pogled mogli pretpostaviti.

Kako AI napreduje, morat ćemo u skladu s tim iskoristiti takav napredak. Ispostavilo se da je ono što je dobro za gusku dobro i za gusje. Oni od nas koji napreduju u veštačkoj inteligenciji u skladu sa zakonom, pomeraju okvire za veštačku inteligenciju i nesumnjivo stvaraju nova dostignuća koja se na kraju mogu uvesti u potpuni napredak AI.

  • Ekspanzivnija AI će shodno tome zahtijevati robusnije AI Legal dvostruke provjere

Gambit mačke i miša suočava se sa ovom temom.

Šanse su da kako AI bude dalje napredovao, bilo kojoj AI Legal komponenti dvostruke provjere će biti sve teže i teže izaći na kraj. Na primjer, AI aplikacija koja se ispituje možda ima novo osmišljene super podmukle načine za skrivanje nezakonitih radnji koje AI poduzima. Čak i ako AI ne krene lažnim putem, ukupna složenost AI bi sama po sebi mogla biti zastrašujuća prepreka za traženje dvostruke provjere AI Legal-a.

Evo kako ovo postaje posebno značajno.

Pretpostavimo da programer umjetne inteligencije ili neka firma koja koristi umjetnu inteligenciju izjavi da postoji AI Legal dvostruka provjera koja je ugrađena u aplikaciju zasnovanu na AI. Voila, čini se da su sada oprali ruke od svih daljnjih briga. Dvostruka provera AI Legal će se pobrinuti za sve.

Ne tako.

Dvostruka provjera AI Legal možda nije dovoljna za prirodu uključene AI aplikacije. Također postoji mogućnost da dvostruka provjera AI Legal postane zastarjela, možda nije ažurirana s najnovijim zakonima koji se odnose na AI aplikaciju. Može se predvidjeti niz razloga zašto samo prisustvo AI Legal dvostruke provjere neće biti srebrni metak.

Uzmite u obzir ove uvide iz ranije citiranog istraživanja: „Kako napreduje najmodernija umjetnost umjetne inteligencije, možemo postaviti iterativno više letvice demonstriranih sposobnosti pravnog razumijevanja. Ako programer tvrdi da njihov sistem ima napredne sposobnosti za zadatke, treba da pokažu odgovarajuće napredno pravno razumijevanje i pravne sposobnosti rasuđivanja AI, koje praktički nemaju gornju granicu poteškoća kada se razmatra gomila zakona i propisa tokom vremena, presedana i nadležnosti ” (ibid).

  • AI Pravne duple provjere donose zakon i posebno ne donose zakon (vjerovatno)

Siguran sam da su neki od vas zgroženi idejom da imaju ove AI Legal duple provjere.

Jedna često izražena zabrinutost je da ćemo očigledno dozvoliti AI da odlučuje o našim zakonima umjesto nas. Bože, možda mislite, neka automatizacija će prevladati čovječanstvo. Ti prokleti ugrađeni AI Legal dvostruki čekeri će postati zadani kraljevi naših zakona. Šta god da urade, biće ono što zakon izgleda.

Ljudima će vladati AI.

A ove dvostruke provjere AI Legal su klizav teren koji nas vodi tamo.

Protuargument je da je takav razgovor stvar teorija zavjere. Vi ludo postulirate i dovodite se u zebnju. Realnost je da ovi dvostruki kontrolori AI Legala nisu razumni, neće preuzeti planetu, a navijanje o njihovom egzistencijalnom riziku je očigledno apsurdno i neizmjerno prenaglašeno.

Sve u svemu, ostajući pri mirnom i razumnom držanju, moramo imati na umu da AI Legal dvostruke provjere služe da na odgovarajući način odražavaju zakon, a ne po namjeri i niti slučajno idu dalje da bi nekako zadali cijenjeno područje stvaranja zakon. Ostavljajući po strani ekstrapolacije osjećaja, sigurno se možemo složiti da postoji stvarna i hitna zabrinutost da bi dvostruka provjera AI Legal mogla na kraju pogrešno prikazati pravu prirodu datog zakona.

Zauzvrat, mogli biste tvrditi da se stoga taj određeni „pogrešno predstavljen“ zakon u suštini iznova izrađuje jer više ne označava prikladno ono što je stvarnom zakonu bilo namjerno. Vjerujem da iskreno možete vidjeti kako je ovo suptilno, ali značajno razmatranje. U bilo kom trenutku, AI Legal bi mogao na virtuelnoj osnovi kreiranjem ili da kažemo „halucinirati“ nove zakone jednostavno na osnovu toga kako komponenta AI tumači zakon kako je prvobitno navedeno ili utjelovljeno u AI (za moje pokrivanje AI tzv halucinacije, vidi link ovdje).

O tome se mora strogo voditi računa.

Na ovu temu, gore pomenuta istraživačka studija nudi ovu paralelnu misao u smislu nastojanja da se izbjegne prelazak te svete linije: „Nemamo za cilj da AI ima legitimitet da donosi zakon, postavlja pravni presedan ili provodi zakon. U stvari, to bi potkopali naš pristup (i trebali bismo uložiti značajne napore da to spriječimo). Umjesto toga, najambiciozniji cilj Kodeksa za informisanje o zakonu je da se kompjuterski kodira i ugradi generalizacija postojećih pravnih koncepata i standarda u validirane performanse AI” (ibid).

  • Delikatna ravnoteža između AI Pravno oličenje zakona kao pravila naspram standarda

Zakoni su neuredni.

Za skoro svaki zakon o knjigama, vjerovatno postoji mnoštvo tumačenja o tome šta zakon propisuje u stvarnoj praksi. U govoru o polju AI, zakone nazivamo semantički dvosmislenim. To je ono što razvoj AI u primijenjenom na zakon čini tako uzbudljivim i istovremeno uznemirujućim izazovom. Za razliku od preciznog smanjenja broja koje možete vidjeti za, recimo, financijski orijentirane AI aplikacije, želja da se naši zakoni utjelovljuju u AI podrazumijeva suočavanje s cunamijem semantičkih nejasnoća.

U knjizi moje fondacije o osnovama AI Legal Reasoning (AILR), raspravljam o tome kako nas prethodni pokušaji samo kodifikacije zakona u skup ograničenih pravila nisu doveli onoliko daleko koliko bismo željeli ići u pravnom domenu (vidi link ovdje). Današnji AILR mora da obuhvati integraciju između upotrebe pravila i onoga što bi se moglo nazvati sveobuhvatnim standardima koje zakon predstavlja.

Ova važna ravnoteža može se izraziti na ovaj način: „U praksi, većina zakonskih odredbi se nalazi negdje na spektru između čistog pravila i čistog standarda, a pravna teorija može pomoći u procjeni prave kombinacije „pravilnosti“ i „standardnosti“ kada se specificiraju ciljevi AI sistema” (ibid).

  • Zahtijevanje dokaza o pudingu kada je u pitanju AI poštivanje zakona

Željeti nešto je drugačije nego imati nešto.

Taj djelić mudrosti se pojavljuje kada se ponudi da, iako bismo možda željeli imati dvostruke provjere AI Legal, moramo biti sigurni da oni rade i rade ispravno. Imajte na umu da ovo predstavlja još jednu tešku i iscrpljujuću prepreku. Ranije sam pokrio najnovija dostignuća i izazove u verifikaciji i validaciji AI, vidi link ovdje.

Kao što je navedeno u istraživačkom radu: „Da bi se riješio taj jaz, prije nego što se AI modeli primjenjuju u sve više agentske kapacitete, na primjer, potpuno autonomna vozila na glavnim putevima, strana koja implementira treba da pokaže razumijevanje sistema za ljudske ciljeve, politike i pravne standarde. Procedura validacije mogla bi ilustrirati 'razumijevanje' 'značenja' pravnih koncepata od strane AI” (ibid).

zaključak

Pozivam vas da razmislite o tome da mi se pridružite u ovoj plemenitoj potrazi za stvaranjem i korištenjem AI Legal dvostrukih provjera. Potrebno nam je više pažnje i sredstava posvećenih ovoj vrlinskoj potrazi.

Ovo također pruža dvostruku dužnost, kao što je ranije spomenuto, prema postizanju AI Legal Reasoning (AILR) koje se može koristiti za pomoć advokatima i potencijalno koristiti direktno od strane javnosti. Zaista, neki žestoko tvrde da će jedino održivo sredstvo za postizanje potpunijeg osjećaja pristupa pravdi (A2J) biti stvaranje umjetne inteligencije koja utjelovljuje pravne kapacitete i kojoj mogu pristupiti svi.

Jedna brza poslednja tačka za sada.

Dosadašnja rasprava je naglasila da će AI Legal dvostruka provjera biti ugrađena ili implantirana u AI. Ovo je zaista primarni fokus onih koji istražuju i poduzimaju ovu novu oblast.

Evo pitanja o kojem vrijedi razmisliti.

Stavite kapu za razmišljanje.

Zašto ne biste iskoristili dvostruke provjere AI Legal u svim softverima?

Suština je u tome da umjesto da isključivo koristimo dvostruke provjere AI Legal u AI, možda bismo trebali proširiti naše gledište. Sve vrste softvera mogu legalno zalutati. AI je doduše privukao lavovski dio pažnje zbog načina na koje se AI obično koristi, kao što je donošenje mučnih odluka koje utiču na ljude u njihovim svakodnevnim životima. Ipak, možete lako tvrditi da postoji mnogo sistema koji nisu AI koji rade isto.

U suštini, ne bi trebalo da dozvolimo bilo kom softveru da ima besplatnu vožnju da bi izbegao ili sprečio zakon.

Podsjetite se i ranije da sam spomenuo dvije kategorije kombinovanja AI i zakona. Ovdje smo se fokusirali na korištenje AI kako se primjenjuje na zakon. S druge strane medalje je primjena zakona na AI. Pretpostavimo da donesemo zakone koji zahtijevaju korištenje AI Legal dvostrukih provjera.

Ovo bi u početku moglo biti ograničeno na AI sisteme, posebno one koji su ocijenjeni kao posebno visokorizični. Postepeno, isti zakonski zahtjev za dvostruku provjeru AI mogao bi se proširiti i na softver koji nije AI. Opet, nema besplatnih vožnji.

Dok se bavite gore navedenim razmatranjem, ja ću začiniti stvari kao završni teaser. Ako ćemo pokušati da zahtijevamo dvostruke provjere AI Legal-a, isto tako bismo mogli učiniti i sa dvostrukim provjerama etike AI. Korištenje AI Legal dvostruke provjere samo je pola priče, a ne možemo zanemariti ili zaboraviti zabrinutost etike AI.

Završiću ovaj živahni diskurs jednim od mojih omiljenih citata. Prema mudrim riječima Earla Warrena, poznatog pravnika koji je bio glavni sudija Sjedinjenih Država: “U civiliziranom životu, zakon pluta u moru etike.”

Možda bi bilo najbolje da te nadobudne i bujajuće AI Legal duple provjere i AI Ethics dvostruke provjere stavimo u strastvenu upotrebu ako želimo zadržati svoje glave iznad potencijalno nadolazećih teških mora od kisele AI i ne-AI sistema koji ugrožavaju našu sigurnost .

Oni bi mogli biti prsluk za spašavanje čovječanstva.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- and-ai-law/