Etika umjetne inteligencije i nadolazeći debakl kada taj zakon New Yorka koji zahtijeva revizije za AI predrasude krene u pogon

Ponekad su najbolje namjere žalosno uništene ozbiljnim nedostatkom pažnje na detalje.

Vrhunski primjer ove mudrosti mudraca je vrijedan istraživanja.

Konkretno, pogledajmo izbliza novi zakon u New Yorku u vezi s umjetnom inteligencijom (AI) koji će stupiti na snagu 1. januara 2023. Lako biste mogli osvojiti priličnu opkladu da će se pojaviti svakakva zabuna, konsternacija i nevolje kada zakon stupi na snagu. Iako problemi nisu po dizajnu, oni će nesumnjivo nastati kao rezultat lošeg dizajna ili barem nedovoljnog propisivanja potrebnih detalja koji su trebali i mogli biti lako osmišljeni i eksplicitno navedeni.

Mislim na lokalni zakon donesen prošle godine 11. decembra 2021. u poštovanom gradu New Yorku koji bi trebao stupiti na snagu početkom 2023. Trenutno nas dijeli samo nekoliko mjeseci od velikog buđenja koje ovaj novi zakon će se uzburkati. Volio bih da mogu reći da će ambiciozni zakon neprimjetno obaviti ono što bi trebao raditi, naime baviti se potencijalnim AI predrasudama u domenu donošenja odluka o zapošljavanju. Jao, iako je ta namjera hvalevrijedna, provest ću vas kroz zjapeće rupe, propuste i nedostatak specifičnosti koji će potkopati ovaj zakon i izluditi poslodavce dok pokušavaju da se izbore sa neželjenim, ali prilično štetnim posljedicama.

Mogli biste reći da je ovo klasično pitanje guranja naprijed s napola pripremljenim planom. Poštovana maksima koja se pripisuje Dwightu Eisenhoweru bila je da je plan ništa, dok je planiranje sve. Ukratko, ovaj konkretan zakon će pružiti živopisan primjer kako zakonodavci ponekad mogu pogriješiti ako ne razmisle unaprijed potrebne pojedinosti kako bi zakon ispunio svoje hvale vrijedne ciljeve i mogao biti usvojen na sigurno razuman i razborit način.

Debakl čeka.

Izgovori se već nizaju.

Neki stručnjaci su rekli da nikada ne možete u potpunosti precizirati zakon i da ga morate vidjeti na djelu da biste znali koje aspekte zakona treba prilagoditi (opća istina koja se u ovom slučaju nesrazmjerno izobličuje). Nadalje, oni žestoko tvrde da je to posebno slučaj kada je riječ o novonastalim zakonima vezanim za umjetnu inteligenciju. Dovraga, opominju ih, AI je visokotehnološko čarobnjaštvo o kojem mi kao zakonodavci ne znamo mnogo, stoga je logika da je bolje staviti nešto na pravne stranice nego ne imati ništa.

Na površini, to svakako zvuči uvjerljivo. Ipak, kopajte dublje i shvatit ćete da je to potencijalno zastrašujuće, uključujući i posebno u slučaju ovog specifičnog zakona. Ovaj zakon bi se mogao lakše i spretnije i razboritije odrediti. Ne trebaju nam magični napitci. Ne moramo da čekamo dok ne nastanu nevolje. U vrijeme izrade zakona mogla se utvrditi prava formulacija i detalji.

Pobrinimo se i da je nepristojna, lebdela ideja da se aspekti usvajanja ne mogu unapred predvideti, bolno besmislena. To je legalno mahanje rukama najpraznije vrste. Postoji mnogo već poznatih razmatranja o suočavanju sa predrasudama AI i provođenju revizije AI koja su se lako mogla uklopiti u ovaj zakon. Isto se može reći za bilo koju drugu jurisdikciju koja razmišlja o uspostavljanju takvog zakona. Nemojte se zavaravati u uvjerenju da moramo pribjeći samo slijepom bacanju legalne strelice u divlje vjetrove i trpljenju tjeskobe. Delić pravnog razmišljanja u kombinaciji s odgovarajućim razumijevanjem AI već je izvodljiv i nema potrebe da se hvatate samo za slamku.

Mogao bih dodati, još uvijek ima vremena da se ovo ispravi. Sat i dalje otkucava. Možda je moguće probuditi se prije nego što zvona za uzbunu počnu zvoniti. Potreban savjet se može izvesti i objaviti. Vremena je kratko pa tome treba dati odgovarajući prioritet.

U svakom slučaju, uvjerite se da ste shvatili naglasak ovdje.

Dozvolite mi da gorljivo pojasnim da takav zakon koji se odnosi na pristrasnost AI zaista ima zasluga. Odmah ću objasniti zašto. Također ću opisati koji problemi postoje s ovim novim zakonom za koji bi mnogi rekli da je prvi koji je ikada stavljen u pravne knjige (postoje i druge varijacije, možda ne baš kao ova).

Zaista, možete očekivati ​​da će slični zakoni postepeno stupiti na snagu širom zemlje. Jedna značajna zabrinutost je da ako ovaj pokušaj prvog pokretača New Yorka prođe loše, to bi moglo uzrokovati da ostatak zemlje bude oprezan u donošenju takvih zakona. To nije prava lekcija koju treba naučiti. Ispravna pouka je da ako nameravate da pišete takav zakon, uradite to razumno i sa dužnom pažnjom.

Zakoni upisani u knjige bez adekvatne provjere mogu biti prilično uznemirujući i stvoriti sve vrste nizvodnih poteškoća. U tom smislu, molim vas da bebu ne bacate sa vodom za kupanje (stara izreka, verovatno bi trebalo da se povuče). Suština je u tome da takvi zakoni mogu biti istinski produktivni i zaštitni kada su pravilno sastavljeni.

Ovaj konkretan, nažalost, neće to učiniti van kapije.

Sve vrste paničnih smjernica moraju doći od donositelja i izvršitelja zakona. Označite svoje kalendare za kraj januara i februara 2023. da biste gledali kako dolazi do trzavice. Upiranje prstom će biti izuzetno intenzivno.

Trenutno se niko posebno ne buni jer zakon još nije pao na glave poslodavaca koji će biti zonirani novim zakonom. Zamislite da je ovo neka vrsta zemljotresa, metaforički rečeno, koji bi se trebao dogoditi u prvim sedmicama 2023. Malo se njih priprema za zemljotres. Mnogi čak i ne znaju da je potres već upisan u kalendar. Uzimajući sve to u obzir, kada se zemljotres dogodi, mnoge veoma začuđene i šokirane kompanije će se zapitati šta se dogodilo i zašto je došlo do nereda.

Sve ovo ima značajno značajne implikacije na etiku AI i nudi zgodan prozor u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj da se AI legalizuje. Za moje kontinuirano i opsežno pokrivanje etike AI, Etička AI, zajedno sa zakonom o AI usred pravnih aspekata upravljanja AI, mogu se naći na link ovdje i link ovdje, samo da navedem nekoliko.

Ova pravna priča o nesreći odnosi se na nekadašnje brige oko današnje AI, a posebno na upotrebu mašinskog učenja (ML) i dubokog učenja (DL) kao oblika tehnologije i načina na koji se ona koristi. Vidite, postoje upotrebe ML/DL koje obično uključuju antropomorfizaciju AI od strane široke javnosti, vjerujući ili birajući pretpostaviti da je ML/DL ili razumna AI ili blizu (nije). Osim toga, ML/DL može sadržavati aspekte podudaranja računskog uzorka koji su nepoželjni ili potpuno neprikladni, ili nezakoniti iz etičke ili pravne perspektive.

Možda bi bilo korisno prvo razjasniti na šta mislim kada govorim o AI općenito i također dati kratak pregled mašinskog učenja i dubokog učenja. Postoji velika konfuzija o tome šta umjetna inteligencija podrazumijeva. Također bih želio da vam predstavim propise etike umjetne inteligencije, koji će biti posebno sastavni dio ostatka ovog diskursa.

Navođenje zapisa o AI

Uvjerimo se da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna.

Nemamo ovo.

Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva Singularnost, pogledajte moje izveštavanje na link ovdje).

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje i duboko učenje, koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Dio problema je naša tendencija da antropomorfiziramo kompjutere, a posebno AI. Kada se čini da računarski sistem ili veštačka inteligencija deluju na način koji povezujemo sa ljudskim ponašanjem, postoji skoro neodoljiva želja da se sistemu pripišu ljudski kvaliteti. To je uobičajena mentalna zamka koja može uhvatiti čak i najnepopustljivijeg skeptika u pogledu šansi za postizanje osjećaja.

U određenoj mjeri, zato su etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema.

Propisi etike umjetne inteligencije navode nas da ostanemo budni. Tehnolozi AI ponekad mogu postati zaokupljeni tehnologijom, posebno optimizacijom visoke tehnologije. Oni ne razmišljaju nužno o većim društvenim posljedicama. Imati etički način razmišljanja AI i činiti to integralno za razvoj AI i postavljanje na teren od vitalnog je značaja za proizvodnju odgovarajuće AI, uključujući procjenu kako kompanije usvajaju etiku AI.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje da li bismo trebali imati zakone koji bi regulisali različite upotrebe AI. Na saveznom, državnom i lokalnom nivou se donose novi zakoni koji se tiču ​​opsega i prirode načina na koji bi umjetna inteligencija trebala biti osmišljena. Napori da se izrade i donesu takvi zakoni su postepeni. Etika veštačke inteligencije u najmanju ruku služi kao zaustavni korak, i skoro sigurno će do nekog stepena biti direktno ugrađen u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. Oni unaprijed upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku suzbijanjem napretka u umjetnoj inteligenciji koja nudi ogromne društvene prednosti. Pogledajte na primjer moju pokrivenost na link ovdje.

U prethodnim kolumnama pokrio sam različite nacionalne i međunarodne napore za izradu i donošenje zakona koji regulišu AI, vidi link ovdje, na primjer. Također sam pokrio različite principe i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih nacija kao što je UNESCO-ov skup etike umjetne inteligencije koji je usvojilo skoro 200 zemalja, vidi link ovdje.

Evo korisne ključne liste etičkih AI kriterija ili karakteristika u vezi s AI sistemima koje sam prethodno pomno istražio:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ovdje ranije naglašeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Spustimo stvari na zemlju i fokusirajmo se na današnju kompjutersku neosjetnu umjetnu inteligenciju.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vjerujem da sam sada pripremio teren da dovoljno raspravljam o ulozi umjetne inteligencije u rubrici tihog odustajanja.

AI koji se koristi u donošenju odluka o zapošljavanju

Zakon New Yorka se fokusira na temu donošenja odluka o zapošljavanju.

Ako ste u poslednje vreme pokušali da se prijavite za moderan posao skoro bilo gde na ovoj zemlji, verovatno ste naišli na element zasnovan na veštačkoj inteligenciji u procesu donošenja odluka o zapošljavanju. Naravno, možda ne znate da je on tu jer bi mogao biti skriven iza kulisa i ne biste imali spreman način da otkrijete da je uključen AI sistem.

Uobičajena fraza koja se koristi za upućivanje na ove AI sisteme je da se oni razmatraju Automatizirani alati za odlučivanje o zapošljavanju, skraćeno AEDT.

Pogledajmo kako je zakon New Yorka definirao ove alate ili aplikacije koje podrazumijevaju donošenje odluka o zapošljavanju:

  • „Izraz 'automatizovani alat za odlučivanje o zapošljavanju' označava svaki računski proces, izveden iz mašinskog učenja, statističkog modeliranja, analize podataka ili veštačke inteligencije, koji daje pojednostavljeni rezultat, uključujući rezultat, klasifikaciju ili preporuku, koji se koristi da značajno pomogne ili zamijeniti diskreciono odlučivanje za donošenje odluka o zapošljavanju koje utiču na fizička lica. Izraz 'automatizirani alat za donošenje odluka o zapošljavanju' ne uključuje alat koji ne automatizira, podržava, značajno pomaže ili zamjenjuje diskrecione procese donošenja odluka i koji ne utječe materijalno na fizička lica, uključujući, ali ne ograničavajući se na, filter neželjene e-pošte, zaštitni zid, antivirusni softver, kalkulator, tabela, baza podataka, skup podataka ili druga kompilacija podataka” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-870).

Ukratko ću se osvrnuti na ovu formulaciju jer je ona od vitalnog značaja za cjelokupnu prirodu i djelokrug zakona.

Prvo, kao što sam mnogo puta naveo u svojim pismima, jedna od najtežih prepreka pri pisanju zakona o AI sastoji se od pokušaja da se adekvatno definiše šta AI znači. Ne postoji jedinstveni, potpuno dogovoreni, zakonski standard otpornosti na metke na koji su svi sletjeli. Postoje sve vrste definicija. Neki su korisni, neki nisu. Pogledajte moje analize na link ovdje.

Možda ćete biti u iskušenju da pomislite da nije posebno važno kako bismo mogli definirati AI. Izvinite, ali pogrešili biste u vezi toga.

Problem je u tome što ako je definicija AI nejasno specificirana u datom zakonu, to omogućava onima koji razvijaju AI da pokušaju da zaobiđu zakon naizgled tvrdeći da njihov softver ili sistem nije prožet AI. Oni bi s velikom hrabrošću tvrdili da se zakon ne primjenjuje na njihov softver. Isto tako, neko ko koristi softver takođe može tvrditi da se zakon ne odnosi na njega jer softver ili sistem koji koristi ne spada u definiciju veštačke inteligencije koja je navedena u zakonu.

Ljudi su tako lukavi.

Jedan od najmudrijih načina da izbjegnete da vas obruši zakon koji ne volite je da tvrdite da se zakon ne odnosi na vas. U ovom slučaju, vi biste nastojali da po komadima rastavite definiciju AEDT-a. Vaš cilj, pod pretpostavkom da ne želite da vam zakon bude na leđima, bio bi da pravno argumentirate da je definicija data u zakonu pogrešna u pogledu onoga što je ili radi vaš kompjuterski sistem koji se odnosi na zapošljavanje.

Zakonu ove vrste može se pomoći, a ponekad i potkopano, namjerno uključivanjem isključivih odredbi u definiciju.

Pogledajte ponovo definiciju AEDT-a kako je navedeno u ovom zakonu. Nadamo se da ste primijetili da postoji klauzula o isključenju koja kaže “...ne uključuje alat koji ne automatizira, podržava, suštinski pomaže ili zamjenjuje diskrecione procese donošenja odluka i koji ne utiče materijalno na fizička lica...”.

S jedne strane, osnova za uključivanje takvog isključenja je od velike pomoći.

Čini se da sugerira (po mom laičkom mišljenju) da AEDT mora pružiti određenu svrhu i biti korišten na suštinski način. Ako je AEDT, da kažemo površni ili periferni, i ako je odluka o zapošljavanju još uvijek poprilično ručno izrađena, možda softverski sistem koji se koristi ne treba tumačiti kao AEDT. Takođe, ako softver ili sistem „materijalno“ ne utiče na fizička lica (ljude), onda se čini da nije vredno truda, takoreći, držati noge uz vatru.

Razumno, ne želite da zakon preuveličava svoj obim i proguta sve, uključujući i sudoper. To je u suštini nepravedno i opterećujuće za one koje zakon nije imao za cilj da obuhvati. Mogu biti uhvaćeni u močvaru koja se ponaša kao jedna od onih ribarskih mreža. Vjerovatno bi naši zakoni trebali paziti da ne uvlače nevine u djelokrug zakona.

Sve je dobro i dobro.

Pametan advokat mora shvatiti da klauzula o isključenju može biti neka vrsta legalne karte za izlazak iz zatvora (na stranu, ovaj konkretan zakon propisuje građanske, a ne krivične kazne, tako da izlazak iz zatvora primjedba je samo metaforična i zbog ukusne prodornosti). Ako bi neko tvrdio da kompanija koristi AEDT u procesu zapošljavanja, jedan od prvih načina da se pokuša prevazići ta tvrdnja bio bi argument da je takozvani AEDT zapravo u domenu isključivanja. Možete pokušati pokazati da takozvani AEDT to ne čini automatizovati odluka o zapošljavanju, ili ne podrška odluka o zapošljavanju, ili ne bitno pomoći or zamijeniti diskrecioni procesi donošenja odluka.

Zatim možete ići niz vijugav put utvrđivanja šta riječi „automatizirati“, „podrška“, „značajno pomoći“ ili „zamijeniti“ znače u ovom kontekstu. To je prilično zgodna legalna zečja rupa. Može se iznijeti uvjerljiv slučaj da je softver ili sistem za koji se tvrdi da je AEDT dio isključivih indikacija. Dakle, nema štete, nema faula, u vezi sa ovim zakonom.

Očigledno, za ovakva pitanja treba konsultovati licencirane advokate (ovdje nije naveden nikakav privid pravnog savjeta i ovo je u potpunosti laički stav).

Moja poenta je da će u ovom novom zakonu biti prostora za pomicanje. Prostor za pomicanje će omogućiti nekim poslodavcima koji istinski koriste AEDT da možda pronađu rupu u zakonu da zaobiđu upotrebu AEDT-a. Druga strana te medalje je da će možda postojati firme koje ne koriste istinski AEDT koje će biti zarobljene ovim zakonom. Mogla bi se tvrditi da je sve što su koristili zaista AEDT, i morat će pronaći način da pokažu da njihov softver ili sistemi potpadaju izvan AEDT-a iu odredbe o isključivanju.

Možemo napraviti ovo hrabro predviđanje:

  • Nesumnjivo će postojati poslodavci koji svjesno koriste AEDT koji će potencijalno pokušati izbjeći svoje zakonske odgovornosti.
  • Neizbježno će postojati poslodavci koji ne koriste AEDT koji će se zaglaviti u tvrdnjama da koriste AEDT, primoravajući ih da ulože “dodatni” napor da pokažu da ne koriste AEDT.

Dalje ću razlagati ove brojne permutacije i kombinacije kada budemo napredovali u ovoj raspravi. Imamo mnogo više terena.

Upotreba AEDT-a sama po sebi nije dio ovog pitanja koji izaziva demonstrativnu zabrinutost, već način na koji AEDT izvodi svoje radnje izazivaju pravni gnjev. Suština je u tome da ako AEDT takođe uvede pristranosti vezane za donošenje odluka o zapošljavanju, onda ste u potencijalno vrućoj vodi (dobro, nekako).

Kako možemo znati da li AEDT zapravo uvodi predrasude opterećene umjetnom inteligencijom u napore donošenja odluka o zapošljavanju?

Odgovor prema ovom zakonu je da se izvrši AI revizija.

Ranije sam i često pokrivao prirodu AI revizija i šta su one, zajedno s primjećivanjem postojećih nedostataka i loše definiranih aspekata, kao što su link ovdje i link ovdje, među mnogim drugim sličnim objavama. Jednostavno rečeno, ideja je da, baš kao što možete izvršiti finansijsku reviziju firme ili obaviti tehnološku reviziju vezanu za kompjuterski sistem, možete obaviti reviziju na AI sistemu. Koristeći specijalizovane revizorske tehnike, alate i metode, ispitujete i procjenjujete od čega se sastoji AI sistem, uključujući, na primjer, pokušaj da se utvrdi da li sadrži predrasude ove ili one vrste.

Ovo je područje pažnje koje raste.

Možete očekivati ​​da će ovo podpolje revizije koje je posvećeno reviziji AI nastaviti da raste. Očigledno je da će sve više i više AI sistema biti pušteno na tržište, a zauzvrat će biti sve više i više zahteva za AI revizijama. Novi zakoni će pomoći da se ovo pokrene. Čak i bez tih zakona, biće mnogo revizija veštačke inteligencije jer ljudi i kompanije tvrde da im je AI učinjena nepravda i da će nastojati da pruže opipljivu dokumentovanu indikaciju da je šteta bila prisutna i vezana za korišćenje AI.

AI revizori će biti popularni i veoma traženi.

To može biti uzbudljiv posao. Jedan od možda uzbudljivih elemenata podrazumijeva uranjanje u najnoviji i najbolji AI. AI nastavlja napredovati. Kako se to dogodi, pronicljivi AI revizor će morati da ostane na nogama. Ako ste revizor koji se umorio od obavljanja svakodnevnih konvencionalnih revizija, uvijek nova arena za reviziju umjetne inteligencije koja otvara oči obećava (kažem ovo kako bih djelimično podigao status revizora jer su oni često nenajavljeni heroji koji rade u rovovima i imaju tendenciju da budu zanemareni zbog svojih nastojanja).

Osim toga, bio sam sertifikovani revizor kompjuterskih sistema (jedna takva oznaka je CISA) i obavljao sam IT (informacione tehnologije) revizije mnogo puta tokom mnogo godina, uključujući revizije AI. Većinu vremena ne dobijete priznanje koje zaslužujete za takve napore. Vjerovatno možete pogoditi zašto. Uglavnom, revizori imaju tendenciju da pronađu stvari koje su pogrešne ili pokvarene. U tom smislu, oni su od velike pomoći, iako to neki mogu shvatiti kao lošu vijest, a glasnik loših vijesti obično nije posebno postavljen na pijedestal.

Da se vratim na stvar.

Što se tiče NYC zakona, evo šta zakon kaže o reviziji AI i nastojanju da se otkriju pristranosti AI:

  • „Izraz 'revizija pristrasnosti' označava nepristrasnu ocjenu od strane nezavisnog revizora. Takva revizija pristranosti će uključivati, ali ne biti ograničena na testiranje automatiziranog alata za odlučivanje o zapošljavanju kako bi se procijenio različit uticaj alata na osobe bilo koje kategorije komponente 1 koje poslodavci moraju prijaviti u skladu s pododjeljkom (c) odjeljka 2000e-8 naslova 42 zakona Sjedinjenih Država kako je navedeno u dijelu 1602.7 naslova 29 kodeksa saveznih propisa” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-870).

Kao rezime, evo gdje smo do sada raspakirali ovaj zakon:

  • Zakon pokriva automatizirane alate za odlučivanje o zapošljavanju (AEDT)
  • Definicija vrsta je uključena da se identifikuje šta je AEDT
  • Definicija AEDT-a također pominje odredbe o isključivanju
  • Suština je da zakon želi da razotkrije predrasude AI u AEDT-u
  • Da bi se utvrdilo da li su prisutne AI predrasude, potrebno je izvršiti AI reviziju
  • Vjerovatno će revizija AI otkriti sve pristrasnosti AI

Sljedeće možemo malo više proučiti zakon.

Evo od čega se sastoji odluka o zapošljavanju:

  • „Izraz 'odluka o zapošljavanju' znači provjeravati kandidate za zapošljavanje ili zaposlenike za unapređenje u gradu” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-870).

Imajte na umu da granični aspekt „grada“ sugeriše da se ovo pitanje bavi samo okolnostima vezanim za zapošljavanje u Njujorku. Također, vrijedno je napomenuti da odluka o zapošljavanju, kako je definirano, podrazumijeva provjeru kandidata, što je uobičajena konotacija onoga što smatramo odlukom o zapošljavanju, plus uključuje i unapređenja.

Ovo je dvostruki udarac u smislu da će kompanije morati da shvate da moraju biti u toku s načinom na koji se njihov AEDT (ako ga koriste) koristi za početne postavke zapošljavanja, kao i prilikom promocije unutar firme. Vjerovatno možete pretpostaviti ili pretpostaviti da mnoge firme neće biti sasvim svjesne da se element promocije nalazi iu ovoj rubrici. Oni će neizbježno previdjeti tu dodatnu konstrukciju na vlastitu odgovornost.

Sljedeće ću dati dodatni ključni izvod zakona kako bih rasvijetlio suštinu onoga što se ovim zakonom tumači kao nezakonito:

  • “Zahtjevi za automatizirane alate za odlučivanje o zapošljavanju. a. U gradu će biti nezakonito da poslodavac ili agencija za zapošljavanje koriste automatizirani alat za odlučivanje o zapošljavanju za provjeru kandidata ili zaposlenika za odluku o zapošljavanju osim ako: 1. Takav alat nije bio predmet revizije pristrasnosti koja je provedena najviše od godinu dana prije upotrebe takvog alata; i 2. Sažetak rezultata najnovije revizije pristrasnosti takvog alata, kao i datum distribucije alata na koji se takva revizija odnosi, stavljen je javno dostupan na web stranicu poslodavca ili agencije za zapošljavanje prije upotrebe takav alat…” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-871). Postoje dodatne potklauzule koje biste možda željeli pogledati, ako ste jako zainteresirani za pravnu formulaciju.

Skeptici i kritičari tvrde da se to čini pomalo mlakim u pogledu prozivanja nezakonite aktivnosti.

Kažu da se zakon samo usko i minimalno fokusira dirigovanje AI revizija i publicizing rezultate, a ne o tome da li je revizija AI otkrila pristrasnost AI i šta ako je to imalo bilo kakve posljedice u donošenju odluka o zapošljavanju koje spadaju u djelokrug ovog zakona. U suštini, to je očigledno nezakonito ne odlučite se za provođenje takve revizije AI (kada je primjenjivo, kao što je ranije razmotreno), plus to je također nezakonito u slučaju ako provodite AI reviziju, ali ne objaviti to.

Čini se da zakon šuti o pitanju da li su AI pristrasnosti otkrivene i prisutne ili ne. Isto tako, šutnja o tome da li je AI pristrasnost utjecala na bilo koga u vezi sa istaknutom aktivnošću donošenja odluka o zapošljavanju. Ključ je u tome da naizgled jednostavno „samo“ izvršite reviziju AI i ispričate o tome.

Zar ovaj zakon ne ide dovoljno daleko?

Dio kontraargumenta za tvrdnju da je ovo naizgled zadovoljavajuće u pogledu opsega ili obima onoga što ovaj zakon obuhvata je da ako revizija AI otkrije pristrasnost AI i ako su te pristrasnosti AI vezane za određene slučajeve donošenja odluka o zapošljavanju, osoba ili bi tako oštećene osobe mogle tražiti poslodavca pod drugi zakoni. Dakle, nema potrebe da se taj aspekt uključi u ovaj konkretan zakon.

Navodno, ovaj zakon ima za cilj da takve stvari iznese na vidjelo.

Jednom kada se baci svjetlo dana na ove neželjene prakse, mogu se koristiti sve vrste drugih pravnih puteva ako postoje pristrasnosti AI i imaju utjecaj na ljude. Bez ovog zakona, argument glasi da bi oni koji koriste AEDT to radili dok bi možda bili ludi i potencijalno bi imali tone AI predrasuda, za koje oni koji traže posao ili oni koji traže unapređenja ne bi znali da se dešava.

Izvucite ih na površinu. Nateraj ih da kažu. Idi ispod haube. Pogledajte šta je u tom motoru. To je mantra u ovom slučaju. Iz ovog isplivavanja i kazivanja, mogu se preduzeti dodatne radnje.

Osim traženja pravnog postupka kao rezultat rasvjetljavanja da je AI revizija možda prijavila da su prisutne AI pristrasnosti, postoji i uvjerenje da će objavljivanje ovih rezultata donijeti reperkusije na reputaciju. Poslodavci za koje se prikazuje da koriste AEDT-ove koji imaju AI predrasude vjerovatno će pretrpjeti društveni gnjev, poput društvenih medija i slično. Oni će postati razotkriveni zbog svojih zlih radnji i posramljeni da isprave svoje ponašanje, a mogli bi se naći i lišeni ljudi koji žele tamo raditi zbog nedoumica da AI predrasude sprječavaju zapošljavanje ili uzurpiraju unapređenja.

Navedene kazne povezane s nezakonitošću su sljedeće:

  • “Penali. a. Svaka osoba koja prekrši bilo koju odredbu ovog potpoglavlja ili bilo koje pravilo objavljeno u skladu sa ovim potpoglavljem odgovorna je za građansku kaznu od najviše 500 USD za prvo kršenje i svako dodatno kršenje koje se dogodi istog dana kada i prvo kršenje, a ne manje od 500 dolara niti više od 1,500 dolara za svaki sljedeći prekršaj” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-872). Postoje dodatne potklauzule koje biste možda željeli pogledati, ako ste jako zainteresirani za pravnu formulaciju.

Skeptici i kritičari tvrde da kazne nisu dovoljno stroge. Velika firma bi se navodno rugala ili smijala malim kaznama u dolarima. Drugi ističu da bi kazna mogla na kraju biti više nego što se na prvi pogled čini, tako da ako firma ima hiljadu dolara prekršaja svakog dana (samo jedan scenario, postoji mnogo drugih scenarija), godinu dana bi vrijedila otprilike 365,000 dolara, pod pretpostavkom da je firma jednostavno ignorisala zakon cijelu godinu i izvukla se s tim (čini se teško zamislivo, ali bi se moglo dogoditi, pa čak i duže ili za veću kulminaciju dnevnih kazni, u teoriji).

U međuvremenu, neki su zabrinuti zbog manjih preduzeća i povezanih kazni. Ako mala firma koja jedva sastavlja kraj s krajem bude pogođena kaznama, a navodno to nije učinila iz namjerne motivacije da zaobiđe zakon, kazne bi mogle materijalno uticati na njihov teški posao.

Ključna problematična razmatranja u pitanju

Imam jednostavno i jasno pitanje za vas.

U kontekstu ovog zakona, šta tačno predstavlja AI reviziju?

Problematično je to što ne postoji definitivna indikacija unutar narativa zakona. Čini se da nam je rečeno samo da se „revizija pristrasnosti“ vrši putem „nepristrasne procjene od strane nezavisnog revizora“ (prema slovu zakona).

Možete voziti Mac kamion kroz tu zjapeću rupu.

Evo zašto.

Razmotrite ovaj prilično zbunjujući primjer. Prevarant kontaktira firmu u Njujorku i objašnjava da ona pruža uslugu tako da će obaviti takozvanu „reviziju pristrasnosti“ svog AEDT-a. Obećavaju da će to učiniti “nepristrasno” (šta god to značilo). Oni se drže kao nezavisni revizor, i pomazali su se kao jedan. Nema potrebe za bilo kakvom obukom za računovodstvo ili reviziju, diplomama, certifikatima ili bilo čim sličnim. Možda se pomuče da odštampaju neke vizit karte ili na brzinu naprave web stranicu na kojoj hvale status svog nezavisnog revizora.

Oni će firmi naplatiti skromnu naknadu od recimo 100 dolara. Njihova usluga se sastoji od možda postavljanja nekoliko pitanja o AEDT-u, a zatim proglašavanja da je AEDT bez predrasuda. Potom šalju izvještaj veličine jedne stranice i deklariraju “rezultate” takozvane revizije. Firma ovo savjesno objavljuje na svojoj web stranici.

Da li je firma poštovala ovaj zakon?

Ti reci meni.

Izgleda da jesu.

Možda ćete odmah biti zatečeni što je revizija obavljena na površni način (to je u ovom konkretnom scenariju pristojno i velikodušno). Možda ćete biti uznemireni što je otkrivanje pristranosti (ili nedostatak istog) možda u suštini unaprijed određeno (voila, čini se da ste bez predrasuda). Možda ćete biti uznemireni što bi objavljeni rezultati mogli stvoriti auru da ste prošli rigoroznu reviziju od strane bona fide iskusnog, obučenog, iskusnog, ovlaštenog revizora.

Da, to se tiče veličine stvari.

Poslodavac bi mogao odahnuti što je ispunio ovaj "blesav" zahtjev i prokleto sretan što ih je to koštalo samo mizernih 100 dolara. Poslodavac bi mogao interno i tiho shvatiti da je nezavisna revizija šarada, ali izgleda da nije na njihovim plećima da odlučuju. Predstavljen im je navodni nezavisni revizor, revizor je uradio posao za koji je revizor rekao da je usklađen, firma je to platila, dobili su rezultate i objavili rezultate.

Neki poslodavci će to učiniti i shvatiti da se pridržavaju zakona. Bez obzira na to, oni će vjerovati da su u potpunosti usklađeni.

Drugi poslodavci bi mogli biti prevareni. Sve što znaju je potreba da se pridržavaju zakona. Na njihovu sreću (ili barem tako pretpostavljaju), kontaktira ih “nezavisni revizor” i obećava da se revizija žalbe i rezultat mogu dobiti za 100 dolara. Da ne bi dobili tih 500 dolara ili više dnevne kazne, firma misli da im je uručen dar s neba. Plaćaju 100 dolara, "revizija" se odvija, dobijaju besplatnu zdravstvenu knjižicu o nedostatku AI predrasuda, objavljuju rezultate i zaborave na ovo do sljedećeg puta kada treba da urade još jednu takvu reviziju .

Kako svaka firma u Njujorku koja podliježe ovom zakonu treba da zna šta je bona fide usklađenost sa zakonom?

U slučaju da vam se već pomalo ne vrti stomak, možemo pogoršati stvari. Nadam se da niste jeli u posljednjih nekoliko sati jer će sljedeći obrt biti teško održati netaknutim.

Jesi li spreman?

Ispostavilo se da je ovaj lažni provajder usluga više nego što ste mislili. Oni nateraju firmu da se prijavi za uslugu od 100 dolara za obavljanje nepristrasne revizije kao nezavisni revizor. Eto, oni vrše “reviziju” i otkrivaju da postoje pristranosti u svakom kutku i kutu AEDT-a.

Imaju AI predrasude poput najezde žohara.

Ajme, kaže firma, šta možemo učiniti povodom toga?

Nema problema, rečeno im je, možemo popraviti te AI predrasude za vas. To će vas koštati samo 50 dolara po svakoj takvoj pristranosti koja je pronađena. U redu, firma kaže, popravite ih, hvala na tome. Pružalac usluga malo kleveta kodiranje i kaže firmi da su popravili stotinu AI predrasuda, i stoga će im naplatiti 5,000 dolara (to je 50 dolara po AI pristranosti koje treba popraviti, pomnoženo sa 100 pronađenih).

Jao, firma se osjeća uklještenom, ali ipak je bolje nego da se suoči sa kršenjem od 500 dolara ili više po danu, pa plaćaju „nezavisnog revizora“ i onda dobiju novi izvještaj koji pokazuje da su sada bez predrasuda. Oni to ponosno objavljuju na svojoj web stranici.

Oni malo znaju da je ovo bila obmana, prevara, prevara.

Mogli biste insistirati da ovaj provajder usluga bude kažnjen zbog svoje prevare. Uhvatiti i zaustaviti ove prevarante bit će mnogo teže nego što možete zamisliti. Baš kao što ćete krenuti za onim prinčevima sa sjedištem u inostranstvu koji imaju bogatstvo za vas vjerovatno u nekoj stranoj zemlji izvan dosega zakona Sjedinjenih Država, isto bi se moglo dogoditi i u ovom slučaju.

Očekujte da će se zbog ovog novog zakona pojaviti domaća industrija.

Postojaće bona fide revizori koji će nastojati pružiti ove usluge. Bravo za njih. Nakon ovog posla će biti skicirani revizori. Postojaće lažno proglašeni revizori koji će ići za ovim poslom.

Spomenuo sam da je scenario pružaoca usluga uključivao traženje 100 dolara za takozvanu AI reviziju. To je bio samo izmišljeni čuvar mjesta. Možda će neki naplatiti 10 dolara (čini se skiciran). Možda nekih 50 dolara (još uvjek). itd.

Pretpostavimo da dobavljač usluga kaže da će to koštati 10,000 dolara za obavljanje posla.

Ili 100,000 dolara za to.

Možda 1,000,000 dolara za to.

Neki poslodavci neće imati pojma koliko bi to moglo ili bi trebalo koštati. Marketing ovih usluga će biti besplatan za sve. Ovo je zakon o zarađivanju novca za one koji legitimno obavljaju ove usluge i pravnik za pravljenje novca za one koji su u tome podmetnuti. Biće teško znati šta je šta.

Takođe ću vas zamoliti da razmislite o još jednoj zjapećoj rupi.

U kontekstu ovog zakona, šta tačno predstavlja pristrasnost AI?

Osim što se pominje kodeks saveznih propisa Sjedinjenih Država (ovo ne daje posebno odgovor na pitanje pristrasnosti AI i, ergo, ne služi kao zaustavljanje ili rješenje po tom pitanju), bilo bi vam teško tvrditi da ovaj novi zakon pruža bilo kakvu suštinsku indikaciju o tome šta su AI pristrasnosti. Još jednom, ovo će biti potpuno otvoreno za veoma različita tumačenja i nećete posebno znati šta se tražilo, šta je pronađeno i tako dalje. Takođe, posao koji obavljaju čak i bona fide AI revizori će skoro verovatno biti neuporediv sa drugim, tako da će svaki težiti da koristi svoje vlasničke definicije i pristupe.

Ukratko, možemo sa strepnjom i zabrinutošću gledati na šta će se poslodavci susresti kao rezultat ovog labavo sročenog iako dobronamjernog zakona:

  • Neki poslodavci će znati za zakon i ozbiljno i u potpunosti poštovati sve što su u njihovoj moći
  • Neki poslodavci će znati za zakon i marginalno će se pridržavati najtanjeg, najjeftinijeg i možda neugodnog puta koji mogu pronaći ili koji im dolazi pred kućni prag
  • Neki poslodavci će znati za zakon i vjerovati da nisu u djelokrugu zakona, pa neće učiniti ništa po tom pitanju (iako se ispostavilo da bi mogli biti u djelokrugu)
  • Neki poslodavci će znati za zakon i odlučno odlučiti da ga ignorišu, možda vjerujući da to niko neće primijetiti ili da se zakon neće primjenjivati, ili će se utvrditi da je zakon neprovediv, itd.
  • Neki poslodavci neće znati za zakon i bit će uhvaćeni na nogama, boreći se da ga ispoštuju
  • Neki poslodavci neće znati za zakon i bijedno će ih prevarantima izmrsiti
  • Neki poslodavci neće znati za zakon, nisu u okviru djelokruga, ali ih ionako ionako tjeraju prevaranti koji ih uvjeravaju da su u okviru
  • Neki poslodavci neće znati za zakon i neće ništa poduzeti po tom pitanju, a nekim čudom nikada neće biti uhvaćeni ili optuženi zbog svog nadzora
  • drugi

Jedna ključna stvar koju treba imati na umu je veličina ili razmera povezana s ovim novim zakonom.

Prema različitim prijavljenim statistikama u vezi sa brojem preduzeća u Njujorku, broj se obično navodi kao negde oko 200,000 preduzeća (koristimo to kao red veličine). Pod pretpostavkom da je ovo razumna aproksimacija, vjerovatno će ta preduzeća kao poslodavci biti predmet ovog novog zakona. Dakle, uzmite gore spomenutih nekoliko načina na koje će poslodavci reagovati na ovaj zakon i razmislite koliko će ih biti u svakoj od različitih kantica koje sam upravo pomenuo.

To je prilično zapanjujući problem skaliranja.

Osim toga, prema objavljenim statistikama, postoji možda 4 miliona radnih mjesta u privatnom sektoru u New Yorku, plus procijenjeni broj od oko 300,000 državnih radnika zaposlenih u NYC vladi (opet, koristite ih kao redove veličine, a ne kao precizne brojeve). Ako se uzme u obzir da su novi zaposleni naizgled u okviru ovog novog zakona, uz unapređenja vezana za sve te postojeće i buduće radnike, broj zaposlenih koji će na ovaj ili onaj način biti dotaknuti ovaj zakon je iskreno zapanjujući .

Velika jabuka ima novi zakon koji se na prvi pogled čini bezazlenim i naizgled zanemarivim ili svakodnevnim, ali kada shvatite faktore skaliranja koji su uključeni, može vam se zavrtjeti u glavi

zaključak

Spomenuo sam na početku ove rasprave da je ovo dobronamjeran novi zakon.

Sve što sam upravo opisao kao potencijalne rupe, propuste, praznine, probleme i slično, moglo bi se lako predvidjeti. Ovo nije raketna nauka. Mogao bih da dodam, postoji još više inherentnih nedoumica i zbunjujućih aspekata ovog zakona koje zbog ograničenosti prostora nisam naveo.

Možete ih pronaći jednako lako kao što možete pucati na ribu u buretu.

Zakone ove vrste treba pažljivo osmisliti kako bi se pokušalo spriječiti ovakva podmukla zavrzlama. Pretpostavljam da su ozbiljni kompozitori nastojali da napišu zakon za koji su vjerovali da je relativno gvozdeni i da će možda, u najgorem slučaju, imati neke sitne kapljice ovdje ili tamo. Nažalost, to je vatrogasno crijevo. Biće potrebno mnogo ljepljive trake.

Da li je zakon mogao biti napisan na razjašnjeniji način kako bi se zatvorile ove prilično očigledne rupe i povezana pitanja?

Da, u izobilju.

S obzirom da je to slučaj, mogli biste ogorčeno opomenuti da bi takav zakon nesumnjivo bio mnogo duži. Uvijek postoji kompromis između zakona koji traje i traje, postaje nezgrapan, u odnosu na to da bude sažet i kompaktan. Ipak, ne želite da steknete sažetost gubeći ono što bi bila suštinska i zaslužna jasnoća i specifičnost. Kratak zakon koji dozvoljava smicalice je pun problema. Duži zakon, čak i ako je naizgled složeniji, obično bi bio dostojan kompromis ako bi izbjegao, spriječio ili barem minimizirao nizvodne probleme tokom faze usvajanja.

Sveti Avgustin je čuveno rekao: „Čini mi se da nepravedan zakon uopšte nije zakon.”

Mogli bismo dati zaključak da je pravedan zakon koji se sastoji od problematičnog jezika zakon koji traži da proizvede ozbiljne probleme. U ovom slučaju, čini se da nam ostaju mudre riječi velikog pravnika Olivera Wendella Holmesa Jr., naime da stranica istorije vrijedi funtu logike.

Gledajte kako će istorija uskoro biti napravljena.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- biases-audits-kicks-into-gear/