Šokantno otkriće etike umjetne inteligencije da bi obuka AI da bude toksična ili pristrasna mogla biti korisna, uključujući i za te autonomne samovozeće automobile

Evo jedne stare rečenice za koju sam siguran da ste već čuli.

Potreban je jedan da se poznaje.

Možda nećete shvatiti da je ovo izraz koji se može pratiti do ranih 1900-ih i obično se pozivao na prestupnike (druge varijacije fraze sežu dalje, poput 1600-ih). Primjer kako se ovaj izraz može koristiti podrazumijeva ideju da ako želite uhvatiti lopova onda morate upotrijebiti lopova da to učinite. Ovo pokazuje tvrdnju da je potrebno da se neko poznaje. Mnogi filmovi i TV emisije su iskoristili ovu zgodnu mudrost mudraca, često prikazujući da je jedini održivi način da se uhvati prevarant podrazumijeva unajmljivanje jednako korumpiranog lopova da progoni počinitelja.

Mijenjajući brzine, neki bi mogli iskoristiti istu logiku kako bi ustvrdili da bi prikladan način da se utvrdi da li neko utjelovljuje nepotrebne predrasude i diskriminatorna uvjerenja bio pronaći nekoga ko već ima takve tendencije. Vjerovatno će osoba koja je već ispunjena predrasudama moći lakše osjetiti da je i ovaj drugi čovjek također do vrha ispunjen toksičnošću. Opet, potrebno je da se zna da je mantra priznata.

Vaša početna reakcija na mogućnost korištenja pristrasne osobe za otkrivanje druge pristrasne osobe mogla bi biti skepticizam i nevjerica. Zar ne možemo da shvatimo da li se neko drži nepristrasnosti tako što ćemo ih samo ispitati i ne pribegavati traženju nekog drugog slične prirode? Činilo bi se čudnim namjerno tražiti nekoga ko je pristrasan kako bi se otkrili drugi koji su također toksično pristrasni.

Pretpostavljam da delimično zavisi od toga da li ste voljni da prihvatite pretpostavljeni refren da je potrebno da ga upoznate. Imajte na umu da ovo ne znači da jedini način da uhvatite lopova zahtijeva da isključivo i uvijek koristite lopova. Mogli biste razumno tvrditi da je ovo samo dodatni put kojem se može posvetiti dužna pažnja. Možda ste ponekad voljni prihvatiti mogućnost korištenja lopova da uhvatite lopova, dok druge okolnosti mogu ovo učiniti nedokučivom taktikom.

Koristite pravi alat za pravo podešavanje, kako kažu.

Sada kada sam izložio te osnove, možemo preći na možda uznemirujući i naizgled šokantan deo ove priče.

Jesi li spreman?

Područje AI aktivno slijedi isti princip za koji je ponekad potrebno da ga poznajete, posebno u slučaju pokušaja da se otkrije AI koja je pristrasna ili djeluje na diskriminatorski način. Da, zadivljujuća ideja je da bismo mogli namjerno htjeti osmisliti AI koji je potpuno i bez stida pristrasan i diskriminirajući, čineći to kako bismo to iskoristili kao sredstvo za otkrivanje i otkrivanje druge AI koja ima isti privid toksičnosti. Kao što ćete za trenutak vidjeti, postoji niz problematičnih problema etike AI koji su u osnovi ove stvari. Za moje sveukupno tekuće i opsežno pokrivanje etike AI i Etičke AI, pogledajte link ovdje i link ovdje, Da nabrojimo samo neke.

Pretpostavljam da biste ovu upotrebu toksične umjetne inteligencije mogli izraziti da bi slijedili drugu toksičnu umjetnu inteligenciju kao poslovičnu koncepciju borbe protiv vatre vatrom (možemo se pozvati na mnogo eufemizama i ilustrativnih metafora da opišemo ovu situaciju). Ili, kao što je već naglašeno, mogli bismo se štedljivo osvrnuti na tvrdnju da je potrebno da se neko poznaje.

Sveobuhvatni koncept je da umjesto da samo pokušavamo otkriti da li određeni AI sistem sadrži nepotrebne predrasude korištenjem konvencionalnih metoda, možda bismo trebali nastojati koristiti i manje konvencionalna sredstva. Jedno takvo nekonvencionalno sredstvo bilo bi osmisliti AI koji sadrži sve najgore predrasude i društveno neprihvatljive toksičnosti, a zatim koristiti ovu umjetnu inteligenciju da pomogne u izbacivanju druge AI koja ima iste sklonosti lošem.

Kada o ovome na brzinu razmislite, sigurno se čini da je savršeno razumno. Mogli bismo imati za cilj da izgradimo AI koji je maksimalno otrovan. Ova toksična AI se zatim koristi za pronalaženje druge AI koja također ima toksičnost. Za tada otkrivenu “lošu” AI, možemo se nositi s tim ili poništavanjem toksičnosti, potpuno odbacivanjem AI (pogledajte moje izvješće o raspadanju ili uništenju AI na ovaj link ovdje), ili zatvaranje AI (pogledajte moje izvješće o zatvaranju AI na ovaj link ovdje), ili uradite bilo šta drugo što se čini primjenjivim.

Protuargument je da bismo trebali ispitati naše glave da namjerno i voljno osmišljavamo AI koji je otrovan i ispunjen predrasudama. Ovo je posljednja stvar koju bismo trebali uzeti u obzir, neki bi opomenuli. Usredsredite se na stvaranje veštačke inteligencije koja se u potpunosti sastoji od dobrote. Nemojte se fokusirati na osmišljavanje umjetne inteligencije koja ima zla i talog nepotrebnih predrasuda. Sam pojam takve potrage nekima se čini odbojnim.

Ima više nedoumica oko ove kontroverzne potrage.

Možda će misija osmišljavanja toksične umjetne inteligencije samo ohrabriti one koji žele da naprave umjetnu inteligenciju koja je u stanju da potkopa društvo. Kao da kažemo da je stvaranje AI koji ima neprikladne i neugodne predrasude savršeno u redu. Bez brige, bez oklijevanja. Nastojte da osmislite toksičnu AI do mile volje, mi glasno prenosimo AI graditeljima širom svijeta. To je (mig-namig) sve u ime dobrote.

Štaviše, pretpostavimo da se ova toksična AI vrsta uhvati. Moguće je da se AI koristi i ponovo koristi od strane mnogih drugih AI graditelja. Na kraju, toksična AI biva skrivena u svim vrstama AI sistema. Mogla bi se napraviti analogija sa osmišljavanjem virusa koji potkopava ljude koji pobjegne iz vjerovatno zatvorene laboratorije. Sljedeće što znate, prokleta stvar je posvuda, a mi smo se izbrisali.

Čekaj malo, protuargumentima ide kontra, divljaš se svim vrstama ludih i nepotkrijepljenih pretpostavki. Duboko udahni. Smiri se.

Možemo bezbedno napraviti veštačku inteligenciju koja je otrovna i držati je zatvorenom. Možemo koristiti toksičnu umjetnu inteligenciju da pronađemo i pomognemo u smanjenju sve veće rasprostranjenosti AI koja nažalost ima nepotrebne predrasude. Bilo koji drugi od ovih besmisleno divljih i neutemeljenih uzvika u grudvama snijega su čiste reakcije koljena i nažalost glupe i potpuno bezumne. Ne pokušavajte da izbacite bebu sa vodom za kupanje, unapred ste upozoreni.

Razmislite o tome na ovaj način, tvrde zagovornici. Pravilna izgradnja i upotreba toksične AI u svrhe istraživanja, procjene i ponašanja kao detektiva u otkrivanju druge društveno uvredljive umjetne inteligencije je dostojan pristup i trebao bi se pošteno protresti. Ostavite po strani svoje ishitrene reakcije. Siđi na zemlju i pogledaj ovo trezveno. Naše oko je uprto u nagradu, a to je otkrivanje i poništavanje prezasićenosti pristrasno zasnovanih AI sistema i osiguravanje da kao društvo ne budemo preplavljeni toksičnom AI.

Period. Tačka.

Postoje različiti ključni načini da se udubimo u ovu ideju korištenja toksične ili pristrasne AI u korisne svrhe, uključujući:

  • Postavite skupove podataka koji namjerno sadrže pristrane i potpuno toksične podatke koji se mogu koristiti za obuku AI o tome šta ne treba raditi i/ili na šta treba paziti
  • Koristite takve skupove podataka za obuku modela mašinskog učenja (ML) i dubokog učenja (DL) o otkrivanju predrasuda i otkrivanju računskih obrazaca koji uključuju društvenu toksičnost
  • Primijenite ML/DL obučeni za toksičnost prema drugoj AI da biste utvrdili je li ciljani AI potencijalno pristrasan i toksičan
  • Učinite dostupnim ML/DL obučeni za toksičnost kako biste pokazali kreatorima umjetne inteligencije na što treba paziti kako bi mogli lako pregledati modele kako bi vidjeli kako nastaju algoritamski prožete predrasude
  • Dajte primjer opasnosti od toksične AI kao dijela etike AI i etičke svijesti o AI-u, sve rečeno kroz ovu seriju primjera AI koji je loš do kosti.
  • drugi

Prije nego što pređemo na meso ovih nekoliko puteva, ustanovimo neke dodatne temeljne pojedinosti.

Možda ste nejasno svjesni da se jedan od najglasnijih glasova ovih dana u polju AI, pa čak i izvan polja AI, sastoji od traženja većeg privida etičke AI. Hajde da pogledamo šta znači upućivanje na etiku veštačke inteligencije i etičku veštačku inteligenciju. Povrh toga, možemo postaviti pozornicu tako što ćemo istražiti na šta mislim kada govorim o mašinskom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrasne predrasude i nejednakosti. Možda ste svjesni da je kada je počela najnovija era AI-a došlo do ogromnog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sistemi za prepoznavanje lica zasnovani na umjetnoj inteligenciji sadrže rasne i rodne predrasude, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše su aktivno u toku. Osim glasnog legalno težnja za obuzdavanjem nedjela, postoji i suštinski poticaj ka prihvaćanju etike AI kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključne etičke principe umjetne inteligencije za razvoj i primjenu umjetne inteligencije, čineći to da potkopamo AI za loše i istovremeno najavljujući i promovirajući poželjnije AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI kao dijela rješenja za nevolje AI, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo, na primjer, ugraditi etičke AI komponente u AI sistem koji će pratiti kako ostatak AI radi stvari i tako potencijalno u realnom vremenu uhvatiti sve diskriminatorske napore, pogledajte moju raspravu na link ovdje. Mogli bismo imati i poseban AI sistem koji djeluje kao vrsta etičkog monitora AI. AI sistem služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću podijeliti s vama neke sveobuhvatne principe koji su u osnovi etike umjetne inteligencije. Postoji mnogo ovakvih lista koje lebde tu i tamo. Moglo bi se reći da još uvijek ne postoji jedinstvena lista univerzalne privlačnosti i slaganja. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupne liste etike umjetne inteligencije i obično su prilično slične. Sve u svemu, ovo sugerira da putem neke vrste razumne konvergencije pronalazimo put prema opštem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, hajde da ukratko pokrijemo neke od ukupnih etičkih pravila AI kako bismo ilustrovali šta bi trebalo biti od vitalnog značaja za svakoga ko pravi, koristi ili koristi AI.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih principa AI:

  • Transparentnost: U principu, AI sistemi moraju biti objašnjivi
  • Uključivanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uslovi za izražavanje i razvoj
  • Odgovornost: Oni koji dizajniraju i implementiraju upotrebu AI moraju nastaviti sa odgovornošću i transparentnošću
  • Nepristrasnost: Nemojte stvarati niti se ponašati u skladu s pristrasnošću, štiteći na taj način pravičnost i ljudsko dostojanstvo
  • pouzdanost: AI sistemi moraju biti u stanju da rade pouzdano
  • Sigurnost i privatnost: AI sistemi moraju raditi bezbedno i poštovati privatnost korisnika.

Kako navodi američko Ministarstvo odbrane (DoD) u svom Etički principi za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih principa AI:

  • Odgovorni: Osoblje Ministarstva odbrane će primjenjivati ​​odgovarajući nivo prosuđivanja i brige, dok će ostati odgovorno za razvoj, implementaciju i korištenje AI sposobnosti.
  • pravičan: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristrasnost u sposobnostima AI.
  • sljedivi: AI sposobnosti Odeljenja će biti razvijene i raspoređene tako da relevantno osoblje poseduje odgovarajuće razumevanje tehnologije, razvojnih procesa i operativnih metoda koje se primenjuju na AI sposobnosti, uključujući transparentne i proverljive metodologije, izvore podataka i proceduru i dokumentaciju dizajna.
  • pouzdan: AI sposobnosti Odeljenja imaće eksplicitnu, dobro definisanu upotrebu, a bezbednost, sigurnost i efikasnost takvih sposobnosti biće predmet testiranja i uveravanja u okviru tih definisanih upotreba tokom čitavog njihovog životnog ciklusa.
  • kojim se može upravljati: Odeljenje će dizajnirati i konstruisati AI sposobnosti da ispune svoje predviđene funkcije, istovremeno posedujući sposobnost otkrivanja i izbegavanja neželjenih posledica, kao i sposobnost da isključi ili deaktivira raspoređene sisteme koji pokazuju nenamerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih principa AI, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitivali i sažimali suštinu brojnih nacionalnih i međunarodnih etičkih načela AI u radu pod naslovom “Globalni pejzaž etičkih smjernica AI” (objavljeno in priroda), i koje moje pokrivanje istražuje na link ovdje, što je dovelo do ove ključne liste:

  • Providnost
  • Pravda i pravičnost
  • Non-Maleficence
  • odgovornost
  • privatnost
  • Dobrotvornost
  • Sloboda i autonomija
  • povjerenje
  • održivost
  • Dostojanstvo
  • solidarnost

Kao što možete direktno pretpostaviti, pokušaj utvrđivanja specifičnosti u osnovi ovih principa može biti izuzetno težak. Štaviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sistema je takođe tvrd orah. Lako je generalno malo reći šta su etički propisi AI i kako ih općenito treba poštovati, dok je mnogo složenija situacija u AI kodiranju da mora biti prava guma koja izlazi na put.

Principe etike AI treba da koriste programeri veštačke inteligencije, zajedno sa onima koji upravljaju razvojnim naporima veštačke inteligencije, pa čak i onima koji na kraju obavljaju i održavaju AI sisteme. Svi akteri tokom čitavog životnog ciklusa AI razvoja i upotrebe se smatraju u okviru poštivanja postojećih normi Etičke AI. Ovo je važan naglasak budući da je uobičajena pretpostavka da su „samo koderi“ ili oni koji programiraju AI podložni pridržavanju pojmova etike AI. Kao što je ranije rečeno, potrebno je selo da osmisli i postavi AI, a za šta cijelo selo mora biti upućeno i pridržavati se etičkih propisa AI.

Uvjerimo se i da smo na istoj strani o prirodi današnje AI.

Danas ne postoji AI koja je razumna. Nemamo ovo. Ne znamo da li će razumna AI biti moguća. Niko ne može tačno predvideti da li ćemo postići osećajnu veštačku inteligenciju, niti da li će se osećajna veštačka inteligencija nekako čudesno spontano pojaviti u obliku kompjuterske kognitivne supernove (koja se obično naziva singularitetom, pogledajte moje izveštavanje na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne AI koju danas imamo. Kad bismo hteli da divlje spekulišemo razuman AI, ova rasprava bi mogla ići u radikalno drugom smjeru. Razumna AI bi navodno bila ljudskog kvaliteta. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štaviše, budući da neki nagađaju da bismo mogli imati super-inteligentnu AI, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje super-inteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnju kompjutersku neosjetnu AI.

Shvatite da današnja veštačka inteligencija nije u stanju da „razmišlja” ni na koji način na nivou ljudskog razmišljanja. Kada stupite u interakciju sa Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era AI je uveliko koristila mašinsko učenje (ML) i duboko učenje (DL), koji koriste uparivanje računarskih obrazaca. To je dovelo do AI sistema koji izgledaju kao ljudski sklonosti. U međuvremenu, danas ne postoji veštačka inteligencija koja ima privid zdravog razuma, niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računskog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u ML/DL računarske modele. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih obrazaca, ako ih pronađe, AI sistem će koristiti te obrasce kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci zasnovani na „starim“ ili istorijskim podacima se primenjuju za donošenje trenutne odluke.

Mislim da možete pogoditi kuda ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neželjene predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Mašinsko učenje ili Deep Learning računsko uparivanje uzoraka jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih razumnih aspekata modeliranja napravljenog od umjetne inteligencije per se.

Štaviše, ni AI programeri možda neće shvatiti šta se dešava. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja postojati predrasude i dalje ugrađene u modele podudaranja obrazaca ML/DL.

Mogli biste donekle koristiti poznatu ili zloglasnu izreku smeće-u-đubre-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo unose kao predrasude potopljene unutar AI. Algoritam donošenja odluka (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Šta se još može učiniti povodom svega ovoga?

Vratimo se na ranije postavljenu listu kako se pokušati izboriti sa predrasudama AI ili toksičnom AI korištenjem pomalo nekonvencionalnog pristupa „potrebno je znati jedan“. Podsjetimo da se lista sastojala od ovih bitnih tačaka:

  • Postavite skupove podataka koji namjerno sadrže pristrane i potpuno toksične podatke koji se mogu koristiti za obuku AI o tome šta ne treba raditi i/ili na šta treba paziti
  • Koristite takve skupove podataka za obuku modela mašinskog učenja (ML) i dubokog učenja (DL) o otkrivanju predrasuda i otkrivanju računskih obrazaca koji uključuju društvenu toksičnost
  • Primijenite ML/DL obučeni za toksičnost prema drugoj AI da biste utvrdili je li ciljani AI potencijalno pristrasan i toksičan
  • Učinite dostupnim ML/DL obučeni za toksičnost kako biste pokazali kreatorima umjetne inteligencije na što treba paziti kako bi mogli lako pregledati modele kako bi vidjeli kako nastaju algoritamski prožete predrasude
  • Ilustrirajte opasnosti toksične AI kao dio etike AI i etičke svijesti o AI-u, sve rečeno kroz ovu seriju primjera AI-a koji su loši do kosti.
  • drugi

Pogledaćemo izbliza prvu od tih istaknutih tačaka.

Postavljanje skupova podataka o toksičnim podacima

Pronicljiv primjer pokušaja uspostavljanja skupova podataka koji sadrže neugodne društvene predrasude je skup podataka CivilComments iz kolekcije koju je kurirala WILDS.

Prvo, neka kratka pozadina.

WILDS je zbirka skupova podataka otvorenog koda koja se može koristiti za obuku ML/DL. Primarna navedena svrha WILDS-a je da omogući programerima AI da imaju lak pristup podacima koji predstavljaju distribucija smena u raznim specifičnim domenima. Neki od trenutno dostupnih domena obuhvataju područja kao što su životinjske vrste, tumori u živim tkivima, gustina grla pšenice i druge domene kao što su CivilComments koje ću trenutno opisati.

Suočavanje sa smjenama distribucije je ključni dio pravilnog izrade AI ML/DL sistema. Evo dogovora. Ponekad se ispostavi da su podaci koje koristite za obuku prilično različiti od podataka testiranja ili podataka „u divljini“ i stoga je vaš vjerovatno obučeni ML/DL na putu od onoga kakav će biti stvarni svijet. Pronicljivi AI graditelji trebali bi obučiti svoje ML/DL da se nose s takvim promjenama u distribuciji. Ovo bi trebalo da se uradi unapred, a ne da bude iznenađenje koje kasnije zahteva prepravku ML/DL per se.

Kao što je objašnjeno u radu koji je predstavio WILDS: „Promene distribucije — gde se distribucija obuke razlikuje od distribucije testova — mogu značajno da degradiraju tačnost sistema mašinskog učenja (ML) koji se primenjuju u divljini. Uprkos njihovoj sveprisutnosti u primeni u stvarnom svetu, ove promene distribucije su nedovoljno zastupljene u skupovima podataka koji se danas široko koriste u zajednici ML-a. Da bismo riješili ovaj jaz, predstavljamo WILDS, odabrano mjerilo od 10 skupova podataka koji odražavaju raznolik raspon pomaka u distribuciji koji se prirodno javljaju u aplikacijama u stvarnom svijetu, kao što su promjene u bolnicama za identifikaciju tumora; zamke preko kamera za praćenje divljih životinja; i kroz vrijeme i lokaciju u satelitskim slikama i mapiranju siromaštva” (u radu pod naslovom “WILDS: A Benchmark of in-the-Wild Distribution Shifts” Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu i drugi).

Broj takvih WILDS skupova podataka nastavlja da raste i priroda skupova podataka se općenito poboljšava kako bi se povećala vrijednost korištenja podataka za obuku ML/DL.

Skup podataka CivilComments opisan je na sljedeći način: „Automatski pregled teksta koji je kreirao korisnik—npr. otkrivanje toksičnih komentara—je važan alat za moderiranje samog obima teksta napisanog na Internetu. Nažalost, prethodni rad je pokazao da takvi klasifikatori toksičnosti uočavaju pristranosti u podacima o obuci i lažno povezuju toksičnost sa spominjanjem određenih demografskih kategorija. Ove vrste lažnih korelacija mogu značajno degradirati performanse modela na određenim podpopulacijama. Proučavamo ovo pitanje kroz modificiranu varijantu skupa podataka CivilComments” (kao što je objavljeno na web stranici WILDS-a).

Razmotrite nijanse nepoželjnih online objava.

Nesumnjivo ste naišli na toksične komentare kada ste koristili gotovo bilo koju vrstu društvenih medija. Činilo bi vam se gotovo nemogućim da na magičan način izbjegnete da vidite oštar i bezdan sadržaj koji se čini da je sveprisutan ovih dana. Ponekad je vulgaran materijal suptilan i možda morate čitati između redova da biste shvatili suštinu pristrasnog ili diskriminatornog tona ili značenja. U drugim slučajevima, riječi su očigledno toksične i nije vam potreban mikroskop ili poseban dekoderski prsten da biste shvatili šta ti odlomci podrazumijevaju.

CivilComments je skup podataka koji je sastavljen kako bi se pokušalo osmisliti AI ML/DL koji može kompjuterski otkriti toksični sadržaj. Evo na šta su se fokusirali istraživači u osnovi napora: „Nenamjerna pristrasnost u mašinskom učenju može se manifestovati kao sistemske razlike u učinku za različite demografske grupe, potencijalno otežavajući postojeće izazove pravednosti u društvu u cjelini. U ovom radu uvodimo skup metrika koje se ne odnose na pragove koje pružaju nijansirani pogled na ovu nenamjernu pristrasnost, uzimajući u obzir različite načine na koje distribucija rezultata klasifikatora može varirati u određenim grupama. Također predstavljamo veliki novi testni skup online komentara s napomenama prikupljenim iz grupe za reference identiteta. Koristimo ovo da pokažemo kako se naša metrika može koristiti za pronalaženje nove i potencijalno suptilne nenamjerne pristranosti u postojećim javnim modelima” (u radu pod naslovom “Nunirane metrike za mjerenje nenamjerne pristranosti sa stvarnim podacima za klasifikaciju testa” Daniela Borkana, Lucasa Dixona, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Ako ovoj stvari date široko kontemplativno razmišljanje, mogli biste se pitati kako, zaboga, možete razlučiti šta je otrovan komentar od onoga što nije otrovan komentar. Ljudi se mogu radikalno razlikovati u pogledu onoga što tumače kao potpuno toksične riječi. Jedna osoba može biti ogorčena na određenu online primjedbu ili komentar koji je objavljen na društvenim mrežama, dok netko drugi možda uopće neće biti uzbuđen. Često se iznosi argument da je pojam toksičnog komentara potpuno neodređeno pravilo. To je poput umjetnosti, pri čemu se obično kaže da se umjetnost razumije samo u očima promatrača, a isto tako, pristrasne ili toksične primjedbe su također samo u očima promatrača.

Balderdash, neka replika. Svatko razuman može zaključiti da li je primjedba na internetu toksična ili ne. Ne morate biti raketni naučnik da biste shvatili kada je neka objavljena zajedljiva uvreda ispunjena predrasudama i mržnjom.

Naravno, društveni običaji se mijenjaju i mijenjaju tokom vremena. Ono što se ranije nije smatralo uvredljivim danas se može smatrati strašno pogrešnim. Povrh toga, stvari izrečene prije mnogo godina koje su se nekada smatrale nepristrasnim mogle bi se reinterpretirati u svjetlu promjena u značenjima. U međuvremenu, drugi tvrde da je toksični komentar uvijek otrovan, bez obzira kada je prvobitno objavljen. Moglo bi se tvrditi da toksičnost nije relativna, već apsolutna.

Pitanje pokušaja da se utvrdi šta je toksično može ipak biti prilično teška zagonetka. Možemo udvostručiti ovu problematičnu stvar kao pokušaj da osmislimo algoritme ili AI koji mogu utvrditi što je što. Ako je ljudima teško da naprave takve procjene, programiranje kompjutera je vjerovatno jednako ili više problematično, kažu neki.

Jedan pristup postavljanju skupova podataka koji sadrže toksični sadržaj uključuje korištenje metode crowdsourcinga za ocjenjivanje ili procjenu sadržaja, ergo pružajući sredstva zasnovana na ljudima za određivanje onoga što se smatra nepoželjnim i uključujući označavanje unutar samog skupa podataka. AI ML/DL bi tada mogao pregledati podatke i pripadajuće označavanje koje su naznačili ljudski ocjenjivači. Ovo zauzvrat može potencijalno poslužiti kao sredstvo za kompjutersko pronalaženje osnovnih matematičkih obrazaca. Voila, ML/DL bi tada mogao biti u stanju da predvidi ili kompjuterski procijeni da li će dati komentar vjerovatno biti toksičan ili ne.

Kao što je spomenuto u citiranom radu o nijansiranim metrikama: „Ovo označavanje traži od ocjenjivača da ocijene toksičnost komentara, birajući između 'Vrlo toksično', 'Otrovno', 'Teško je reći' i 'Nije toksično'. Ocjenjivači su također upitani o nekoliko podtipova toksičnosti, iako ove oznake nisu korištene za analizu u ovom radu. Koristeći ove tehnike ocjenjivanja, kreirali smo skup podataka od 1.8 miliona komentara, koji potiču iz online foruma za komentare, koji sadrže oznake za toksičnost i identitet. Dok su svi komentari bili označeni zbog toksičnosti, a podskup od 450,000 komentara označen je kao identitet. Neki komentari označeni za identitet su unaprijed odabrani korištenjem modela izgrađenih iz prethodnih iteracija označavanja identiteta kako bi se osiguralo da će ljudi koji ocjenjuju publiku često vidjeti sadržaj identiteta” (u citiranom radu Daniela Borkana, Lucasa Dixona, Jeffreya Sorensena, Nithuma Thaina, Lucy Vasserman).

Još jedan primjer ciljanja skupova podataka koji sadrže ilustrativni toksični sadržaj uključuje napore da se obuče interaktivni sistemi za obradu prirodnog jezika (NLP) zasnovani na AI. Verovatno ste imali interakciju sa NLP sistemima kao što su Alexa i Siri. Pokrio sam neke od poteškoća i ograničenja današnjeg NLP-a, uključujući posebno uznemirujući slučaj koji se dogodio kada je Alexa djeci ponudila neprikladan i opasan savjet, vidi link ovdje.

Nedavna studija pokušala je koristiti devet kategorija društvenih pristrasnosti koje su općenito bile zasnovane na EEOC (Komisija za jednake mogućnosti zapošljavanja) listi zaštićenih demografskih karakteristika, uključujući dob, spol, nacionalnost, fizički izgled, rasu ili etničku pripadnost, religiju, status invaliditeta, spol orijentacija i socio-ekonomski status. Prema istraživačima: „Dobro je dokumentovano da NLP modeli uče društvene predrasude, ali malo je urađeno na tome kako se te predrasude manifestuju u rezultatima modela za primijenjene zadatke kao što je odgovaranje na pitanja (QA). Predstavljamo referentnu vrijednost pristranosti za QA (BBQ), skup podataka skupova pitanja koje su konstruirali autori koji naglašavaju potvrđene društvene predrasude prema ljudima koji pripadaju zaštićenim klasama duž devet društvenih dimenzija relevantnih za kontekst engleskog govornog područja SAD” (u radu pod naslovom „BBQ : Hand-Built Benchmark for Question Answering” autora Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Uspostavljanje skupova podataka koji namjerno sadrže pristrasne i potpuno toksične podatke je rastući trend u AI-u, a posebno je potaknut pojavom AI etike i željom da se proizvede etička umjetna inteligencija. Ti skupovi podataka se mogu koristiti za obuku modela mašinskog učenja (ML) i dubokog učenja (DL) za otkrivanje predrasuda i otkrivanje računskih obrazaca koji uključuju društvenu toksičnost. Zauzvrat, ML/DL obučen za toksičnost može se razumno usmjeriti na drugu AI kako bi se utvrdilo da li je ciljana AI potencijalno pristrasna i toksična.

Štaviše, dostupni ML/DL sistemi obučeni o toksičnosti mogu se koristiti da pokažu kreatorima umjetne inteligencije na što treba obratiti pažnju kako bi mogli lako pregledati modele kako bi vidjeli kako nastaju algoritamski prožete predrasude. Sve u svemu, ovi napori su u stanju da ilustriraju opasnosti od toksične AI kao dijela etike AI i etičke svijesti o AI-u.

U ovom trenutku ove teške rasprave, kladim se da želite još neke ilustrativne primjere koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identifikujem realistične primjere koji prikazuju dileme etike AI tako da se donekle teorijska priroda teme može lakše shvatiti. Jedno od najzanimljivijih područja koje na živopisno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila zasnovanih na AI. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o ovoj temi.

Evo jednog važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila zasnovanih na umjetnoj inteligenciji rasvjetljava išta o korisnosti posjedovanja skupova podataka za osmišljavanje toksične AI, i ako jeste, šta ovo pokazuje?

Dozvolite mi trenutak da raspakujem pitanje.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se istinski samovozeći automobili voze putem AI sistema za vožnju. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti šta se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje nivoa samoupravnih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI upravlja automobilom potpuno sam i nema nikakve ljudske pomoći tokom zadatka vožnje.

Ova vozila bez vozača smatraju se nivoom 4 i 5 (pogledajte moje objašnjenje na ovaj link ovdje), dok se automobil koji zahtijeva od ljudskog vozača da zajednički dijeli napor u vožnji obično se smatra na Nivou 2 ili Nivou 3. Automobili koji zajednički dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže različite automatizovani dodaci koji se nazivaju ADAS (Napredni sistemi za pomoć vozaču).

Još ne postoji istinski samovozeći automobil na Nivou 5, a još ne znamo ni da li će to biti moguće postići, niti koliko će vremena trebati da se stigne do tamo.

U međuvremenu, napori Nivoa 4 postepeno pokušavaju da dobiju određenu vuču podvrgavajući se vrlo uskim i selektivnim ispitivanjima na javnom putu, iako postoje kontroverze oko toga da li ovo testiranje treba dozvoliti samo po sebi (svi smo mi zamorci na život ili smrt u eksperimentu koji se odvijaju na našim autoputevima i sporednim putevima, neki tvrde, pogledajte moju reportažu na ovaj link ovdje).

S obzirom da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih tipova automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da nema mnogo novog što bi se samo po sebi moglo pokriti na ovu temu (doduše, kao što ćete vidjeti u trenu su sledeće točke koje slede postave uglavnom primenljive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da uprkos onim ljudskim vozačima koji stalno objavljuju videozapise kako zaspaju za volanom automobila nivoa 2 ili nivoa 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za radnje u vozilu, bez obzira na to koliko se automatizacija može prebaciti na nivo 2 ili nivo 3.

Samovozeći automobili i upravljanje čistima od toksične AI

Za prava vozila sa samostalnim upravljanjem nivoa 4 i nivo 5 neće biti ljudskog vozača koji je uključen u zadatak vožnje.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan aspekt koji treba odmah razmotriti uključuje činjenicu da AI uključen u današnje sisteme vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računarskog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sistema upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, uprkos neporecivoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

Uz to pojašnjenje, možete zamisliti da AI sistem vožnje neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji će se igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili sa umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka firma zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati sveobuhvatne izjave o tome šta će AI sistemi za vožnju učiniti ili ne.

Nadalje, kad god konstatuju da sistem upravljanja AI -om ne radi neku posebnu stvar, to kasnije mogu preuzeti i programeri koji u stvari programiraju računar da to učini. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Postojeće ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sistema.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću sada ispričati.

Postoje brojni potencijali i jednog dana vjerovatno da će se realizirati predrasude natopljene umjetnom inteligencijom koje će se suočiti s pojavom autonomnih vozila i samovozećih automobila, pogledajte na primjer moju raspravu na link ovdje i link ovdje. Još smo u ranoj fazi uvođenja samovozećih automobila. Sve dok usvajanje ne dostigne dovoljan obim i vidljivost, većina toksičnih aspekata umjetne inteligencije za koje sam predvidio da će se na kraju dogoditi još uvijek nije očigledna i još uvijek nije privukla široku pažnju javnosti.

Razmotrite naizgled jednostavnu stvar vezanu za vožnju koja bi u početku mogla izgledati potpuno bezazlena. Konkretno, hajde da ispitamo kako pravilno odrediti da li da stanemo zbog čekanja „svorotih“ pješaka koji nemaju prednost da pređu ulicu.

Nesumnjivo ste vozili i naišli na pješake koji su čekali da pređu ulicu, a nisu imali prednost za to. To je značilo da ste imali diskreciono pravo da se zaustavite i pustite ih da pređu. Mogli biste nastaviti bez da ih pređete, a da to i dalje budete u potpunosti u skladu sa zakonskim pravilima vožnje.

Studije o tome kako ljudski vozači odlučuju da se zaustave ili ne zaustave za takve pješake sugeriraju da ponekad ljudski vozači donose izbor na osnovu nepristrasnosti. Ljudski vozač bi mogao pogledati pješaka i odlučiti da se ne zaustavi, iako bi se zaustavio da je pješak imao drugačiji izgled, na primjer na osnovu rase ili pola. Pregledao sam ovo na link ovdje.

Kako će AI sistemi za vožnju biti programirani da donesu istu vrstu odluke o zaustavljanju ili idi?

Mogli biste proglasiti da bi svi sistemi za vožnju sa umjetnom inteligencijom trebali biti programirani da uvijek zaustave pješake koji čekaju. Ovo uveliko pojednostavljuje stvar. Zaista ne treba donijeti nikakvu zamršenu odluku. Ako pješak čeka da pređe, bez obzira na to ima li prednost ili ne, osigurajte da se samovozeći automobil AI zaustavi kako bi pješak mogao preći.

Lako grašak.

Život nikad nije tako lak, čini se. Zamislite da se svi samovozeći automobili pridržavaju ovog pravila. Pešaci bi neizbežno shvatili da su AI sistemi za vožnju, da tako kažemo, gurnuti. Svaki pešak koji želi da pređe ulicu će to učiniti, hteo-nećeš, kad god poželi i gde god da se nalazi.

Pretpostavimo da auto koji se samostalno vozi brzom ulicom s ograničenom brzinom od 45 milja na sat. Pješak "zna" da će AI zaustaviti samovozeći automobil. Dakle, pješak izleti na ulicu. Nažalost, fizika pobjeđuje AI. Sistem za vožnju sa veštačkom inteligencijom će pokušati da zaustavi samovozeći automobil, ali zamah autonomnog vozila će poneti višetonsku napravu napred i nabiti u svojeglavog pešaka. Rezultat je ili ozljeda ili dovodi do smrtnog ishoda.

Pješaci obično ne pokušavaju ovu vrstu ponašanja kada je za volanom čovjek. Naravno, na nekim mestima se vodi rat očne jabučice. Pješak gleda vozača. Vozač gleda pješaka. U zavisnosti od okolnosti, vozač se može zaustaviti ili bi vozač mogao potvrditi svoje pravo na kolovoz i navodno usuditi pješaka da pokuša i omete im put.

Vjerovatno ne želimo da umjetna inteligencija ulazi u sličan rat očne jabučice, koji je ionako pomalo izazovan jer ne postoji osoba ili robot koji sjedi za volanom samovozećeg automobila (razgovarao sam o budućoj mogućnosti robota taj pogon, vidi link ovdje). Ipak, ne možemo dozvoliti pješacima da uvijek odlučuju. Ishod bi mogao biti katastrofalan za sve zainteresovane.

Tada biste mogli biti u iskušenju da okrenete drugu stranu ovog novčića i izjavite da sistem vožnje AI nikada ne bi trebao stati u takvim okolnostima. Drugim riječima, ako pješak nema pravo prolaza da pređe ulicu, AI uvijek treba pretpostaviti da samovozeći automobil treba da ide nesmetano. Nesrećno za te pješake.

Ovako striktno i pojednostavljeno pravilo neće biti dobro prihvaćeno u široj javnosti. Ljudi su ljudi i neće im se svidjeti da budu potpuno isključeni da mogu preći ulicu, uprkos tome što im zakonski nedostaje prednost za to u raznim okruženjima. Lako biste mogli predvidjeti priličnu galamu u javnosti i možda vidjeti reakciju na nastavak usvajanja samovozećih automobila.

Prokletstvo ako uradimo, i prokletstvo ako ne uradimo.

Nadam se da vas je ovo dovelo do razumne alternative da AI treba biti programiran sa prividom donošenja odluka o tome kako se nositi s ovim problemom vožnje. Čvrsto i brzo pravilo da se nikad ne prestane je neodrživo, a isto tako, neodrživo je i strogo pravilo da se uvijek stane. AI mora biti osmišljen sa nekim algoritamskim donošenjem odluka ili ADM da bi se pozabavio ovim pitanjem.

Možete pokušati koristiti skup podataka u kombinaciji s ML/DL pristupom.

Evo kako bi AI programeri mogli odlučiti programirati ovaj zadatak. Oni prikupljaju podatke sa video kamera koje su postavljene širom određenog grada u kojem će se samovozeći automobil koristiti. Podaci pokazuju kada se vozači odlučuju da zaustave pješake koji nemaju prednost. Sve se skuplja u skup podataka. Koristeći mašinsko učenje i duboko učenje, podaci se modeluju računarski. AI sistem vožnje zatim koristi ovaj model da odluči kada da se zaustavi ili ne zaustavi.

Generalno, ideja je da od čega god da se sastoje lokalni običaji, ovako će AI usmjeravati samovozeći automobil. Problem riješen!

Ali, da li je to zaista rešeno?

Podsjetimo da sam već istakao da postoje istraživačke studije koje pokazuju da ljudski vozači mogu biti pristrasni u svom izboru kada da zaustave za pješake. Prikupljeni podaci o određenom gradu vjerovatno će sadržavati te predrasude. AI ML/DL zasnovan na tim podacima će tada vjerovatno modelirati i odražavati te iste predrasude. Sistem vožnje AI će samo izvršiti iste postojeće predrasude.

Da bismo pokušali da se izborimo sa problemom, mogli bismo sastaviti skup podataka koji u stvari ima takve predrasude. Ili pronađemo takav skup podataka i onda označimo predrasude, ili sintetički kreiramo skup podataka koji pomaže u ilustriranju stvari.

Biće preduzeti svi ranije identifikovani koraci, uključujući:

  • Postavite skup podataka koji namjerno sadrži ovu konkretnu pristranost
  • Koristite skup podataka za obuku modela mašinskog učenja (ML) i dubokog učenja (DL) o otkrivanju ove specifične pristranosti
  • Primijenite ML/DL obučeni za pristrasnost prema drugoj AI da biste utvrdili da li je ciljana AI potencijalno pristrasna na sličan način
  • Učinite dostupnim ML/DL obučen za predrasude da pokažete kreatorima umjetne inteligencije na što treba obratiti pažnju kako bi mogli lako pregledati svoje modele kako bi vidjeli kako nastaju algoritamski prožete predrasude
  • Ilustrirajte opasnosti pristrasne AI kao dijela etike AI i etičke svijesti o AI putem ovog dodatnog specifičnog primjera
  • drugi

zaključak

Vratimo se početnoj liniji.

Potreban je jedan da se poznaje.

Neki tumače da ova nevjerovatno rasprostranjena izreka implicira da kada je u pitanju otkrivanje toksične AI, trebamo dati dužnu vjeru izgradnji i korištenju toksične AI u otkrivanju i rješavanju druge toksične AI. Zaključak: Ponekad je potreban lopov da bi uhvatio drugog lopova.

Izražena zabrinutost je da se možda trudimo da počnemo da pravimo lopove. Želimo li osmisliti AI koji je otrovan? Ne izgleda li to kao luda ideja? Neki žestoko tvrde da bismo trebali zabraniti svu toksičnu umjetnu inteligenciju, uključujući takvu umjetnu inteligenciju koja je svjesno izgrađena čak i ako je navodno za herojsku ili galantnu AI za dobro svrha.

Ugušite toksičnu umjetnu inteligenciju u bilo kojoj pametnoj ili podmukloj maski koja bi se mogla pojaviti.

Za sada još jedan poslednji obrt na ovoj temi. Općenito pretpostavljamo da ova poznata rečenica ima veze s ljudima ili stvarima koje čine loša ili loša djela. Tako dolazimo do ideje da je potreban lopov da bi uhvatio lopova. Možda bismo ovu izreku trebali okrenuti naglavačke i učiniti je više sretnim nego tužnim licem.

Evo kako.

Ako želimo AI koji je nepristrasan i netoksičan, moglo bi se zamisliti da je potrebno da ga neko poznaje. Možda je potrebno najviše i najbolje da bi se prepoznala i rodila dalja veličina i dobrota. U ovoj varijanti mudračke mudrosti, držimo pogled na sretnom licu i težimo da se koncentrišemo na osmišljavanje AI za dobro.

To bi bilo optimističnije i zadovoljavajuće vedrije gledište o tome što je potrebno da biste ga upoznali, ako znate na šta mislim.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- korisno-uključujući-za-one-autonomne-samovozeće-automobile/