3 razloga zašto će vašoj organizaciji biti potrebni eksterni ocjenjivači algoritama

Satta Sarmah-Hightower

Poslovni lideri izvlače svu vrijednost koju mogu iz umjetne inteligencije (AI). KPMG studija iz 2021. pokazuje većina poslovnih lidera u vladi, industrijskoj proizvodnji, finansijskim uslugama, maloprodaji, znanosti o životu i zdravstvu kaže da je AI barem umjereno funkcionalna u njihovim organizacijama. Studija također pokazuje da polovina ispitanika kaže da je njihova organizacija ubrzala usvajanje AI kao odgovor na pandemiju Covid-19. U organizacijama u kojima je AI usvojena, najmanje polovina kaže da je tehnologija premašila očekivanja.

AI algoritmi su sve odgovorniji za različite današnje interakcije i inovacije – od personaliziranih preporuke proizvoda i korisnička podrška iskustva bankama' odluke o pozajmljivanju i čak policijski odgovor.

Ali uz sve prednosti koje nude, AI algoritmi nose velike rizike ako se ne nadgledaju i ne procjenjuju na otpornost, pravednost, objašnjivost i integritet. Kako bi se pomoglo poslovnim liderima u praćenju i evaluaciji AI, studija koja je gore navedena pokazuje da a Sve veći broj poslovnih lidera želi da vlada reguliše AI kako bi omogućila organizacijama da ulažu u pravu tehnologiju i poslovne procese. Za potrebnu podršku i nadzor, mudro je razmotriti eksterne procjene koje nudi pružalac usluga sa iskustvom u pružanju takvih usluga. Evo tri razloga zašto.

1. Algoritmi su “crne kutije”

Algoritmi umjetne inteligencije – koji uče iz podataka kako bi rješavali probleme i optimizirali zadatke – čine sisteme pametnijima, omogućavajući im da prikupljaju i stvaraju uvide mnogo brže nego što bi ljudi ikada mogli.

Međutim, neki dionici smatraju ove algoritme „crnim kutijama“, objašnjava Drew Rosen, izvršni direktor revizije u KPMG-u, vodećoj firmi za profesionalne usluge. Konkretno, određeni dionici možda ne razumiju kako je algoritam došao do određene odluke i stoga možda nisu sigurni u pravednost ili tačnost te odluke.

"Rezultati prikupljeni iz algoritma mogu biti skloni pristrasnosti i pogrešnoj interpretaciji rezultata", kaže Rosen. “To također može dovesti do određenih rizika za entitet jer koriste te rezultate i dijele ih s javnošću i njihovim dionicima.”

Algoritam koji koristi pogrešne podatke, na primjer, u najboljem je slučaju neefikasan — a u najgorem štetan. Kako bi to moglo izgledati u praksi? Razmislite o chatbotu baziranom na umjetnoj inteligenciji koji korisnicima pruža pogrešne informacije o računu ili automatiziranom alatu za prevođenje jezika koji neprecizno prevodi tekst. Oba slučaja mogu rezultirati ozbiljnim greškama ili pogrešnim tumačenjima za vladine subjekte ili kompanije, kao i za članove i klijente koji se oslanjaju na odluke koje donose ti algoritmi.

Još jedan faktor koji doprinosi problemu crne kutije je kada inherentna pristrasnost prodire u razvoj AI modela, potencijalno uzrokujući pristrasno donošenje odluka. Kreditni zajmodavci, na primjer, sve više koriste AI za predviđanje kreditne sposobnosti potencijalnih zajmoprimaca kako bi donosili odluke o kreditiranju. Međutim, rizik može nastati kada ključni ulazi u AI, kao što je kreditni rezultat potencijalnog zajmoprimca, ima materijalnu grešku, što dovodi do toga da se tim pojedincima uskraćuju krediti.

Ovo naglašava potrebu za eksternim ocjenjivačem koji može poslužiti kao nepristrasan evaluator i pružiti fokusiranu procjenu, na osnovu prihvaćenih kriterijuma, relevantnosti i pouzdanosti istorijskih podataka i pretpostavki koje pokreću algoritam.

2. Zainteresovane strane i regulatori zahtijevaju transparentnost

U 2022. nije bilo trenutnih zahtjeva za izvještavanje za odgovornu AI. Međutim, Rosen kaže, „baš kao kako su upravljačka tijela uvela ESG [okolišnu, društvenu i upravljačku] regulativu u izvještaj o određenim ESG metrikama, samo je pitanje vremena da ćemo vidjeti dodatne zahtjeve za izvještavanje propisa za odgovornu AI.”

U stvari, od 1. januara 2023. godine, New York City Lokalni zakon 144 zahtijeva da se obavi revizija pristranosti na automatiziranom alatu za odlučivanje o zapošljavanju prije nego što se koristi.

I na saveznom nivou, Zakon o nacionalnoj inicijativi za umjetnu inteligenciju iz 2020—koji se zasniva na a Izvršna naredba iz 2019—fokusira se na AI tehničke standarde i smjernice. Osim toga, the Zakon o algoritamskoj odgovornosti može zahtijevati procjenu uticaja automatizovanih sistema odlučivanja i proširenih procesa kritičnog odlučivanja. I u inostranstvu, Zakon o umjetnoj inteligenciji je predložen, nudeći sveobuhvatan regulatorni okvir sa specifičnim ciljevima u pogledu sigurnosti AI, usklađenosti, upravljanja i pouzdanosti.

Sa ovim promjenama, organizacije su pod mikroskopom upravljanja. Procjenitelj algoritama može pružiti takve izvještaje koji se odnose na regulatorne zahtjeve i poboljšavaju transparentnost dionika, izbjegavajući rizik da dionici pogrešno tumače ili su zaveden prema rezultatima procjene.

3. Kompanije imaju koristi od dugoročnog upravljanja rizicima

Steve Camara, partner u KPMG-ovoj praksi tehnološkog osiguranja, predviđa da će ulaganja u umjetnu inteligenciju nastaviti rasti kako entiteti nastavljaju s automatizacijom procesa, razvijajući inovacije koje poboljšavaju korisničko iskustvo i distribuirajući razvoj AI kroz poslovne funkcije. Da bi ostale konkurentne i profitabilne, organizacijama će biti potrebne efikasne kontrole koje ne samo da rješavaju trenutne nedostatke AI, već i smanjuju sve dugoročne rizike povezane s poslovnim operacijama zasnovanim na AI.

Ovdje stupaju vanjski procjenitelji kao pouzdani, pametni resursi. Kako organizacije sve više prihvaćaju AI integritet kao pokretač poslovanja, partnerstvo može postati manje ad hoc usluga, a više dosljedna saradnja, objašnjava Camara.

„Vidimo put naprijed gdje će morati postojati kontinuirani odnos između organizacija koje razvijaju i operacionaliziraju AI na stalnoj osnovi i objektivnog vanjskog procjenitelja“, kaže on.

Pogled prema onome što slijedi

U budućnosti, organizacije bi mogle koristiti eksterne procjene na više cikličnoj osnovi dok razvijaju nove modele, unose nove izvore podataka, integrišu rješenja dobavljača treće strane ili se kreću prema novim zahtjevima usklađenosti, na primjer.

Kada se nalažu dodatni zahtjevi regulacije i usklađenosti, eksterni ocjenjivači mogu biti u mogućnosti da pruže usluge za direktnu procjenu koliko je dobro organizacija implementirala ili koristila AI u odnosu na te zahtjeve. Ovi ocjenjivači bi tada bili u najboljoj poziciji da podijele rezultate procjene na jasan i dosljedan način.

Kako bi iskoristila tehnologiju, a istovremeno se zaštitila od njenih ograničenja, organizacija mora tražiti eksterne procjenitelje da daju izvještaje na koje se onda može osloniti kako bi demonstrirala veću transparentnost prilikom postavljanja algoritama. Odatle, i organizacija i zainteresovane strane mogu bolje razumeti moć veštačke inteligencije – i njena ograničenja.

Izvor: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/