Argument oko toga da li će Tesla FSD pregaziti dijete ili lažno dijete promašuje poentu

A nedavni video od TesleTSLA
-kritičar Dan O'Dowd iz projekta "Dawn Project" pokazuje probnu stazu sa cestom napravljenom od čunjeva. Tamo se vozač koji koristi Teslin FSD prototip vozi prema lutki za sudar djeteta i udari je. Tvrdi se da Telsa FSD ne koči pouzdano za djecu. Kritičari O'Dowd-a su tvrdili da je video lažiran ili loše kreiran, a neki su radili vlastite demo snimke, uključujući, na uznemiravanje svih, testiranje sa stvarnom živom "volonterskom" djecom. Malo ko je razmatrao pitanje da li bi prototip poput Tesle FSD trebao pouzdano kočiti za djecu, što je zaista zanimljivo pitanje.

O'Dowd je često pisao da želi da se Tesla FSD zabrani. Ranije sam izvještavao o njegovoj kampanji, a nedavno se kandidirao za nominaciju za Senat Kalifornije isključivo kako bi pokrenuo reklame za kampanju protiv Tesle FSD. Prirodno je izazvao bijes Elona Muska i glasovite pro-Tesla zajednice. Kao takav, odmah je došlo do sparinga. Originalni video na linku iznad ne pokazuje aktiviran FSD, iako su kasnija izdanja pokazala da jeste. Neki su sugerisali da teško čitljive slike sa ekrana govore da je vozač držao pedalu. Drugi podaci pokazuju da automobil usporava ili izdaje upozorenja, a argumenti su išli naprijed-natrag o tome koliko je demonstracija stvarna.

OGLAS

Demonstracija je odabrana kao provokativna, jer ništa nije strašnije od automobila koji udaraju djecu. 3 djece dnevno pogine u automobilskim nesrećama u SAD-u, a svake godine oko 170 djece pješaka pogine od strane automobila. Za mnoge je reakcija da nijedna tehnologija koja bi ikada pregazila dijete nije prihvatljiva. NHTHT
SA je započeo istragu o implementaciji Tesla autopilota (koji je objavljeni proizvod) i počinje da razmatra FSD prototip. Drugi, kao što je Ralph Nader, takođe su pozvali da skinu FSD prototip sa puta. Nakon što je vrlo mali broj ljudi ponovio test sa pravom djecom, NHTSA je izdala upozorenje da se to ne radi, a Youtube je povukao video snimke ljudi koji to rade. Tesla je navodno zatražio da se uklone i video snimci njihovog automobila koji udara u testnu lutku. Washington Post izvještava da je vidio Teslino pismo o prekidu i odustajanju.

Ovo pitanje je veoma složeno, i kao što nije previše neobično, niko ga ne razume tačno. FSD sistem, iako se zove beta, tačnije se naziva prototip. Samovozeći prototipovi (i beta verzije) zahtevaju velike količine testiranja na putu prema mišljenju većine programera, a svaki tim to radi, sa ljudskim „bezbednosnim vozačima“ koji nadgledaju sistem i redovno intervenišu kada napravi greške kako bi sprečio incidente. Tesla je neobičan po tome što omogućava običnim kupcima da se uključe u ovo testiranje, dok sve ostale kompanije imaju zaposlene, sa određenim nivoom obuke koji rade ovaj zadatak, i obično imaju 2 zaposlena po vozilu.

Prototipovi, po svojoj prirodi, ne uspijevaju, uključujući i važne stvari poput zaustavljanja pješaka na cesti. Svaki tim od najboljeg kao što je Waymo pa sve do najgorih, stavio je na put vozila koja bi redovno radila nešto ozbiljno osim intervencije, a većina smatra da je testiranje takvih vozila u ranoj fazi bilo i još uvijek je neophodno kako bi se postigao napredak i na kraju upotrijebili automobili. Jednom raspoređeni, automobili će biti mnogo boljeg kvaliteta i spasiti živote - dosta njih - tako da svi žele da se to postavljanje dogodi što je prije moguće, ali postoji mnogo pitanja o kojima treba razgovarati o tome kako ćemo doći do te tačke i kada smo stigli to.

OGLAS

Pomoć vozaču u odnosu na samostalnu vožnju

Pored pitanja da li je Teslina upotreba kupaca za testiranje njihovog prototipa dobra ideja, mnoga se pitanja vrte oko razlike između sistema za pomoć vozaču, koji uključuje čovjeka koji je potpuno angažiran u vožnji, ali koji nadgleda sistem umjesto da se fizički kreće. komande i sistemi za samostalno upravljanje, gde nije potreban ljudski nadzor (i zaista, vozilo ne može da radi bez ikoga u njemu.)

Mnogi upućeni u industriju smatraju da su to dvije prilično različite stvari i da je bila greška za NHTSA što ih je proglasio samo za dva različita „nivoa“ tehnologije automatizacije. Sterling Anderson, suosnivač Aurora self-driving, smatra da je prelazak sa asistencije vozaču (ili ADAS-a, za naprednu pomoć vozaču) na samovožnju poput pokušaja da dođete do Mjeseca izgradnjom viših ljestava.

Prvi veliki napredni sistem pomoći vozaču koji je omogućio osobi da skine noge sa pedala bio je tempomat, posebno prilagodljivi tempomat. Kasnije je stiglo održavanje trake koje vam je omogućilo da skinete ruke sa volana, a ubrzo su to dvoje kombinovani u proizvode poput Teslinog „Autopilota“. Kao ADAS (pomoć vozaču) alati, oni su namijenjeni da se koriste s punom pažnjom.

OGLAS

Iako nisu svi vjerovali u to u početku, opći zaključak danas je da ovi sistemi funkcionišu i da ne stvaraju opasnost na putu. Ljudi su u početku sumnjali čak i u osnovni tempomat, ali je ubrzo postao vrlo uobičajena karakteristika automobila.

Tesla autopilot je postavio nova pitanja iz raznih razloga, ali najzanimljivije pitanje se vrti oko činjenice da je očigledno superiorniji u funkcionalnosti u odnosu na ranije proizvode, uključujući jednostavnije tempomat – ali ta superiornost bi ga zapravo mogla učiniti opasnijim, a time i inferiornijim. Pojavljuje se čudan paradoks, gde što je sistem bolji, to može biti lošiji rezultat, jer superiorni sistem izaziva „samozadovoljstvo automatizacije“ gde vozač koji nadgleda manje obraća pažnju na put. (Neki također vjeruju da Teslina imena „Autopilot” i FSD podstiču ovu samozadovoljstvo, a javne poruke oko ovih proizvoda također to čine.)

Ovo nije dobar paradoks. Želimo da razvijemo bolje sisteme, ali ako se sistem generalno pogoršava dok ga vi poboljšavate, mnogo je teže dobiti zaista dobre sisteme dok putujete kroz dolinu opasnosti u kojoj stvari postaju gore pre nego što postanu bolje. Danas nikada ne bismo zamjerili standardni tempomat zbog činjenice da će udariti dijete ili proći kroz crveno svjetlo — ti sistemi su bili mnogo jednostavniji i uopće nisu mogli izbjeći te greške. Ali mnogi žele kriviti mnogo superiorniji sistem koji se zaustavlja za većinu prepreka jer se ne zaustavlja za 100% — iako nijedan sistem nikada neće biti tako savršen da izbjegne 100% grešaka, a iako ljudi također neće biti savršeni.

OGLAS

Učestvovao sam u izradi prvih zakona o samovožnji u svijetu, u Nevadi i Kaliforniji. Igrači su se složili da treba da postoje neka osnovna pravila o tome kako se vrši testiranje na cestama (prethodna pravila to nisu zabranjivala, jer naravno nikome to nije palo na pamet.) U isto vrijeme, proizvođači automobila, koji prodaju ADAS alate, učinili su ne žele da njihovi ADAS automobili podležu propisima o samovožnji, tako da je rad ADAS-a izdvojen kao da nije obuhvaćen tim propisima.

U Kaliforniji, posebno, ovo je stvorilo otvoreno pitanje. Sva testiranja samovožnje (uz nekoliko nedavnih izuzetaka) obavljaju se uz nadzornog sigurnosnog vozača. Na taj način je vrlo slično vožnji ADAS automobila. Zakon nije bio jasan u pogledu razlike što je stvorilo neke zanimljive situacije. Anthony Levandowski, koji je također učestvovao u izradi propisa, kasnije je bio šef UberaUBER
ATG. Izjavio je da, budući da su svi njihovi automobili u to vrijeme radili samo sa sigurnosnim vozačem, ovo je bio ADAS, a Uber nije morao slijediti propise o samovožnji. Kalifornijski DMV je rekao ne, da po ovoj logici niko nije testirao samovožnju, a to nije bila namjera zakona. Rekli su Uberu da se moraju registrovati kao samovozeća probna vozila, ili će povući registarske tablice Uberovih automobila koristeći svoje posebne moći. Uber se pridržavao.

OGLAS

DMV je zauzeo pristup da ako pokušavate da napravite sistem za samovožnju, iako je bio rano nedovršen koji je trebao nadzor i uvijek je bio pod nadzorom, trebali biste se smatrati kompanijom za testiranje samovožnje koja je vođena pravilima.

Uprkos tome, Tesla nastavlja isti pristup. Budući da Tesla definitivno ima ADAS proizvod, oni nikada državi ne prijavljuju da su radili bilo kakvo testiranje samovožnje. Do sada je DMV pustio da ovo klizi — čak i testiranje Tesla FSD-a od strane Teslinih zaposlenika koje je vrlo teško razlikovati od onoga što su spriječili Uber da uradi. DMV bi to mogao regulisati. Ali šta je sa upotrebom od strane korisnika, gde je to zvanično (ako pročitate sitna slova i zanemarite ime) alat za pomoć vozaču?

Ali izgleda da radi

Glavno rješenje za ovo su načini da se osigura da pažnja nadzora ostaje visoka. Postoje različite tehnike za to, uključujući praćenje vozača na različite načine i prigovaranje ako ne obraćaju pažnju, ili kao što je navedeno da imaju obučene profesionalne vozače ili čak njihov tim sa više očiju na cesti. Već dugi niz decenija obučavamo tinejdžere u auto-školama tako što imamo instruktora koji može da uhvati volan i ima sopstvenu kočnicu za zaustavljanje automobila, i taj sistem je veoma dobro funkcionisao.

OGLAS

Dosadašnji snažan zaključak je da ovo funkcionira. Sigurnosna evidencija velikih kompanija koje se bave samovožnjom poput Wayma je primjerna. Waymo je prijavio preko 20 miliona milja testiranja sa sigurnosnim vozačima u 2021. godini, a za to vrijeme je imao možda 2 nesreće po krivnji. Ljudska bića će, u prosjeku, imati blizu 40 nesreća u tom vremenskom periodu. Baš kao što studenti vožnje sa instruktorima vožnje rade mnogo bolje od svježih vozača, sistem nadzora očito radi, a ova vozila zapravo stvaraju manji rizik za javnost nego što bi to učinila slična vožnja običnih ljudi.

Barem u SAD-u, ako niko ne bude povrijeđen – ili barem ako je nivo rizika manji od onog kod uobičajene vožnje – aktivnost općenito ne bi bila regulirana. Pristup SAD je mnogo popustljiviji – ne morate dokazivati ​​da je ono što radite bezbedno, ali ako se ispostavi da nije bezbedno, možete biti zaustavljeni i proglašeni odgovornim za bilo kakvu štetu koju ste prouzrokovali. Neke druge zemlje zahtijevale bi od regulatora da unaprijed odluče da li je nešto sigurno, mnogo viša granica koja je mnogo manje pogodna za inovacije.

Naravno, u jednom poznatom slučaju, pristup sigurnosnog vozača imao je smrtni ishod, kada je vozilo Uber ATG ubilo pješaka u Arizoni. Istraga NTSB-a i kasniji sudski slučajevi utvrdili su da je sigurnosni vozač bio nemaran (gledala je TV umjesto da radi svoj posao), iako je Uber također bio kriv za lošu kulturu upravljanja svojim sigurnosnim vozačima što je doprinijelo ovoj grešci. Važan zaključak je, međutim, da sigurnosni sistem vozača radi i sam po sebi ne izlaže javnost nepotrebnom riziku, iako je očito moguće da vozači za sigurnost ljudi budu nemarni i da izazovu visok rizik.

OGLAS

To je sistem sa obučenim plaćenim vozačima. Tesla ide dalje, i obični kupci rade posao. Bilo je nekoliko incidenata u kojima su vozači Tesle očito bili nemarni u nadzoru nad proizvodom Autopilot, a dogodile su se i nesreće, uključujući one sa smrtnim ishodom. Međutim, Tesla automobili voze mnogo više kilometara sa autopilotom nego bilo koji samovozeći tim, tako da prisustvo negativnih, pa čak i tragičnih događaja nije nužno dokaz da sistem izlaže javnost većem riziku.

Tesla svakog tromjesečja objavljuje obmanjujuće statistike u kojima se navodi da vozači koji koriste Autopilot imaju bolju sigurnosnu evidenciju od onih koji nemaju, iako su neki korisnici Autopilota nemarni. Iako su ovi brojevi jednaki laži, Ja i drugi pokušali smo obrnuti inženjering stvarnih brojeva, a stvarni brojevi nisu tako loši i sugeriraju da korisnici Autopilota imaju sličnu sigurnosnu evidenciju kao i ne-korisnici. Iako nije superioran, niti izlaže ljude dodatnom riziku. Rezultat je dovoljno blizu da NHTSA vodi istragu o Teslinim nesrećama sa hitnim vozilima. Nije poznato da li će preduzeti pristup iz predostrožnosti ili će pogledati ukupnu sigurnosnu evidenciju.

Mnogi su sugerirali da bi Tesla mogao poboljšati svoj rekord boljim praćenjem vozača. Standardni nadzor jednostavno zahtijeva od vozača da redovno primjenjuje silu na točak. Druge kompanije imaju kamere koje gledaju u oči vozača kako bi se uvjerile da gledaju put - da je Uber ATG to uradio, spriječili bi njihovu smrt. Tesla je nedavno počeo da koristi i praćenje pogleda vozača.

OGLAS

Treba napomenuti da je računica koja pokazuje da je sigurnost Tesla autopilota slična redovnoj vožnji utilitarna. To je zapravo kombinacija veće stope nesreća među malim brojem nemarnih korisnika Autopilota koji ignoriraju cestu ili upadnu u automatizaciju, i boljeg sigurnosnog dosijea od onih koji su vrijedni. Imamo filozofski teško ovo – ne volimo da neki ljudi imaju veći rizik iako više ljudi ima manji rizik. Ne sviđa nam se toliko da bismo vrijednim ljudima mogli uskratiti alat koji ih čini sigurnijim da zaštite one koji su nemarni, iako to nije naš cilj.

Šta je sa FSD

Gore navedeni podaci se odnose na Autopilot, koji je proizvod za otpremu. Tesla FSD nije proizvod za otpremu. Zovu ga “beta” (što je gotovo finaliziran proizvod u svojoj posljednjoj fazi testiranja prije objavljivanja), ali to uopće nije tako. Sada imaju preko 100,000 Teslinih vlasnika koji ga isprobavaju. Da bi ga koristio, vlasnik mora platiti naknadu (koja sada raste na 15,000 dolara) da bi unaprijed naručio eventualni FSD sistem i položio neku vrstu ispita za sigurnu vožnju kako bi bio primljen u grupu za testiranje. Ispit sigurne vožnje je uglavnom lažan i ne testira ono što biste zapravo željeli za ovaj zadatak, ali to znači da ga ne dobijaju svi koji plaćaju.

Oni upozoravaju vozače da sistem ima mnogo grešaka i da mu je potreban stalan nadzor poput ADAS-a, govoreći: "Učiniće pogrešnu stvar u najgorem trenutku." To je prilično jasna izjava, ali u isto vrijeme naziv “potpuna samostalna vožnja” očigledno dočarava sliku drugačiju od ADAS-a. Vozio sam sa ovim sistemom i ocenio sam da su njegove performanse prilično loše kao sistem za samostalno upravljanje.

OGLAS

I pored toga, uprkos intuicijama koje govore suprotno, Teslin pristup izgleda da funkcioniše. Sa 100,000 vozača, sistem prolazi milione milja rada (iako nema javnih podataka o tome koliko svaki vozač koristi sistem.) Takođe znamo da postoji velika kontrola javnosti o svim nesrećama koje uključuju testiranje FSD-a sistema, a samo mali broj manjih incidenata je postao javan. Iako su neki Teslini FSD testeri toliko veliki Teslini obožavatelji da bi mogli sakriti nesreću koju su imali, krajnje je malo vjerovatno da će se desiti značajan broj većih nesreća, a da se nijedna ne otkrije. Bilo koja ozbiljna nesreća koju je policija prijavila, posebno nesreće sa povredama, vrlo će vjerovatno privući pažnju, kao što je slučaj sa autopilotom.

A mi ih ipak ne vidimo. Iako ovo nije prava naučna analiza, izgleda da Teslin FSD program trenutno ne dovodi javnost u opasnost. Ovo se može pripisati tome koliko je sistem loš. Većina vozača zna da bi bilo stvarno glupo ne obratiti pažnju na ovaj sistem u njegovom trenutnom stanju. Moguće je da će se to promijeniti kako bude bolje. Ako uzmete u obzir osnovni tempomat, koji je mnogo primitivniji, on radi jer se niko ne bi usudio da ne obrati pažnju na cestu dok ga koristi.

OGLAS

Teslino imenovanje

Tesla ne pomaže sebi sa svojim nazivima proizvoda. Mnogi su kritikovali autopilot kao ime, jer je (lažna) percepcija javnosti da autopiloti aviona sami upravljaju avionom. U stvari, avionski autopilot je mnogo, mnogo jednostavniji sistem od autopilota Teslinog automobila, i funkcioniše samo zato što ste u vazduhu veoma daleko od bilo čega što biste mogli da udarite. Međutim, to ne zaustavlja lažnu percepciju javnosti. Sa FSD-om je još gore. Još nije na nivou samovožnje, ni blizu, a sigurno nije ni "pun". Ova konfuzija dovela je do toga da Waymo odustane od upotrebe termina self-driving da opiše svoj proizvod, iz straha da je Tesla pogrešno definirao pojam u javnosti.

Tesli zapravo ne treba više hype za svoje proizvode. Oni prodaju sve što mogu napraviti. Zbunjujuće je da oni namjerno idu s ovim imenima umjesto da potcjenjuju i pretjeraju. Uštedjeli bi sebi mnogo tuge — osim one vrste „svaki publicitet je dobar publicitet“.

Pa je li u redu ako Tesla udari lutku veličine djeteta?

Iznenađujući odgovor je "vjerovatno". Svi testni prototipni sistemi će raditi ovakve stvari, a osim što će zabraniti svako testiranje prototipova, ne postoji način da se zahtijeva savršenstvo čak ni u tako evokativnom pitanju kao što je pad s djecom. Teško je osmisliti regulatorni režim koji bi zabranio Tesla FSD, a koji ne zabranjuje niti usporava razvoj veoma važne tehnologije koja će vremenom spasiti milione života. Milioni života nisu mala stvar, to će biti jedan od najvećih napredaka u sigurnosti u ljudskoj istoriji.

OGLAS

Najviše, mogli bismo pokušati da stvari definišemo tako da oni koji nadziru ovakve sisteme testiranja ispunjavaju određene kriterijume. Mogli bismo insistirati na boljem praćenju (što Tesla radi.) Mogli bismo tražiti da budu profesionalni ili da polože test, ali onda bismo stvorili tijelo koje definiše i sprovodi ove testove, što bi bilo glomazno. Instruktor vožnje možete postati samo polaganjem pismenog ispita i svjedočenjem o dobrom zdravstvenom stanju, bez testiranja vještina uživo.

Ipak, mogli bismo definisati skup pravila za to ko može da nadgleda prototip sistema, a to bi moglo zaustaviti Teslinu aktivnost. Ali to učiniti značilo bi upasti u paradoks „što je bolje, to nam se više ne sviđa“. Ne želimo da otežamo prelazak te doline kako bismo postali bolji sistem. Pravo pitanje je zašto bismo uopšte želeli da idemo tamo ako niko nije povređen. Trenutno nema izvještaja da su ljudi povrijeđeni, svakako ne na bilo kojem nivou koji bi ukazivao da postoji veći rizik od uobičajene vožnje. Ne želimo da upadnemo u zamku zabrane stvari jer imamo intuiciju da su opasne. Želimo samo zabraniti stvari koje su zapravo opasne.

Sasvim je moguće da će testiranje Tesla FSD-a kasnije postati preopasno. To se može dogoditi zbog automatizacije ili promjena u sistemu. Razumno je da se od Tesle traži da prijavi nadležnima koliko incidenata se dogodi tokom testiranja sistema, kako bismo znali da li i kada postaje opasno. O'Dowdov pristup „trebalo bi zabraniti ovo jer mi se čini da bi to bilo opasno“ je pogrešan, barem u SAD-u.

OGLAS

Pročitajte i ostavite komentare ovdje

Izvor: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- promaši poentu/