Argumenti nëse Tesla FSD do të kapërcejë një fëmijë apo një fëmijë bedel humbet pikën

A videoja e fundit nga TeslaTSLA
-kritiku Dan O'Dowd i "Dawn Project" tregon një pistë testimi me një rrugë të bërë nga kone. Atje, një shofer që përdor prototipin FSD të Tesla-s drejton një bedel të fëmijës dhe e godet atë. Argumentohet se Telsa FSD nuk frenon në mënyrë të besueshme për fëmijët. Kritikët e O'Dowd pretenduan se videoja ishte e falsifikuar ose e krijuar keq, dhe disa bënë demonstrimet e tyre, duke përfshirë, për shqetësimin e të gjithëve, duke bërë testin me fëmijë "vullnetarë" realë. Pak e konsideruan pyetjen nëse një prototip si Tesla FSD supozohet të frenojë në mënyrë të besueshme për fëmijët, gjë që është çështja reale interesante.

O'Dowd ka shkruar shpesh se ai dëshiron që Tesla FSD të ndalohet. Kam mbuluar fushatën e tij më parë, dhe së fundmi ai bëri një kandidim për nominimin e Senatit të Kalifornisë vetëm për të drejtuar reklama të fushatës kundër Tesla FSD. Ai natyrisht ka ngritur zemërimin e Elon Musk dhe komunitetit pro-Tesla. Si i tillë pati një luftë të menjëhershme. Videoja origjinale e lidhur më sipër nuk tregoi FSD të aktivizuar, megjithëse publikimet e mëvonshme treguan se ishte. Disa sugjeruan se imazhet e ekranit të vështira për t'u lexuar thanë se shoferi po mbante të shtypur pedalin. Të dhëna të tjera tregojnë se makina është duke u ngadalësuar ose duke lëshuar paralajmërime, dhe argumentet kanë shkuar përpara dhe me radhë se sa reale është demonstrimi.

ADVERTISEMENT

Demonstrata u zgjodh të ishte provokuese, pasi asgjë nuk është më e frikshme se makinat që godasin fëmijët. 3 fëmijë vdesin çdo ditë në aksidente automobilistike në SHBA dhe çdo vit rreth 170 fëmijë këmbësorë vriten nga makinat. Për shumë njerëz, reagimi është se asnjë teknologji që do të godiste ndonjëherë një fëmijë nuk është e pranueshme. NHTHT
SA filloi një hetim për vendosjen e Tesla Autopilot (i cili është një produkt i lëshuar) dhe ka filluar të shikojë prototipin FSD. Të tjerë, si Ralph Nader, kanë bërë gjithashtu thirrje për të hequr prototipin FSD nga rruga. Pasi një numër shumë i vogël njerëzish përsëritën testin me fëmijë të vërtetë, NHTSA lëshoi ​​një paralajmërim për të mos e bërë këtë dhe Youtube nxori video të njerëzve që e bënin atë. Tesla thuhet se ka kërkuar që videot e makinës së tyre duke goditur bedelin e provës gjithashtu të hiqen. Washington Post raporton se ka parë një letër Pushoni dhe Ndaloni nga Tesla.

Kjo çështje është shumë komplekse, dhe meqë nuk është shumë e pazakontë, askush nuk e kupton saktësisht. Sistemi FSD, megjithëse quhet beta, më saktë quhet prototip. Prototipet vetëdrejtuese (dhe versionet beta) kanë nevojë për sasi të mëdha testimi në rrugë sipas pikëpamjes së shumicës së zhvilluesve, dhe çdo ekip e bën këtë, me "shoferët e sigurisë" njerëzore që monitorojnë sistemin dhe ndërhyjnë rregullisht kur ai bën gabime për të parandaluar incidentet. Tesla është e pazakontë në atë që po lejon klientët e zakonshëm të angazhohen në këtë testim, ndërkohë që të gjitha kompanitë e tjera kanë punonjës, me një nivel trajnimi e bëjnë këtë detyrë, dhe zakonisht kanë 2 punonjës për automjet.

Prototipet, nga natyra e tyre, dështojnë, duke përfshirë gjëra të rëndësishme si ndalimi i këmbësorëve në rrugë. Çdo ekip nga më të mirët si Waymo deri tek më i keqi, kanë vendosur automjete në rrugë të cilat rregullisht do të bënin diçka serioze të keqe përveç ndërhyrjes., dhe shumica mendojnë se testimi i automjeteve të tilla të fazës së hershme ishte dhe është ende i nevojshëm për të bërë përparim dhe përfundimisht për të vendosur makinat. Pasi të vendosen, makinat do të jenë të një cilësie shumë më të lartë dhe do të shpëtojnë jetë - shumë prej tyre - kështu që të gjithë dëshirojnë që vendosja të ndodhë sa më shpejt të jetë e mundur, por ka shumë çështje për të diskutuar se si arrijmë në atë pikë dhe kur kemi arritur atë.

ADVERTISEMENT

Ndihma e shoferit kundrejt vetëdrejtimit

Përveç pyetjes nëse përdorimi i klientëve nga Tesla për të testuar prototipin e tyre është një ide e mirë, shumë çështje rrotullohen rreth ndryshimit midis sistemeve të ndihmës së shoferit, të cilat përfshijnë një njeri të angazhuar plotësisht në makinë, por mbikëqyrjen e sistemit në vend që lëviz fizikisht. kontrollet dhe sistemet e vetëdrejtimit, ku nuk nevojitet mbikëqyrje njerëzore (dhe në të vërtetë, automjeti mund të ecë pa askënd në të.)

Shumë të brendshëm të industrisë mendojnë se këto janë dy gjëra mjaft të ndryshme dhe se ishte një gabim për NHTSA që t'i deklaronte ato si vetëm dy "nivele" të ndryshme të teknologjisë së automatizimit. Sterling Anderson, bashkëthemelues i Aurora vetë-drejtimi, mendon se kalimi nga asistenca e shoferit (ose ADAS, për asistencën e avancuar të shoferit) te vetëdrejtimi është si të përpiqesh të arrish në hënë duke ndërtuar shkallë më të larta.

Sistemi i parë i madh i avancuar i asistencës së shoferit që lejonte një person të hiqte këmbët nga pedale ishte kontrolli i lundrimit, në veçanti kontrolli adaptiv i lundrimit. Më vonë, mbërriti shërbimi i korsive, i cili ju lejoi të hiqni duart nga timoni dhe së shpejti të dyja u kombinuan në produkte si Tesla "Autopilot". Si mjete ADAS (ndihma e shoferit) këto janë menduar të përdoren me vëmendje të plotë.

ADVERTISEMENT

Ndërsa jo të gjithë e besuan në fillim, përfundimi i përgjithshëm sot është se këto sisteme funksionojnë dhe nuk krijojnë rrezik në rrugë. Njerëzit kishin dyshime edhe për kontrollin bazë të lundrimit në fillim, por shpejt u bë një tipar shumë i zakonshëm në makina.

Tesla Autopilot ngriti pyetje të reja për një sërë arsyesh, por çështja më interesante sillet rreth faktit se është qartësisht superiore në funksionalitet ndaj produkteve të mëparshme, duke përfshirë kontrollet më të thjeshta të lundrimit – megjithatë kjo epërsi në fakt mund ta bëjë atë më të rrezikshëm, dhe në këtë mënyrë inferior. Shfaqet një paradoks i çuditshëm, ku sa më i mirë të jetë sistemi, aq më i keq mund të jetë rezultati, sepse sistemi superior shkakton një "kënaqësi automatizimi" ku shoferi mbikëqyrës i kushton më pak vëmendje rrugës. (Disa besojnë gjithashtu se emrat "Autopilot" dhe FSD të Tesla-s inkurajojnë këtë vetëkënaqësi, dhe mesazhet publike rreth këtyre produkteve gjithashtu e bëjnë këtë.)

Ky nuk është një paradoks i mirë për të pasur. Ne duam të zhvillojmë sisteme më të mira, por nëse një sistem përkeqësohet në përgjithësi ndërsa ju e përmirësoni, është shumë më e vështirë të merrni sisteme vërtet të mira ndërsa udhëtoni nëpër një luginë rreziku ku gjërat përkeqësohen përpara se të përmirësohen. Sot, ne kurrë nuk do të fajësonim një kontroll standard të lundrimit për faktin se ai do të godasë një fëmijë ose do të fryjë nga një dritë e kuqe - ato sisteme ishin shumë më të thjeshta dhe nuk kishin fare aftësi për t'i shmangur ato gabime. Por shumë duan të fajësojnë sistemin shumë superior, i cili ndalon për shumicën e pengesave, sepse nuk ndalon për 100% - edhe pse asnjë sistem nuk do të jetë kurrë aq i përsosur sa të shmangë 100% të gabimeve, dhe megjithëse njerëzit gjithashtu nuk do të jenë të përsosur.

ADVERTISEMENT

Kam marrë pjesë në hartimin e ligjeve të para të testimit të vetëdrejtimit në botë, në Nevada dhe Kaliforni. Lojtarët ranë dakord që duhet të ketë disa rregulla bazë për mënyrën e kryerjes së testeve në rrugë (rregullat e mëparshme nuk e ndalonin këtë, pasi sigurisht që askush nuk e kishte menduar ndonjëherë ta bënte këtë.) Në të njëjtën kohë, prodhuesit e automjeteve, të cilët shesin veglat ADAS, bënë nuk duan që makinat e tyre ADAS t'i nënshtrohen rregulloreve të testimit të vetëdrejtimit, kështu që funksionimi i ADAS u skali si i pambuluar nga ato rregullore.

Në Kaliforni, veçanërisht, kjo krijoi një pyetje të hapur. Të gjitha testimet e vetëdrejtimit (me disa përjashtime të fundit) kryhen me një shofer sigurie mbikëqyrës. Në këtë mënyrë është shumë si të ngasësh një makinë ADAS. Ligji nuk ishte i qartë për dallimin që ka krijuar disa situata interesante. Anthony Levandowski, i cili gjithashtu mori pjesë në hartimin e rregulloreve, më vonë ishte kreu i UberUber
ATG. Ai deklaroi se meqenëse të gjitha makinat e tyre në atë kohë funksiononin vetëm me një shofer sigurie, ky ishte ADAS dhe Uber nuk kishte nevojë të ndiqte rregulloret e testimit të vetëdrejtimit. DMV e Kalifornisë tha jo, se në këtë logjikë askush nuk po testonte vetë-drejtimin, dhe ky nuk ishte qëllimi i ligjit. Ata i thanë Uber-it se duhej të regjistroheshin si automjete testimi vetë-drejtuese, ose do të tërhiqnin targat e makinave Uber duke përdorur fuqitë e tyre të veçanta. Uber u pajtua.

ADVERTISEMENT

DMV mori qasjen që nëse po përpiqeshit të krijonit një sistem vetëdrejtues, edhe pse ai ishte një sistem i hershëm jo i plotë që kishte nevojë për mbikëqyrje dhe ishte gjithmonë i mbikqyrur, ju duhet të konsideroheni një kompani testimi vetë-drejtuese e rregulluar nga rregullat.

Përkundër kësaj, Tesla vazhdon të njëjtën qasje. Meqenëse Tesla ka padyshim një produkt ADAS, ata kurrë nuk i raportojnë shtetit se kanë bërë ndonjë testim vetëdrejtues. Deri më tani DMV e ka lënë këtë rrëshqitje - madje edhe testimin e Tesla FSD nga punonjësit e Tesla-s, i cili është shumë i vështirë për t'u dalluar me atë që e ndaluan Uber-in të bënte. DMV mund ta rregullojë këtë. Por, ç'të themi për përdorimin e klientit, ku është zyrtarisht (nëse lexoni shkronjat e imta dhe injoroni emrin) një mjet ndihmës për shoferin?

Por duket se funksionon

Zgjidhja kryesore për këtë ka qenë mënyrat për të siguruar që vëmendja mbikëqyrëse të mbetet e lartë. Ekzistojnë teknika të ndryshme për këtë, duke përfshirë monitorimin e shoferit në mënyra të ndryshme dhe bezdisjen e tyre nëse ata nuk i kushtojnë vëmendje, ose siç theksohet se kanë shoferë profesionistë të trajnuar apo edhe një ekip prej tyre me sy të shumtë në rrugë. Për shumë dekada ne kemi trajnuar shoferë të moshës adoleshente në autoshkolla duke pasur një instruktor që mund të kap timonin dhe ka frenat e tij për të ndaluar makinën, dhe ai sistem ka funksionuar shumë mirë.

ADVERTISEMENT

Përfundimi i fortë deri tani është se kjo funksionon. Të dhënat e sigurisë së kompanive të mëdha vetë-drejtuese si Waymo janë shembullore. Waymo raportoi mbi 20 milion milje testime me drejtues sigurie në 2021, dhe në atë kohë ka pasur ndoshta 2 aksidente me faj. Qeniet njerëzore, mesatarisht, do të kenë afër 40 aksidente në atë periudhë kohore. Ashtu si studentët e vozitjes me instruktorë drejtimi e bëjnë shumë më mirë se shoferët e sapo licencuar, sistemi i monitorimit funksionon qartë dhe këto automjete në fakt krijojnë më pak rrezik për publikun sesa ngarje të ngjashme nga njerëzit e zakonshëm.

Të paktën në SHBA, nëse askush nuk lëndohet - ose të paktën nëse niveli i rrezikut është më i vogël se ai i vozitjes së zakonshme - një aktivitet në përgjithësi nuk do të rregullohej. Qasja e SHBA-së është shumë më lejuese - nuk duhet të provoni se ajo që po bëni është e sigurt, por nëse rezulton e pasigurt, mund të ndaleni dhe të shpalleni përgjegjës për çdo dëm që keni shkaktuar. Disa vende të tjera do të kërkonin që rregullatorët të vendosin paraprakisht nëse diçka është e sigurt, një shirit shumë më i lartë që është shumë më pak i favorshëm për inovacionin.

Sigurisht, në një rast të famshëm, afrimi i shoferit të sigurisë pati një fatalitet, kur automjeti i Uber ATG vrau një këmbësor në Arizona. Hetimi i NTSB dhe rastet e mëvonshme gjyqësore zbuluan se shoferi i sigurisë ishte neglizhent (ajo po shikonte TV në vend që të bënte punën e saj) megjithëse Uber u fajësua gjithashtu për një kulturë të dobët të menaxhimit të drejtuesve të tyre të sigurisë, gjë që kontribuoi në këtë gabim. Sidoqoftë, përfundimi i rëndësishëm është se sistemi i shoferit të sigurisë funksionon dhe nuk e vë vetë publikun në rrezik të panevojshëm, megjithëse është padyshim e mundur që drejtuesit e sigurisë njerëzore të jenë të pakujdesshëm dhe të shkaktojnë rrezik të lartë.

ADVERTISEMENT

Ky është sistemi me shoferë të trajnuar me pagesë. Tesla shkon më tej dhe ka klientët e zakonshëm që të bëjnë punën. Ka pasur një sërë incidentesh ku drejtuesit e Tesla-s kanë qenë qartësisht neglizhues në mbikëqyrjen e produktit Autopilot dhe kanë ndodhur përplasje, përfshirë ato fatale. Megjithatë, makinat Tesla bëjnë shumë më shumë kilometra me Autopilot sesa çdo ekip vetëdrejtues, kështu që prania e ngjarjeve negative dhe madje edhe tragjike nuk është domosdoshmërisht provë se sistemi po e ekspozon publikun ndaj rrezikut më të madh.

Çdo tremujor, Tesla publikon statistika mashtruese të cilat thonë se shoferët që përdorin Autopilot kanë të dhëna më të mira sigurie se ata që nuk e bëjnë këtë, edhe pse disa përdorues të Autopilotit janë neglizhentë. Ndërsa këto shifra janë të barabarta me një gënjeshtër, Unë dhe të tjerët kemi tentuar të ndryshojmë inxhinierinë e numrave realë, dhe numrat realë nuk janë aq të këqij dhe sugjerojnë që përdoruesit e Autopilotit të kenë një rekord të ngjashëm sigurie me jo-përdoruesit. Ndërsa nuk është superiore, as nuk i ekspozon njerëzit ndaj rrezikut shtesë. Rezultati është mjaft i afërt sa NHTSA po kryen një hetim mbi aksidentet e Teslës me automjetet e urgjencës. Nuk dihet nëse ata do të marrin masa paraprake apo do të shikojnë të dhënat e përgjithshme të sigurisë.

Shumë kanë sugjeruar që Tesla mund të përmirësojë rekordin e tyre me monitorim më të mirë të shoferit. Monitorimi standard thjesht kërkon që shoferi të aplikojë rregullisht forcë në timon. Kompani të tjera kanë kamera që shikojnë sytë e shoferit për t'u siguruar që ata po shikojnë rrugën - po ta kishte bërë këtë Uber ATG, ata do të kishin parandaluar fatalitetin e tyre. Tesla kohët e fundit ka filluar të përdorë gjithashtu monitorimin e shikimit të shoferit.

ADVERTISEMENT

Duhet të theksohet se llogaritja që tregon sigurinë e Tesla Autopilot si e ngjashme me drejtimin e rregullt është një llogaritje utilitare. Është në fakt kombinimi i një niveli më të lartë aksidentesh midis një grupi të vogël përdoruesish të pakujdesshëm Autopilot që injorojnë rrugën ose futen në vetëkënaqësinë e automatizimit, dhe një rekord më të mirë sigurie nga ata që janë të zellshëm. Ne kemi një kohë të vështirë filozofike me këtë - nuk na pëlqen t'i bëjmë disa njerëz të kenë rrezik më të lartë edhe pse më shumë njerëz kanë rrezik më të ulët. Nuk na pëlqen aq shumë saqë mund t'i privojmë njerëzit e zellshëm nga një mjet që i bën ata më të sigurt për të mbrojtur ata që janë neglizhues, megjithëse ky nuk është qëllimi ynë.

Po në lidhje me FSD

Të dhënat e mësipërme kanë të bëjnë me Autopilot, i cili është një produkt transporti. Tesla FSD nuk është një produkt transporti. Ata e quajnë atë një "beta" (i cili është një produkt pothuajse i finalizuar në fazën e fundit të testimit përpara lëshimit), por nuk është aspak ashtu. Ata tani kanë mbi 100,000 pronarë Tesla duke e provuar atë. Për ta përdorur atë, pronari duhet të paguajë një tarifë (tani në 15,000 dollarë) për të porositur paraprakisht sistemin eventual FSD dhe të kalojë një lloj testi të sigurt të drejtimit të automjetit për t'u pranuar në grupin e testimit. Testi i drejtimit të sigurt të drejtimit është kryesisht fals dhe nuk teston atë që do të dëshironit në të vërtetë për këtë detyrë, por do të thotë që jo të gjithë ata që paguajnë e marrin atë.

Ata paralajmërojnë drejtuesit se sistemi kishte shumë defekte dhe ka nevojë për mbikëqyrje të vazhdueshme si ADAS, duke thënë: "Do të bëjë gjënë e gabuar në momentin më të keq". Kjo është një deklaratë mjaft e qartë, por në të njëjtën kohë emri "me makinë të plotë" padyshim krijon një imazh të ndryshëm nga ADAS. Unë kam vozitur me këtë sistem dhe e kam gjykuar performancën e tij mjaft të dobët si një sistem vetëdrejtues.

ADVERTISEMENT

Megjithatë, përkundër intuitave për të kundërtën, qasja e Teslës duket se po funksionon. Me 100,000 shoferë, sistemi po kalon miliona milje operimi (megjithëse nuk ka të dhëna publike se sa shumë shofer e përdor sistemin.) Ne gjithashtu e dimë se ka një shqyrtim të madh publik mbi çdo aksident që përfshin testimin e FSD sistemi, dhe vetëm një numër i vogël incidentesh të vogla janë bërë publike. Ndërsa disa testues të Tesla FSD janë tifozë kaq të mëdhenj të Tesla-s saqë mund të fshehin një aksident që kishin, është jashtëzakonisht e pamundur që një numër i konsiderueshëm aksidentesh të mëdha të ndodhin pa u zbuluar asnjë. Çdo aksident i rëndë i raportuar nga policia, veçanërisht aksidentet me lëndime, do të kishte shumë gjasa të tërhiqte vëmendjen, siç bëjnë për Autopilot.

E megjithatë ne nuk i shohim ato. Ndërsa kjo nuk është një analizë e vërtetë shkencore, duket se programi FSD i Teslës nuk po e vë publikun në rrezik aktualisht. Kjo mund t'i atribuohet se sa i keq është sistemi. Shumica e shoferëve e dinë se do të ishte vërtet marrëzi të mos i kushtonin vëmendje këtij sistemi në gjendjen e tij aktuale. Është e mundur që ndërsa bëhet më mirë, kjo do të ndryshojë. Nëse merrni parasysh kontrollin bazë të lundrimit, i cili është shumë më primitiv, funksionon sepse askush nuk do të guxonte të mos i kushtonte vëmendje rrugës gjatë përdorimit të tij.

ADVERTISEMENT

Emërtimi i Teslës

Tesla nuk e ndihmon veten me emrat e produkteve të saj. Shumë kanë qenë kritikë ndaj Autopilotit si emër, sepse perceptimi (i rremë) i publikut është se autopilotët e avionëve fluturojnë vetë me aeroplanin. Në fakt, një autopilot avioni është një sistem shumë, shumë më i thjeshtë se autopiloti i makinës së Teslës, dhe funksionon vetëm sepse në ajër, jeni shumë larg nga çdo gjë që mund të goditni. Megjithatë, kjo nuk e ndalon perceptimin e rremë publik. Me FSD, është edhe më keq. Nuk është ende në nivelin e vetëdrejtimit, as afër, dhe sigurisht nuk është “i plotë”. Ky konfuzion bëri që Waymo të hiqte dorë nga përdorimi i termit vetëdrejtim për të përshkruar produktin e tyre, nga frika se Tesla e kishte keqpërcaktuar termin në mendjen e publikut.

Tesla nuk ka vërtet nevojë për më shumë reklama për produktet e tyre. Ata shesin gjithçka që mund të bëjnë. Është e çuditshme që ata shkojnë qëllimisht me këta emra në vend që të nënvlerësojnë dhe të mbivlerësojnë. Ata do t'i kursenin vetes shumë pikëllim - përveç atij të llojit "i gjithë publiciteti është publicitet i mirë".

Pra, a është në rregull nëse një Tesla do të godasë një bedel të madhësisë së fëmijës?

Përgjigja befasuese është "ndoshta". Të gjitha sistemet e prototipeve të testimit do të bëjnë gjëra të tilla, dhe me përjashtim të ndalimit të të gjitha testimeve të prototipeve, nuk ka asnjë mënyrë për të kërkuar përsosmëri edhe në një çështje kaq ndjellëse si përplasjet me fëmijët. Është e vështirë të krijohet një regjim rregullator që do të ndalonte Tesla FSD, i cili gjithashtu nuk ndalon ose ngadalëson zhvillimin e teknologjisë shumë të rëndësishme që me kalimin e kohës do të shpëtojë miliona jetë. Miliona jetë nuk është gjë e vogël, do të jetë një nga përparimet më të mëdha të sigurisë në historinë njerëzore.

ADVERTISEMENT

Më së shumti, ne mund të përpiqemi të përcaktojmë gjërat në mënyrë që ata që mbikëqyrin sisteme të tilla testimi të përmbushin disa kritere. Ne mund të këmbëngulim që ata të kenë një monitorim më të mirë (që po bën Tesla.) Mund t'u kërkojmë atyre të jenë profesionistë ose të kalojnë një test, por më pas do të krijonim një organ që përcakton dhe zbaton këto teste, gjë që do të ishte e rëndë. Ju mund të bëheni instruktor shoferi vetëm duke kaluar një test me shkrim dhe duke marrë një certifikatë të shëndetit të mirë, nuk bëhet asnjë test i aftësive live.

Megjithatë, ne mund të përcaktojmë një sërë rregullash se kush mund të mbikëqyrë një sistem prototip dhe kjo mund të ndalojë aktivitetin e Teslës. Por ta bësh këtë do të ishte të biesh në paradoksin e "sa më mirë të jetë, aq më shumë nuk na pëlqen". Ne nuk duam ta bëjmë më të vështirë kalimin e asaj lugine për t'u bërë një sistem më i mirë. Pyetja e vërtetë është pse ne do të dëshironim të shkonim atje nëse askush nuk po lëndohet. Për momentin nuk ka raportime për njerëz të lënduar, sigurisht jo në ndonjë nivel që do të tregonte se ka më shumë rrezik sesa ai nga drejtimi i zakonshëm. Ne nuk duam të biem në grackën e ndalimit të gjërave sepse kemi një intuitë se ato janë të rrezikshme. Ne duam të ndalojmë vetëm gjërat që në të vërtetë janë të rrezikshme.

Është shumë e mundur që testimi i Tesla FSD më vonë do të fillojë të jetë shumë i rrezikshëm. Kjo mund të ndodhë për shkak të vetëkënaqësisë së automatizimit, ose ndryshimeve në sistem. Është e arsyeshme që Tesla t'i kërkohet të raportojë tek autoritetet se sa incidente ndodhin gjatë testimit të sistemit, në mënyrë që të dimë nëse dhe kur bëhet i rrezikshëm. Qasja e O'Dowd-it "duhet ta ndalojmë këtë sepse më duket se do të ishte e rrezikshme" është e gabuar, të paktën në SHBA.

ADVERTISEMENT

Lexoni dhe lini komente këtu

Burimi: https://www.forbes.com/sites/bradtempleton/2022/08/25/the-argument-over-whether-tesla-fsd-will-run-over-a-child-or-dummy-child- humbet pikën/