Teslas autonome køreteknologi plejede at stole på både kameraer og radar, men den droppede sidstnævnte og tog en ny tilgang kaldet Tesla Vision.

Selvkørende køretøjer anvender forskellige sensortyper, såsom lysdetektion og rækkevidde (LiDAR) teknologi til måling af lange variable rækkevidder, ultralydssensorer til korte afstande og radarer, der ligner LiDAR, men er afhængige af radiobølger i stedet for lasere.

Selvkørende teknologiske ledere som General Motors, Waymo og Mercedes-Benz er alle afhængige af sensorer, men ikke Tesla. Den Texas-baserede bilproducent brugte både radar og kameraer til at gøre sit autopilot semi-autonome køresystem muligt, men fra maj 2021 annonceret, at det droppede radaren for Model 3 og Model Y i Nordamerika, og flyttede sit fokus til en udelukkende kamerabaseret tilgang, som den kaldte Tesla Vision.

Men hvad var årsagerne til Teslas beslutning om at fjerne radar- og ultralydssensorer fra sine biler og ikke engang overveje LiDAR eller kort? Lad os udforske dette emne yderligere.

instagram viewer

Computer Vision: Teslas plan

Billedkredit: Tesla

Tesla har udviklet sit eget computersynssystem, kaldet Tesla Vision, til at beregne hvad Teslas selvkørende bil ser. Baseret på Nvidias CUDA, som er en parallel computerplatform designet til grafikbehandlingsenheder (GPU'er), driver dette ende-til-ende-system Teslas Autopilot og selvkørende teknologi. Den er afhængig af computersyn for at give mening i den visuelle information, der indsamles af køretøjets kameraer.

I stedet for at bruge LiDAR, involverer Teslas tilgang at træne computeren til at genkende og fortolke den visuelle verden med det mål at opnå autonome køreegenskaber. Producenten siger, at den dramatisk kan fremskynde træningsprocessen takket være dens brug af maskinlæring og sit helt eget neurale netværk, som kører på en supercomputer kaldet Dojo.

Omkostningsreduktion

Teslas skift fra sensorbaserede tilgange til computersyn er primært motiveret af omkostninger. Tesla sigter mod at reducere bilpriserne ved at minimere antallet af dele, der kræves. At fjerne dele kan dog udgøre en udfordring, når systemet ikke kan fungere uden dem, og Tesla modtog en del kritik, da det meddelte, at det fjernede radar fra sine biler.

En forskningsartikel fra Cornell University antyder, at stereokameraer har potentialet til at generere et 3D-kort, der er næsten lige så præcist som et LiDAR-kort. Dette præsenterer en interessant pointe, da det indikerer, at i stedet for at investere $7.500 i en LiDAR-enhed, kunne man bruge et par kameraer, der er meget billigere og koster kun $5. Som et resultat, når Tesla hævder, at en sådan teknologi kan blive forældet i den nærmeste fremtid, kan det være på vej til noget.

Den anden side af medaljen er, at efter at have fjernet radarstøtten, oplevede Teslas Autopilot-system adskillige funktionsnedgraderinger, som tog måneder at blive genoprettet. Derudover mange Tesla-ejere har rapporteret problemer med no-radar-systemet, såsom hyppige "fantombremsninger", hvor køretøjet bremser unødigt for ikke-eksisterende forhindringer.

Selvom mange virksomheder anser sensorer som LiDAR og radar for essentielle for pålidelig selvkørsel, har Tesla valgt computervision på grund af dets potentiale for hurtigere udvikling. Mens LiDAR og radar kan registrere forhindringer med høj nøjagtighed i dag, kræver kameraer stadig yderligere forfining for at opnå det samme niveau af pålidelighed. Ikke desto mindre mener Tesla, at computervisionstilgangen er vejen frem.

Lavere kompleksitet

Mens et større antal sensorer kan tilbyde adskillige fordele, herunder forbedret datastyring gennem dygtig sensorfusion, giver det også betydelige ulemper. Det øgede antal sensorer kan føre til skabelsen af ​​mere kompliceret software. Kompleksiteten af ​​datapipelines øges også, og forsyningskæden og produktionsprocesserne under montering af køretøjer bliver vanskeligere.

Desuden skal sensorer justeres og deres tilhørende software vedligeholdes. Korrekt kalibrering er også afgørende for at sikre, at fusionsprocessen fungerer korrekt.

På trods af de potentielle fordele ved flere sensorer kan omkostningerne og kompleksiteten ved at integrere dem i et system ikke overses. Teslas beslutning om at reducere antallet af sensorer i sine køretøjer demonstrerer afvejningen mellem fordele og ulemper ved at inkorporere flere sensorer.

Kodeomtale

Kredit: Tesla

Kodeordlighed er et almindeligt problem i softwareudvikling, hvor unødvendig kompleksitet og længde kan gøre kode svær at forstå og vedligeholde. I Teslas tilfælde øger brugen af ​​radar- og ultralydssensorer kodeordligheden, hvilket fører til behandlingsforsinkelser og ineffektivitet.

For at afhjælpe dette problem brugte den computervisionstilgangen til at minimere ordlyd, forbedre softwareydelsen og pålideligheden samt give en bedre brugeroplevelse for sine kunder.

Elon Musks filosofi

Kredit: Tesla/YouTube

Elon Musk, grundlæggeren af ​​Tesla, har en unik filosofi, når det kommer til at designe og fremstille elektriske køretøjer. Den "bedste del er ingen del"-mentalitet er central i hans tilgang, som har til formål at reducere kompleksitet, omkostninger og vægt, hvor det er muligt. Dette er tydeligt i Tesla-køretøjer, som er kendetegnet ved deres minimalistiske design og brugervenlige grænseflade.

Et aspekt af denne filosofi er beslutningen om at fjerne sensorer fra Tesla-køretøjer og ikke overveje brugen af ​​LiDAR-teknologi. Mens nogle konkurrenter er afhængige af LiDAR-sensorer for at hjælpe deres selvkørende biler med at se verden omkring dem, har Musk kritiseret denne tilgang som et fjols. Han har også sagt, at enhver virksomhed, der er afhængig af denne type teknologi, er dødsdømt. Han argumenterer for, at LiDAR er for dyrt, og at det er for dyrt at kortlægge verden og holde den opdateret. I stedet fokuserer Tesla på visionsbaserede systemer, som han mener er mere effektive og omkostningseffektive.

Ifølge Musk er veje designet til at blive fortolket med syn, og Teslas teknologi er optimeret til at stole på kameraer og andre synsbaserede sensorer til at navigere i verden. Det betyder også, at køretøjer, der kun har kameraer, også vil være i stand til at tilpasse sig nye vejforhold bedre end systemer, der kræver omfattende præ-kortlagte datasæt for at fungere.

Men taler til ElectrekMusk sagde, at han ikke er uvillig til at bruge radar, men han mener, at den nuværende kvalitet af radar ikke er op til bunden. "En radar med meget høj opløsning ville være bedre end [Tesla Vision], men sådan en radar findes ikke," sagde han. "Jeg mener, Vision med højopløselig radar ville være bedre end ren Vision." Efterhånden som teknologien forbedres, og prisen falder, kan vi se radar genintegreret i Teslas biler.

Skal sensorer udfases?

I en Forbes interview med Zoox (Amazons selvkørende datterselskab) CEO Jesse Levinson, blev emnet for Teslas beslutning om at opgive sensorer i sine biler diskuteret. Levinson erkendte, at tilføjelse af flere sensorer kan være komplekst og støjende, men hævdede, at fordelene opvejer omkostningerne.

Med mere udvikling kan syn alene i sidste ende være tilstrækkeligt, men computere mangler de samme evner som den menneskelige hjerne. Tesla har stadig meget arbejde forude, hvis det nogensinde ønsker at skabe køretøjer, der kører fuldt ud selv uden nogen input fra føreren.