Apples nye headset kommer med en helt ny chip.

Vision Pro bringer nyt Apple-silicium, R1-chippen, dedikeret til databehandling i realtid fra alle indbyggede sensorer. Den er ansvarlig for øje-, hånd- og hovedsporing, forsinkelsesfri gengivelse af brugerens miljø i videopassthrough-tilstand og andre visionOS-funktioner.

Ved at aflaste behandlingsbyrden fra hovedprocessoren og optimere ydeevnen reducerer R1 køresyge til umærkelige niveauer, uanset om du bruger headsettet i augmented reality eller virtual reality mode. Lad os undersøge, hvordan Apple R1-chippen fungerer og sammenlignes med den primære M2-chip, Vision Pro-funktionerne, den muliggør og meget mere.

Hvad er Apples R1-chip? Hvordan virker det?

Apple R1, ikke den primære M2-chip, behandler en kontinuerlig strøm af realtidsdata til Vision Pro ved hjælp af dens tolv kameraer, fem sensorer og seks mikrofoner.

Billedkredit: Æble

To primære eksterne kameraer optager din verden og skubber over en milliard pixels til headsettets 4K-skærme hvert sekund. Derudover sporer et par sidekameraer sammen med to bundmonterede kameraer og to infrarøde illuminatorer håndbevægelser fra en lang række positioner – selv under dårlige lysforhold.

instagram viewer

De udadvendte sensorer inkluderer også LiDAR-scanneren og Apples TrueDepth-kamera, der fanger en dybdekort over dine omgivelser, hvilket gør det muligt for Vision Pro at placere digitale objekter præcist i din plads. På indersiden sporer en ring af LED'er rundt om hver skærm og to infrarøde kameraer dine øjenbevægelser, hvilket danner grundlaget for visionOS-navigation.

R1 har til opgave at behandle data fra alle disse sensorer, inklusive inertimåleenhederne, med umærkelig forsinkelse. Dette er af yderste vigtighed i forhold til at gøre den rumlige oplevelse glat og troværdig.

Hvordan er Apple R1 sammenlignet med M1 og M2?

Billedkredit: Æble

M1 og M2 er processorer til generelle formål, der er optimeret til Mac-computere. R1 er en coprocessor med smalt fokus designet til at understøtte glatte AR-oplevelser. Det gør sit arbejde hurtigere end enten M1 eller M2 kunne, hvilket giver mulighed for frynsegoder som en forsinkelsesfri oplevelse.

Apple har ikke specificeret, hvor mange CPU- og GPU-kerner R1 har, og heller ikke detaljeret CPU-frekvensen og RAM, hvilket gør en direkte sammenligning mellem R1, M1 og M2 vanskelig.

R1's primære domæner er øjen- og hovedsporing, håndbevægelser og 3D-kortlægning i realtid via LiDAR-sensoren. Aflastning af disse beregningsintensive operationer lader M2 køre de forskellige visionOS-undersystemer, algoritmer og apps effektivt.

Nøglefunktionerne i Vision Pro's R1-chip

R1 har disse nøgleegenskaber:

  • Hurtig behandling: De specialiserede algoritmer og billedsignalbehandling i R1 er optimeret til at forstå sensor-, kamera- og mikrofonindgange.
  • Lav latenstid: Optimeret hardwarearkitektur resulterer i meget lav latenstid.
  • Effekteffektivitet: R1 håndterer et bestemt sæt opgaver, mens den bruger minimal energi, takket være dens effektive hukommelsesarkitektur og TSMC's 5nm-fremstillingsproces.

På den negative side bidrager Vision Pro's dual-chip design og R1's sofistikerede til headsettets høje pris og to timers batterilevetid.

Hvilke fordele bringer R1 til Vision Pro?

R1 muliggør præcis øjen- og håndsporing, der "bare virker." For at navigere i visionOS, for eksempel, retter du blikket mod knapper og andre elementer.

Billedkredit: Æble

Vision Pro bruger håndbevægelser for at vælge elementer, rulle og mere. Sofistikeringen og præcisionen af ​​øjen- og håndsporing har gjort det muligt for Apples ingeniører at skabe et mixed reality-headset, der ikke kræver fysiske controllere.

R1's sporingspræcision og minimale forsinkelse muliggør yderligere funktioner, såsom luftskrivning på det virtuelle tastatur. R1 driver også pålidelig hovedsporing - afgørende for at skabe et rumligt computerlærred, der omgiver brugeren. Igen er præcision nøglen her - du vil have, at alle AR-objekter bevarer deres position, uanset hvordan du vipper og drejer dit hoved.

Billedkredit: Æble

Rumlig bevidsthed er en anden faktor, der bidrager til oplevelsen. R1 tager dybdedata fra LiDAR-sensoren og TrueDepth-kameraet og udfører 3D-kortlægning i realtid. Dybdeinformation lader headsettet forstå dets omgivelser, såsom vægge og møbler.

Dette er igen vigtigt for AR persistens, som refererer til den faste placering af virtuelle objekter. Det hjælper også Vision Pro med at underrette brugeren, før de støder ind i fysiske objekter, og hjælper med at reducere risikoen for ulykker i AR-applikationer.

Hvordan afbøder R1 Sensor Fusion AR-kørselssyge?

Vision Pro's design med to chip aflaster sensorbehandling fra den primære M2-chip, som kører visionOS-operativsystemet og apps. Ifølge Pressemeddelelse fra Vision Pro, streamer R1 billeder fra de eksterne kameraer til de interne skærme inden for 12 millisekunder eller otte gange hurtigere end et øjeblik, hvilket minimerer forsinkelsen.

Lag refererer til forsinkelsen mellem det, kameraerne ser, og de billeder, der vises på headsettets 4K-skærme. Jo kortere forsinkelse, jo bedre.

Transportsyge opstår, når der er en mærkbar forsinkelse mellem det input, din hjerne modtager fra dine øjne, og det, dit indre øre sanser. Det kan forekomme i mange situationer, herunder i en forlystelsespark, på en båd eller krydstogt tur, mens du bruger en VR-enhed osv.

VR kan gøre folk syge på grund af sansekonflikt, hvilket resulterer i køresygesymptomer såsom desorientering, kvalme, svimmelhed, hovedpine, anstrengte øjne, siddepladser, opkastning og andre.

VR kan også være dårligt for dine øjne på grund af anstrengte øjne, hvis symptomer omfatter ømme eller kløende øjne, dobbeltsyn, hovedpine og øm nakke. Nogle mennesker kan mærke et eller flere af sådanne symptomer i flere timer efter at have taget headsettet af.

Som en tommelfingerregel bør en VR-enhed opdatere skærmen mindst 90 gange i sekundet (FPS), og skærmforsinkelsen skal være under 20 millisekunder for at undgå at give folk køresyge.

Med den angivne forsinkelse på kun 12 millisekunder, reducerer R1 forsinkelsen til et umærkeligt niveau. Mens R1 hjælper med at minimere virkningerne af køresyge, rapporterede nogle Vision Pro-testere om køresygesymptomer efter at have båret headsettet i over 30 minutter.

Specialiserede Apple Silicon Coprocessors giver store fordele

Apple er ikke fremmed for specialiserede processorer. I årenes løb har dets silicium-team produceret mobile og desktop-chips, som er misundelsesværdige for industrien.

Apple siliciumchips er stærkt afhængige af specialiserede coprocessorer til at håndtere specifikke funktioner. Secure Enclave administrerer for eksempel biometriske data og betalingsdata sikkert, mens Neural Engine accelererer AI-funktioner uden at ødelægge batteriet.

De er perfekte eksempler på, hvad der kan opnås ved at have en meget fokuseret coprocessor til det rigtige sæt opgaver vs. bruger hovedprocessoren til alt.