apple vision pro算得上是最近數(shù)碼產(chǎn)品里最有熱度的了!關于參數(shù)、外觀、去現(xiàn)場實際體驗的大佬把感受也講了下,那么這個差不多3萬塊的產(chǎn)品究竟為啥這么貴?它比目前的頭顯設備好在哪里呢?
首先,蘋果在頭顯設備領域起步并不晚,F(xiàn)acebook 2014年收購Oculus,2019年推出Facebook Horizon,2020年后Oculus一家獨大,Oculus Quest2熱賣。Google則在2019年上線,Stadia布局云游戲,同時通過Youtube VR布局軟件和服務,當時大家都以為這就是頭顯設備的形態(tài)了。
智慧芽Dicsovery:2010年蘋果收購Polar Rose(瑞典面部識別技術公司);2013年,收購PrimeSense(3D感應與動作捕捉技術公司);2015年,收購了Faceshift(面部動作捕捉技術公司),Metaio(增強現(xiàn)實公司);2016年收購了Emotient(面部表情AI分析公司)、Flyby Media(AR社交軟件);2017年,收購Vrvana(混合現(xiàn)實技術提供商);2020年收購了Next VR(虛擬現(xiàn)實公司)上面不少公司都是只有十幾個人的小型公司。
最近10年,蘋果和子公司公司在全球126個國家共有5056件與“AR”“VR”相關的專利申請,其中,發(fā)明專利占比超過97%。2017年后,蘋果年專利申請量均維持在600件以上,所以應了咱們那句老話:不怕慢只怕站。
OculusRift在Kickstarter眾籌成功,后又被Facebook以20億的天價收購,而在2017年到2020年之間,價格高、內(nèi)容匱乏等情況,頭顯設備基本都是進入了低谷期,蘋果這個錯峰出行666。
前面啰嗦一下,因為前期投入、研發(fā)花不少錢,所以這個價格高是能想象得到,不過技術層面呢?頭顯設備大家體驗過后,有一個最明顯的不適應就是——眩暈!
衡量 VR 設備的最重要指標是延遲(延遲是指頭部轉動到畫面呈現(xiàn)到人眼的時間)頭動和視野的延遲不能超過 20ms,不然就會出現(xiàn)眩暈。頭顯設備的的 CPU 和GPU 處理能力比 PC 差很多,仔細想一下,這次apple vision pro直接上了一個M2+R1芯片。
一個M2芯片就比目前不少人的電腦CPU都要好不少了吧~另外的R1 芯片處理來自 12 個攝像頭、5 個傳感器和 6 個麥克風的輸入;蘋果放棄英特爾自己開始搞CPU后就徹底賺麻了。
而除此之外,還有一個重點技術就是眼球追蹤!其實90年代初咱們的西安電子科技大學就在這方面有很棒的研究了!傳統(tǒng)的電極法就不說了,目前基本都是采用非接觸的方法進行眼球追蹤:瞳孔-角膜反射、普爾欽像法(普爾欽像是眼球的角膜、晶狀體等若干光學表面發(fā)生光反射形成的圖像)和3D模型法。
相對來說普爾欽像法更好一些,圖像產(chǎn)生畸變的原因是不同凸透鏡的球面位置的焦距不同,遠離中軸線的光線焦急越短,根據(jù)凸透鏡的成像原理,焦距 f 越短放大倍數(shù)越大,所以遠離中心點的圖像看上去就越被拉伸,所以通過凸透鏡放大后的物體,人眼看到的虛像會產(chǎn)生一個枕形畸變的效果,所以不少頭顯帶著眩暈也有這個原因,普爾欽像法就能盡量模擬人眼真實情況。
當下主流的眼球追蹤儀采樣速率都是50~60Hz,少部分廠家采用250以上高采樣速率,采樣點基本都在水平+/-45°垂直+/-35°。這樣的采集數(shù)據(jù)速度,隨著使用時間的增加,就會馬上積累大量的采集數(shù)據(jù),對采集數(shù)據(jù)進行存儲是一件很困難的事情。
apple vision pro在內(nèi)部眼眶的位置搞了一圈紅外相機和LED矩陣,配合M1+R1的強大計算能力,就是為了捕捉面部結構、眼部動作。
至于看到不少數(shù)碼大佬去Apple Park小黑屋體驗apple vision pro都提到了,會用iPhone前置鏡頭掃描人臉,然后再帶頭上掃描,至于有沒有用到其他什么自研黑科技,就得看后面蘋果那邊會不會解密了~
明年1月北美開放購買,所以在此期間期待蘋果再多加一些新技術和改進,也期待華強北強勢跟進!
上一篇
#618好物嗨購節(jié)#買對的,可能也買貴的!618鼠標推薦合集(全部實測,拒絕云推薦)
下一篇
#618好物嗨購節(jié)-我的私人電競館#炫彩光效加持,精準操控的游戲利器-蓋世小雞T4K幻境手柄體驗分享