<address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

<nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
      <font id="v5f1t"></font>

    <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

      <listing id="v5f1t"></listing>

        <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

            <dfn id="v5f1t"></dfn>

            <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

              <font id="v5f1t"></font>

                      虛擬現實技術 虛擬現實應用技術月薪

                      導讀來源|極果編輯部今年的CES可以說是一場VR、AR行業的盛會了。雷鳥、夏普、HTC都有新品發布;松下的MeganeX、索尼的PS VR 2的產品也都悉數亮相;CES之外,PICO、Meta、Rokid

                      來源|極果編輯部

                      今年的CES可以說是一場VR、AR行業的盛會了。雷鳥、夏普、HTC都有新品發布;松下的MeganeX、索尼的PS VR 2的產品也都悉數亮相;CES之外,PICO、meta、Rokid也在最近發布了一些很有競爭力的產品;據傳蘋果會三月份也要發布MR產品。

                      視角放大到整個行業,根據維深WellsennXR的數據,全球VR的銷量在2021年突破了1000萬拐點,看起來我們距離元宇宙越來越近了。

                      但這并不是我們第一次有「VR要來了」的感覺:2012年的Oculus Rift發起眾籌,30天內募集資金超過240萬美元,遠遠超過其25萬美元的集資目標。因此,2012年也被人稱作VR元年。

                      從那以后,2014年,臉書收購Oculus,掀起VR創業潮,2014年是VR元年;2016年,微軟推出Hololens和Windows MR,索尼推出了PSVR,這回聲勢更加浩大,AR和VR概念齊頭并進,2016年是VR元年;2021年,字節跳動收購Pico、Facebook改名meta,2021年也是VR元年。

                      直到最近有傳言說蘋果將在今年三月發布VR產品,于是VR元年理所當然地順延到了2023年。為什么十年過去了,VR依舊在元年?

                      為了搞清楚這個問題,我們總結了從2012年眾籌的Oculus Rift到2016年的HTC Vive,再到最新的Pico4,十年來影響VR產業的10大技術,以及他們對體驗的實際影響,看看影響VR體驗的最關鍵的技術是什么?距離VR眼鏡普及到每個人還有多遠?

                      VR最大的特征是接管了我們全部的視覺,我們只能看到VR顯示給我們的內容,所以最影響VR體驗的就是我們能看到的內容。

                      2012年Oculus Rift的分辨率只有800×600,低于同時期的手機屏幕分辨率。這導致Oculus Rift的畫面顆粒感明顯,你可以看到眼前密布的小小晶格,也因此有不少人出現了暈3D的現象。[1]

                      既然VR眼鏡的分辨率還不如手機,那么為什么不直接用手機屏幕來顯示呢?

                      2014年谷歌發布了Cardboard,同樣是這一年,三星推出了Gear VR,2016年開始更是在消費者購買Galaxy S7時贈送Gear VR,國外大廠的大手筆投入開啟了一次巨大的VR浪潮。

                      不過VR盒子依舊沒解決沉浸感的問題,當時的手機屏幕還沒有高刷新率屏幕,檢測頭部移動都依賴手機內置的陀螺儀,精度嚴重不足,所以非常容易眩暈。

                      要想徹底解決眩暈,我們得知道人眼到底是怎么觀看內容的。

                      決定VR設備的顯示效果有三大核心要素:視場角(FOV)、角分辨率(PPD)以及視覺暫留(Persistence)

                      視場角決定了能看到的內容尺寸,人類左眼能看到偏左100°-110°、偏右60°,共計最大可達160°的水平畫面,雙眼的「水平視角」加起來最大可達200°,兩眼重合視域約為120°(左右各60°)。【2】

                      在這120°中,人眼最佳的注視區域約為90°;超過90°以后,就通常會采取轉動腦袋的方式去看。因為斜著眼去看視角邊緣的東西會增加疲勞感。

                      所以在VR光學中,90°視場角被認為是VR沉浸體驗的及格線,120°視場角被普遍認為是達到部分沉浸式體驗的標準,180°視場角則是VR達到完全沉浸的標準。

                      目前市面上的VR頭顯設備也都基本采用了90°-120°之間的視場角,介于及格和優秀之間。

                      以上VR眼鏡中,meta Quest 2和Pico 4是銷量最好、技術最領先的兩款產品,所以我們也重點測試了這兩款產品的具體表現。

                      我們手里的這款PICO 4 的視場角是105°,基本上已經不會注意到四周的暗角,可以專注于畫面中心的內容,在這一項指標上,VR已經超過了及格線了。

                      其實簡單粗暴地追求更大的視場角也并不合理,由于VR眼鏡(屏幕和內容)的分辨率不足,如果尺寸過大,人眼會直接看到顯示屏的像素點,就好像隔著紗窗看東西一樣。

                      那么多少屏幕分辨率才無法看出來像素點呢?

                      根據喬布斯在發布iPhone 4時對視網膜屏幕的定義,視網膜屏幕是指在10-12英寸的距離上,設備的像素密度達到300ppi(每英寸300像素)的水平時的顯示效果

                      但是我們討論VR這種大屏幕時,一般使用PPD (Pixels Per Degree),每度像素數量來衡量。根據喬布斯的定義,把視網膜屏換算成PPD,VR眼鏡要獲得視網膜屏幕級別的顯示效果,需要至少57ppd。

                      如果一款VR眼鏡單眼橫向FOV為110°,縱向約120°。那么它需要一塊至少 12540*6840 的屏幕輸出雙目畫面,9倍于市面上主流的VR眼鏡。

                      目前行業的VR設備分辨率都集中在4K(4320*2160)左右,計算下來PPD約為20,雖然距離視網膜屏幕的標準57較遠。但是實際體驗的時候,并沒有明顯的紗窗效應。

                      因為相比分辨率,人眼對亮度更加敏感,如果不是刻意盯著一點看,并不會看出明顯的像素點,已經達到了及格水平。

                      制約屏幕分辨率提升的一個重要因素是渲染壓力,移動端芯片無法計算如此多的內容。因此,VR眼鏡必須針對我們的人眼生理結構優化顯示效果。

                      由于人眼只能清晰地看到聚焦點周圍大概2°的范圍,所以我們通過可以降低周圍的分辨率來降低對像素數量的需求。

                      因此,我們需要在VR頭顯中植入眼球追蹤設備,追蹤眼球中央凹的移動來獲知用戶的眼睛正看向哪個點,然后在這一點周圍使用全清晰度渲染,其他地方使用低清晰度渲染。

                      目前HoloLens 2 、PlayStation VR2等設備都采用了眼球追蹤技術。不過,因為現在只能生產分辨率均勻的顯示屏幕,而且注視點渲染技術需要整條產業鏈上下游配合,所以注視點渲染對顯示清晰度的提升比較有限。

                      我們在VR上看到眼球追蹤的第一個應用恐怕不是降低渲染分辨率、提升使用體驗,而是根據你看廣告的哪個部分得知你的興趣點,然后給你顯示個性化廣告。

                      在Quest Pro上市以后,國外科技媒體 Gizmodo 發現meta 公司已經更新了其隱私政策,新增了一個名為「眼球追蹤隱私通知」的條目,如果你同意分享額外的數據,meta 將使用眼球追蹤和其它數據點,「以幫助 meta 個性化你的體驗并改進 meta Quest」。

                      meta 公司全球事務主管尼克-克萊格在接受《金融時報》采訪時表示,眼球追蹤數據可以用來「了解人們是否被廣告吸引」。

                      相信我們很快就能感受到這項技術對我們的影響。

                      相比暫時還沒有明顯影響的眼球追蹤技術,Pancake則是實實在在地改變了了VR眼鏡。

                      以往,限制VR眼鏡體積和重量的主要原因是普通非球面透鏡的TTL(Total Track Length 鏡頭總長)至少需要40mm。

                      PICO 4采用了新的Pancake透鏡,可以折疊光路,把鏡頭做得更薄,也能把VR前面的眼睛本體做得更輕薄。

                      相比上一代,PICO 4因為Pancake方案,光學方案模組厚度減少約43.8%,整體厚度減少24%,重量減少28.8%【3】

                      所以,雖然Pancake透鏡的成本相對更高,但是最新的產品幾乎都采用了Pancake透鏡。

                      Pancake透鏡改變光路以后也深刻影響了屏幕材質的變化。

                      目前Pancake光學方案在光利用率方面仍存在缺陷,受多重透鏡及光學膜的影響,透光率僅能達到20%左右。所以Pancake光學方案需要屏幕擁有更高的發光亮度。

                      MicroOLED技術(即硅基OLED技術)可以在維持相近分辨率水平的基礎上顯示面積更小的OLED,擁有更高像素密度(PPI),具備輕薄、耗電量少、發光效率高等優點,成為Pancake方案的黃金搭檔。

                      光學方案還會影響瞳距調節和屈光度(近視)調節功能,比如多片Pancake方案就可以移動最近的一片Pancake鏡片實現屈光度調節。

                      VR眼鏡的顯示屏間距需要和用戶的瞳距匹配,不匹配的話會導致畫面模糊、眩暈等問題,長期佩戴可導致近視。

                      Pico 4仍是手動電驅調節,即需要用戶佩戴頭盔后在設置里手動調整瞳距。而Pico 4 Pro會搭載眼動追蹤模塊,通過攝像頭和紅外模組定位瞳孔位置,通過電驅動自動適配用戶的瞳距。

                      VR眼鏡的處理器性能長期是體驗上的短板。

                      VR芯片需要鏈接、處理十余顆攝像頭的信息,所以VR眼鏡對性能需求非常大,并且與手機芯片的需求并不完全相同。再加上VR頭顯的出貨量只有每年1000萬臺,是手機出貨量的大約1%,所以芯片廠商不會為了VR開發獨立的芯片,而是用手機芯片的修改出一個VR版本,也就是驍龍XR1和驍龍XR2。

                      2018年5月29日,高通推出XR1平臺,高通將AR、VR、MR等統稱為XR(Extended Reality,即擴展現實),這也是XR1這個名字的由來。

                      驍龍XR1集成了高通自家的異構計算架構,包括基于ARM的多核心Kryo CPU、 Adreno GPU、向量處理器以及高通人工智能引擎AI Engine。為了配合XR1,高通還發布了包括XR軟件服務層、機器學習、XR SDK等一系列軟件支持。也就是說,XR1不單是一個芯片,更是一個平臺,是一整套VR/AR的解決方案。

                      XR1可以看作是驍龍845的簡化版,但刪掉了通訊相關的組件,例如基帶、調制解調器;將重點放在了異構計算和AI上面,同時功耗和散熱方面也進行了優化,綜合硬件性能與驍龍660接近,畢竟VR/AR設備往往會長時間運行游戲,而傳統的SoC并不是十分適合VR/AR平臺。

                      如果說驍龍XR1作為高通為XR行業帶來的首個專用平臺,對于這一平臺能否為沉寂良久的XR行業打開局面,不少廠商仍保持著觀望態度;那么,隨著2019年下半年VR產業在設備和內容上襲來的一波巨浪,驍龍XR2平臺的問世,恰逢其時地助燃了整個行業。

                      據官方公布數據顯示,相較高通驍龍835,驍龍XR2在CPU和GPU性能上提升了2倍、視頻像素吞吐量提升了4倍、單眼分辨率提升了6倍、AI性能提升了11倍。

                      驍龍XR2作為全球首款支持5G的XR平臺,不僅支持3K單眼分辨率、8K 360°全景視頻,還支持七路并行攝像頭,除了支持用戶追蹤定位、生成景深圖的四個朝外的攝像頭(其中兩個RGB攝像頭用于支持MR體驗,兩個攝像頭用于頭部追蹤)外,還支持兩個用于支持眼球追蹤的朝內的攝像頭,額外的一個攝像頭則可以用來進行面部、唇部追蹤,或者通過進行手柄追蹤。

                      2022年10月12日,高通發布了驍龍 XR2+ Gen 1 芯片,實現50%的續航表現提升,以及30%的散熱性能提升。

                      只不過,兩款芯片實際上都基于高通驍龍 865,這是一款四年前的處理器了,還是無法應對VR眼鏡龐大的性能需求,想要玩Half-Life: Alyx這樣的3A大作就需要外接電腦。

                      VR內置算力應該內置還是外置是一個兩難選擇:

                      內置算力的話性能永遠不夠,就算是現在最先進的驍龍8Gen 2也只能在840P的分辨率下運行60幀的原神,也無法滿足VR眼鏡的性能需求。

                      根據我們實測,PICO 4運行輕度游戲比較流暢,日常使用中也沒有什么問題,距離運行《原神》這種高品質游戲還有很長一段路要走。

                      如果用外置算力的話,倒是可以玩Half-Life: Alyx這樣的3A大作,但是VR頭顯和電腦主機的有線串流永遠需要線材連接,很容易絆倒自己;無線串流的話配置極其麻煩,而且不太穩定。

                      因為VR眼鏡出貨量小,所以無法獲得專屬高性能芯片;又因為性能不足,所以體驗欠佳,出貨量無法提升。要想打破這個死循環,還是需要蘋果完全針對VR需求制作一款殺手級別的芯片。

                      虛擬現實系統的高度沉浸,除了視覺方向的逼真感之外,空間的真實感也至關重要。要實現在虛擬空間下的隨意漫游、全自由度觀看、自然準確的虛實交互,都離不開虛擬現實空間定位。

                      目前VR主流空間定位方式有兩種:

                      (1)Outside-in(由外而內的定位):顧名思義,需要在環境中布置定位器,實現從外到內的位置計算。

                      (2)Inside-out(由內而外的定位):由內向外的空間定位不需要額外布置空間定位設備,借助VR設備自身的傳感器進行環境的感知與事實位置計算。

                      HTC Vive的Lighthouse室內定位技術使用的是紅外激光定位,基本原理就是利用配套定位光塔(小方盒子)對定位空間發射橫豎兩個方向掃射的激光,再通過Vive頭盔上的接收器接收光束,之后計算兩束光線到達定位物體的角度差,解算出待測定位節點的坐標。

                      Oculus Rift也是紅外光學定位的一種。Rift設備上隱藏了一些紅外燈(即為標記點),這些燈會向外發射紅外光,利用配套的攝像機去捕捉頭顯和手柄上的紅外燈,過濾掉頭顯及手柄周圍環境的可見光信號后;再利用PnP算法,即四個不共面的紅外燈在設備上的位置信息、四個點獲得的圖像信息即可最終將設備納入攝像頭坐標系,擬合出設備的三維模型,并以此來實時監控玩家的頭部、手部運動。

                      Inside-out是基于環境中設備自身的傳感器進行周邊環境的實時動態感知,通過視覺算法(SLAM算法)計算出攝像頭的空間位置,從而實現對目標的位置跟蹤。

                      而對于在VR/AR設備,主要是利用在VR/AR頭顯的視覺傳感器,讓 VR/AR 頭顯設備自己檢測外部環境變化,借助計算機或者自身的算法芯片計算出 VR 頭顯的空間位置坐標。

                      因為Outside-in需要事先放置定位點的缺點,現在主流的VR都已經在使用Inside-out的技術方案。

                      比如PICO 4通過頭顯攝像頭拍攝手柄20顆手柄環上的紅外LED識別手柄的位置和姿態。實際體驗中,PICO 4手柄的指針非常穩定,即使手柄和頭顯之間有部分遮擋,也可以識別手柄的位置和姿態。

                      不過即使如此,使用PICO 4之前依然要設定安全區,無法自由走動。關于安全區,全彩透視技術可能是解決這個問題的關鍵。

                      全彩透視技術屬于視頻透視技術(Video-seethrough)的一個分支,也就是通過相機捕捉到實時畫面,將虛擬世界和真實世界合成后,呈現豐富色彩的顯示畫面。

                      首先要說明,全彩透視并不是簡單把外置攝像頭拍攝到的東西直接傳回顯示屏就行了,這么做無法顯示物體的相對位置和絕對位置。要想做到戴上VR眼鏡的全彩透視和摘下VR眼鏡看到的內容差不多,就需要把空間中每個物體識別出來,然后計算出人眼應該看到的內容和角度,相當是一個VR版的自動駕駛。

                      全彩透視主要可以分為四步:透視、空間錨點(放置 AR 物體)、三維重建、環境理解及對象識別。

                      首先是硬件升級。從黑白透視到全彩透視可能會涉及到攝像頭的升級,廠商們可能會將 VR 設備上的 RGB 的攝像頭進行升級,甚至部分設備會配備深度傳感器,以實現更高精度、色彩豐富的畫面效果。

                      此前業內也有傳聞證實這一點。據悉,相較于 Quest 2,Project Cambria(Quest Pro) 搭載了分辨率比 Quest?2 高三倍、專門設計用于彩色透視的深度傳感器和攝像頭,其能夠實現以假亂真的混合現實體驗。

                      其次在算法上也提高了一定的要求。由于全彩透視對分辨率、色彩的還原度和準確性要求較高,物體的位置和物體的大小范圍一一對應,因此往往需要一套接近實時重構的算法。這提高了對算法和算力的要求,也對頭顯自身處理計算的能力有了更高的要求。

                      需要注意的是,Pico并不是把彩色攝像頭的內容直接展現在屏幕上,而是把黑白攝像頭的內容放在屏幕上,彩色攝像頭只補充顏色信息。

                      根據我們實測,全彩透視可以完全滿足出門隨便走走的需求,但是還是無法擺脫安全區的限制,而每次使用都需要劃定安全區非常影響VR眼鏡的使用體驗。

                      VR沒辦法搓屏幕,手勢也只能做最基礎的操作,深度使用依舊離不開手柄。

                      PICO4手柄主要升級在于結構、紅外LED數量和全新的寬頻線性馬達:PICO4手柄采用全新的星環弧柱的設計更利于抓握,而手柄16顆手柄環上的紅外LED與頭部4顆LED形成的類拓撲結構保證了無死角追蹤,有望提升手部操作識別的準確性。而手柄內置的馬達直徑20mm,振幅范圍50Hz-500Hz,大小上已接近PS5手柄馬達,相比Neo3和Quest 2的馬達有顯著提升。

                      手柄IMU采用Quest2同款芯片:手柄搭載426P IMU六軸陀螺儀來實現對手柄更準確的定位和追蹤機器的運動和姿態,而426P過去僅被用于meta Quest2的手柄。而PICO搭載426P我們認為從手柄上看PICO4 手柄已經具備一定硬件基礎,相關定位和追蹤能力有望得到升級,而手勢操控或有望在后期成為主流的VR交互方式。

                      所以雙手柄是行業主流方案,純手勢識別是廠商在努力嘗試的方向,但是現在依舊有體驗上的硬傷。

                      值得注意的是,根據我們的分析,蘋果VR有可能沒有手柄,直接使用Apple Watch作為VR的手柄。

                      在Apple Watch S8的發布會上,蘋果在介紹車禍檢測這個功能時,第一次強調了陀螺儀是「三」軸的。這一次Apple Watch使用三軸陀螺儀,表面上是為了檢測車是不是翻了,但是如果仔細想想就能發現,三軸陀螺儀是不是也能檢測你的手腕運動軌跡和姿態呢。

                      蘋果從三年前的Apple Watch 從S6開始就加入了U1芯片。按理來說,手表是戴在手腕上的,取下來的時候基本上就是在充電,不太會有丟失的情況,發布會上也沒說加入U1芯片能帶來什么。

                      但是如果Apple Watch是AR遙控器的話,就能說得通了,U1芯片可以判斷Apple Watch距離其他蘋果設備的距離,也就是空間中的相對位置。

                      如果AR眼鏡中放了一盆花,我們把手伸過去,U1芯片就可以檢測我們的手是不是靠近了花盆。而觸控是最符合直覺的選擇交互目標的交互方式。

                      你有可能不知道,蘋果在去年夏天發布會發布的watchOS8,里面新增了一個幫助殘障人士使用手表的功能:輔助觸控

                      這個功能Apple Watch增加了四個手勢:

                      • 食指拇指互點一下是前往下一個項目
                      • 點兩下是返回上一個項目
                      • 將手握拳相當于確認
                      • 握拳兩下可以調出操作菜單

                      操作菜單里面有滾動、按下數碼表冠這些功能,可以用捏手指上下選擇,然后用握拳來確認,利用這兩個手勢你可以完全控制Apple Watch。這個功能現在可以用來操控智能手表,那么未來是不是也能用來操控智能眼鏡呢?

                      用三軸陀螺儀識別我們手腕的運動軌跡,用U1芯片識別我們的手腕位置,用手勢識別我們的操作,然后AR眼鏡的操作就非常優雅了。

                      我們的點擊操作既不需要隔著空氣亂戳,也不需要在手上捏一個手柄,眼神注視就可以選擇我們需要選取的物品,招之即來、揮之即去,只需要捏一下手指或者握一下拳就可以單擊確認,操作AR眼鏡會和操作智能手機一樣優雅。

                      除了手部動作,身體其他部位如果有動作捕捉,就可以讓你在元宇宙中擁有立體形象。而在動作捕捉背后能看到字節跳動更深的布局。

                      A-SOUL是于2020年末上線,由字節跳動與樂華娛樂聯合企劃的虛擬偶像團體,由字節跳動提供底層技術支持,而樂華提供中之人、內容策劃運營等。

                      在B站的虛擬主播當中,「艦長數」最多的5位虛擬主播,全部出自A-SOUL。一場生日會,A-SOUL隊長「貝拉」成為了虛擬主播區第一個達成萬艦成就的主播。(注:B站的大航海也稱直播艦隊,是B站開發的月票機制,獲取主播一定直播間權益和相關皮膚裝扮等)

                      做個簡單的乘法,艦長的連續包月價格為138元/月,僅僅大航海收益(不算充電、直播打賞等),「貝拉」一個月已經創造近200萬元的收入。

                      目前,A-soul也會在Pico固定直播,VR直播可以完全發揮虛擬偶像的技術潛力,獲得更好的直播效果。當直播發生在VR里時,有可能會完全重構內容的生產和消費邏輯,簡單來說就是增加了互動維度和更豐富的信息。

                      舉例來說,傳統情況下,我們觀看演唱會或者體育直播,只能跟隨攝影機和導播的視角,看千篇一律的內容。但是如果我們在VR場景里,我們可以自由轉動頭部,查看其他角度的內容。此時,我們擁有了3DOF(Degrees Of Freedom)的自由度。

                      而現在的VR擁有6DOF的自由度,也就是說你可以前后左右上下自由移動,探索整個演唱會場景,在任何你想去的地方享受內容:感受球星在你面前踢球、偶像在你面前演唱。

                      6DOF的自由度對內容制作提出了更高的要求,因為它需要內容在任何角度都能經得起審視,但它也賦予了內容更高的表現能力,比如Pico和李玟的演唱會設計很多互動場景,增加了觀眾的沉寂感。

                      因為字節跳動在A-SOUL身上取得的商業成功和不斷更新迭代,在VR需要完全動捕的時候,字節PICO也能提供一個非常完善的解決方案。

                      另一方面,整個行業也在快速進步,以往的動捕極其依賴大型設備,諾亦騰把設備做到了小型化,甚至一套設備只需要200美元,一個人就能操作使用。

                      這里有一個容易忽視的地方:用戶在元宇宙世界的化身一般被叫做Avatar(《阿凡達》)。而正是當年的《阿凡達》電影借助頭戴式攝像頭以及改進的軟件算法,完美解決了演員面部表情高精度采集的問題,憑借將3D、虛擬與動作捕捉技術結合,近乎完美的創造了潘朵拉星球,從而創造了電影史上最為絢爛的畫面。

                      2022年,《阿凡達2》上映;《阿凡達》系列制片人喬恩·蘭道近日透露《阿凡達3》的拍攝工作已完成了95%;而《阿凡達4》已完成了第一幕的拍攝;阿凡達有可能變成元宇宙領域最重要的一個IP,我們有可能像是逛迪士尼樂園一樣體驗潘朵拉星球。

                      整體來看,動捕技術已經處在爆發前夜,并且利用虛擬主播行業快速迭代,一旦有殺手應用出現,動捕就能快速落地,普及到每個人身上。

                      面部捕捉和動作捕捉一樣重要,meta希望未來人們在虛擬環境中見面就像在現實中一樣真實。為此,meta正在展開了名為虛擬化身(Codec Avatars)的研究項目,該項目致力于為人們在虛擬環境中創建3D數字化身。

                      目前,VR頭顯可以實時讀取VR用戶的面部表情,并將其轉移到虛擬現實中。據悉,即將推出的Quest Pro或將成為meta第一款提供面部跟蹤(face-tracking)的設備。

                      meta的目標是讓一起打牌的人根據你的虛擬形象的微表情就能猜出你的牌是什么。但是目前的效果還非常簡陋,扎克伯克發了下圖的自拍到網上,被瘋狂嘲諷。

                      蘋果在面部捕捉上同樣有技術積累,早在2017年發布的iPhoneX上,蘋果就支持根據個人形象設計Memoji,并且Memoji可以模仿手機使用者的動作,整體體驗比較逼真。

                      Memoji技術也會應用到蘋果VR上,隨著Face ID組件的小型化,蘋果的VR設備大概率會支持掃臉解鎖,然后根據你的表情動態調整你的虛擬形象。

                      另一個蘋果布局已久的產業是空間音頻功能。VR的3D空間是有位置信息的,所以聲音也應該有位置信息。

                      正如meta首席執行官馬克-扎克伯格所指出的那樣:

                      獲得正確的空間音頻將是我們為元宇宙所構建的東西中提供&34;令人驚嘆&34;體驗的因素之一。我很高興看到它的發展。

                      為了帶來更真實的AR和VR體驗,meta公司正在開發新的空間音頻工具,以響應視覺中顯示的不同環境。meta的設想是,當人們可以戴上AR眼鏡,重溫全息記憶,其外觀和聲音與他們從有利位置所經歷的完全一樣,或者當他們在虛擬世界中玩游戲時,不僅能沉浸在畫面中,而且也能沉浸在聲音里。

                      在這方面蘋果早在2019年發布的第一代AirPods Pro上就內置了陀螺儀,當時大家都不理解這個陀螺儀的作用是什么。直到一年后,系統更新讓AirPods Pro支持了空間音頻。

                      要做到空間音頻,我們得知道人耳識別聲音來源的原理:人耳識別物體方位依靠的不僅僅是聲音到達兩耳的時間差,還有聲音到達兩耳的相位差,相位差和時間差會被我們的頭部和耳廓影響,用數學來表示就是HRTF (Head-related transfer function)頭部相關傳輸函數。

                      蘋果發布會上,AirPods Pro2支持用iPhone掃描你的耳朵就是為了這個。

                      在VR眼鏡上放置揚聲器不僅會讓別人聽到你在干啥,還會占用寶貴的體積,更不容易根據HRTF做空間音頻功能,但是用AirPods Pro的話就沒有這些問題了,所以蘋果AR眼鏡很可能沒有內置揚聲器,它的揚聲器就是AirPods Pro。

                      以上就是十年來十大硬件升級。一部分硬件,比如屏幕,已經達到了及格線;而另一部分硬件,比如性能、全彩透視還有肉眼可見的進步空間,更有空間音頻、面部捕捉、動作捕捉這種就快要實現的硬件巨大革新。

                      但是我們都知道,硬件上的升級還依賴軟件上的配合,而要做到數字孿生,我們在元宇宙中的虛擬化身的動作就要和現實中一樣逼真。

                      人類對于兩足生物的運動可以說非常熟悉,一些動作細節上的問題例如錯誤的姿勢/重心切換會很快打破畫面帶來的沉浸感。Half-Life: Alyx展示了通過一種經過改進的思路來解決這些問題。

                      首先,虛擬房間中的每一個物品都變得可以觸摸,這些物件需要經得住近距離的審查。同時,人物發出、查看到的光線也更加復雜,所以硬件上就需要更多的光線追蹤性能。

                      這里插一句,年前發布的驍龍8 Gen 2是高通第一次在硬件上支持光追,蘋果的A16芯片本打算在硬件上支持光追,但是因為能效表現較差被砍掉,光線追蹤可以確定是接下來一段時間移動芯片的主要升級點。

                      Half-Life: Alyx的槍械相比普通射擊游戲也有很大不同。在普通的射擊游戲,會有一個準星光標,你只需要用光標瞄準敵人,就可以射擊。

                      而在Half-Life: Alyx里,你必須和現實世界一樣,閉上一只眼睛,用槍支的準星瞄準。尋找掩體、探出頭射擊時也需要你的身體產生真實的移動,增加沉浸感。

                      當你在傳統射擊游戲中更換子彈時,你需要按鍵盤上的「R」或者是手柄上的「X」。而在Half-Life: Alyx里,你需要把彈夾從手槍中彈出、把手伸向肩膀處拿一個新彈夾插進去以后上膛才能繼續戰斗。

                      因為這一細節,你可以拔出彈夾觀察彈夾剩余子彈數量,然后插回槍支中,這是以前的射擊游戲不可想象的。

                      相比于以往只有拿起、放下兩個狀態的游戲,Half-Life: Alyx里你可以把物品拿在手里仔細查看,所以在房間中搜尋物品也變成了實際上的「翻箱倒柜」,而不是在每個地方都按一下鍵盤上的搜刮鍵。

                      因為這么多場景上的復雜性,所以想要生成足夠有沉浸感的世界,只依靠人力的成本會變得高得不可接受。

                      VR眼鏡的游戲售價對標主機游戲,Quest上一款游戲的售價約為25-50美元,在售價相同的情況下,VR眼鏡的出貨量相比主機要少一個數量級。

                      作為對比,PS4全生命周期出貨量1.172億臺,而截至2022年7月28日,Quest 2系列累計出貨量達1770萬臺。就算這個數據毫無水分,也只相當于PS4銷量的15%。

                      再看收入,根據Sensor Tower數據顯示,《原神》在2022年收獲了15.6億美元。而2022年VR游戲整個行業的收入也僅有18億美元,僅相當于《原神》一款游戲的收入。

                      而在成本方面在2019年6月,原神項目組大約300多人,其中包括100多位美術,30多位策劃,60-70位程序和其他協助人員,2021年7月,據傳《原神》開發團隊人數已突破1000人。

                      即使米哈游投入上千人,原神中的有些任務、劇情依舊沒有配音,只有文字對話;對同一NPC的多次對話也不會有什么變化;在對話、劇情時,也無法交互,只能看著劇情發生,對話中的不同選項也不會對最終結局產生影響。

                      對于用戶來說,就算Pico商店把價格降低到五六十元人民幣,游戲價格也偏貴,尤其是在不提供免費試用的情況下,極大阻礙了用戶購買游戲的動力。

                      所以,如果想要在VR平臺需要投入比手游、主機更高的成本;但是產生的收益又遠不如主機端和手機端,所以一直沒有《原神》這樣的高品質游戲。

                      在仔細盤點了VR眼鏡的十年十大技術以后,對于VR行業的發展,我們也有了十條比較明確的觀點和判斷:

                      1. Pancake技術的應用讓VR的顯示效果達到了及格水平;
                      2. 眼球追蹤技術可以進一步提升顯示效果,不過這項技術的第一個應用場景可能是給我們顯示個性化廣告;
                      3. 因為VR眼鏡出貨量小,所以無法獲得專屬高性能芯片;又因為性能不足,所以體驗欠佳,出貨量無法提升。要想打破這個死循環,還是需要蘋果完全針對VR需求制作一款殺手級別的芯片,滿足VR龐大的性能需求;
                      4. VR平臺的高品質游戲短期內不會有,因為它不僅需要VR擁有強大的性能,還需要針對VR重新設計交互邏輯和方式,成本高于傳統游戲;
                      5. AIGC可以極大降低VR的開發難度和開發時間,VR平臺的高品質游戲需要AIGC技術的參與;
                      6. 云游戲技術把游戲的運算放在云端,不需要VR設備有很強的性能,云游戲的發展有可能繞過VR的性能瓶頸;
                      7. 現在VR平臺的游戲和應用都比較貴,而類似XGP一樣的訂閱服務既可以降低用戶的花費,也可以給予開發者穩定的收入,VR平臺需要推出自己的訂閱服務;
                      8. 因為《阿凡達》和虛擬主播的探索,動捕技術正在變得越來越廉價,很快我們就會在虛擬世界中擁有自己的阿凡達;
                      9. 綜合以上幾條,VR的技術要么已經基本成熟(顯示、眼球追蹤、動作捕捉)、要么蘋果有很強的技術和布局(性能、面部捕捉、空間音頻),蘋果今年3月發布VR產品大概率是真的,可以把行業往前推進一大步;
                      10. 蘋果的VR很有可能沒有手柄和揚聲器:Apple Watch就是蘋果VR的手柄、AirPods就是蘋果VR的揚聲器

                      市場上期待一個殺手應用還是一個全能硬件?

                      可以說都缺。

                      硬件上,現在需要蘋果做出一款超級硬件,在性能上可以滿足重度游戲需求;在體積上可以戴三五個小時沒有明顯不適;在操控上要簡單好用;以及最重要的,需要支持自由移動,解決掉「安全區」這個痛點。

                      在軟件上,需要一個米哈游一樣的廠商,制作一款原神一樣成功的作品,這中間可能需要用到AIGC技術、可能需要上千人的團隊、需要VR每年上億的出貨量。

                      不過,知道了我們需要什么,我們就可以大概知道未來什么時候會到來。

                      蘋果今年3月會發布一款VR產品;米哈游也表明了自己進軍元宇宙的決心,并且開始布局云游戲;AIGC行業也出現了chatGPT這樣的優秀產品,可以稱得上是萬事俱備,只欠東風。

                      引爆行業的有可能是蘋果VR、有可能是一款像原神一樣成功的游戲、有可能是云游戲技術、有可能是虛擬主播應用。

                      無論這個產品是什么,我們都已經聽見元宇宙到來的聲音了。

                      免責聲明:本文章由會員“陳陽一”發布如果文章侵權,請聯系我們處理,本站僅提供信息存儲空間服務如因作品內容、版權和其他問題請于本站聯系
                      <address id="v5f1t"><meter id="v5f1t"><dfn id="v5f1t"></dfn></meter></address>

                      <nobr id="v5f1t"><i id="v5f1t"><em id="v5f1t"></em></i></nobr>
                          <font id="v5f1t"></font>

                        <font id="v5f1t"><ruby id="v5f1t"></ruby></font>

                          <listing id="v5f1t"></listing>

                            <dfn id="v5f1t"><ruby id="v5f1t"><form id="v5f1t"></form></ruby></dfn>

                                <dfn id="v5f1t"></dfn>

                                <progress id="v5f1t"><b id="v5f1t"><strike id="v5f1t"></strike></b></progress>

                                  <font id="v5f1t"></font>

                                          国产成人h片视频在线观看