-
邀請演講
下面以關鍵技術虛擬現實發展趨勢來作為解答:
(1)現階段技術發展進程處于部分沉浸期
業界對虛擬現實的界定認知由特定終端設備向聯通端管云產業鏈條的沉浸體驗演變。參考國際上自動駕駛汽車智能化程度分級以及對《虛擬(增強)現實白皮書(2017年)》中分級標準修訂增補,將虛擬現實技術發展劃分為如下五個階段,不同發展階段對應相應體驗層次,目前處于部分沉浸期,主要表現為1.5K-2K單眼分辨率、100-120度視場角、百兆碼率、20毫秒MTP時延、4K/90幀率渲染處理能力、由內向外的追蹤定位與沉浸聲等技術指標。
圖表1:虛擬現實沉浸體驗階梯
資料來源:中國信通院
(2)近眼顯示:變焦顯示與光波導成為熱點,顯示計算化初見端倪
相比虛擬現實技術體系中的其他領域,近眼顯示技術軌道呈現螺旋上升的發展態勢,即近眼顯示關鍵體驗指標間的權衡取舍與VR/AR的差異化功能定位成為推動各類近眼顯示技術演進突破的主要動因。其中,高角分辨率、廣視場角、可變焦顯示成為核心發展方向,VR近眼顯示技術側重提高視覺沉浸體驗的發展路線,AR側重低功耗、全天可佩戴、外觀輕便的近眼顯示發展路線。借鑒Gartner技術成熟度曲線呈現形式,分析總結如下各類近眼顯示技術產業化進程。
圖表2:虛擬現實近眼顯示技術產業化進程
資料來源:中國信通院
(3)渲染處理:注視點渲染與混合渲染快速升溫,端云協同、軟硬耦合的精細化渲染成為趨勢
渲染處理領域的主要矛盾表現為用戶更高的體驗需求與渲染能力的不足。當前,面向虛擬現實的渲染處理面臨著“小馬拉大車,既要馬兒吃得少,又要跑得快”的技術挑戰。
首先,相比主流游戲畫面渲染與電影制作渲染的負載要求,時下虛擬現實渲染負載(部分沉浸體驗級PI)將分別提高七倍與兩倍,相當于4K超高清電視每秒像素吞吐量。若以完全沉浸級FI乃至附帶現有電影視覺保真度為渲染目標,虛擬現實渲染負載將在PI水平上再分別提高五十倍甚至數十萬倍。
其次,為獲得即時反饋,傳統視頻游戲用戶交互延遲須低于150ms,而虛擬現實MTP時延要求低于20ms。
最后,對于移動平臺固有的功耗約束,虛擬現實渲染處理領域所面臨的技術挑戰正在進一步放大。因此,更優的靜態畫質、視覺保真度、渲染時延與功耗開銷成為該領域的技術動因。雖然可以通過堆疊算力來提高渲染質量,但這一不具備成本經濟性的技術路線將遲滯虛擬現實產業發展。目前,業界聚焦面向虛擬現實的注視點渲染、深度學習渲染與混合云渲染等熱點領域,旨在探索軟硬耦合的精細化渲染之路。
圖表3:虛擬現實渲染處理技術產業化進程
資料來源:中國信通院
(4)網絡傳輸:網聯式云化虛擬現實加速發展,5G賦能云VR
與近眼顯示領域不同,面向虛擬現實的網絡傳輸強調基于既定技術發展軌道的“微創新”,即針對虛擬現實帶寬、時延雙敏感的業務特性,優化適配各類網絡傳輸技術,彌合潛在技術斷點,打破當前“單機版”的發展定勢,探索網聯式云化虛擬現實技術路徑,旨在保證不斷進階視覺沉浸性與內容交互性的同時,著力提升用戶使用移動性,降低大眾軟硬件購置成本,加速虛擬現實普及推廣。與VR相比,由于AR側重與真實環境的人機交互,須將攝像頭捕捉到的圖片/視頻上傳云端,云端實時下載需要增強疊加顯示的虛擬信息,因此需求更多的上行帶寬。鑒于虛擬現實網絡傳輸涉及接入網、承載網、數據中心、網絡運維與監控及投影、編碼壓縮等技術領域,有關技術產業化進程如下。
圖表4:虛擬現實網絡傳輸技術產業化進程
資料來源:中國信通院
(5)感知交互:眼球追蹤成為焦點,多感官交互技術路徑多元化
感知交互強調與近眼顯示、渲染處理與網絡傳輸等的技術協同,通過提高視覺、觸覺、聽覺等多感官通道的一致性體驗,以及環境理解的準確程度,實現虛擬現實“感”、“知”能力的持續進化。當前,由內向外的空間位置跟蹤已取代由外向內的技術路線,成為主流定位跟蹤技術。繼此之后,眼球追蹤有望成為虛擬現實感知交互領域最為重要的發展方向之一,鑒于該技術與其他重點領域的融合創新潛力,業界對眼球追蹤的研討焦點已由兩年前是否具備落地價值轉變為何時能夠落地。此外,感知交互技術在VR、AR領域的發展路線有所差異,就VR而言,側重于多感覺通道交互。由于虛擬信息覆蓋整個視野,重點在于現實交互信息的虛擬化。對于AR而言,由于大部分的視野中呈現現實場景,感知交互側重于基于機器視覺的環境理解。
圖表5:虛擬現實感知交互技術產業化進程
資料來源:中國信通院
(6)內容制作:內容交互性不斷提高,助推媒體采編播創新
作為新一代人機交互界面,虛擬現實契合時下新媒體所追求視覺沉浸感與用戶交互性的發展趨勢。虛擬現實內容制作技術開始廣泛應用于紐約時報與CNN等紙媒電視、YouTube與愛奇藝等互聯網視頻平臺、Verizon與中國移動等電信運營商視頻網絡,并在“采、編、播”環節注入了創新活力。
內容采集環節,由于虛擬現實可提供360度、720度的全景視頻,雙目、陣列乃至光場式VR相機取代了傳統畫面視角受限的單目攝影機,可采集4K-12K全景分辨率的3D視頻內容。此外,由于360度無死角拍攝,編導與攝影師等工作人員站位、觀眾視覺興趣點引導、多相機同步控制等新問題對內容采集帶來挑戰。
內容編輯環節,由于虛擬現實相機涉及多鏡頭同時拍攝,從而產生出視頻間精準拼接縫合這一全新內容編輯技術。根據實現方式的不同,可分為實時、離線拼接與自動、手動拼接等。英偉達近期推出其拼接編輯軟件VRWorks360,可實現單一VR相機中多達32個拍攝鏡頭的跨平臺的實時拼接。此外,由于虛擬現實強調觀眾沉浸感與互動性,在內容制作方面開展了相關基于后期特效合成的微創新。例如,在既有真實拍攝內容上,基于機器視覺與三位建模,引入觀眾虛擬化身參與其中。同時,通過3D沉浸聲、混合云渲染等方式附加高保真的虛擬圖像,從而實現內容制作的“虛實融合”。
內容播放環節,由于虛擬現實需要解決如何將內容編制時的平面媒體格式轉化為用戶最終看到的全景球面視頻,因此運用了傳統視頻沒有涉及的投影技術。其中,等角投影是YouTube、愛奇藝等采用的主流技術,但存在畫質失真、壓縮效率低等問題,多面體投影成為發展方向。此外,現有操作系統需要優化創新以適配虛擬現實內容應用的體驗要求。
圖表6:虛擬現實內容制作技術產業化進程
資料來源:中國信通院

掃一掃
下載《前瞻經濟學人APP》進行提問
與資深行業研究員/經濟學家互動交流讓您成為更懂行業的人