硅谷的 AR 夢想,被華爲實現了,但不是在眼鏡上
下週,北京時間 6 月 10 日凌晨,蘋果 WWDC2025 即將正式開啓。本屆開發者大會最引人注目的,就是蘋果全部終端的 OS 系統不僅統一稱爲「26」,而且在這個「26 宇宙」中,所有的 UI 將和 Vision Pro 看齊。
爲什麼是 Vision Pro?這個售價超過 2 萬元人民幣的 MR 頭顯,不僅售價高昂,而且銷量折戟。之所以蘋果依然要拿 Vision Pro 的 UI 說事,還是證明硅谷巨頭們,對於 AR(增強現實)的心未死。從蘋果、谷歌到 Meta,製作出真正能普及到主流人羣的 AR 眼鏡,一直是一個「望山跑死馬」的聖盃。
硅谷公司多年追求未果的 AR,現在,可能在另一個場景,被實現了。
6 月 5 日,小鵬攜手華爲,曝光了最新的「追光全景」AR-HUD,不僅將真正的 AR 效果和優秀的顯示結合,讓車道級導航反饋和顯示成爲 HUD 的新標配,也讓 AR 這個科技公司渴求的技術,在車內這個場景率先落地。
01
HUD,狗都不用
HUD 擡頭顯示,這個多年前只有高端車型才配備的功能,現在幾乎已經成爲新能源車的標配。「五屏聯動」是近年來車企宣傳車內屏幕數量足夠多的常用 Slogan,其中的一屏指的就是 HUD。
理論上 HUD 能顯示車速、檔位等簡單信息,現代 HUD 又加上了路口、甚至地圖等信息,讓駕駛員不用低頭看儀表盤或者中控大屏,也能掌握目前車輛的重要信息。
看似非常實用,但其實很多用戶對於 HUD 這塊「屏」,並不十分感冒。習慣養成還在其次,目前的HUD亮度不夠、顯示面積小以及信息 UI不佳,讓它成爲車內最雞肋的一塊屏。
以筆者的經驗,對於車內 HUD 最大的嫌棄在於,一旦戴上偏光鏡,能看清的 HUD 少之又少,索性直接將其忽視。
而在小鵬「追光全景」AR-HUD 發佈會上,明顯可以看出新產品已經將上述痛點徹底解決。
根據華爲車載光團隊透露,小鵬 G7 上搭載的 HUAWEI XHUD 解決方案中,新的成像模組,已經能將 HUD 的亮度推至 15000nit,同時將分辨率拉昇至 1920x1080、視場角擴大至 13°*5°,相當於 10 米遠處投射出 96 英寸畫幅。
最高亮度提升,意味無論是戴偏光鏡還是正午十分,駕駛者都能看清 HUD 上的信息;而視場的擴大和分辨率的提升,則意味 HUD 能進行「車道級」的顯示,和更多重要信息的提示。
這兩點其實也是 AR 行業一直在關注的,畢竟,在眼鏡片這樣方寸之地進行顯示,效果必須足夠出衆,才能讓大衆接受。
但是,僅僅提高亮度和可視範圍,只是解決顯示和成像端的難題,這款「追光全景」AR-HUD 還只能算是個「更亮的 HUD」。讓它真正配得上「AR增強現實」這個名稱的,恰恰是最難的——對於現實世界的實時感知和反饋。
02
AR 眼鏡,在智能車上落地了
蘋果的 Vision Pro 要賣 2 萬元以上、Meta 的 Orion 原型機甚至沒法標價,其中的原因就是兩款眼鏡上都配備了大量的攝像頭,用來對現實世界進行掃描和感知,來讓眼鏡中顯示的元素,能完美貼合現實世界。
如果單純追求顯示效果,Meta 多年前推出的 VR 頭顯,同樣能讓用戶滿意,不過後者就只能處於「睜眼瞎」的境地了。
從硬件角度分析,目前的終端處理器和電池,尚不能支持眼鏡這樣輕薄形態的產品,實現長時間的實時世界感知和反饋,這與其說是投入問題,不如說是基礎物理和材料學問題。
而在車載環境中,處理器和電池這兩個弊端,反而成了智能車率先普及真 AR 的強項。
正確且實時地認知現實,並能準確將元素還原到現實中,挑戰極大。這也是爲什麼,小鵬的「追光全景」AR-HUD 演示中,當看到 HUD 中出現的「出匝道」、「併線」等導航信息,能和現實中的道路完美貼合時,會讓人們感到「Aha Moment」的誕生。
從某種意義上說,HUAWEI XHUD 解決方案,就是給駕駛者在擋風玻璃上造了一副「AR 眼鏡」。就像鋼鐵俠 Tony Stark 的頭盔一樣,AR 元素並不是簡單地出現在 HUD 上,而是和現實中的道路貼合。
要實現真正的 AR 導航,除了需要多傳感器配合,相關的圖像引擎同樣必不可少。HUAWEI XHUD AR 構圖引擎集成了華爲自研空域算法和低時延實時渲染算法,能夠根據車載傳感器獲取的物理世界信息,實時渲染生成的輔助駕駛、導航等信息,通過對齊空間座標實現與實景的完美貼合,呈現於駕駛員眼前。
以當時發佈會上的演示爲例,從高速公路駛入匝道時,導航圖標隨着車頭同步調整,這樣圖標與物理世界中的目標方向就會發生偏差,而華爲 XHUD AR 構圖引擎能夠通過車載傳感器實時感知車輛狀態及外部世界的信息,並實時調整導航圖標的位置和形狀。無論車頭狀態如何變化,AR 導航的光毯都始終指向真實世界的目標方向,大幅提升 AR 導航的體驗。
另外,和 AR 眼鏡使用場景不同的是,真實車輛在行進時不僅有實時變化的速度,同時因路面不同還會出現顛簸,這就要求 AR 構圖引擎必須能「跟上趟」,而且要防顛簸,不然就會出現延遲甚至錯報。
HUAWEI XHUD AR 構圖引擎採用自研軌跡預測算法時延補償算法,能夠根據車輛的行駛狀態智能預測真實位置變化,並對顯示的 AR 圖標進行時延補償。通過這套算法,AR-HUD 能在 200 毫秒內對車輛狀態和外部物理世界的變化做出響應,使 AR-HUD 畫面始終與物理世界精準貼合。
如果只是能實時反饋道路,並將正確的導航信息投送到正確 HUD 位置,那其實就浪費了當下智能車在輔助駕駛方面的真正能力。
當智能輔助駕駛系統的信息,可以實時在 AR-HUD 上呈現時,才真正讓司機在不用看中控屏的情況下,始終保持對道路各方面的「全知全能」。
上圖中夜晚道路旁格外難防的「鬼探頭」,AR-HUD 就可以以紅色三角標進行提醒;同時,出入匝道、地圖信息以及停車地點,在 HUD 上顯示,能更好地更立體地對駕駛員進行引導,讓行車更加安全。
03
AR-HUD,與 AR 眼鏡共進化
正像硅谷的 AR 眼鏡夢想,已經做了 10 多年,作爲這次小鵬發佈會上 AR-HUD 的解決方案商,華爲智能車載光團隊同樣積累了多年經驗。從 2019 年成軍到 2024 年併入華爲智能汽車解決方案 BU,團隊將華爲在 ICT 時代積累的光芯片、光系統和光算法等技術,用於汽車行業中。
和華爲智能汽車解決方案 BU 將鴻蒙座艙、鴻蒙智駕等技術引入行業一樣,目前已經有上汽飛凡 R7、小鵬 G7 等車型,和問界 M9 一樣,採用了這套 AR-HUD 技術。根據團隊透露,目前有超過 20 款各家車企在研車型,也將採用 HUAWEI XHUD 方案。
而就像 AR 眼鏡行業依然在和光波導等技術較勁一樣,華爲智能車載光同樣在研究全息光學元件(HOE,Holographic Optical Elements)、光波導(Optical Waveguide)等技術路線。
可以預見的是,隨着技術不斷迭代,真正的 AR-HUD 將成爲未來智能汽車的新標配。
本文源自:極客公園