12月26日消息,華為常務董事、產(chǎn)品投資評審委員會主任、終端BG董事長余承東25日發(fā)布視頻,詳細介紹了耳機空間音頻的技術(shù)原理,并透露 只需要在兩只耳機中模擬不同的波形變化,就可以讓聲音出現(xiàn)在任何位置 。
據(jù)余承東介紹, 人的耳廓就是聲音重要的方向定位器之一 ,不同方向的聲音撞擊到耳廓后會產(chǎn)生波形的變化,人耳捕捉到這個變化就能定位聲音的位置。華為聲學實驗室采集了上千組人耳相關數(shù)據(jù),還研發(fā)出了空間聲場還原算法。

華為耳機的“空間音頻”并不是簡單地把多聲道信號下混,而是一套從“算法-內(nèi)容-傳輸-傳感器”全鏈路自研的沉浸聲系統(tǒng),核心思路是:用耳機里的兩顆揚聲器,去“騙過”人耳定位系統(tǒng),讓大腦以為聲音固定在體外三維空間。
整套技術(shù)可以拆成5個關鍵環(huán)節(jié):
生理建模
華為聲學實驗室采集了上千組不同人種的耳廓、頭圍、肩寬等HRTF(頭部相關傳輸函數(shù))數(shù)據(jù),建立“中國人群主特征庫”,訓練出可在線微調(diào)的個性化濾波器,解決“別人的耳朵”與“我的耳朵”定位差異 。
波形重放引擎
在耳機端實時計算兩路完全不同的脈沖響應:
對水平方向,用ITD(時間差)+ILD(聲級差)做粗定位;
對垂直與前后,靠耳廓反射峰/谷的精細波形變化實現(xiàn)“任意角度”聲像。
余承東把這套算法概括為“在左右耳機里分別模擬一條會‘拐彎’的波形,就能讓聲音出現(xiàn)在想要的位置”。
頭部跟蹤與低延遲校正
六軸IMU(陀螺儀+加速度計)以1 kHz 采樣率捕捉頭部轉(zhuǎn)動,算法預測10 ms后的頭位,提前渲染下一幀聲場;配合HarmonyOS NEXT的音頻架構(gòu)重構(gòu),F(xiàn)reeBuds Pro 4的頭動時延降到50 ms,聲音平滑度提升85%,實現(xiàn)“聲隨身動”。
高清傳輸協(xié)議
自研L2HC 4.0編解碼(最高2.3 Mbps,藍牙8 Mbps 物理帶寬)承載多聲道Audio Vivid三維聲碼流,相比傳統(tǒng)AAC提升6倍信息量,保證空間細節(jié)不被壓縮掉。
場景化渲染與內(nèi)容生態(tài)
引擎預制“有聲劇場/電影院/音樂廳”三種房間脈沖響應,對應不同的混響與直達聲比例;
華為音樂App利用AI空間解析+重混技術(shù),把存量百萬首雙聲道歌曲實時拆軌(人聲/鼓/貝斯/其他),再按影院級多聲道重新擺位,實現(xiàn)“全曲庫空間音頻”。
兩種體驗模式
① 高清空間音頻——需要HarmonyOS 4.0以上終端,支持頭部跟蹤與原生Audio Vivid多聲道;
② 獨立空間音頻——耳機本地算力完成渲染,不限手機系統(tǒng),對任何雙聲道音源(音樂、視頻、游戲)都可疊加空間感,但無頭部跟蹤。
一句話總結(jié):華為把“千人千耳”的HRTF數(shù)據(jù)庫、低延遲六軸跟蹤、高帶寬私有協(xié)議和場景級渲染引擎全部打包進一顆麒麟A2芯片,讓兩顆小揚聲器就能在腦袋里“放電影”。

