“仿生智能耳蝸”讓聲音更真切
本報記者 李 墨
如何使人工聽覺設備適應複雜聲學環境、“原汁原味”地重現聲音?英國倫敦大學學院研究團隊近日在國際期刊《科學進展》上發佈了一項新的智能聽覺系統成果,通過模擬人類的完整聽覺過程,集成運用壓電納米纖維和人工智能神經網絡等,實現對聲音方向和內容的更精準識別。“我們期待未來的智能聽覺系統不僅能採集聲音,更能以‘類人’方式解析聲音,提供更加自然真實的聽覺體驗。”該研究的通訊作者、倫敦大學學院醫學院外科與介入科學部生物材料和醫學工程教授宋文輝接受本報記者採訪時表示。
作爲人類聽覺系統的核心精密結構,耳蝸通過基底膜來分離聲波頻率成分,其表面約3500個內毛細胞如同天然換能器,將機械振動轉化爲電信號,最終傳遞至大腦進行解析。常見的人工耳蝸藉助麥克風和電極陣列實現類似功能,但其電極通道數量一般不超過24個,遠少於人類正常耳蝸的內毛細胞,因而難以高質量還原聲音的細節和層次。同時,傳統人工耳蝸在聲源定位的精度上仍有差距,且設備運行需要外掛處理器和電源,在性能和續航等方面有明顯短板。
此次研究團隊通過先進製造工藝將壓電納米纖維製備成徑向排列的纖維陣列,研製出一種螺旋形蹦牀狀結構的聲學傳感器裝置。“這些納米纖維就像繃緊的蹦牀繩,可以捕獲環境聲振動並將其轉換爲不同頻率的電信號,從而模擬人類耳蝸的頻率分離功能。”宋文輝表示,柔性壓電納米纖維對聲波的靈敏度顯著優於傳統壓電薄膜,能夠有效響應人類核心聽覺頻段。未來,這一“仿生耳蝸”有望被進一步縮小至納米尺度,每一根納米纖維都能成爲一個獨立通道,進而解決現有人工耳蝸電極通道少、頻譜分辨率低的問題。同時,得益於材料的壓電特性,該系統還具有自供電潛力,可通過環境機械振動收集能量,減少對電池或外部電源的依賴,爲產品的微型化與節能化改進創造了條件。
除了精準敏銳的“仿生耳蝸”,該系統還配備了可以“聽懂”聲音方向和內容的“聲學大腦”。傳統雙側人工耳蝸僅能通過分析聲音到達雙耳時的強度和時間差異信息,來判斷聲音在水平方向的位置,對於垂直方向上的聲源定位則力不從心。該系統可以從“仿生耳蝸”轉換的電信號中提取和分析不同方向聲音的頻譜特徵,在水平和垂直方向上的聲源識別準確率分別爲97%和92%,對聲音距離判斷的準確率達到100%。不僅如此,搭載了人工智能模型的人工聽覺系統還具備聲音內容識別、音樂錄製和回放等功能。
“在學術前沿熱點的仿生聽覺傳感器領域,該研究通過物理器件模擬人類耳蝸,直接實現了聲波不同頻率成分分離。”中國科學院聲學研究所研究員鄭成詩對本報記者表示,這項研究採用螺旋狀長度與方向漸變的壓電納米纖維,經結構設計與器件製備,成功模擬人類耳蝸基底膜的頻率解析功能。同時,進一步結合神經網絡,實現了聲源水平、垂直方向及距離的識別,並可完成聲音內容識別。儘管當前研究仍處於實驗室原型階段,但其新穎的研究思路,對於未來聲探測感知、人工耳蝸等領域的創新應用將很有啓發意義。
據瞭解,該研究團隊已計劃啓動可穿戴設備研發,不過實現臨牀轉化仍面臨多重挑戰。研究團隊表示,現有研究成果主要基於實驗室環境,設備在真實噪聲環境下的性能還有待驗證;同時,開發半植入或全植入式聽覺設備的過程將更加複雜艱鉅,需進一步實現系統設備的集成和微型化,使其滿足長期生物相容性標準,並建立安全有效的外科植入方案。
《 人民日報 》( 2025年05月29日 17 版)