AI圈冷處理,律師圈熱討論:Transformer專利會卡大模型廠商脖子嗎?
出品 | 本站科技《態度》欄目
作者 | 袁 寧
編輯 | 丁廣勝
一場關於Transformer專利的討論,正在兩個世界裡以截然不同的方式展開。
在AI圈,它幾乎沒引起任何波瀾。
對他們而言,Transformer是一種常識級的存在,幾乎像空氣一樣不言自明。他們認爲:Transformer不僅是一項技術,更是一個生態。大家都在用,也早已與最初的模樣不同,谷歌根本不可能動真格發動專利戰。
他們更關注OpenAI是否在換架構,關心KV緩存如何優化、怎麼壓縮信息,怎麼快速收斂,或者下一個prompt tuning能不能提速5%。
當前部分使用Transformer架構的大模型,DeepSeek整理,本站科技製圖
但在另一個空間——律師圈,氣氛卻截然不同。
知名律所的專利律師正在朋友圈和會議室中頻繁提及“注意力機制”“代理授權”“中國駁回”這些關鍵詞。
有人在推演一旦專利通過後,哪些大模型公司會被波及;有人開始查閱中、美、歐專利數據庫,一頁頁比對谷歌的申請文本;還有律師乾脆直接到大模型公司登門拜訪,告訴他們是時候注意到這件事情了。
一位律師感慨:“你們搞AI的啊,真是太樂觀了。谷歌要是真開始收專利費,你們才知道什麼叫全球化風險。”
於是,一個“毫無反應”的技術世界和一個“高度活躍”的法律世界,在谷歌Transformer專利複審這件事上,對着同一件事,雙方沒有對話,做出完全不同的判斷。
但也正是這種割裂,在提醒着我們:AI 的競爭絕不只是數據、算力與算法的競速,更是關於規則制定、權利邊界與商業博弈的複合戰爭。
谷歌的專利保護範圍,針對“注意力機制”
在 AI 圈,Transformer 是常識,是已經嵌入無數大模型底層結構的“地基”。它由谷歌研究團隊於2017年,在論文《Attention Is All You Need》中提出,目前已成爲大語言模型(如 GPT、BERT、Llama)的基石。
截至2025年3月,《Attention Is All You Need》論文已被引用超17萬次,是 AI 領域最具影響力的研究之一。
該論文引入了自注意力機制和多頭注意力機制,注意力機制讓模型能在處理語言序列時,自主判斷哪些詞更重要,從而顯著提高了效率與表達能力。谷歌圍繞這一機制,已在全球佈局了數十項同族專利,並在美國、歐洲、日本等地陸續獲批。
谷歌Transformer發明專利全球佈局概況
但在國內律師圈,它卻仍是一個懸而未決的法律議題。
值得注意的是,谷歌Transformer發明專利並非針對整個Transformer架構,而是針對其核心底層機制,也就是我們通常所講的“注意力機制”。
2024年1月,中國國家知識產權局以“不屬於專利法規定的技術方案”爲由,駁回了谷歌的專利申請。
駁回決定指出,該專利主要涉及對神經網絡算法的改進,未能解決具體技術領域的具體技術問題,未能採用專利法意義上的技術手段,也未能實現專利法意義上的技術效果。
聽上去術語複雜,其實問題出在兩個核心點:一是這項發明只是對神經網絡算法的改進,並未解決某個具體的工程或技術問題;二是注意力機制是算法內部的計算邏輯,不屬於被中國專利法承認的“技術手段”。
隨後,谷歌主動調整。2024年4月,谷歌將專利限縮到“摘要”和“問答”兩個應用場景,並向中國國家知識產權局提交複審請求。同年11月14日,國家知識產權局撤銷此前駁回決定,專利進入實質性審查。
換句話說,谷歌不再主張整個注意力機制都屬於自己,而是希望先在部分高頻應用上取得突破。
這也意味着,一旦大模型在“摘要”和“問答”兩個應用場景中應用“注意力機制”,就很難逃脫谷歌的專利保護範圍。
圖注:谷歌Transformer中國發明專利的最新修改文本
但此後,新一輪的博弈又開始了。
2024年12月31日,中國國家知識產權局下發第四次審查意見通知書,指出說明書公開不充分。截至本文撰稿時,谷歌對此還沒有答覆。
圖注:《國家知識產權局的第四次審查意見通知書》
但北京高文律所合夥人、專利律師王冬告訴本站科技,無論刪除權利要求還是據理力爭,說明書公開不充分的問題不難克服。也就是說,這件中國專利未來授權概率很高。
如果這些同族專利最終獲得授權,將有助於谷歌在 AI 時代構建全球技術壁壘,讓Transformer變成企業必須“付費通行”的高速公路。
一旦谷歌主張專利侵權,企業或陷入“三選一”困局
一旦專利獲得授權,問題就不再是“能不能用”,而可能是“怎麼用”。
發明專利是專利體系中保護力度最強的,最長可達20年。此次我們所討論的谷歌 Transformer 架構的專利,就屬於發明專利範疇。
獲得專利授權後,持有者可以通過許可、轉讓或訴訟實現商業收益,並對侵權者要求停止侵害,並賠償損失。
當然,專利侵權的確認和範疇還需要複雜的界定。但一旦確認侵權,依賴該架構的企業,則或將面臨三種選擇:
· 停止使用;
· 繼續使用但支付專利許可費;
· 另尋模型架構,規避技術壁壘。
對於巨頭公司來說,支付授權費或許只是成本問題。但對技術路徑已經依賴Transformer架構、資金資源有限的中小企業而言,這幾乎等於一紙封路令。
更隱秘的風險在於:如果谷歌的專利保護範圍足夠寬泛,即使後來者對架構進行了優化和改良,也依然可能落入其權利要求的“覆蓋區”,仍然構成侵權。這讓谷歌專利更像是一條收費高速路,所有人都得“買票通行”。
但擁有專利,不等於主動開戰。
行業人士向本站科技表示,專利更多時候是一個防守型武器。它真正的價值,在於確立優先權——當有人對你發起專利訴訟,你可以用自家的專利組合進行反制。這也是爲什麼科技巨頭普遍選擇通過交叉授權來達成一種“核威懾”式的平衡。
谷歌過去在 AI 領域的專利佈局,也更像是在修一座“技術護城河”。它要的是位置,是議價權,而不是立即變現的通行費。
這背後還有現實考量:專利訴訟週期長、成本高、結果不確定。比如甲骨文訴谷歌的 Java 侵權案,整整打了十年,最後谷歌雖然贏了,但雙方都付出了鉅額代價。
涉谷歌的部分專利糾紛案件及結果,DeepSeek整理,本站科技製圖
更關鍵的是,如果谷歌今天揮舞專利大棒,明天就可能面對整個行業的聯合反彈。甚至可能遭遇反壟斷調查,或被貼上“扼殺創新”的標籤,動搖它在開發者社區中的信譽。
綜上,谷歌主動對AI大模型公司發起專利訴訟的可能性極低。但這並不意味着它不會發生。
王冬律師指出,這就像達摩克里斯之劍——它或許不會立刻落下,但誰也無法忽視它的存在。例如,谷歌可以將Transformer專利許可或轉讓給第三方專利運營公司,從而發起對大模型公司的狙擊。這在通信行業早有前車之鑑。
Transformer並非唯一,大模型架構探索仍在繼續
儘管谷歌專利引發了行業高度關注,但從技術演進的角度看,Transformer 可能並非不可替代的唯一選項。
元始智能聯合創始人、COO羅璇向本站科技透露,雖然Transformer 仍是當前主流架構,但行業內已有跡象表明,頭部 AI 公司和研究機構已經正在探索“非 Transformer ”架構的替代方案。
羅璇表示,這不僅僅是一個國產化替代的問題,更是企業在面對 Transformer 架構能力瓶頸、算力資源緊張背景下,爲追求更高效率和更強性能所做的主動技術突圍。
騰訊混元 T1就引入了 Hybrid-Mamba-Transformer 融合架構,通過結構調整大幅降低計算複雜度,並優化 KV-Cache 的內存佔用,提升推理和訓練效率。
英偉達也在其開源大模型 Nemotron-H 中使用了類似的混合架構,推理速度達到同體量競品的三倍,顯著提高了在實際部署中的能效比。
而在部署層面,微軟則更進一步:已在 Windows 系統中默認內置 RWKV 模型調用庫。羅璇告訴本站科技,RWKV 作爲一種非 Transformer 架構,已經成爲當前部署最廣泛的非transformer架構。
部分非Transformer架構的模型,DeepSeek整理,本站科技製圖
在這些架構探索和專利博弈的背後,反映出的其實是一個更深層的行業邏輯:
AI 競爭的戰場,從來不僅是技術優劣的單點比拼,更是圍繞技術生態和制度規則的全局較量。
誰擁有更高的效率、更強的通用性,當然能在模型性能上佔據先機;但誰掌握標準、協議的制定權,才能在全球範圍內確立自己的主導地位。
對國內 AI 企業而言,大模型不僅僅是技術課題,更是建立商業護城河、構建國際競爭力的核心資產。
開放與封閉、共享與壟斷、創新與合規——企業要想穿越下一階段的全球博弈,就必須不僅擅長寫代碼,也要擅長讀懂“遊戲規則”。
谷歌的 Transformer 專利最終是否會成爲 AI 產業的“緊箍咒”,尚未可知。但可以肯定的是:未來 AI 的競爭,早已不止是架構之爭,也不止是參數規模的軍備競賽。
更激烈的較量,正在算法之外悄然展開。