華爲雲:盤古預測大模型首創 Triplet Transformer 統一預訓練架構
6月20日,在華爲開發者大會2025(HDC 2025)上,華爲常務董事、華爲雲計算CEO張平安發佈盤古大模型5.5。張平安表示,本次盤古預測大模型的關鍵升級點是,採用其首創的triplet transformer統一預訓練架構,將不同行業的數據,包括工藝參數的表格數據,設備運行日誌的時間序列數據,產品檢測的圖片數據進行統一的三元組編碼,並在同一框架內高效處理和預訓練,可極大提升預測大模型的精度,並大幅提升跨行業、跨場景的泛化性。
相關資訊
- ▣ 只用0.5天,訓練一個15億參數小模型;谷歌推出新型Transformer架構|大模型週報
- ▣ NeurIPS Spotlight | 決策模型有了全新預訓練範式統一框架
- ▣ 華爲雲盤古大模型5.0發佈
- ▣ 昇騰原生,華爲發佈準萬億模型Pangu Ultra MoE模型架構和訓練細節
- ▣ 華爲預測大模型首次投入寶鋼生產控制
- ▣ MIT系初創打破Transformer霸權!液體基礎模型刷新SOTA,非GPT架構首次顯著超越Transformer
- ▣ 華爲雲盤古大模型通過金融大模型標準符合性驗證
- ▣ 預訓練大模型團隊將被阿里雲收購?零一萬物:消息不實
- ▣ 百度申請模型訓練或干預增益預測專利,能夠減少累加干預增益預測誤差
- ▣ 華爲發佈盤古大模型5.5
- ▣ 百川智能否認停止預訓練大模型
- ▣ Mamba架構第一次做大!混合Transformer,打敗Transformer
- ▣ 新架構RNN反超Transformer:每個隱藏狀態都是一個模型
- ▣ 長江設計等申請巖體條件預測模型構建相關專利,優化模型訓練過程中超參數
- ▣ 小紅書開源首個大模型 預訓練未使用合成數據
- ▣ 阿里雲副總裁李飛飛:AI下半場打“系統戰” 大模型預訓練將走向“寡頭化”
- ▣ 華爲雲:盤古大模型助力醫藥健康五大場景落地
- ▣ 機構預測大模型2025年熱度或將降溫
- ▣ 華爲的準萬億大模型,是如何訓練的?
- ▣ 零一萬物:下週將發新旗艦模型 預訓練不停
- ▣ 再戰Transformer!原作者帶隊的Mamba 2來了,新架構訓練效率提升
- ▣ 長江設計等申請隧道擠壓變形預測相關專利,提升訓練得到的隧道擠壓變形預測模型的模型性能
- ▣ 阿里雲取得預訓練語言模型的知識注入方法和相應的交互系統專利
- ▣ 華爲MateBook X Pro將4月11日發佈 將首次支持華爲盤古大模型
- ▣ 華爲雲:盤古藥物分子大模型新增十大AI製藥核心場景
- 超越華爲盤古千億模型,搜狗搜索再創中文語言理解評測CLUE世界第一
- ▣ 百度取得預訓練語言模型相關專利
- ▣ 百度在線申請交通大模型訓練專利,提高通行時間預測準確度
- ▣ 雲從科技取得聯邦學習模型訓練相關專利,提升聯邦學習框架系統的訓練效果