小紅書開源首個大模型 預訓練未使用合成數據
【小紅書開源首個大模型 預訓練未使用合成數據】《科創板日報》10日訊,小紅書開源了首個大模型dots.llm1,小紅書方面告訴《科創板日報》,dots.llm1是一個1420億參數的混合專家模型(MoE),在推理過程中僅激活140億參數,能保持高性能的同時大幅度降低訓練和推理成本。此外,dots.llm1.ins在預訓練階段使用了11.2萬億的非合成數據,最終性能與阿里Qwen3-32b相比,在中英文、數學、對齊任務上表現接近。(記者 張洋洋)
相關資訊
- ▣ 剛剛,全球最強開源大模型 Llama 3 發佈:使用 15T 數據預訓練,最大模型參數將超 4000 億
- ▣ 微軟旗下LinkedIn遭集體訴訟:未經用戶同意使用數據訓練AI模型
- ▣ 巴西數據保護機構:Meta不得使用該國數據訓練其AI模型
- ▣ 小紅書首次開源文本大模型dots.llm1
- ▣ 微軟否認使用客戶數據來訓練人工智能模型
- ▣ 國內首家人工智能數據訓練基地投用 大模型訓練“一站式”提供
- ▣ 巴西禁止臉書母公司“元”擅用用戶數據訓練AI模型
- ▣ 英偉達等巨頭被曝違規使用YouTube數據訓練模型 涉17萬個視頻
- ▣ Meta恢復在歐盟使用用戶公開數據訓練 AI 模型,曾因隱私問題暫停
- ▣ 最強開源大模型Llama 3來了!4000億參數模型狙擊GPT-4,訓練數據量達Llama 2七倍
- ▣ IBM申請訓練數據標識和模型選擇專利,提供用於訓練數據標識和模型選擇的技術
- ▣ AI“數據荒”怎麼辦?微軟、谷歌等公司正使用“合成數據”訓練AI
- ▣ 卓創資訊:致力於使用大宗商品數據訓練大模型提升分析表現
- ▣ Meta收到11項投訴 指其使用個人數據訓練AI模型違反歐盟隱私規則
- ▣ 蘋果使用谷歌芯片訓練AI模型 未採用NVIDIA GPU
- ▣ 美股盤前要點 | 11月“小非農”數據今晚公佈 蘋果考慮使用亞馬遜AI芯片預訓練模型
- ▣ OpenAI“不能說的秘密”被公開了?使用YouTube數據訓練模型 獲取方式並不光彩
- ▣ 只用0.5天,訓練一個15億參數小模型;谷歌推出新型Transformer架構|大模型週報
- ▣ 劍橋團隊開源:首個預訓練通用多模態後期交互知識檢索器
- ▣ 全球首次!時序大模型突破十億參數,華人團隊發佈Time-MoE,預訓練數據達3000億個時間點
- ChatGPT教育版推出 對話和數據不用於訓練模型
- ▣ 白宮AI負責人:有證據表明DeepSeek使用OpenAI來訓練模型
- ▣ 使用GPT-4生成訓練數據微調GPT-3.5 RAG管道
- ▣ 字節跳動發佈豆包大模型1.5Pro,強調獨立的訓練數據來源
- ▣ 又遭投訴!Meta因利用用戶數據訓練人工智能模型遭挪威“開火”
- ▣ 匯洲智能:卡位大模型的數據預訓練新秀(財通證券研報)
- ▣ 中控數智申請基於AGI大模型的智能體訓練方法及其應用專利,降低了訓練和使用成本
- ▣ Meta 被指控使用盜版數據集訓練 Llama AI 模型,扎克伯格批准引發爭議
- AI數據荒下的創業衆生相:盜用GPT-4生成數據訓練模型,引發投資人擔憂