騰訊混元圖生視頻模型發佈並開源
3月6日,騰訊混元發佈圖生視頻模型並對外開源,同時上線對口型與動作驅動等玩法,並支持生成背景音效及2K高質量視頻。
基於圖生視頻的能力,用戶只需上傳一張圖片,並簡短描述希望畫面如何運動、鏡頭如何調度等,混元即可按照用戶要求讓圖片動起來,變成5秒的短視頻,還能自動配上合適的背景音效。此外,上傳一張人物圖片,並輸入希望“對口型”的文字或音頻,圖片中的人物即可“說話”或“唱歌”;如果選擇動作模版,還能一鍵生成同款跳舞視頻。目前用戶通過混元AI視頻官網即可體驗,企業和開發者可在騰訊雲申請使用API接口使用。
此次開源的圖生視頻模型,是混元文生視頻模型開源工作的延續,模型總參數量保持 130 億,適用於多種類型的角色和場景,包括寫實視頻製作、動漫角色甚至CGI角色製作的生成。開源內容包含權重、推理代碼和LoRA訓練代碼,支持開發者基於混元訓練專屬LoRA等衍生模型。目前在Github、HuggingFace等主流開發者社區均可下載體驗。
目前,混元開源系列模型已經完整覆蓋文本、圖像、視頻和3D生成等多個模態,在Github 累計獲得超 2.3 萬開發者關注和star。