抖音揭露演算法機制:透過神經網路計算 預估用戶行爲
▲抖音。(圖/CFP)
記者蔡紹堅/綜合報導
抖音近日首次揭露其演算法機制,抖音算法工程師劉暢在抖音「安全與信任中心開放日」上介紹,抖音算法已幾乎不依賴對內容和用戶打標籤,而是通過神經網路計算,預估用戶行爲,計算用戶觀看這條內容獲得的價值總和,把排名靠前的內容推給用戶。
劉暢提到,抖音推薦算法作爲人工智慧機器學習技術的重要應用場景,本質上是一套高效的訊息過濾系統。
劉暢說,在實際應用中,平臺推薦系統採取「人工+機器」協同的方式進行風險治理,由人工運營和治理體系爲算法導航,同時多目標體系算法主動打破 「訊息繭房」,爲用戶帶來更豐富的推薦結果。
劉暢指出,從推薦算法來看,抖音與國內外大部分內容推薦平臺相似,包含召回、過濾、排序等環節,重點是學習用戶行爲。抖音基於用戶行爲的推薦方法包含多種技術模型,如協同過濾、雙塔召回、Wide&Deep模型(均爲推薦系統中常用模型)等。
劉暢說,算法可以在完全「不理解內容」的情況下,找到興趣相似的用戶,把其他人感興趣的內容推薦給該用戶。
劉暢提到,目前,抖音算法已幾乎不依賴對內容和用戶打標籤,而是通過神經網路計算,預估用戶行爲,計算用戶觀看這條內容獲得的價值總和,把排名靠前的內容推給用戶。
對於外界擔憂的「訊息繭房」問題,劉暢強調,抖音算法在多目標建模體系下,設置專門的探索維度,一是對用戶在平臺上已經表現出的興趣,儘可能推薦更多樣的內容,通過多樣性打散、多興趣召回、扶持小衆(長尾)興趣等方法控制相似內容出現的頻次。
劉暢指出,二是幫助用戶探索更多新興趣,採用隨機推薦、基於用戶社交關係拓展興趣、搜索推薦聯動、「不感興趣」不再展現等多種方式,讓用戶的主動行爲影響推薦系統,使推薦更加個性化和多樣化。
劉暢解釋,算法能學習、預估用戶行爲,但因其無法理解內容語義,對內容的理解存在不足,可能導致違法違規、不良內容被推薦傳播,「因此,算法在真實使用場景中,必須由平臺治理對其進行約束和規範。」
在內容治理方面,抖音生態運營經理陳丹丹說,抖音的體系是「人工參與+機器學習」相結合的模式,並組建專門的平臺治理團隊爲算法設置「護欄」,具體治理體系包括異常感知、標準定義、機器識別、人工研判、風險處置等過程。
陳丹丹解釋,治理流程秉持兩大準則,第一:所有在平臺發佈的內容都會經過評估,流量越高的內容評估次數越多,標準也越嚴格。第二:抖音內容審覈採用「人工+機器」相互配合的模式,「機器」負責「寬度」評估所有投稿,「人工」負責「深度」,確保專業、敏感或疑難等問題儘可能精準研判。
陳丹丹指出,創作者將內容上傳至抖音後,首先進入機器識別環節。如果內容被識別出含有高危特徵,將被直接攔截;,「未命中高危特徵但模型判斷有問題,則會送至人工審覈,若問題概率較低,則獲得基礎流量進入下一環節。」
陳丹丹還說,影片被舉報、評論區出現集中質疑、流量激增等情況出現,均可能觸發「人工+機器」審覈。一旦內容在任一環節被處置,系統會立即停止進一步推薦和分發。