系統(tǒng)基礎(chǔ)知識與整體框架詳細設(shè)計_第1頁
系統(tǒng)基礎(chǔ)知識與整體框架詳細設(shè)計_第2頁
系統(tǒng)基礎(chǔ)知識與整體框架詳細設(shè)計_第3頁
系統(tǒng)基礎(chǔ)知識與整體框架詳細設(shè)計_第4頁
系統(tǒng)基礎(chǔ)知識與整體框架詳細設(shè)計_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

推薦系統(tǒng)的基礎(chǔ)知識與整體框架詳細設(shè)計

一、推薦算法的理解................................................2

二、推薦系統(tǒng)的整體框架............................................2

三、用戶畫像.......................................................3

3.1用戶標簽...................................................3

3.2用戶畫像的分類............................................3

3.2.1.原始數(shù)據(jù)..........................................4

3.2.2.事實標簽..........................................4

3.2.3.模型標簽..........................................5

四、內(nèi)容畫像.......................................................5

4.1內(nèi)容畫像..............................................5

4.2環(huán)境變量...............................................6

五、算法構(gòu)建.......................................................6

5.1推薦算法流程..............................................6

5.2召回策略..................................................8

5.3粗排策略..................................................9

5.4精排策略..................................................9

5.4.1精排目標............................................9

5.4.2精排模型............................................11

5.4.3邏輯回歸---最簡單Model-based模型...............14

5.4.4深度學(xué)習(xí)一一當前最新發(fā)展方向......................16

5.5重排層策略...............................................20

5.5.1EE問題............................................20

5.5.2多樣性問題........................................21

5.5.3上下文問題........................................21

5.6冷啟動...................................................22

5.6.1用戶冷啟..........................................22

5.6.2內(nèi)容冷啟..........................................23

六、當前發(fā)展......................................................23

七.算法衡量標準...............................................25

7.1指標選擇.................................................25

7.2推薦效果.................................................26

八.算法之外....................................................27

8.1推薦算法是否會導(dǎo)致信息不平等和信息繭房?...............27

8.2算法可能產(chǎn)生的蝴蝶效應(yīng)..................................27

8.2.1推薦算法對feed傳播的影響........................28

8.2.2推薦算法對平臺的影響...............................29

一、推薦算法的理解

如果說互聯(lián)網(wǎng)的目標就是連接一切,那么推薦系統(tǒng)的作用就是建立更

加有效率的連接,節(jié)約大量用戶與內(nèi)容和服務(wù)連接的時間和成本。如果把

推薦系統(tǒng)簡單拆開來看,推薦系統(tǒng)主要是由數(shù)據(jù)、算法、架構(gòu)三個方面組

成。

.數(shù)據(jù)提供了信息。數(shù)據(jù)儲存了信息,包括用戶與內(nèi)容的屬性,用戶

的行為偏好例如對新聞的點擊、玩過的英雄、購買的物品等等。

這些數(shù)據(jù)特征非常關(guān)鍵,甚至可以說它們決定了一個算法的上

限。

.算法提供了邏輯。數(shù)據(jù)通過不斷的積累,存儲了巨量的信息。在巨

大的數(shù)據(jù)量與數(shù)據(jù)維度下,人已經(jīng)無法通過人工策略進行分析干

預(yù),因此需要基于一套復(fù)雜的信息處理邏輯,基于大量的數(shù)據(jù)學(xué)

習(xí)返回推薦的內(nèi)容或服務(wù)。

.架構(gòu)解放了雙手。架構(gòu)保證整個推薦自動化、實時性的運行。架構(gòu)

包含了接收用戶請求,收集、處理,存儲用戶數(shù)據(jù),推薦算法計

算,返回推薦結(jié)果等。一個推薦系統(tǒng)的實時性要求越高、訪問量

越大,那么這個推薦系統(tǒng)的架構(gòu)會越復(fù)雜。

二、推薦系統(tǒng)的整體框架

客戶愛

用戶與內(nèi)容

協(xié)設(shè)接入

接入調(diào)度層1

分發(fā)調(diào)度

推薦翼法層

公用組件

報表

系靛

存儲單元內(nèi)容索引Redis

推薦的框架主要有以下幾個模塊

?協(xié)議調(diào)度:請求的發(fā)送和結(jié)果的回傳。在請求中,用戶會發(fā)送

自己的ID,地理位置等信息。結(jié)果回傳中會返回推薦系統(tǒng)給用戶

推薦的結(jié)果。

?推薦算法:算法按照一定的邏輯為用戶產(chǎn)生最終的推薦結(jié)果,

不同的推薦算法基于不同的邏輯與數(shù)據(jù)運算過程。

?消息隊列:數(shù)據(jù)的上報與處理。根據(jù)用戶的ID,拉取例如用

戶的性別、之前的點擊、收藏等用戶信息。而用戶在APP中產(chǎn)生

的新行為,例如新的點擊會儲存在存儲單元里面。

?存儲單元:不同的數(shù)據(jù)類型和用途會儲存在不同的存儲單元

中,例如內(nèi)容標簽與內(nèi)容的索引存儲在mysql里,實時性數(shù)據(jù)存

儲在redis里,需要進行數(shù)據(jù)統(tǒng)計的大量離線數(shù)據(jù)存儲在

hivesql里。

三、用戶畫像

3.1用戶標簽

標簽是我們對多維事物的降維理解,抽象出事物更具有代表性的特

點。我們永遠無法完全的了解一個人,所以我們只能夠通過一個一個標簽

的來刻畫他,所有的標簽最終會構(gòu)建為一個立體的畫像,一個詳盡的用戶

畫像可以幫助我們更好的理解用戶。

3.2用戶畫像的分類

原始

數(shù)據(jù)

用戶行為日志用戶數(shù)據(jù)內(nèi)容數(shù)據(jù)外部數(shù)據(jù)

數(shù)

據(jù)

靜態(tài)畫像動態(tài)畫像

事實

性別年齡

標簽顯式行為:點贊、評論、分享、關(guān)注、評分

建學(xué)歷■常住位置■隱式行為:點擊、時長、次數(shù)、天數(shù)、間隔

用戶游戲偏好用戶內(nèi)容偏好用戶標簽偏好

模型

標簽用戶活躍度分層用戶關(guān)鍵詞偏好

3.2.1.原始數(shù)據(jù)

原始數(shù)據(jù)一共包含四個方面(以游戲內(nèi)容推薦為例)。

?用戶數(shù)據(jù):例如用戶的性別、年齡、渠道、注冊時間、手機機型等。

?內(nèi)容數(shù)據(jù):例如游戲的品類,對游戲描述、評論的爬蟲之后得到的

關(guān)鍵詞、標簽等。

?用戶與內(nèi)容的交互:基于用戶的行為,了解了什么樣的用戶喜歡什

么樣的游戲品類、關(guān)鍵詞、標簽等。

?外部數(shù)據(jù):單一的產(chǎn)品只能描述用戶的某一類喜好,外部數(shù)據(jù)標簽

可以讓用戶更加的立體。

3.2.2.事實標簽

事實標簽可以分為靜態(tài)畫像和動態(tài)畫像。

?靜態(tài)畫像:用戶獨立于產(chǎn)品場景之外的屬性,例如用戶的自然屬性,

這類信息比較穩(wěn)定,具有統(tǒng)計性意義。

.動態(tài)畫像:用戶在場景中所產(chǎn)生的顯示行為或隱式行為:

1.顯示行為:用戶明確的表達了自己的喜好,例如點贊、分享、評分、

評論(可以通過NLP來判斷情感的正負向)等。

2.隱式行為:用戶沒有明確表達自己的喜好,但用戶會用實際行動,

例如點擊、停留時長等隱性的行為表達自己的喜好。隱式行為的權(quán)

重小于顯性行為,但是在實際業(yè)務(wù)中,用戶的顯示,亍為都比較稀疏,

所以需要依賴大量的隱式行為。

3.2.3.模型標簽

模型標簽是由事實標簽通過加權(quán)計算或是聚類分析所得。通過一層加

工處理后,標簽所包含的信息量得到提升,在推薦過程中效果更好。

?聚類分析:例如按照用戶的活躍度進行聚類,將用戶分為高活

躍-中活躍-低活躍三類。

?加權(quán)計算:根據(jù)用戶的行為將用戶的標簽加權(quán)計算,得到每一

個標簽的分數(shù),用于之后推薦算法的計算。

四、內(nèi)容畫像

4.1內(nèi)容畫像

推薦內(nèi)容與場景通常可以分為以下幾類,根據(jù)所推薦的內(nèi)容不同,其

內(nèi)容畫像的處理方式也不同。

?文章推薦:例如新聞內(nèi)容推薦,需要利用NLP的技術(shù)對文

章的標題,正文等提取關(guān)鍵詞、標簽、分類等。

?視頻推薦:除了對于分類、標題關(guān)鍵詞的抓取外,還依賴于

圖片與視頻處理技術(shù),例如識別內(nèi)容標簽、內(nèi)容相似性等。

短視班

內(nèi)容畫像外,環(huán)境畫像也非常重要。例如在短視頻的推薦場景中,用

戶在看到一條視頻所處的時間、地點以及當時所瀏覽的前后內(nèi)容、當天己

瀏覽時間等也是非常重要的信息,但由于環(huán)境變量數(shù)據(jù)量較大、類型較

多,對推薦架構(gòu)以及工程實現(xiàn)能力的要求也較高。

五、算法構(gòu)建

5.1推薦算法流程

推薦算法其實本質(zhì)上是一種信息處理邏輯,當獲取了用戶與內(nèi)容的信

息之后,按照一定的邏輯處理信息后,產(chǎn)生推薦結(jié)果。熱度排行榜就是最

簡單的一種推薦方法,它依賴的邏輯就是當一個內(nèi)容被大多數(shù)用戶喜歡,

那大概率其他用戶也會喜歡。但是基于粗放的推薦往往會不夠精確,想要

挖掘用戶個性化的,小眾化的興趣,需要制定復(fù)雜的規(guī)則運算邏輯,由機

器完成。推薦算法主要分為以下幾步:

.召回:當用戶以及內(nèi)容量比較大的時候,往往先通過召回策略,將

百萬量級的內(nèi)容先縮小到百量級。

.過濾:對于內(nèi)容不可重復(fù)消費的領(lǐng)域,例如實時性比較強的新聞等,

在用戶己經(jīng)曝光和點擊后不會再推送到用戶面前。

.精排:對于召回并過濾后的內(nèi)容進行排序,將百量級的內(nèi)容按照順

序推送。

.混排:為避免內(nèi)容越推越窄,將精排后的推薦結(jié)果進行一定修改,

例如控制某一類型的頻次,EE問題處理等。

?強規(guī)則:根據(jù)業(yè)務(wù)規(guī)則進行修改,例如在活動時將某些文章置頂以

及熱點內(nèi)容的強插等。

5.2召回策略

?召回層目的:當用戶與內(nèi)容的量級比較大,例如對百萬量級的用戶

與內(nèi)容計算概率,就會產(chǎn)生百萬*百萬量級的計算量。但同時,大

量內(nèi)容中真正的精品只是少數(shù),對所有內(nèi)容進行計算將非常的低效,

浪費大量的資源和時間。因此采用召回策略,例如熱銷召回,召回

一段時間內(nèi)最熱門的100個內(nèi)容,只需進行一次計算動作,就可以

對所有用戶應(yīng)用。

?召回層重要性:召回模型是一個推薦系統(tǒng)的天花板,決定了后續(xù)可

排序的空間。

?召回層方法:召回對算法的精度、范圍、性能都有較高要求。當前

業(yè)界常采用離線訓(xùn)練+打分或離線訓(xùn)練達到向量表達+向量檢索的

方式。(對比精排為了提高準確率,更多用離線-實時打分,或在

線學(xué)習(xí)的方式)。

召回方法主要特點優(yōu)勢局限性

利用標簽、時效等單一策略召回

?熱銷召回:將一段時間內(nèi)的熱門內(nèi)容召

回.

?協(xié)同召回;基于用戶與用戶行為的相似

性推程,可以很好的突破,定的限制,發(fā)現(xiàn)

用戶潛在的興電偏好.

單策略4回?標簽召回:根據(jù)每個用戶的行為,構(gòu)建速度快,實現(xiàn)同單革?策略詞召問題較大

標簽,并根IK標簽召回內(nèi)容.

?將?段時間內(nèi)靖新的內(nèi)容召

H.在新網(wǎng)視麒等有時效性的加域常用.

?其他策略:例如利用美系錘、或?qū)δ愁?/p>

用戶實現(xiàn)某類具體的策略.

大量人工調(diào)參來決定每路規(guī)

方法相互補充,可以覆蓋不

多路召回融合多個單?策略模,召回通路之間可比較性、

同的召回需求

可解擇性較弱

新、新缺失

基于^訓(xùn)練好的用戶、物品embedding向量可以融合大量的用戶和物品itemuser

embedding召回

特征,提高整體精準度

召回實時性更弱

?召回層與業(yè)務(wù)場景的結(jié)合

除了常規(guī)召回方式外,召回可以更多的與實際業(yè)務(wù)目標與場景結(jié)合,例如

在飛豬業(yè)務(wù)場景中,其存在幾類行業(yè)特點:1.訂單類型較多(涉及到交

通、酒店、景區(qū)、周邊游),且業(yè)務(wù)之間具有一定的相關(guān)性和搭配性。2.

用戶存在周期性復(fù)購情況。3.用戶訂單的稀疏性較大。針對這些問題,

其召回層會結(jié)合以下解決方案:1.相關(guān)性&搭配性問題

?協(xié)同往往只能召回相似的商品,而考慮到推薦目標的替代性和互補

性,更多挖掘反應(yīng)搭配關(guān)系的行為集合。

?數(shù)據(jù)稀疏且噪音較大,僅僅基于數(shù)據(jù)構(gòu)建圖,badcase較多,所以

需要利用行業(yè)的知識圖譜。

?結(jié)合行為序列:行為序列挖掘-〉構(gòu)件圖(通過知識圖譜來增加約束)

序列采樣(降低噪音,抑制熱門問題)訓(xùn)練。

2.周期性復(fù)購問題

?部分用戶存在固定的購買模式。利用Poission-Gamma分布的統(tǒng)計建

模。計算在某個時間點,購買某個商品的概率,在正確的時間點給

用戶推出合適的復(fù)購商品。

5.3粗排策略

?粗排層目的:為后續(xù)鏈路提供集合。

?粗排層特點:打分量高于精排,但有嚴格的延遲約束。

?粗排層方法:主要分為兩種路線

1.集合選擇:以集合為建模目標,選出滿足后鏈路需求集合。其可控

性較弱,算力消耗較小。(多通道、listwise、序列生成)

2.精準預(yù)估:以值為建模目標,直接對系統(tǒng)目標進行值預(yù)估。可控性

較高,算力消耗較大。(pointwise)

?粗排層發(fā)展歷史:質(zhì)量分->LR等傳統(tǒng)機器學(xué)習(xí)-〉向量內(nèi)內(nèi)卷積(雙

塔模型)->COLD全鏈路(阿里)

5.4精排策略

5.4.1精排目標

?精排層多目標融合原則

1.用戶的效用需要通過多個指標反饋:例如用戶對視頻的喜好,會通

過停留時長、完播、點贊等多個動作反應(yīng)。

2.產(chǎn)品的目標需要通過多個指標衡量:例如短視頻產(chǎn)品不僅需要考慮

用戶效用,也需要考慮作者效用、平臺目標與生態(tài)影響。

?精排層多目標融合實例

以短視頻行業(yè)為例,推薦目標主要由幾個方面組成:

?對用戶價值。

?對作者價值,包括給作者的流量,互動,收入等。

?對內(nèi)容生態(tài)價值,包括品牌價值、內(nèi)容安全、平臺收入。

?間接價值,非直接由視頻產(chǎn)生,例如用戶的評論提醒,會改善用戶

的留存率。

1上3|窘床笠二笳而察

ScoreA:互動和時長的多目標線性加權(quán)公式

ScoreB:長皿[0,300s)

ScoreC:觀看完成度收益[0,1]

ScoreD:點例概率?點?m用戶效用

ScoreE:關(guān)注微率?關(guān)注的用戶效用

ScoreF:分享概率?(分享的用戶效用的卜部效用)

ScoreG:進入原聲頁概率?(原聲收藏概率■收藏

的用戶效用?原聲拍攝概率?作品價值)

ScoreL:Pointwiselearn2Rank排序分

ScoreM:PairwiseLearn2Rank排序分

參考:《多目標排序在快手短視頻推薦中的實踐》

?精排層多目標融合方法

i.改變樣本權(quán)重/多模型分數(shù)融合:(1)改變樣本權(quán)重:先通過權(quán)重

構(gòu)造目標值,再進行模型擬合。(2)多模型分數(shù)融合:先進行模型

擬合在進行加權(quán)融合。缺點:依賴規(guī)則設(shè)計,依賴人工調(diào)參,且經(jīng)

常面臨以A目標換取B目標的問題。

2.Learntorank:pairwise、listwise直接排序。

3.結(jié)合在線數(shù)據(jù)自動調(diào)參:5%線上流量探索,每次探索N組參數(shù),根

據(jù)用戶的實時reward來優(yōu)化線上的調(diào)參算法。設(shè)計約束項,在閾

值內(nèi)線性弱衰減,超出閾值指數(shù)強衰減。

4.多任務(wù)學(xué)習(xí):結(jié)合深度學(xué)習(xí)網(wǎng)絡(luò),可以共享embecding特征,采用

多種特征組合方式,達到相互促進以及泛化的作用。例如MMOE模

型,不同的專家可以從相同的輸入中提取出不同的特征,由gate

attention結(jié)構(gòu),把專家提取出的特征篩選出各個task最相關(guān)的

特征,分別接入不同任務(wù)的全連接層。不同的任務(wù)需要不同的信息,

因此每個任務(wù)都由獨立gate負責。

Figure1:(a)Shared-Bottommodel,(b)One-gateMoEmodel,(c)Multi-gateMoEmodel.

5.4.2精排模型

?精排模型發(fā)展歷史

CollaborativeFilteringModelsGenericFeature-basedModels

^DeepLearning-basedDeepLearning-based

oNeuMF[He]ONFM[He]

oONCF[He]oDeepCross[Shan]

oDeepMF[Xue]oYouTubeRecommender

oACF(Chen)[Covington]

NAIS[He]oWide&Deep[Cheng]

2016-20I9Q

DeeplCF(Xue]oDeepFM[Guo]

2016~201SQ4、

oxDeepFM[Lian]

Model-based(ItemCF)oFNN[Zhang]

oFISM[Kabbur]oPNN[Qu]

JoSLIM[Ning]

oCrossNet(Wang]

6A.OSVD4[Yehuda]

oTEM[V/ang]

Model-based(UserCF)\o^..y

20l(k20l6O

oMF[Koren]^^FactorizationMachines

oBPR-MF[Rendle]

2009|oFM[Rendle)

Memory-basedFFM[Juan]

oUserSimilarity[Thomas]

1994-2004oItemSimilarity[GregLinden]

oCosineSimilarity[Stuart]

oPearsonCorrelation[Paul]

?精排模型分類

基于內(nèi)容屬性的相似性推卷

SVDFeature

?精排模型基本原理

精排模型基本原理

根據(jù)內(nèi)容的相似性,例如標題、標簽、正

基于內(nèi)容屬性的相似性推薦

文相似性進行推薦

根據(jù)用戶過去的行為判斷用戶之間的相似

基于用戶的協(xié)同過濾

性,推薦相似用戶喜歡的內(nèi)容

基于用戶

行為的協(xié)

同過濾

根據(jù)用戶過去的行為判斷內(nèi)容之間的相似

基于內(nèi)容的協(xié)同過濾

性,推薦相似的內(nèi)容

邏輯回歸

FM

將點擊率作為變量,預(yù)測用戶對于每一

分類模型Y

個內(nèi)容之間的點擊率

樹模型0-1

深度學(xué)習(xí)DNN

將評分矩陣分解為用戶與內(nèi)容矩陣,根據(jù)

因子分解

相似性預(yù)測其他評分

?精排模型優(yōu)缺點

精排模型優(yōu)點缺點

單純的從內(nèi)容的相似性進

基于內(nèi)容屬性的相似性對于新內(nèi)容友好,較為公

行判斷,會忽略用戶的行

推薦平

更適用于內(nèi)容海量頻繁更用戶量大的時候,矩陣過

基于用戶的協(xié)

新,但用戶較為穩(wěn)定的場于稀疏推薦結(jié)果可能會產(chǎn)

同過濾

景(例如社交推薦的場景:;生馬太效應(yīng),會越推越熱

基于用戶

行為的協(xié)

同過濾

物品量大的時候,矩陣過

基于內(nèi)容的協(xié)更適用于用戶數(shù)量遠遠大

于稀疏推薦結(jié)果可能會產(chǎn)

同過濾于內(nèi)容的場景

生馬太效應(yīng),會越推越熱

模型簡單易用,比較容易

邏輯回歸需要手動進行特征工程

控制和解釋

相對于邏輯回歸,無需進

交叉特征的解釋性較邏輯

行特征交叉,自動產(chǎn)生隱

FM回歸差

變量

分類模型

相對于邏輯回歸,不需要

在高維度稀疏特征的情況

樹模型進行特征處理(歸一化、

下容易產(chǎn)生過擬合

離散化)

深度學(xué)習(xí)DN在處理大數(shù)據(jù)量,高維度

復(fù)雜,難以解釋

N表現(xiàn)更好

解決矩陣稀疏性問題,節(jié)

因子分解

省計算資源

5.4.3邏輯回歸----最簡單Model-based模型

?原理介紹

1.概念:邏輯回歸通過sigmoid函數(shù),將線性回歸變?yōu)榭梢越鉀Q二分類

的方法,它可用于估計某種事物發(fā)生的可能性。

2.計算公式:Y根據(jù)目標設(shè)計:例如是否點擊(是:1,否:0,最后預(yù)

測一個0-1之間的點擊概率);X根據(jù)特征工程設(shè)計:這一塊就涉及到了

前面提到的用戶畫像與內(nèi)容畫像,所有的畫像都是對樣本的特征的刻

畫。特征工程需要根據(jù)業(yè)務(wù)場景選擇合適的特征并進行一定的加工:W由

模型訓(xùn)練得到。

丫是否點擊=simnod(〃用戶X用戶+卬物品X物品+”其他X其他)

?構(gòu)建流程

基于我們的目標,需要進行樣本的收集(樣本是對客觀世界的具體描

述),通過對己收集到的樣本進行特征構(gòu)造,并對其進行訓(xùn)練,最終求出

模型參數(shù)的具體數(shù)值。

1.建立樣本

邏輯回歸為有監(jiān)督模型,因此需要有已經(jīng)分類好的樣本。正樣本:

用戶曝光過某物品并點擊。負樣本:用戶曝光過某物品并且沒有點擊。

如果正負樣本差距過大,可以將負樣本隨機抽樣后與正樣本一起訓(xùn)練。

或只保留有點擊行為的用戶作為樣本,將曝光但是沒有被點擊的物品作

為負樣本。

負樣本

2.特征工程

特征工程是對收集到的樣本進行更加深度的特征刻畫。雖然作為算法

人員與用戶接觸較少,但對身邊使用該產(chǎn)品的同學(xué),進行深入的觀察與訪

談,了解他們對于所推薦內(nèi)容的反饋,往往可以得到意料之外的特征開發(fā)

方向。主要分為以下幾個維度。

基礎(chǔ)數(shù)據(jù)

趨勢數(shù)據(jù)

時間數(shù)據(jù)

交叉數(shù)據(jù)

不同交叉方法得到的不同的參數(shù)數(shù)量

5.4.4深度學(xué)習(xí)一一當前最新發(fā)展方向

1.深度學(xué)習(xí)基礎(chǔ)Embedding+MLP模型

?Embedding+MLP模型結(jié)構(gòu):微軟在2016年提出DeepCrossing,

用于廣告推薦中。

?從下到上可以分為5層,分別是Feature層、Embedding層、

Stacking層、MLP層和Scoring層。

?對于類別特征,先利用Embedding層進行特征稠密化,再利用

Stacking層連接其他特征,輸入MLP(多層神經(jīng)元網(wǎng)絡(luò)),最后

用Scoring層預(yù)估結(jié)果。

2.深度學(xué)習(xí)主要特點

(1)embedding技術(shù)在召回層的應(yīng)用:embedding,即用一個數(shù)值向量來

表示一個對象的方法,對于處理稀疏特征有比較重要的應(yīng)用,其將稀疏高

維特征向量轉(zhuǎn)換為稠密低維特征向量,可以融合大量價值信息。其主要方

法有基于文本的Word2Vec,基于物品的Item2Vec,基于圖結(jié)構(gòu)(社交關(guān)

系、知識圖譜、行為關(guān)系等)的deepwalk、Node2Vec(增加了隨機過程

中跳轉(zhuǎn)概率的傾向性)

等。

Output

Inputsoftmax

(2)深度學(xué)習(xí)模型在排序?qū)拥膽?yīng)用:深度學(xué)習(xí)模型以MLP為基礎(chǔ)結(jié)構(gòu),

embedding+MLP是最經(jīng)典結(jié)合,google在此基礎(chǔ)上提出的Wide&Deep在業(yè)

界得到了廣泛的應(yīng)用。

3.目前主要的衍化方向

改變神經(jīng)網(wǎng)絡(luò)的復(fù)雜程度。

改變特征交叉方式。

多種模型組合應(yīng)用。

與其他領(lǐng)域的結(jié)合,例如自然語言處理,圖像處理,強化領(lǐng)域等。

4.深度學(xué)習(xí)模型舉例

(1)Wide&Deep模型

2016年谷歌發(fā)表的Wide&Deep模型與YouTube深度學(xué)習(xí)推薦模型,

引領(lǐng)推薦算法走向了對深度學(xué)習(xí)的應(yīng)用。相比傳統(tǒng)機器學(xué)習(xí)推薦模型,

深度學(xué)習(xí)具有更加復(fù)雜的模型結(jié)構(gòu),而使其具備了理論上擬合任何函數(shù)

的能力。同時深度學(xué)習(xí)的結(jié)構(gòu)靈活性可以讓其模擬出用戶興趣的變遷過

程。左側(cè)傳統(tǒng)推薦模型與右側(cè)深度學(xué)習(xí)推薦模型對比,其模型復(fù)雜度增

加:

(2)DeepFM模型

由FM與深度學(xué)習(xí)模型的結(jié)合生成的DeepFM模型:即FM替換了

Wide&Deep的Wide部分,加強了淺層網(wǎng)絡(luò)部分特征組合的能力,右邊的

部分跟Deep部分一樣,利月多層神經(jīng)網(wǎng)絡(luò)進行特征的深層處理。

特征域,特征域,???特征域用

(3)深度興趣DIN模型

DIN模型為阿里的電商廣告推薦模型,預(yù)測其廣告點擊率。它主要利

用注意力機制,即通過用戶歷史行為序列,為每一個用戶的歷史購買商

品上面加入了激活單元,激活單元相當于一個嵌套在其中的深度學(xué)習(xí)模

型,利用兩個商品的embedding,生成了代表他們關(guān)聯(lián)程度的注意力權(quán)

重。

(Outjxjt)

ActivationWeight

Softmax(2)

PReLU/Dice(M)Lineor05

PReLU/Dice(200)Eu/Dice(36)

■■■■(Concot)

Concat&Flatten?t

7J、

Out

Product

fraaUserInputsfro?Ad

ActivationUnit

?Product

?GoodsID

?ShopID

EmbeddingOCateID

LayerOOther10

DeepInterestNetwork

(4)深度興趣進化網(wǎng)絡(luò)DIEN

彌補DIN沒有對行為序列進行建模的缺點,通過序列層,興趣抽取

層,興趣進化層。其中利用序列模型利用商品ID和前一層序列模型的

embedding向量,輸出商品embedding與興趣embedding,

Sofgx(2)

PRelU/Dice(28)

Const&Flatten

h-(n

?Product

Interest

AuxiliaryLossEvolvinglayer

CiyicNotptdc

AttentionInterest

Extroctorlayer

e(tn)h(t)Behavior

NegLayer

___?

KT1)

b(T-l)MT)TargetAdContextUserProftle

Feotur?Feature

userbehaviorsequence

5.5重排層策略

5.5.1EE問題

?MBA問題:所有的選擇都要同時考慮尋找最優(yōu)解以及累計收益最大

的問題。

?解決方案:Bandit算法,衡量臂的平均收益,收益越大越容易被選

擇,以及臂的方差,方差越大越容易被選擇。

T

RT=E(“-W))

i=l

=Tvv*-£wB(i)

1=1

?常用算法:湯普森采樣算法,UCB算法,Epsilon貪婪算法,LinUCB

算法,與協(xié)同過濾結(jié)合的C0FIBA。

5.5.2多樣性問題

?多樣性問題

1.多樣性過差:用戶探索不夠,興趣過窄,系統(tǒng)泛化能力以及可持續(xù)

性變差;流量過于集中在少數(shù)item上,系統(tǒng)缺乏活力。

2.多樣性過強:用戶興趣聚焦程度弱;item流量分配平均,對優(yōu)質(zhì)

item激勵不足。

?多樣性解法:L根據(jù)內(nèi)容的相關(guān)性以及相似性進行打散。2.保持

用戶以及內(nèi)容探索比例。3.人工規(guī)則控制。

5.5.3上下文問題

pointwise排序中,僅考慮item與user之間的相關(guān)性,而較少考慮

前序item對后續(xù)item的影響,主要的解決方案有兩種。

listwise排序

?Pointwise考慮單點目標/Pairwise考慮一個pair/Listwise考慮

整個集合的指標。

?Listwise對視頻組合進行transformer建模,刻畫視頻間的相互影

響,前序視頻對后續(xù)視頻觀看有影響,前后組合決定總收益。

Candidateevaluatiorr

layer(評估S)

Encoderlayer

EncoderLayernorm

Featureextraction

layer

Inputfeature

強化學(xué)習(xí)

?考慮序列決策,從前向后依次貪心的選擇動作概率最大的視頻。

?Reward=f(相關(guān)性,多樣性,約束)。

序外決貨過程

y

5.6冷啟動

5.6.1用戶冷啟

其主要幾個方向為:加強特征與信息的補充、EE問題平衡、實時化加

強。

信息補充

1.sideinformation補充:例如商品類目、領(lǐng)域知識圖譜、第三方

公司數(shù)據(jù)的補充。

2.Crossdomain:利用共同的用戶在不同地方的數(shù)據(jù)進行冷啟。

3.用戶填寫興趣。

4.元學(xué)習(xí):利用多任務(wù)間具有泛化能力的模型,進行少樣木學(xué)習(xí)(few-

shotlearning)。

快速收斂

1.主動學(xué)習(xí)、在線學(xué)習(xí)、強化學(xué)習(xí):快速收集數(shù)據(jù),且反饋到特征與

模型中。

2.增強模型實時化以及收斂能力。

5.6.2內(nèi)容冷啟

以短視頻推薦為例,平臺常常采用大小池邏輯,對內(nèi)容進行不同流量的

探索,并根據(jù)實際的反饋數(shù)據(jù)來決定內(nèi)容可以進入的推薦范圍。其中表

現(xiàn)優(yōu)質(zhì)的內(nèi)容將不斷的進入更大的流量池中,最終進入推薦池,形成精

品召回池。

六、當前發(fā)展

因果與推薦結(jié)合

?推薦系統(tǒng)中的特征向量和用戶最終的反饋(比如點擊、點贊等)之

間的關(guān)系是由因果關(guān)系和非因果關(guān)系共同組成。因果關(guān)系是反應(yīng)物

品被用戶偏好的原因,非因果關(guān)系僅反應(yīng)用戶和物品之間的統(tǒng)計相

關(guān)性,比如曝光模式、公眾觀念、展示位置等。而現(xiàn)有推薦算法缺

乏對這兩種關(guān)系的區(qū)分。

?AModel-AgnosticCausalLearningFrameworkfor

RecommendationusingSearchData。論文提出了一個基于工具變

量的模型無關(guān)的因果學(xué)習(xí)框架IV4Recf聯(lián)合考慮了搜索場景和推

薦場景下的用戶行為,利用搜索數(shù)據(jù)輔助推薦模型。即將用戶的搜

索行為作為工具變量,來幫助分解原本推薦中特征(treatments),

使用深度神經(jīng)網(wǎng)絡(luò)將分離的兩個部分結(jié)合起來,來完成推薦任務(wù)。

序列/會話推薦

?推薦系統(tǒng)傾向于學(xué)習(xí)每個用戶對物品的長期和靜態(tài)的偏好,但一個

用戶的所有的歷史交互行為對他當前的偏好并非同等重要,用戶的

短期偏好和跟時間相關(guān)的上下文場景所包含的信息更加實時也更

加靈敏.基于會話的推薦系統(tǒng)從一個用戶的最近產(chǎn)生的會話中捕獲

他的短期偏好,以及利用會話和會話間的偏好變化,進行更精準和

實時推薦。

?TKDE2022/DisentangledGraphNeuralNetworksfor

Session-basedRecommendation。用戶選擇某個物品的意圖是由該

物品的某些因素驅(qū)動的,本文的方法建模了這種細粒度的的興趣來

生成高質(zhì)量的會話嵌入。

圖神經(jīng)網(wǎng)絡(luò)與推薦結(jié)合

?大部分的信息本質(zhì)上都是圖結(jié)構(gòu),GNN能夠自然地整合節(jié)點屬性信

息和拓撲結(jié)構(gòu)信息,來減少特征處理中的信息折損。

?ICDE2021/Muiti-BehaviorEnhancedRecondnendationwith

Cross-InteractionCollaborativeRelationModeling。利用圖

神經(jīng)網(wǎng)絡(luò)建模Multi-Behavior推薦。

知識圖譜與推薦結(jié)合

?先驗的知識圖譜可以對推薦系統(tǒng)進行很好的信息補充和信息約束,

特別是在數(shù)據(jù)較為稀疏的場景下。(1)知識圖譜中的結(jié)構(gòu)化知識

可以在冷啟動場景中提供更多的信息。(2)對于數(shù)據(jù)稀疏,方差

過大的情況下,增加有效約束。(3)先驗知識糾正數(shù)據(jù)偏差。(4)

增強推薦算法可解釋性。

?ConditionalGraphAttentionNetworksforDistillingand

RefiningKnowledgeGraphsinRecommendation由于知識圖譜

的泛化性和規(guī)模性,大多數(shù)知識關(guān)系對目標用戶-物品預(yù)測沒有幫

助。為了利用知識圖譜來捕獲推薦系統(tǒng)中特定目標的知識關(guān)系,需

要對知識圖譜進行提取以保留有用信息,并對知識進行提煉以捕獲

更準確的用戶偏好。這篇文章提出了Knowledge-aware

ConditionalAttentionNetworks(KGAN)網(wǎng)絡(luò),對于給定target

(即用戶-物品對),基于知識感知的注意力自動從全局的知識圖

譜中提取出特定于target的子圖。通過在子圖上應(yīng)用條件注意力

機制進行鄰居聚合,以此實現(xiàn)對知識圖譜的細化,進而獲得特定

target的節(jié)點表示。

強化學(xué)習(xí)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論