欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用-創(chuàng)新互聯(lián)

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

成都創(chuàng)新互聯(lián)是專業(yè)的掇刀網(wǎng)站建設(shè)公司,掇刀接單;提供成都網(wǎng)站設(shè)計、做網(wǎng)站、成都外貿(mào)網(wǎng)站建設(shè)公司,網(wǎng)頁設(shè)計,網(wǎng)站設(shè)計,建網(wǎng)站,PHP網(wǎng)站建設(shè)等專業(yè)做網(wǎng)站服務(wù);采用PHP框架,可快速的進(jìn)行掇刀網(wǎng)站開發(fā)網(wǎng)頁制作和功能擴(kuò)展;專業(yè)做搜索引擎喜愛的網(wǎng)站,專業(yè)的做網(wǎng)站團(tuán)隊,希望更多企業(yè)前來合作!

潘暉

美團(tuán)點(diǎn)評作為國內(nèi)大的生活服務(wù)平臺,隨著業(yè)務(wù)的飛速發(fā)展,美團(tuán)點(diǎn)評的用戶和商戶數(shù)在快速增長。在這樣的背景下,通過對推薦算法的優(yōu)化,打造一個高精準(zhǔn)性、高豐富度且讓用戶感到欣喜的推薦系統(tǒng)成為重中之重。為了達(dá)到這個目的,我們在不停的嘗試將新的算法、新的技術(shù)進(jìn)引入到現(xiàn)有的框架中。

本文由美團(tuán)點(diǎn)評技術(shù)團(tuán)隊微信公眾號授權(quán)轉(zhuǎn)發(fā)。

引言

自2012年ImageNet大賽技驚四座后,深度學(xué)習(xí)已經(jīng)成為近年來機(jī)器學(xué)習(xí)和人工智能領(lǐng)域中關(guān)注度最高的技術(shù)。在深度學(xué)習(xí)出現(xiàn)之前,人們借助SIFT、HOG等算法提取具有良好區(qū)分性的特征,再結(jié)合SVM等機(jī)器學(xué)習(xí)算法進(jìn)行圖像識別。然而SIFT這類算法提取的特征是有局限性的,導(dǎo)致當(dāng)時比賽的最好結(jié)果的錯誤率也在26%以上。卷積神經(jīng)網(wǎng)絡(luò)(CNN)的首次亮相就將錯誤率一下由26%降低到15%,同年微軟團(tuán)隊發(fā)布的論文中顯示,通過深度學(xué)習(xí)可以將ImageNet 2012資料集的錯誤率降到4.94%。

隨后的幾年,深度學(xué)習(xí)在多個應(yīng)用領(lǐng)域都取得了令人矚目的進(jìn)展,如語音識別、圖像識別、自然語言處理等。鑒于深度學(xué)習(xí)的潛力,各大互聯(lián)網(wǎng)公司也紛紛投入資源開展科研與運(yùn)用。因?yàn)槿藗円庾R到,在大數(shù)據(jù)時代,更加復(fù)雜且強(qiáng)大的深度模型,能深刻揭示海量數(shù)據(jù)里所承載的復(fù)雜而豐富的信息,并對未來或未知事件做更精準(zhǔn)的預(yù)測。

美團(tuán)點(diǎn)評作為一直致力于站在科技前沿的互聯(lián)網(wǎng)公司,也在深度學(xué)習(xí)方面進(jìn)行了一些探索,其中在自然語言處理領(lǐng)域,我們將深度學(xué)習(xí)技術(shù)應(yīng)用于文本分析、語義匹配、搜索引擎的排序模型等;在計算機(jī)視覺領(lǐng)域,我們將其應(yīng)用于文字識別、圖像分類、圖像質(zhì)量排序等。本文就是筆者所在團(tuán)隊,在借鑒了Google在2016年提出的Wide & Deep Learning 的思想上,基于自身業(yè)務(wù)的一些特點(diǎn),在大眾點(diǎn)評推薦系統(tǒng)上做出的一些思考和取得的實(shí)踐經(jīng)驗(yàn)。

 

點(diǎn)評推薦系統(tǒng)介紹

與大部分的推薦系統(tǒng)不同,美團(tuán)點(diǎn)評的場景由于自身業(yè)務(wù)的多樣性,使得我們很難準(zhǔn)確捕獲用戶的興趣點(diǎn)或用戶的實(shí)時意圖。而且我們推薦的場景也會隨著用戶興趣、地點(diǎn)、環(huán)境、時間等變化而變化。點(diǎn)評推薦系統(tǒng)主要面臨以下幾點(diǎn)挑戰(zhàn):

·         業(yè)務(wù)形態(tài)多樣性:除了推薦商戶外,我們還根據(jù)不同的場景,進(jìn)行實(shí)時判斷,從而推出不同形態(tài)的業(yè)務(wù),如團(tuán)單、酒店、景點(diǎn)、霸王餐等。

·         用戶消費(fèi)場景多樣性:用戶可以選擇在家消費(fèi):外賣,到店消費(fèi):團(tuán)單、閃惠,或者差旅消費(fèi):預(yù)定酒店等。

針對上述問題,我們定制了一套完善的推薦系統(tǒng)框架,包括基于機(jī)器學(xué)習(xí)的多選品召回與排序策略,以及從海量大數(shù)據(jù)的離線計算到高并發(fā)在線服務(wù)的推薦引擎。推薦系統(tǒng)的策略主要分為召回和排序兩個過程,召回主要負(fù)責(zé)生成推薦的候選集,排序負(fù)責(zé)將多個算法策略的結(jié)果進(jìn)行個性化排序。

 召回層:我們通過用戶行為、場景等進(jìn)行實(shí)時判斷,通過多個召回策略召回不同候選集。再對召回的候選集進(jìn)行融合。候選集融合和過濾層有兩個功能,一是提高推薦策略的覆蓋度和精度;另外還要承擔(dān)一定的過濾職責(zé),從產(chǎn)品、運(yùn)營的角度制定一些人工規(guī)則,過濾掉不符合條件的Item。下面是一些我們常用到的召回策略:

·         User-Based 協(xié)同過濾:找出與當(dāng)前User X最相似的N個User,并根據(jù)N個User對某Item的打分估計X對該Item的打分。在相似度算法方面,我們采用了Jaccard Similarity:

 【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

·         Model-Based 協(xié)同過濾:用一組隱含因子來聯(lián)系用戶和商品。其中每個用戶、每個商品都用一個向量來表示,用戶u對商品i的評價通過計算這兩個向量的內(nèi)積得到。算法的關(guān)鍵在于根據(jù)已知的用戶對商品的行為數(shù)據(jù)來估計用戶和商品的隱因子向量。

·         Item-Based 協(xié)同過濾:我們先用word2vec對每個Item取其隱含空間的向量,然后用Cosine Similarity計算用戶u用過的每一個Item與未用過Item i之間的相似性。最后對Top N的結(jié)果進(jìn)行召回。

·         Query-Based:是根據(jù)Query中包含的實(shí)時信息(如地理位置信息、WiFi到店、關(guān)鍵詞搜索、導(dǎo)航搜索等)對用戶的意圖進(jìn)行抽象,從而觸發(fā)的策略。

·         Location-Based:移動設(shè)備的位置是經(jīng)常發(fā)生變化的,不同的地理位置反映了不同的用戶場景,可以在具體的業(yè)務(wù)中充分利用。在推薦的候選集召回中,我們也會根據(jù)用戶的實(shí)時地理位置、工作地、居住地等地理位置觸發(fā)相應(yīng)的策略。

 排序?qū)?/strong>:每類召回策略都會召回一定的結(jié)果,這些結(jié)果去重后需要統(tǒng)一做排序。點(diǎn)評推薦排序的框架大致可以分為三塊:

·         離線計算層:離線計算層主要包含了算法集合、算法引擎,負(fù)責(zé)數(shù)據(jù)的整合、特征的提取、模型的訓(xùn)練、以及線下的評估。

·         近線實(shí)時數(shù)據(jù)流:主要是對不同的用戶流實(shí)施訂閱、行為預(yù)測,并利用各種數(shù)據(jù)處理工具對原始日志進(jìn)行清洗,處理成格式化的數(shù)據(jù),落地到不同類型的存儲系統(tǒng)中,供下游的算法和模型使用。

·         在線實(shí)時打分:根據(jù)用戶所處的場景,提取出相對應(yīng)的特征,并利用多種機(jī)器學(xué)習(xí)算法,對多策略召回的結(jié)果進(jìn)行融合和打分重排。

具體的推薦流程圖如下:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

從整體框架的角度看,當(dāng)用戶每次請求時,系統(tǒng)就會將當(dāng)前請求的數(shù)據(jù)寫入到日志當(dāng)中,利用各種數(shù)據(jù)處理工具對原始日志進(jìn)行清洗,格式化,落地到不同類型的存儲系統(tǒng)中。在訓(xùn)練時,我們利用特征工程,從處理過后的數(shù)據(jù)集中選出訓(xùn)練、測試樣本集,并借此進(jìn)行線下模型的訓(xùn)練和預(yù)估。我們采用多種機(jī)器學(xué)習(xí)算法,并通過線下AUC、NDCG、Precision等指標(biāo)來評估他們的表現(xiàn)。線下模型經(jīng)過訓(xùn)練和評估后,如果在測試集有比較明顯的提高,會將其上線進(jìn)行線上AB測試。同時,我們也有多種維度的報表對模型進(jìn)行數(shù)據(jù)上的支持。

深度學(xué)習(xí)在點(diǎn)評推薦排序系統(tǒng)中應(yīng)用

對于不同召回策略所產(chǎn)生的候選集,如果只是根據(jù)算法的歷史效果決定算法產(chǎn)生的Item的位置顯得有些簡單粗暴,同時,在每個算法的內(nèi)部,不同Item的順序也只是簡單的由一個或者幾個因素決定,這些排序的方法只能用于第一步的初選過程,最終的排序結(jié)果需要借助機(jī)器學(xué)習(xí)的方法,使用相關(guān)的排序模型,綜合多方面的因素來確定。

 

1現(xiàn)有排序框架介紹

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

到目前為止,點(diǎn)評推薦排序系統(tǒng)嘗試了多種線性、非線性、混合模型等機(jī)器學(xué)習(xí)方法,如邏輯回歸、GBDT、GBDT+LR等。通過線上實(shí)驗(yàn)發(fā)現(xiàn),相較于線性模型,傳統(tǒng)的非線性模型如GBDT,并不一定能在線上AB測試環(huán)節(jié)對CTR預(yù)估有比較明顯的提高。而線性模型如邏輯回歸,因?yàn)樽陨矸蔷€性表現(xiàn)能力比較弱,無法對真實(shí)生活中的非線性場景進(jìn)行區(qū)分,會經(jīng)常對歷史數(shù)據(jù)中出現(xiàn)過的數(shù)據(jù)過度記憶。下圖就是線性模型根據(jù)記憶將一些歷史點(diǎn)擊過的單子排在前面:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

從圖中我們可以看到,系統(tǒng)在非??壳暗奈恢猛扑]了一些遠(yuǎn)距離的商戶,因?yàn)檫@些商戶曾經(jīng)被用戶點(diǎn)過,其本身點(diǎn)擊率較高,那么就很容易被系統(tǒng)再次推薦出來。但這種推薦并沒有結(jié)合當(dāng)前場景給用戶推薦出一些有新穎性的Item。為了解決這個問題,就需要考慮更多、更復(fù)雜的特征,比如組合特征來替代簡單的“距離”特征。怎么去定義、組合特征,這個過程成本很高,并且更多地依賴于人工經(jīng)驗(yàn)。

而深度神經(jīng)網(wǎng)絡(luò),可以通過低維密集的特征,學(xué)習(xí)到以前沒出現(xiàn)過的一些Item和特征之間的關(guān)系,并且相比于線性模型大幅降低了對于特征工程的需求,從而吸引我們進(jìn)行探索研究。

在實(shí)際的運(yùn)用當(dāng)中,我們根據(jù)Google在2016年提出的Wide & Deep Learning模型,并結(jié)合自身業(yè)務(wù)的需求與特點(diǎn),將線性模型組件和深度神經(jīng)網(wǎng)絡(luò)進(jìn)行融合,形成了在一個模型中實(shí)現(xiàn)記憶和泛化的寬深度學(xué)習(xí)框架。在接下來的章節(jié)中,將會討論如何進(jìn)行樣本篩選、特征處理、深度學(xué)習(xí)算法實(shí)現(xiàn)等。

 

2樣本的篩選

數(shù)據(jù)及特征,是整個機(jī)器學(xué)習(xí)中最重要的兩個環(huán)節(jié),因?yàn)槠浔旧砭蜎Q定了整個模型的上限。點(diǎn)評推薦由于其自身多業(yè)務(wù)(包含外賣、商戶、團(tuán)購、酒旅等)、多場景(用戶到店、用戶在家、異地請求等)的特色,導(dǎo)致我們的樣本集相比于其他產(chǎn)品更多元化。我們的目標(biāo)是預(yù)測用戶的點(diǎn)擊行為。有點(diǎn)擊的為正樣本,無點(diǎn)擊的為負(fù)樣本,同時,在訓(xùn)練時對于購買過的樣本進(jìn)行一定程度的加權(quán)。而且,為了防止過擬合/欠擬合,我們將正負(fù)樣本的比例控制在10%。最后,我們還要對訓(xùn)練樣本進(jìn)行清洗,去除掉Noise樣本(特征值近似或相同的情況下,分別對應(yīng)正負(fù)兩種樣本)。

同時,推薦業(yè)務(wù)作為整個App首頁核心模塊,對于新穎性以及多樣性的需求是很高的。在點(diǎn)評推薦系統(tǒng)的實(shí)現(xiàn)中,首先要確定應(yīng)用場景的數(shù)據(jù),美團(tuán)點(diǎn)評的數(shù)據(jù)可以分為以下幾類:

·         用戶畫像:性別、常駐地、價格偏好、Item偏好等。

·         Item畫像:包含了商戶、外賣、團(tuán)單等多種Item。其中商戶特征包括:商戶價格、商戶好評數(shù)、商戶地理位置等。外賣特征包括:外賣平均價格、外賣配送時間、外賣銷量等。團(tuán)單特征包括:團(tuán)單適用人數(shù)、團(tuán)單訪購率等。

·         場景畫像:用戶當(dāng)前所在地、時間、定位附近商圈、基于用戶的上下文場景信息等。

3深度學(xué)習(xí)中的特征處理

機(jī)器學(xué)習(xí)的另一個核心領(lǐng)域就是特征工程,包括數(shù)據(jù)預(yù)處理,特征提取,特征選擇等。

1.  特征提?。簭脑紨?shù)據(jù)出發(fā)構(gòu)造新的特征的過程。方法包括計算各種簡單統(tǒng)計量、主成分分析、無監(jiān)督聚類,在構(gòu)造方法確定后,可以將其變成一個自動化的數(shù)據(jù)處理流程,但是特征構(gòu)造過程的核心還是手動的。

2.  特征選擇:從眾多特征中挑選出少許有用特征。與學(xué)習(xí)目標(biāo)不相關(guān)的特征和冗余特征需要被剔除,如果計算資源不足或者對模型的復(fù)雜性有限制的話,還需要選擇丟棄一些不重要的特征。特征選擇方法常用的有以下幾種:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

特征選擇開銷大、特征構(gòu)造成本高,在推薦業(yè)務(wù)開展的初期,我們對于這方面的感覺還不強(qiáng)烈。但是隨著業(yè)務(wù)的發(fā)展,對點(diǎn)擊率預(yù)估模型的要求越來越高,特征工程的巨大投入對于效果的提升已經(jīng)不能滿足我們需求,于是我們想尋求一種新的解決辦法。

深度學(xué)習(xí)能自動對輸入的低階特征進(jìn)行組合、變換,得到高階特征的特性,也促使我們轉(zhuǎn)向深度學(xué)習(xí)進(jìn)行探索。深度學(xué)習(xí)“自動提取特征”的優(yōu)點(diǎn),在不同的領(lǐng)域有著不同的表現(xiàn)。例如對于圖像處理,像素點(diǎn)可以作為低階特征輸入,通過卷積層自動得到的高階特征有比較好的效果。在自然語言處理方面,有些語義并不來自數(shù)據(jù),而是來自人們的先驗(yàn)知識,利用先驗(yàn)知識構(gòu)造的特征是很有幫助的。

因此,我們希望借助于深度學(xué)習(xí)來節(jié)約特征工程中的巨大投入,更多地讓點(diǎn)擊率預(yù)估模型和各輔助模型自動完成特征構(gòu)造和特征選擇的工作,并始終和業(yè)務(wù)目標(biāo)保持一致。下面是一些我們在深度學(xué)習(xí)中用到的特征處理方式:

 

組合特征

對于特征的處理,我們沿用了目前業(yè)內(nèi)通用的辦法,比如歸一化、標(biāo)準(zhǔn)化、離散化等。但值得一提的是,我們將很多組合特征引入到模型訓(xùn)練中。因?yàn)椴煌卣髦g的組合是非常有效的,并有很好的可解釋性,比如我們將"商戶是否在用戶常駐地"、"用戶是否在常駐地"以及"商戶與用戶當(dāng)前距離"進(jìn)行組合,再將數(shù)據(jù)進(jìn)行離散化,通過組合特征,我們可以很好的抓住離散特征中的內(nèi)在聯(lián)系,為線性模型增加更多的非線性表述。組合特征的定義為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

歸一化

歸一化是依照特征矩陣的行處理數(shù)據(jù),其目的在于樣本向量在點(diǎn)乘運(yùn)算或其他核函數(shù)計算相似性時,擁有統(tǒng)一的標(biāo)準(zhǔn),也就是說都轉(zhuǎn)化為“單位向量”。在實(shí)際工程中,我們運(yùn)用了兩種歸一化方法:

Min-Max:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

Min是這個特征的最小值,Max是這個特征的大值。

Cumulative Distribution Function(CDF):CDF也稱為累積分布函數(shù),數(shù)學(xué)意義是表示隨機(jī)變量小于或等于其某一個取值x的概率。其公式為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

在我們線下實(shí)驗(yàn)中,連續(xù)特征在經(jīng)過CDF的處理后,相比于Min-Max,CDF的線下AUC提高不足0.1%。我們猜想是因?yàn)橛行┻B續(xù)特征并不滿足在(0,1)上均勻分布的隨機(jī)函數(shù),CDF在這種情況下,不如Min-Max來的直觀有效,所以我們在線上采用了Min-Max方法。

快速聚合

為了讓模型更快的聚合,并且賦予網(wǎng)絡(luò)更好的表現(xiàn)形式,我們對原始的每一個連續(xù)特征設(shè)置了它的super-liner和sub-liner,即對于每個特征x,衍生出2個子特征:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

實(shí)驗(yàn)結(jié)果表示,通過對每一個連續(xù)變量引入2個子特征,會提高線下AUC的表現(xiàn),但考慮到線上計算量的問題,并沒有在線上實(shí)驗(yàn)中添加這2個子特征。

4優(yōu)化器(Optimizer)的選擇

在深度學(xué)習(xí)中,選擇合適的優(yōu)化器不僅會加速整個神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程,并且會避免在訓(xùn)練的過程中困到鞍點(diǎn)。文中會結(jié)合自己的使用情況,對使用過的優(yōu)化器提出一些自己的理解。

 

Stochastic Gradient Descent (SGD)

SGD 是一種常見的優(yōu)化方法,即每次迭代計算Mini-Batch的梯度,然后對參數(shù)進(jìn)行更新。其公式為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

缺點(diǎn)是對于損失方程有比較嚴(yán)重的振蕩,并且容易收斂到局部最小值。

 

Momentum

為了克服SGD振蕩比較嚴(yán)重的問題,Momentum將物理中的動量概念引入到SGD當(dāng)中,通過積累之前的動量來替代梯度。即:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

相較于SGD,Momentum就相當(dāng)于在從山坡上不停的向下走,當(dāng)沒有阻力的話,它的動量會越來越大,但是如果遇到了阻力,速度就會變小。也就是說,在訓(xùn)練的時候,在梯度方向不變的維度上,訓(xùn)練速度變快,梯度方向有所改變的維度上,更新速度變慢,這樣就可以加快收斂并減小振蕩。

Adagrad

相較于SGD,Adagrad相當(dāng)于對學(xué)習(xí)率多加了一個約束,即:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

Adagrad的優(yōu)點(diǎn)是,在訓(xùn)練初期,由于gt較小,所以約束項(xiàng)能夠加速訓(xùn)練。而在后期,隨著gt的變大,會導(dǎo)致分母不斷變大,最終訓(xùn)練提前結(jié)束。

 

Adam

Adam是一個結(jié)合了Momentum與Adagrad的產(chǎn)物,它既考慮到了利用動量項(xiàng)來加速訓(xùn)練過程,又考慮到對于學(xué)習(xí)率的約束。利用梯度的一階矩估計和二階矩估計動態(tài)調(diào)整每個參數(shù)的學(xué)習(xí)率。Adam的優(yōu)點(diǎn)主要在于經(jīng)過偏置校正后,每一次迭代學(xué)習(xí)率都有個確定范圍,使得參數(shù)比較平穩(wěn)。其公式為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

其中:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

小結(jié)

通過實(shí)踐證明,Adam結(jié)合了Adagrad善于處理稀疏梯度和Momentum善于處理非平穩(wěn)目標(biāo)的優(yōu)點(diǎn),相較于其他幾種優(yōu)化器效果更好。同時,我們也注意到很多論文中都會引用SGD,Adagrad作為優(yōu)化函數(shù)。但相較于其他方法,在實(shí)踐中,SGD需要更多的訓(xùn)練時間以及可能會被困到鞍點(diǎn)的缺點(diǎn),都制約了它在很多真實(shí)數(shù)據(jù)上的表現(xiàn)。

5損失函數(shù)的選擇

深度學(xué)習(xí)同樣有許多損失函數(shù)可供選擇,如平方差函數(shù)(Mean Squared Error),絕對平方差函數(shù)(Mean Absolute Error),交叉熵函數(shù)(Cross Entropy)等。而在理論與實(shí)踐中,我們發(fā)現(xiàn)Cross Entropy相比于在線性模型中表現(xiàn)比較好的平方差函數(shù)有著比較明顯的優(yōu)勢。其主要原因是在深度學(xué)習(xí)通過反向傳遞更新W和b的同時,激活函數(shù)Sigmoid的導(dǎo)數(shù)在取大部分值時會落入左、右兩個飽和區(qū)間,造成參數(shù)的更新非常緩慢。具體的推導(dǎo)公式如下:

一般的MSE被定義為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

其中y是我們期望的輸出,a為神經(jīng)元的實(shí)際輸出a=σ(Wx+b)。由于深度學(xué)習(xí)反向傳遞的機(jī)制,權(quán)值W與偏移量b的修正公式被定義為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

因?yàn)镾igmoid函數(shù)的性質(zhì),導(dǎo)致σ′(z)在z取大部分值時會造成飽和現(xiàn)象。

Cross Entropy的公式為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

如果有多個樣本,則整個樣本集的平均交叉熵為:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

其中n表示樣本編號,i表示類別編號。 如果用于Logistic分類,則上式可以簡化成:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

與平方損失函數(shù)相比,交叉熵函數(shù)有個非常好的特質(zhì):

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

可以看到,由于沒有了σ′這一項(xiàng),這樣一來在更新w和b就不會受到飽和性的影響。當(dāng)誤差大的時候,權(quán)重更新就快,當(dāng)誤差小的時候,權(quán)重的更新就慢。

6寬深度模型框架

在實(shí)驗(yàn)初期,我們只將單獨(dú)的5層DNN模型與線性模型進(jìn)行了比對。通過線下/線上AUC對比,我們發(fā)現(xiàn)單純的DNN模型對于CTR的提升并不明顯。而且單獨(dú)的DNN模型本身也有一些瓶頸,例如,當(dāng)用戶本身是非活躍用戶時,由于其自身與Item之間的交互比較少,導(dǎo)致得到的特征向量會非常稀疏,而深度學(xué)習(xí)模型在處理這種情況時有可能會過度的泛化,導(dǎo)致推薦與該用戶本身相關(guān)較少的Item。因此,我們將廣泛線性模型與深度學(xué)習(xí)模型相結(jié)合,同時又包含了一些組合特征,以便更好的抓住Item-Feature-Label三者之間的共性關(guān)系。我們希望在寬深度模型中的寬線性部分可以利用交叉特征去有效地記憶稀疏特征之間的相互作用,而在深層神經(jīng)網(wǎng)絡(luò)部分通過挖掘特征之間的相互作用,提升模型之間的泛化能力。下圖就是我們的寬深度學(xué)習(xí)模型框架:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

在離線階段,我們采用基于Theano、Tensorflow的Keras作為模型引擎。在訓(xùn)練時,我們分別對樣本數(shù)據(jù)進(jìn)行清洗和提權(quán)。在特征方面,對于連續(xù)特征,我們用Min-Max方法做歸一化。在交叉特征方面,我們結(jié)合業(yè)務(wù)需求,提煉出多個在業(yè)務(wù)場景意義比較重大的交叉特征。在模型方面我們用Adam做為優(yōu)化器,用Cross Entropy做為損失函數(shù)。在訓(xùn)練期間,與Wide & Deep Learning論文中不同之處在于,我們將組合特征作為輸入層分別輸入到對應(yīng)的Deep組件和Wide組件中。然后在Deep部分將全部輸入數(shù)據(jù)送到3個ReLU層,在最后通過Sigmoid層進(jìn)行打分。我們的Wide&Deep模型在超過7000萬個訓(xùn)練數(shù)據(jù)中進(jìn)行了訓(xùn)練,并用超過3000萬的測試數(shù)據(jù)進(jìn)行線下模型預(yù)估。我們的Batch-Size設(shè)為50000,Epoch設(shè)為20。

 深度學(xué)習(xí)線下/線上效果

在實(shí)驗(yàn)階段,分別將深度學(xué)習(xí)、寬深度學(xué)習(xí)以及邏輯回歸做了一系列的對比,將表現(xiàn)比較好的寬深度模型放在線上與原本的Base模型進(jìn)行AB實(shí)驗(yàn)。從結(jié)果上來看,寬深度學(xué)習(xí)模型在線下/線上都有比較好的效果。具體結(jié)論如下:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

隨著隱藏層寬度的增加,線下訓(xùn)練的效果也會隨著逐步的提升。但考慮到線上實(shí)時預(yù)測的性能問題,我們目前采用256->128->64的框架結(jié)構(gòu)。

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

下圖是包含了組合特征的寬深度模型與Base模型的線上實(shí)驗(yàn)效果對比圖:

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

從線上效果來看,寬深度學(xué)習(xí)模型一定程度上解決了歷史點(diǎn)擊過的團(tuán)單在遠(yuǎn)距離會被召回的問題。同時,寬深度模型也會根據(jù)當(dāng)前的場景推薦一些有新穎性的Item。

【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用

 總結(jié)

排序是一個非常經(jīng)典的機(jī)器學(xué)習(xí)問題,實(shí)現(xiàn)模型的記憶和泛化功能是推薦系統(tǒng)中的一個挑戰(zhàn)。記憶可以被定義為在推薦中將歷史數(shù)據(jù)重現(xiàn),而泛化是基于數(shù)據(jù)相關(guān)性的傳遞性,探索過去從未或很少發(fā)生的Item。寬深度模型中的寬線性部分可以利用交叉特征去有效地記憶稀疏特征之間的相互作用,而深層神經(jīng)網(wǎng)絡(luò)可以通過挖掘特征之間的相互作用,提升模型之間的泛化能力。在線實(shí)驗(yàn)結(jié)果表明,寬深度模型對CTR有比較明顯的提高。同時,我們也在嘗試將模型進(jìn)行一系列的演化:

1.  將RNN融入到現(xiàn)有框架?,F(xiàn)有的Deep & Wide模型只是將DNN與線性模型做融合,并沒有對時間序列上的變化進(jìn)行建模。樣本出現(xiàn)的時間順序?qū)τ谕扑]排序同樣重要,比如當(dāng)一個用戶按照時間分別瀏覽了一些異地酒店、景點(diǎn)時,用戶再次再請求該異地城市,就應(yīng)該推出該景點(diǎn)周圍的美食。

2.  引入強(qiáng)化學(xué)習(xí),讓模型可以根據(jù)用戶所處的場景,動態(tài)地推薦內(nèi)容。

深度學(xué)習(xí)和邏輯回歸的融合使得我們可以兼得二者的優(yōu)點(diǎn),也為進(jìn)一步的點(diǎn)擊率預(yù)估模型設(shè)計和優(yōu)化打下了堅實(shí)的基礎(chǔ)。

 參考文獻(xiàn) 

1.  H. Cheng, L. Koc, J. Harmsen etc, Wide & Deep Learning for Recommender Systems, Published by ACM 2016 Article, https://static.googleusercontent.com/media/research.google.com/zh-CN//pubs/archive/45530.pdf

2.  P. Covington, J. Adams, E. Sargin, Deep Neural Networks for YouTube Recommendations, RecSys '16 Proceedings of the 10th ACM Conference on Recommender Systems,https://arxiv.org/pdf/1606.07792.pdf

3.  H. Wang, N. Wang, D. Yeung, Collaborative Deep Learning for Recommender Systems.


網(wǎng)站欄目:【恩墨學(xué)院】深度學(xué)習(xí)在美團(tuán)點(diǎn)評推薦平臺排序中的運(yùn)用-創(chuàng)新互聯(lián)
瀏覽路徑:http://aaarwkj.com/article2/cdhdoc.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供移動網(wǎng)站建設(shè)、外貿(mào)網(wǎng)站建設(shè)、Google、關(guān)鍵詞優(yōu)化、定制開發(fā)外貿(mào)建站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

91精彩啦在线看国产| 国产精品一区二区久久| 日本少妇入口一区二区| 日韩高清在线亚洲专区不卡| 久久亚洲精品中文字幕| 青青草原精品视频在线| 亚洲中文波霸中文字幕| 亚洲精品成人福利网站| 午夜18禁毛片免费看| 熟妇一区二区在线播放| 亚洲精品视频一区二区| 少妇被又粗又硬猛烈进视频| 丰满人妻被猛烈进入中文版| 欧美激情在线精品一区二区| 欧美精品福利一区二区三区 | 人妻有码av中文字幕久久| 中文字幕一区二区三区不卡日日| 日本理论午夜三级在线观看| 91色九色吧在线观看| 国产一级性生活高清在线| 蜜桃视频在线观看91| 国产一区二区三区不卡av| 亚洲精品一品区二品区三区| 国产精品三级一区二区三区| 日本一区二区中文字幕在线 | 丰满少妇高潮在线视频| 国产精品综合日韩精| 天堂av中文字幕在线不卡| av毛片天堂在线观看| 九九热精品视频美谷朱里| 亚洲淫婷婷久久一区二区| 黄片视频免费在线播放大全| 欧美香蕉视频播放二区| 在线观看国产一区二区不卡| 精品人妻一区三区蜜桃| 国产精品国产三级丝袜| 欧美成人精品资源在线观看| 欧美精品亚洲精品国产| 一区二区三区免费在线观看视频| 日本乱码中文字幕在线观看| 亚洲日本韩国福利久久|