-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
反向傳播的作用是什么(反向傳播的作用是什么呢)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于反向傳播的作用是什么的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、機(jī)械波沿著x軸正向傳播與反向傳播有什么區(qū)別
質(zhì)點的振動方向不同
二、圖片裁剪等操作對于cnn網(wǎng)絡(luò)梯度反向傳播有什么影響嗎?
我的理解如下:
首先,第一個CNN只能包含Conv和Pooling層,否則輸出的格式是不能當(dāng)做下一個CNN的輸入的。其次,如果第一個CNN每層的Conv filter數(shù)量大于1的話(假設(shè)最后一層的filter數(shù)為N),第一個CNN的輸出shape為 (N, W', H'), 那么下一個CNN的 Conv filter的通道數(shù)量必須也是N。所以,這兩個CNN從結(jié)構(gòu)原理上其實是同一個CNN,其反向傳播的機(jī)制跟正常的CNN相同。但是,這里“第一個”CNN是不能用于圖像裁剪的,只能做常用的卷積操作來提取特征。
如果要做裁剪的話建議用RPN(Region Proposal Network)+CNN的結(jié)構(gòu)。RPN部分實際上是個回歸模型,其目的是裁剪圖片提取有效物體(訓(xùn)練目的是使該網(wǎng)絡(luò)選取和物體大小、實際所在區(qū)域無線接近的區(qū)域)再輸入到CNN進(jìn)行識別。而RPN和CNN是可以放在一起訓(xùn)練的,具體的可以參考Faster RCNN文獻(xiàn)。
三、“bp”是什么意思?
BP= business partner,指業(yè)務(wù)伙伴
HR=human resources,指人力資源
HRBP就是人力資源服務(wù)經(jīng)理。主要工作內(nèi)容是負(fù)責(zé)公司的人力資源管理政策體系、制度規(guī)范在各業(yè)務(wù)單元的推行落實,協(xié)助業(yè)務(wù)單元完善人力資源管理工作,并發(fā)展業(yè)務(wù)單元各級干部的人力資源管理能力。
HR BP即“人力資源合作伙伴”: 在企業(yè)戰(zhàn)略的發(fā)展與實施,人力資源政策事宜等方面,為企業(yè)并購提供人力資源支持。該崗位的設(shè)置相當(dāng)于在業(yè)務(wù)部門和人力資源部門架起橋梁,能夠讓招聘更加貼近用人部門的需求。
不得不說,這個崗位的誕生是出于市場的需要,多元化管理的公司,部門太多,業(yè)務(wù)相差巨大,不可能使用同一套人力資源招聘系統(tǒng),需要有獨(dú)特性,這個時候,HR BP的重要性就體現(xiàn)出來了。
四、多目標(biāo)優(yōu)化在推薦中的應(yīng)用
多目標(biāo)排序通常是指有兩個或兩個以上的目標(biāo)函數(shù),尋求一種排序使得所有的目標(biāo)函數(shù)都達(dá)到最優(yōu)或滿意。
在推薦系統(tǒng)中,大多產(chǎn)品都是基于隱式反饋進(jìn)行推薦,導(dǎo)致評估用戶滿意度的時候有不同的偏差:
1)不同目標(biāo)表達(dá)不同的滿意程度:在電商應(yīng)用中,購買行為表達(dá)的滿意度高于點擊、瀏覽;
2)單個目標(biāo)衡量不全面:在信息流應(yīng)用中,僅以點擊率為目標(biāo),可能會存在標(biāo)題黨;在招聘應(yīng)用中,僅以投遞轉(zhuǎn)化率為目標(biāo),可能存在招聘方不活躍或者對候選者不滿意度下降。
3)用戶表達(dá)滿意的方式不同:在電商應(yīng)用中,用戶喜歡商品的表達(dá)可能會以收藏或者加購的形式,取決于用戶偏好;在招聘應(yīng)用中,招聘方對候選者的滿意方式可能以在線溝通、電話溝通、直接面試邀請等形式,取決于招聘方偏好。
推薦系統(tǒng)中有多個業(yè)務(wù)指標(biāo),可以通過一些手段使得多個業(yè)務(wù)的綜合目標(biāo)收益最大化。比如說,電商場景,希望能夠在優(yōu)化GMV的基礎(chǔ)上提高點擊率,提高用戶粘性;信息流場景,希望提高用戶點擊率的基礎(chǔ)上提高用戶關(guān)注、點贊、評論等行為,提高留存;招聘場景,希望提高求職者投遞轉(zhuǎn)化率的基礎(chǔ)上提高招聘方的體驗滿意度,從而使得雙方的滿足度均提高。因此推薦系統(tǒng)做到后期,往往會向多目標(biāo)方向演化,承擔(dān)起更多的業(yè)務(wù)目標(biāo)。
多目標(biāo)排序問題的解決方案:多模型分?jǐn)?shù)融合、通過樣本權(quán)重進(jìn)行多目標(biāo)優(yōu)化、排序?qū)W習(xí)(Learning To Rank,LTR)、多任務(wù)學(xué)習(xí)(Multi-Task Learning,MTL)。
1.多模型分?jǐn)?shù)融合
多模型融合的方式也是比較經(jīng)典傳統(tǒng)的做法,每個目標(biāo)訓(xùn)練一個模型,每個模型算出一個分?jǐn)?shù),然后根據(jù)自身業(yè)務(wù)的特點,通過某種方式將這些分?jǐn)?shù)綜合起來,計算出一個總的分?jǐn)?shù)再進(jìn)行排序,綜合分?jǐn)?shù)的計算通常會根據(jù)不同目標(biāo)的重要性設(shè)定相應(yīng)的參數(shù)來調(diào)節(jié)。
最常見的是weighted sum融合多個目標(biāo),給不同的目標(biāo)分配不同的權(quán)重。當(dāng)然,融合的函數(shù)可以有很多,比如連乘或者指數(shù)相關(guān)的函數(shù),可以根據(jù)自己面臨的場景不斷去探索。
1.1 規(guī)則公式法
以電商推薦系統(tǒng)為例,假定有五個預(yù)估目標(biāo),分別是點擊率 CTR、購買轉(zhuǎn)化率 CVR、收藏率 collect,加購率 cart、停留時長 stay,這五個目標(biāo)分別對應(yīng)五個模型,排序階段的作用就是利用模型根據(jù)各自目標(biāo)來給候選 Item 計算一個預(yù)估值(分?jǐn)?shù)),排序階段結(jié)束每個 Item 都會有五個不同的目標(biāo)預(yù)估分?jǐn)?shù),如何用這些分?jǐn)?shù)進(jìn)行融合,是交給下一個流程--重排序模塊來處理的。
分?jǐn)?shù)融合的一種思路是利用一個帶參數(shù)公式來實現(xiàn),如下:
有了公式,那么超參數(shù)(α,β,a,b,c 等)如果進(jìn)行學(xué)習(xí)獲?。磕壳肮I(yè)界就是人工調(diào)參,通過線上AB實驗不斷調(diào)整參數(shù),一個很繁瑣的工作。
1.2 線性回歸法
如果經(jīng)驗公式,我們很容易想到的一種思路是類似于集成學(xué)習(xí)中一種多模型融合方法 Stacking,即將多個目標(biāo)模型預(yù)估出的結(jié)果作為輸入,然后用一個簡單的線性回歸進(jìn)行線性加權(quán)融合,學(xué)習(xí)到各個目標(biāo)的權(quán)重,這樣我們就可以預(yù)估綜合分?jǐn)?shù)了。但是我們卻忽略了一個重要的問題,該如何設(shè)置樣本的 Label 呢?事實上,并沒有一個真實的綜合分?jǐn)?shù)可供我們?nèi)ビ?xùn)練學(xué)習(xí),因此,這種辦法很難真正去實現(xiàn)。而在工業(yè)界,更多的做法是人工調(diào)試,但如此又會帶來很多問題,比如模型靈活度不夠。
2.樣本權(quán)重(sample weight)
如果主目標(biāo)是點擊率,分享功能是我們希望提高的功能。那么點擊和分享都是正樣本(分享是點擊行為的延續(xù)),分享的樣本可以設(shè)置更高的樣本權(quán)重。模型訓(xùn)練在計算梯度更新參數(shù)時,對于sample weight大的樣本,如果預(yù)測錯誤就會帶來更大的損失,梯度要乘以權(quán)重。通過這種方法能夠在優(yōu)化點擊率的基礎(chǔ)上,優(yōu)化分享率。實際AB測試會發(fā)現(xiàn),這樣的方法,目標(biāo)點擊率會受到一定的損失換取目標(biāo)分享率的增長。通過線上AB測試和sample weight調(diào)整的聯(lián)動,可以保證在可接受的A目標(biāo)損失下,優(yōu)化目標(biāo)B,實現(xiàn)初級的多目標(biāo)優(yōu)化。
優(yōu)點:模型簡單,僅在訓(xùn)練時通過梯度上乘sample weight實現(xiàn)對某些目標(biāo)的boost或者decay帶有sample weight的模型和線上的base模型完全相同,不需要架構(gòu)的額外支持。
缺點:本質(zhì)上沒有對多目標(biāo)的建模,而是將不同的目標(biāo)折算成同一個目標(biāo)。折算的程度需要多次AB測試才能確定。
3. 排序?qū)W習(xí)(Learning To Rank,LTR)
多模型融合中我們通過模型計算預(yù)估值或者是綜合打分,其根本目的是為了給推薦物品排序,而不是真正的打分。因此我們可以使用排序?qū)W習(xí)方法來解決多目標(biāo)問題。再由于是多個目標(biāo),可以排除pointwise方案,可以考慮pairwise和listwise方案。具體,模型可以考慮 BPR 或者 LambdaMART 等算法。
相比多模型融合中 Label 標(biāo)注,排序?qū)W習(xí)模型的的 Label 標(biāo)注相對更容易一點,因為只關(guān)心相對關(guān)系,而不需要真實的打分?jǐn)?shù)據(jù)。一種常見的標(biāo)注方法是對多目標(biāo)產(chǎn)生的物品構(gòu)建 Pair,比如用戶對物品 i產(chǎn)生的購買,對物品j產(chǎn)生了點擊,假定我們覺得購買的目標(biāo)比點擊的目標(biāo)更重要,就可以讓i>uj,其他目標(biāo)以此類推。有了順序?qū)?,我們便可以?xùn)練排序?qū)W習(xí)模型,這樣一個模型便可以融合多個目標(biāo),而不用訓(xùn)練多個模型。
4. 多任務(wù)學(xué)習(xí)(Multi-Task Learning,MTL)
4.1 概念
多任務(wù)學(xué)習(xí)是基于共享表示,把多個相關(guān)的任務(wù)放在一起學(xué)習(xí)的一種機(jī)器學(xué)習(xí)方法。多任務(wù)學(xué)習(xí)涉及多個相關(guān)的任務(wù)同時并行學(xué)習(xí),梯度同時反向傳播,利用包含在相關(guān)任務(wù)訓(xùn)練信號中的特定領(lǐng)域的信息來改進(jìn)泛化能力。
一般來說,優(yōu)化多個損失函數(shù)就等同于進(jìn)行多任務(wù)學(xué)習(xí)。 即使只優(yōu)化一個損失函數(shù),也有可能借助輔助任務(wù)來改善原任務(wù)模型。
多任務(wù)學(xué)習(xí)的前提條件:多個任務(wù)之間必須具有相關(guān)性以及擁有可以共享的底層表示。
在多任務(wù)學(xué)習(xí)的定義中,共享表示是一個非常重要的限定,個人認(rèn)為共享表示對于最終任務(wù)的學(xué)習(xí)有兩類作用:
促進(jìn)作用——通過淺層的共享表示互相分享、互相補(bǔ)充學(xué)習(xí)到的領(lǐng)域相關(guān)信息,從而互相促進(jìn)學(xué)習(xí),提升對信息的穿透和獲取能力;
約束作用——在多個任務(wù)同時進(jìn)行反向傳播時,共享表示則會兼顧到多個任務(wù)的反饋,由于不同的任務(wù)具有不同的噪聲模式,所以同時學(xué)習(xí)多個任務(wù)的模型就會通過平均噪聲模式從而學(xué)習(xí)到更一般的表征,這個有點像正則化的意思,因此相對于單任務(wù),過擬合風(fēng)險會降低,泛化能力增強(qiáng)。
因此在深度神經(jīng)網(wǎng)絡(luò)中,執(zhí)行多任務(wù)學(xué)習(xí)有兩種最常用的方法:
參數(shù)的硬共享機(jī)制
共享 Hard 參數(shù)是神經(jīng)網(wǎng)絡(luò) MTL 最常用的方法。在實際應(yīng)用中, 通常通過在所有任務(wù)之間共享隱藏層,同時保留幾個特定任務(wù)的輸出層來實現(xiàn), 如下圖所示:
共享 Hard 參數(shù)大大降低了過擬合的風(fēng)險。
參數(shù)的軟共享機(jī)制
共享 Soft 參數(shù),每個任務(wù)都有自己的參數(shù)和模型。模型參數(shù)之間的距離是正則化的,以便鼓勵參數(shù)相似化,例如使用 L2 距離進(jìn)行正則化。
多任務(wù)學(xué)習(xí)之所以有效,是因為多任務(wù)學(xué)習(xí)的方式引入了歸納偏置(inductive bias),歸納偏置有兩個效果:
1)互相促進(jìn),可以把多任務(wù)模型之間的關(guān)系看作是互相先驗知識,也稱歸納遷移(inductive transfer),有了對模型的先驗假設(shè),可以更好的提升模型的效果;
2)約束作用,借助多任務(wù)間的噪聲平衡以及表征偏置來實現(xiàn)更好的泛化性能。
4.2 主流多任務(wù)學(xué)習(xí)模型
主流模型有ESMM模型、EMS2模型、MMoE模型等。本文以阿里ESMM模型為例進(jìn)行介紹。
用戶的行為可以抽象為一個序列模式:瀏覽 -> 點擊 -> 購買。
CVR 是指從點擊到購買的轉(zhuǎn)化,傳統(tǒng)的 CVR 預(yù)估會存在兩個問題:樣本選擇偏差和稀疏數(shù)據(jù)。
樣本選擇偏差:模型用戶點擊的樣本來訓(xùn)練,但是預(yù)測卻是用的整個樣本空間。
數(shù)據(jù)稀疏問題:用戶點擊到購買的樣本太少。
ESMM是一個多任務(wù)學(xué)習(xí)模型,它同時學(xué)習(xí)學(xué)習(xí)點擊率和轉(zhuǎn)化率兩個目標(biāo),即模型直接預(yù)測展現(xiàn)轉(zhuǎn)換(pCTCVR):單位流量獲得成交的概率,把 pCVR 當(dāng)做一個中間變量,模型結(jié)構(gòu)如下 :
該網(wǎng)絡(luò)結(jié)構(gòu)共有三個子任務(wù),分別用于輸出 pCTR、pCVR 和 pCTCVR。
對于 pCTR 來說可將有點擊行為的曝光事件作為正樣本,沒有點擊行為的曝光事件作為負(fù)樣本,對于 PCTCVR 來說,將同時有點擊行為和購買行為的曝光事件作為正樣本,其他作為負(fù)樣本。上面公式可以轉(zhuǎn)化為
我們可以通過分別估計pCTCVR和pCTR,然后通過兩者相除來解決。而pCTCVR和pCTR都可以在全樣本空間進(jìn)行訓(xùn)練和預(yù)估。但是這種除法在實際使用中,會引入新的問題。因為在預(yù)測階段pCTR其實是一個很小的值,范圍一般在百分之幾,預(yù)估時會出現(xiàn)pCTCVR>pCTR的情況,導(dǎo)致pCVR預(yù)估值大于1。ESMM巧妙的通過將除法改成乘法來解決上面的問題。
它引入了pCTR和pCTCVR兩個輔助任務(wù),訓(xùn)練時,loss為兩者相加。
在CTR有點擊行為的展現(xiàn)事件構(gòu)成的樣本標(biāo)記為正樣本,沒有點擊行為發(fā)生的展現(xiàn)事件標(biāo)記為負(fù)樣本;在CTCVR任務(wù)中,同時有點擊和購買行為的展現(xiàn)事件標(biāo)記為正樣本,否則標(biāo)記為負(fù)樣本。
另外兩個子網(wǎng)絡(luò)的 embedding 層是共享的,由于 CTR 任務(wù)的訓(xùn)練樣本量要遠(yuǎn)超過 CVR 任務(wù)的訓(xùn)練樣本量,ESMM 模型中 embedding 層共享的機(jī)制能夠使得 CVR 子任務(wù)也能夠從只有展現(xiàn)沒有點擊的樣本中學(xué)習(xí),從而能夠極緩解訓(xùn)練數(shù)據(jù)稀疏性問題。
MTL可以使得多個模型特性互相彌補(bǔ):點擊率預(yù)估模型善于學(xué)習(xí)表面特征,其中包括標(biāo)題黨,圖片帶來的點擊誘惑;而轉(zhuǎn)化模型學(xué)習(xí)更深層的特征,比如體驗、服務(wù)質(zhì)量。
4.3構(gòu)建所有l(wèi)oss的pareto
多任務(wù)學(xué)習(xí)本質(zhì)上是一個多目標(biāo)問題,因為不同任務(wù)之間可能產(chǎn)生沖突,需要對其進(jìn)行取舍。
帕累托最優(yōu)所指的情況要求有多個優(yōu)化目標(biāo),指的是不能在不損失其他目標(biāo)的情況下優(yōu)化一個目標(biāo)。
4.3.1 Multi-Task Learning as Multi-Objective Optimization
定義如下:
優(yōu)化目標(biāo):
5.多目標(biāo)優(yōu)化實踐
【參考文獻(xiàn)】
1. https://arxiv.org/pdf/1810.04650v1.pdf Multi-Task Learning as Multi-Objective Optimization
2.
以上就是關(guān)于反向傳播的作用是什么相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)(神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)方法)
神經(jīng)網(wǎng)絡(luò)反向傳播的作用(神經(jīng)網(wǎng)絡(luò) 反向傳播)