HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運營
CASE 服務(wù)案例
NEWS 熱點資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)(神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)方法)

    發(fā)布時間:2023-04-08 14:11:42     稿源: 創(chuàng)意嶺    閱讀: 56        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)(神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)方法)

    一、如何理解神經(jīng)網(wǎng)絡(luò)里面的反向傳播算法

    可以采用MATLAB軟件中的神經(jīng)網(wǎng)絡(luò)工具箱來實現(xiàn)BP神經(jīng)網(wǎng)絡(luò)算法。BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)過程由前向計算過程、誤差計算和誤差反向傳播過程組成。雙含隱層BP神經(jīng)網(wǎng)絡(luò)的MATLAB程序,由輸入部分、計算部分、輸出部分組成,其中輸入部分包括網(wǎng)絡(luò)參數(shù)與訓(xùn)練樣本數(shù)據(jù)的輸入、初始化權(quán)系、求輸入輸出模式各分量的平均值及標(biāo)準(zhǔn)差并作相應(yīng)數(shù)據(jù)預(yù)處理、讀入測試集樣本數(shù)據(jù)并作相應(yīng)數(shù)據(jù)預(yù)處理;計算部分包括正向計算、反向傳播、計算各層權(quán)矩陣的增量、自適應(yīng)和動量項修改各層權(quán)矩陣;輸出部分包括顯示網(wǎng)絡(luò)最終狀態(tài)及計算值與期望值之間的相對誤差、輸出測試集相應(yīng)結(jié)果、顯示訓(xùn)練,測試誤差曲線。

    二、神經(jīng)網(wǎng)絡(luò)的前向與后向傳播簡單理解

    正向傳播相關(guān)函數(shù)與概念理解

    sigmoid激活函數(shù):

    產(chǎn)生的原因,將線性的結(jié)果非線性化,轉(zhuǎn)化到0~1之間。

    計算公式:

    說明:x為變量

    Softmax函數(shù)

    產(chǎn)生原因?qū)⑤敵龅母鱾€元素為0~1之間的實數(shù),這些元素全部加起來為1.

    計算公式:

    損失函數(shù)的一個類型,表達模型好壞的一個參數(shù),越小越好:

    交叉熵:

    分類類別-logt 概率,多個輸入,則分類類別-logt 概率的平均值

    上圖為函數(shù)的曲線表示,已知t均小于1,所以t越大,logt越大,- logt越小,則接近于0。

    反向傳播相關(guān)函數(shù)與概念理解

    反向傳播發(fā)的關(guān)鍵是鏈?zhǔn)椒▌t,鏈?zhǔn)椒▌t是復(fù)合函數(shù)的求導(dǎo)法則,復(fù)合函數(shù)即多個函數(shù)構(gòu)成的函數(shù)。

    反向傳播算法簡單來說就是采用前層神經(jīng)元對后層神經(jīng)元的影響大小*學(xué)習(xí)率來更新權(quán)重信息,新權(quán)重值=權(quán)重值-影響大小*學(xué)習(xí)率

    三、如何理解神經(jīng)網(wǎng)絡(luò)里面的反向傳播算法

    類比來說類似于

    幾個人站成一排

    第一個人看一幅畫(輸入數(shù)據(jù)),描述給第二個人(隱層)……依此類推,到最后一個人(輸出)的時候,畫出來的畫肯定不能看了(誤差較大)。

    反向傳播就是,把畫拿給最后一個人看(求取誤差),然后最后一個人就會告訴前面的人下次描述時需要注意哪里(權(quán)值修正)。

    四、如何理解神經(jīng)網(wǎng)絡(luò)里面的反向傳播算法

    就是利用了鏈?zhǔn)角髮?dǎo)法則,從后往前,逐層計算cost關(guān)于該層參數(shù)的梯度。詳細的退到可參見:

    以上就是關(guān)于神經(jīng)網(wǎng)絡(luò)反向傳播公式的推導(dǎo)相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。


    推薦閱讀:

    反向傳播神經(jīng)網(wǎng)絡(luò)基本原理(反向傳播神經(jīng)網(wǎng)絡(luò)基本原理)

    深度神經(jīng)網(wǎng)絡(luò)原理(深度神經(jīng)網(wǎng)絡(luò)原理圖)

    上海神經(jīng)科醫(yī)院排行榜(上海神經(jīng)科科醫(yī)院排名前十)

    家用汽車排行榜(家用型suv汽車排行榜)

    photoshop怎么做(photoshop怎么做表格)