-
當(dāng)前位置:首頁 > 創(chuàng)意學(xué)院 > 技術(shù) > 專題列表 > 正文
ai神經(jīng)網(wǎng)絡(luò)算法(ai神經(jīng)網(wǎng)絡(luò)算法智能車)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于ai神經(jīng)網(wǎng)絡(luò)算法的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
ChatGPT國內(nèi)免費(fèi)在線使用,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com
本文目錄:
一、制作ai神經(jīng)網(wǎng)絡(luò)能買錢嗎
能。神經(jīng)網(wǎng)絡(luò)是一種模仿動物神經(jīng)網(wǎng)絡(luò)行為特征,進(jìn)行分布式并行信息處理的算法數(shù)學(xué)模型。神經(jīng)網(wǎng)絡(luò)被用于從物流、客戶支持到電子商務(wù)零售的各個領(lǐng)域,所以是能的。這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度,通過調(diào)整內(nèi)部大量節(jié)點之間相互連接的關(guān)系,從而達(dá)到處理信息的目的。
二、薩摩耶云:模型數(shù)據(jù)升維,AI決策“破圈”
本刊訊 人類對人工智能的想象和 探索 ,從未止步。
隨著數(shù)據(jù)、算法、算力能力提升,人工智能的應(yīng)用場景深入到生活的方方面面。我們在搜索引擎上輸入關(guān)鍵詞后,網(wǎng)頁會自動匹配相關(guān)搜索內(nèi)容;短視頻App能根據(jù)我們的瀏覽習(xí)慣,推送相似的博主和場景;對著智能手機(jī)等移動終端喊話,便能調(diào)用相關(guān)功能,實現(xiàn)人機(jī)交互。
以人工智能為代表的數(shù)字化產(chǎn)業(yè)快速向前推進(jìn),產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型也成為不可逆的趨勢,各行各業(yè)都在尋求與自身商業(yè)模式相匹配的AI大腦。AI決策能力,正是AI大腦的內(nèi)核,它決定了AI解決方案的效率和可執(zhí)行性。
AI決策由模型性能決定,而模型性能的好壞,離不開人工智能三駕馬車的拉動——數(shù)據(jù)、算法、算力。其中,數(shù)據(jù)在模型搭建過程中起基礎(chǔ)性作用,一個模型的優(yōu)劣,百分之八十取決于數(shù)據(jù)和樣本的維度,正如巧婦難為無米之炊。
因此,數(shù)據(jù)提升對于模型優(yōu)化有著基礎(chǔ)性、全局性的作用,而數(shù)據(jù)與模型也是AI系統(tǒng)的重要組成部分。目前,AI模型開發(fā)及應(yīng)用難點,主要在于數(shù)據(jù)應(yīng)用和算法創(chuàng)新上,其中,后者更多體現(xiàn)的是建模方法的適當(dāng)性。
數(shù)據(jù)應(yīng)用維度不足。從AI決策的模型發(fā)展現(xiàn)狀來看,當(dāng)前很多模型僅僅是基于二維的數(shù)據(jù)組織形式來構(gòu)建,沒有考慮到數(shù)據(jù)在完整周期中的時間節(jié)點變化。最終容易導(dǎo)致模型的辨識度、準(zhǔn)確度、穩(wěn)定性失衡,AI決策效果大打折扣。
例如,在視頻推薦和電商推薦場景中,如果模型僅是在用戶賬戶、行為屬性、社交記錄、交易結(jié)果等標(biāo)準(zhǔn)數(shù)據(jù)集上構(gòu)建和優(yōu)化,沒有納入用戶在決策過程中的重要時間節(jié)點下的行為表現(xiàn),可能就會使模型效果過于擬合,不能夠精準(zhǔn)地預(yù)判用戶喜好以及交易風(fēng)險控制。
一般來講,二維數(shù)據(jù)的維度主要表現(xiàn)為樣本維度和特征維度。樣本維度常常為用戶ID信息或者是訂單編號,特征維度則為用戶人口屬性、行為屬性、外部資信等信息。二維數(shù)據(jù)模式下,用戶在每個時間點只對應(yīng)一條變量。
回到實際業(yè)務(wù)場景,用戶在不同的時間節(jié)點會呈現(xiàn)不同的行為表現(xiàn),盡管這些表現(xiàn)強(qiáng)度存在差異化,但最終會反饋到行為特征上。如果把不同時間節(jié)點的用戶特征行為差異,盡可能納入建模過程,那么原有的一對一二維數(shù)據(jù)就延展至一對多的時間序列形式,也就是說把數(shù)據(jù)應(yīng)用升維到樣本維度、時間維度、特征維度的三維數(shù)據(jù)組織形式。
三維數(shù)據(jù)不僅能降低數(shù)據(jù)集特征不足的影響,而且能最大程度挖掘數(shù)據(jù)價值,增加特征數(shù)量,提升模型準(zhǔn)確性。尤其是在業(yè)務(wù)數(shù)據(jù)獲取時,外部資信等數(shù)據(jù)往往會遇到接入不確定因素,而內(nèi)部數(shù)據(jù)數(shù)量和類型有限,并且利用程度趨于飽和。
但對于模型開發(fā)而言,更高的精準(zhǔn)度和辨識度,要求引入更多維度的數(shù)據(jù),挖掘數(shù)據(jù)規(guī)律,生成更多衍生變量。一旦無法從數(shù)量維度獲取更多變量,那么只能從質(zhì)量角度下功夫,向深度挖掘變量內(nèi)部信息,其中一對多的時間序列角度的升維就是深挖數(shù)據(jù)信息的方法之一。
其實,數(shù)據(jù)升維可用于AI模型優(yōu)化的場景非常多,例如在股票、基金的智能投顧業(yè)務(wù)中,AI模型的數(shù)據(jù)應(yīng)用加入時間維度,與樣本維度和個股、個基一起構(gòu)成三維樣本,便能把節(jié)點變量考慮在內(nèi),更加精準(zhǔn)預(yù)判未來走勢。
要想通過高維時序數(shù)據(jù)實現(xiàn)模型優(yōu)化,僅停留在數(shù)據(jù)層面遠(yuǎn)遠(yuǎn)不夠,還需對算法提升。決定模型好壞的剩下20%,正是建模方法的選擇,而與高維時序數(shù)據(jù)處理相匹配的算法通常為基于神經(jīng)網(wǎng)絡(luò)算法的深度學(xué)習(xí)。
以薩摩耶云為例,薩摩耶云基于深度學(xué)習(xí)框架, 探索 數(shù)據(jù)升維用于模型性能的提升,研發(fā)出適用于多行業(yè)和場景的AI解決方案,滿足企業(yè)高效智能決策的需求。同時,這些端到端的云原生 科技 解決方案,以SaaS+aPaaS形式提供交付,通過雙方系統(tǒng)對接實現(xiàn)信息實時交互,能為合作伙伴輸出基于云的智能決策服務(wù)。
在薩摩耶云首席科學(xué)家王明明看來,更高維度的時序數(shù)據(jù)建模意味著對現(xiàn)有的業(yè)務(wù)數(shù)據(jù)的重新理解、更多的數(shù)據(jù)信息、更復(fù)雜的數(shù)據(jù)組織方式、更高的機(jī)器性能要求、存儲要求以及模型上線要求。以高維時序數(shù)據(jù)為基礎(chǔ),施以神經(jīng)網(wǎng)絡(luò)來訓(xùn)練,加工多維變量特征,最終建立并優(yōu)化模型的AI決策能力。
具體來看,作為機(jī)器學(xué)習(xí)的重要分支,神經(jīng)網(wǎng)絡(luò)是從數(shù)據(jù)中學(xué)習(xí)表示的一種新的方法,強(qiáng)調(diào)從連續(xù)地層中進(jìn)行學(xué)習(xí)。在神經(jīng)網(wǎng)絡(luò)算法驅(qū)動下,模型可在同一時間共同學(xué)習(xí)所有表示層,可能包含數(shù)十個甚至上百個連續(xù)層,而其他機(jī)器學(xué)習(xí)方法往往僅僅學(xué)習(xí)一兩層的數(shù)據(jù)表示。
神經(jīng)網(wǎng)絡(luò)在高維時序數(shù)據(jù)學(xué)習(xí)中,一方面通過漸進(jìn)的、逐層式的方式形成越來越復(fù)雜的表示;另一方面,對漸進(jìn)的表示共同進(jìn)行學(xué)習(xí),每一層的變化都需要同時考慮上下兩層的需要。這意味著,循環(huán)神經(jīng)網(wǎng)絡(luò)引入狀態(tài)變量時,能保存每個時刻的信息,并且與當(dāng)前的輸入共同決定此刻的輸出。
從薩摩耶云的AI決策實踐來看,薩摩耶云在模型搭建過程中,不僅考慮了以往的樣本維度和特征維度,還把各時間節(jié)點的用戶特征差異納入考量,通過三維數(shù)據(jù)加工完善數(shù)據(jù)特征。在此基礎(chǔ)上,薩摩耶云利用神經(jīng)網(wǎng)絡(luò)、深度學(xué)習(xí),建立和訓(xùn)練模型,實現(xiàn)比常規(guī)模型更為高效的模型效果。
這對于提升模型的預(yù)判能力和精準(zhǔn)度至關(guān)重要。就像閱讀一段新聞,如果僅僅從每一個字、每一個詞組來理解,很容易斷章取義,無法真正明白新聞所指。但把新聞構(gòu)成中的字詞句連貫起來,并置于各個背景節(jié)點中,就可以理解新聞的準(zhǔn)確意思。
當(dāng)薩摩耶云把基于神經(jīng)網(wǎng)絡(luò)等技術(shù)的AI模型,應(yīng)用于實際業(yè)務(wù)場景之中,能進(jìn)一步放大數(shù)據(jù)價值,幫助企業(yè)增強(qiáng)預(yù)測分析能力,提升精準(zhǔn)營銷、銷售管理、供應(yīng)鏈協(xié)作、結(jié)果預(yù)測、風(fēng)險控制的效率,進(jìn)而實現(xiàn)從經(jīng)驗決策到智能決策,達(dá)到降本增效的效果。
實驗數(shù)據(jù)也表明,用神經(jīng)網(wǎng)絡(luò)的時間序列來做變量衍生,可以產(chǎn)生較為顯著的變量增益效果,衍生變量可以直接用于其他傳統(tǒng)方式的建模環(huán)節(jié),同時也可擴(kuò)充內(nèi)部的衍生變量空間。當(dāng)原始特征的區(qū)分能力得到提升,模型的區(qū)分效果也得到增強(qiáng),最終強(qiáng)化AI模型性能。
作為領(lǐng)先的獨(dú)立云服務(wù) 科技 解決方案供應(yīng)商,薩摩耶云立足場景需求,深耕AI決策智能賽道,不斷升級大數(shù)據(jù)、算法、模型策略和產(chǎn)品設(shè)計,為數(shù)字經(jīng)濟(jì)和企業(yè)數(shù)字化轉(zhuǎn)型提供技術(shù)支撐。在此過程中,薩摩耶云不僅強(qiáng)化了自身核心自主競爭力,而且著眼數(shù)字中國全景,源源不斷釋放 科技 賦能的價值。(山河)
三、AI面試題第二彈(神經(jīng)網(wǎng)絡(luò)基礎(chǔ))
提取主要特征,減小網(wǎng)絡(luò)參數(shù)量,減小計算量
層層傳遞的梯度>1 梯度爆炸
層層傳遞的梯度<1 梯度消失
與權(quán)重有很大關(guān)系,激活函數(shù)的影響較小。
每次訓(xùn)練一層隱節(jié)點,訓(xùn)練時將上一層隱節(jié)點的輸出作為輸入,而本層隱節(jié)點的輸出作為下一層隱節(jié)點的輸入,此過程就是逐層“預(yù)訓(xùn)練”(pre-training);在預(yù)訓(xùn)練完成后,再對整個網(wǎng)絡(luò)進(jìn)行“微調(diào)”(fine-tunning)。Hinton在訓(xùn)練深度信念網(wǎng)絡(luò)(Deep Belief Networks中,使用了這個方法,在各層預(yù)訓(xùn)練完成后,再利用BP算法對整個網(wǎng)絡(luò)進(jìn)行訓(xùn)練。
這個方案主要是針對梯度爆炸提出的,其思想是設(shè)置一個梯度剪切閾值,然后更新梯度的時候,如果梯度超過這個閾值,那么就將其強(qiáng)制限制在這個范圍之內(nèi)。這可以防止梯度爆炸。
比較常見的是l1l1l1正則,和l2l2l2正則,在各個深度框架中都有相應(yīng)的API可以使用正則化
反向傳播中,經(jīng)過每一層的梯度會乘以該層的權(quán)重。
舉個簡單例子:
為了得到一致假設(shè)而使假設(shè)變得過度復(fù)雜稱為過擬合(overfitting), 過擬合表現(xiàn)在訓(xùn)練好的模型在訓(xùn)練集上效果很好,但是在測試集上效果差 。也就是說模型的泛化能力弱。
過擬合主要由兩個原因造成,數(shù)據(jù)集太小或模型太復(fù)雜
(1). 數(shù)據(jù)集擴(kuò)增(Data Augmentation)
(2). 改進(jìn)模型
·Early Stopping。在模型效果比較好的時候便提前停止訓(xùn)練
·正則化(regularization)
L1:稀疏參數(shù)
L2:更小參數(shù)
·Dropout
·多任務(wù)學(xué)習(xí)
深度學(xué)習(xí)中兩種多任務(wù)學(xué)習(xí)模式:隱層參數(shù)的硬共享和軟共享
硬共享機(jī)制是指在所有任務(wù)中共享隱藏層,同時保留幾個特定任務(wù)的輸出層來實現(xiàn)。硬共享機(jī)制降低了過擬合的風(fēng)險。多個任務(wù)同時學(xué)習(xí),模型就越能捕捉到多個任務(wù)的同一表示,從而導(dǎo)致模型在原始任務(wù)上的過擬合風(fēng)險越小。
軟共享機(jī)制是指每個任務(wù)有自己的模型,自己的參數(shù)。模型參數(shù)之間的距離是正則化的,以便保障參數(shù)相似性。
見后文
leaky relu
輸入是x輸出是y,正常的流程是:我們首先把x通過網(wǎng)絡(luò)前向傳播,然后把誤差反向傳播以決定如何更新參數(shù)讓網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)。使用Dropout之后,過程變成如下:
(1)首先隨機(jī)(臨時)刪掉網(wǎng)絡(luò)中一半的隱藏神經(jīng)元,輸入輸出神經(jīng)元保持不變(圖中虛線為部分臨時被刪除的神經(jīng)元)
(2) 然后把輸入x通過修改后的網(wǎng)絡(luò)前向傳播,然后把得到的損失結(jié)果通過修改的網(wǎng)絡(luò)反向傳播。一小批訓(xùn)練樣本執(zhí)行完這個過程后,在沒有被刪除的神經(jīng)元上按照隨機(jī)梯度下降法更新對應(yīng)的參數(shù)(w,b)。
(3)然后繼續(xù)重復(fù)這一過程:
恢復(fù)被刪掉的神經(jīng)元(此時被刪除的神經(jīng)元保持原樣,而沒有被刪除的神經(jīng)元已經(jīng)有所更新)
從隱藏層神經(jīng)元中隨機(jī)選擇一個一半大小的子集臨時刪除掉(備份被刪除神經(jīng)元的參數(shù))。
對一小批訓(xùn)練樣本,先前向傳播然后反向傳播損失并根據(jù)隨機(jī)梯度下降法更新參數(shù)(w,b) (沒有被刪除的那一部分參數(shù)得到更新,刪除的神經(jīng)元參數(shù)保持被刪除前的結(jié)果)。
不斷重復(fù)這一過程。
沒有對數(shù)據(jù)進(jìn)行歸一化
忘記檢查輸入和輸出
沒有對數(shù)據(jù)進(jìn)行預(yù)處理
沒有對數(shù)據(jù)正則化
使用過大的樣本
使用不正確的學(xué)習(xí)率
在輸出層使用錯誤的激活函數(shù)
網(wǎng)絡(luò)中包含壞梯度
初始化權(quán)重錯誤
過深的網(wǎng)絡(luò)
隱藏單元數(shù)量錯誤
網(wǎng)絡(luò)設(shè)計不合理(任務(wù)-網(wǎng)絡(luò)不匹配)
機(jī)器學(xué)習(xí)有個很重要的假設(shè):就是假設(shè)訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)是滿足獨(dú)立同分布的,這保障了通過訓(xùn)練數(shù)據(jù)獲得的優(yōu)秀模型也能夠在測試集獲得好的效果。但是在機(jī)器學(xué)習(xí)訓(xùn)練中輸入層的每個批量(X,Y)中X的分布是不一致的,并且神經(jīng)網(wǎng)絡(luò)的隱藏層的輸入分布在每次訓(xùn)練迭代中發(fā)生變化。 BatchNorm就是在深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練過程中使得每一層神經(jīng)網(wǎng)絡(luò)的輸入保持相同分布的。
BN的基本思想其實相當(dāng)直觀:因為深層神經(jīng)網(wǎng)絡(luò)在做非線性變換前(激活前)的 輸入值 (就是那個x=WU+B,U是輸入) 隨著網(wǎng)絡(luò)深度加深或者在訓(xùn)練過程中,其分布逐漸發(fā)生偏移或者變動,之所以訓(xùn)練收斂慢,一般是整體分布逐漸往非線性函數(shù)的取值區(qū)間的上下限兩端靠近 (對于Sigmoid函數(shù)來說,意味著激活輸入值WU+B是大的負(fù)值或正值),所以這 導(dǎo)致反向傳播時低層神經(jīng)網(wǎng)絡(luò)的梯度消失 ,這是訓(xùn)練深層神經(jīng)網(wǎng)絡(luò)收斂越來越慢的 本質(zhì)原因 , 而BN就是通過一定的規(guī)范化手段,把每層神經(jīng)網(wǎng)絡(luò)任意神經(jīng)元這個輸入值的分布強(qiáng)行拉回到均值為0方差為1的標(biāo)準(zhǔn)正態(tài)分布 ,其實就是把越來越偏的分布強(qiáng)制拉回比較標(biāo)準(zhǔn)的分布,這樣使得激活輸入值落在非線性函數(shù)對輸入比較敏感的區(qū)域,這樣輸入的小變化就會導(dǎo)致?lián)p失函數(shù)較大的變化,意思是 這樣讓梯度變大,避免梯度消失問題產(chǎn)生,而且梯度變大意味著學(xué)習(xí)收斂速度快,能大大加快訓(xùn)練速度。
但是接下來的問題是:如果都通過BN,那么不就跟把非線性函數(shù)替換成線性函數(shù)效果相同了,意味著網(wǎng)絡(luò)的非線性表達(dá)能力下降了, 所以BN為了保證非線性的獲得,對變換后的滿足均值為0方差為1的x又進(jìn)行了scale加上shift操作(y=scale*x+shift), 每個神經(jīng)元增加了兩個參數(shù)scale和shift參數(shù),這兩個參數(shù)是通過訓(xùn)練學(xué)習(xí)到的,意思是通過scale和shift把這個值從標(biāo)準(zhǔn)正態(tài)分布左移或者右移一點并長胖一點或者變瘦一點,每個實例挪動的程度不一樣,這樣等價于激活前的值經(jīng)過標(biāo)準(zhǔn)正太分布?xì)w一化后再從正中心周圍的線性區(qū)往非線性區(qū)動了動。核心思想應(yīng)該是想找到一個線性和非線性的較好平衡點,既能享受非線性的較強(qiáng)表達(dá)能力的好處,又避免太靠非線性區(qū)兩頭使得網(wǎng)絡(luò)收斂速度太慢
Batch Normalization 好處:(1)提高了訓(xùn)練速度,收斂速度也大大加快(2)另外調(diào)參過程也簡單多了,對于初始化要求沒那么高,而且可以使用大的學(xué)習(xí)率等 (3)可以防止梯度消失(4)BN類似于Dropout的一種防止過擬合的正則化表達(dá)方式,可以有效防止過擬合,不用太依賴dropou和正則化
以下情況最好不要使用BN:(1)數(shù)據(jù)不平衡(2)batch_size太小
batch_size是機(jī)器學(xué)習(xí)中的一個重要參數(shù),決定了梯度下降的方向,如果數(shù)據(jù)集比較小,完全可以采用全數(shù)據(jù)集的形式計算梯度,由全數(shù)據(jù)集確定的梯度方向能夠更好地代表樣本總體,從而更準(zhǔn)確地朝向極值所在的方向。對于大型數(shù)據(jù)集則需要使用mini-batch_size,因為隨著數(shù)據(jù)集的海量增長和內(nèi)存限制,一次性載入所有的數(shù)據(jù)進(jìn)來變得越來越不可行。
當(dāng)batch_size=1,即在線學(xué)習(xí),模型難以達(dá)到收斂 。
合理增加batch_size好處 :
(1)內(nèi)存利用率提高了,大矩陣乘法的并行化效率提高
(2)跑完一次 epoch(全數(shù)據(jù)集)所需的迭代次數(shù)減少,對于相同數(shù)據(jù)量的處理速度進(jìn)一步加快。
(3)在一定范圍內(nèi),一般來說 Batch_Size 越大,其確定的下降方向越準(zhǔn),引起訓(xùn)練震蕩越小
盲目增大 Batch_Size 壞處 :
(1)內(nèi)存利用率提高了,但是內(nèi)存容量可能撐不住了
(2)跑完一次 epoch(全數(shù)據(jù)集)所需的迭代次數(shù)減少,要想達(dá)到相同精度所需要的 epoch 數(shù)量越來越多,花費(fèi)的時間越長
(3)大的batchsize收斂到sharp minimum,而小的batchsize收斂到flat minimum,后者具有更好的泛化能力。
總之batchsize在變得很大(超過一個臨界點)時,會降低模型的泛化能力。在這個臨界點之下,模型的性能變換隨batch size通常沒有學(xué)習(xí)率敏感
目標(biāo)所在的真實框(ground truth) 與算法預(yù)測的目標(biāo)所在的框(bounding box)的交集與并集的比值,我們會用IOU閾值來判定預(yù)測的bounding box是否有效。一般閾值會設(shè)定在0.5,當(dāng)IOU的值大于等于0.5時,我們會把這個預(yù)測的bounding box 歸為正類,而小于0.5的歸為負(fù)類。
牛頓法使用的是目標(biāo)函數(shù)的二階導(dǎo)數(shù),在高維情況下這個Hessian(n*n維度)矩陣非常大,計算復(fù)雜度是n*n,計算和存儲都是問題
(1) 通過控制卷積核個數(shù)實現(xiàn)升維或者降維,從而減少模型參數(shù)和計算量
(2) 用于不同channel上特征的融合
(3)1x1的卷積相當(dāng)于全連接層的計算過程,并且加入了非線性激活函數(shù),從而增加了網(wǎng)絡(luò)的非線性,使得網(wǎng)絡(luò)可以表達(dá)更加復(fù)雜的特征。
它能夠把輸入的連續(xù)實值變換為0和1之間的輸出,如果是非常大的負(fù)數(shù),那么輸出就是0;如果是非常大的正數(shù),輸出就是1
缺點:
(1)函數(shù)的飽和區(qū),導(dǎo)致梯度幾乎為0,造成梯度消失問題
(2)Sigmoid 的 output 不是0均值,具體解釋見 https://blog.csdn.net/tyhj_sf/article/details/79932893
(3)其解析式中含有冪運(yùn)算,計算機(jī)求解時相對來講比較耗時。對于規(guī)模比較大的深度網(wǎng)絡(luò),這會較大地增加訓(xùn)練時間。
它解決了Sigmoid函數(shù)的不是零均值輸出問題,然而,梯度消失(gradient vanishing)的問題和冪運(yùn)算的問題仍然存在。
(1)在正區(qū)間解決了梯度消失的問題
(2)函數(shù)簡單,計算速度快,收斂速度遠(yuǎn)快于sigmoid和tanh
缺點:
(1)Relu函數(shù)輸出不是0均值
(2)神經(jīng)元壞死問題:指的是某些神經(jīng)元可能永遠(yuǎn)不會被激活,導(dǎo)致相應(yīng)的參數(shù)永遠(yuǎn)不能被更新,有兩個主要原因?qū)е逻@種狀況發(fā)生
(1) 非常不幸的參數(shù)初始化,這種情況比較少見
(2) learning rate太高導(dǎo)致在訓(xùn)練過程中參數(shù)更新太大,不幸使網(wǎng)絡(luò)進(jìn)入這種狀態(tài)。解決方法是可以采用Xavier初始化方法,以及避免將learning rate設(shè)置太大或使用adagrad等自動調(diào)節(jié)learning rate的算法
為了解決ReLU函數(shù)帶來的神經(jīng)元壞死問題 , 提出了將ReLU的前半段設(shè)為αx,α通常設(shè)為0.01,,另外一種直觀的想法是基于參數(shù)的方法PReLU函數(shù), α可由方向傳播算法學(xué)習(xí)出來。
ELU也是為解決ReLU存在的問題而提出,顯然,ELU有ReLU的基本所有優(yōu)點,以及:(1)不會有神經(jīng)元壞死現(xiàn)象(2)函數(shù)輸出均值接近于0
但是ELU的小問題就是計算量稍微有點大。
1、使用不同的激活函數(shù),比如Relu,Leak-Relu,PRelu,elu等激活函數(shù)代替sigmoid函數(shù)
2、使用Batch Normalizaion(批量歸一化)
3、使用殘差網(wǎng)絡(luò)
4、預(yù)訓(xùn)練加微調(diào)
1、梯度裁剪
2、權(quán)重正則化
兩個3x3的卷積核的感受野比5x5的卷積核的感受野大,在保持相同感受野的同時,用3x3的卷積核可以提升網(wǎng)絡(luò)的深度,可以很明顯的減少計算量。
1、局部連接
2、權(quán)值共享:減小參數(shù)量
3、池化操作:增大感受野
4、多層次結(jié)構(gòu):可以提取low-level以及high-level的信息
1、數(shù)據(jù)集太小,數(shù)據(jù)樣本不足時,深度學(xué)習(xí)相對其它機(jī)器學(xué)習(xí)算法,沒有明顯優(yōu)勢。
2、數(shù)據(jù)集沒有局部相關(guān)特性,目前深度學(xué)習(xí)表現(xiàn)比較好的領(lǐng)域主要是圖像/語音/自然語言處理等領(lǐng)域,這些領(lǐng)域的一個共性是局部相關(guān)性。圖像中像素組成物體,語音信號中音位組合成單詞,文本數(shù)據(jù)中單詞組合成句子,這些特征元素的組合一旦被打亂,表示的含義同時也被改變。對于沒有這樣的局部相關(guān)性的數(shù)據(jù)集,不適于使用深度學(xué)習(xí)算法進(jìn)行處理。舉個例子:預(yù)測一個人的健康狀況,相關(guān)的參數(shù)會有年齡、職業(yè)、收入、家庭狀況等各種元素,將這些元素打亂,并不會影響相關(guān)的結(jié)果。
作用 :對輸入的特征圖進(jìn)行壓縮,
一方面使特征圖變小,簡化網(wǎng)絡(luò)計算復(fù)雜度;
一方面進(jìn)行特征壓縮,提取主要特征。
通常來講,max-pooling的效果更好,雖然max-pooling和average-pooling都對數(shù)據(jù)做了下采樣,但是 max-pooling感覺更像是做了特征選擇,選出了分類辨識度更好的特征,提供了非線性 。 pooling的主要作用一方面是去掉冗余信息,一方面要保留feature map的特征信息,在分類問題中,我們需要知道的是這張圖像有什么object,而不大關(guān)心這個object位置在哪,在這種情況下顯然max pooling比average pooling更合適。在 網(wǎng)絡(luò)比較深的地方,特征已經(jīng)稀疏了,從一塊區(qū)域里選出最大的,比起這片區(qū)域的平均值來,更能把稀疏的特征傳遞下去 。
average-pooling更強(qiáng)調(diào)對整體特征信息進(jìn)行一層下采樣,在減少參數(shù)維度的貢獻(xiàn)上更大一點,更多的體現(xiàn)在 信息的完整傳遞這個維度 上,在一個很大很有代表性的模型中,比如說DenseNet中的模塊之間的連接大多采用average-pooling,在減少維度的同時,更有利信息傳遞到下一個模塊進(jìn)行特征提取。
average-pooling在 全局平均池化操作 中應(yīng)用也比較廣,在ResNet和Inception結(jié)構(gòu)中最后一層都使用了平均池化。有的時候在模型接近 分類器的末端使用全局平均池化還可以代替Flatten操作 ,使輸入數(shù)據(jù)變成一位向量。
CNN網(wǎng)絡(luò)中另外一個不可導(dǎo)的環(huán)節(jié)就是Pooling池化操作,因為Pooling操作使得feature map的尺寸變化,假如做2×2的池化(步長也為2),假設(shè)那么第l+1層的feature map有16個梯度,那么第l層就會有64個梯度,這使得梯度無法對位的進(jìn)行傳播下去。其實解決這個問題的思想也很簡單,就是把1個像素的梯度傳遞給4個像素,但是需要保證傳遞的loss(或者梯度)總和不變。根據(jù)這條原則,mean pooling和max pooling的反向傳播也是不同的
mean pooling的前向傳播就是把一個patch中的值求取平均來做pooling,那么反向傳播的過程也就是把 某個元素的梯度等分為n份分配給前一層,這樣就保證池化前后的梯度(殘差)之和保持不變 ,圖示如下 :
(2) max pooling
max pooling也要滿足梯度之和不變的原則 ,max pooling的前向傳播是把patch中最大的值傳遞給后一層,而其他像素的值直接被舍棄掉。那么 反向傳播也就是把梯度直接傳給前一層某一個像素,而其他像素不接受梯度,也就是為0。 所以max pooling操作和mean pooling操作不同點在于需要記錄下池化操作時到底哪個像素的值是最大,也就是max id,這個變量就是記錄最大值所在位置的,因為在反向傳播中要用到,那么假設(shè)前向傳播和反向傳播的過程就如下圖所示 :
28、細(xì)粒度分類
29、LSTM&RNN
30、解釋LSTM結(jié)構(gòu)(相對于RNN)的好處
31、RNN的梯度消失原因和解決辦法
32、Object Detection
33、Unet的介紹
34、FCN和Unet的區(qū)別
35、RCNN系列的算法流程和區(qū)別
36、Fast RCNN中 bbox 回歸的損失函數(shù)什么
37、解釋 ROI Pooling 和 ROI Align
38、Mask RCNN中 mask branch 如何接入 Faster RCNN中
39、解釋 FPN
40、解釋 ROI Align
41、簡述 YOLO 和 SSD
42、簡述 Hough 直線檢測、Sobel 邊緣檢測算法流程
43、Mask RCNN中的anchors如何判定為正負(fù)樣本
44、簡述 NMS 算法流程
45、attention起源是用在哪里?pixel還是frame,是soft還是hard
46、anchor的正負(fù)樣本比是多少
47、算法和激活函數(shù)等
48、BN的原理和作用
49、BN層反向傳播,怎么求導(dǎo)
50、BN 的作用和缺陷,以及針對batch_size小的情況的改進(jìn)(GN)
51、BN層,先加BN還是激活,有什么區(qū)別
52、手推BP
53、優(yōu)化算法舉例和他們的區(qū)別(SGD、SGDM、RMSprop、Adam)
54、隨機(jī)梯度下降和梯度下降
55、訓(xùn)練不收斂的原因有哪些
56、簡述 SVM 流程、核函數(shù)尋參及常見的核函數(shù)舉例
57、batch_size 和 learning rate 的關(guān)系(怎么平衡和調(diào)整二者)
58、解釋過擬合和欠擬合,以及解決方法
59、激活函數(shù)有哪些,各自區(qū)別
60、損失函數(shù)有哪些
61、Sigmoid 和 ReLu 對比(各自優(yōu)缺點)
62、為什么不用sigmoid而用relu?做出了哪些改進(jìn)?
63、梯度消失和梯度爆炸的原因和解決方法
64、Precision 和 Recall 的定義
65、精確率高、召回率低是為什么
66、SVM,線性回歸和邏輯回歸的原理及區(qū)別
67、PCA原理,PCA和SVD的區(qū)別和聯(lián)系
68、正則化怎么選擇,有哪些方式
69、L1、L2范數(shù),區(qū)別
70、boost、Adaboost
71、dropout和batch normalization
72、講一下決策樹和隨機(jī)森林
73、講一下GBDT的細(xì)節(jié),寫出GBDT的目標(biāo)函數(shù)。 GBDT和Adaboost的區(qū)別與聯(lián)系
74、偏差、方差
75、距離度量公式哪些,區(qū)別
76、多標(biāo)簽識別怎么做
77、data argumentation怎么處理的
78、數(shù)據(jù)不均衡怎么處理、只有少量帶標(biāo)簽怎么處理
79、權(quán)重初始化方法都有哪些
80、權(quán)值衰減這個參數(shù)怎么設(shè)置
81、分類問題有哪些評價指標(biāo)?每種的適用場景。
82、無監(jiān)督學(xué)習(xí)了解哪些
83、圖像處理Opencv
84、邊緣檢測算子有哪些
85、霍夫變換
86、直方圖是什么
87、canny算子是怎么做的
88、圖像的特征提取有哪些算法,適用范圍、優(yōu)缺點
參考:
https://blog.csdn.net/bluesliuf/article/details/89389117
https://zhuanlan.zhihu.com/p/107279000
https://zhuanlan.zhihu.com/p/56475281
四、人工智能神經(jīng)網(wǎng)絡(luò)論文
隨著科學(xué)技術(shù)的發(fā)展,人工神經(jīng)網(wǎng)絡(luò)技術(shù)得到了空前的發(fā)展,并且在諸多領(lǐng)域得到了廣泛的應(yīng)用,為人工智能化的發(fā)展提供了強(qiáng)大的動力。以下是我整理分享的人工智能神經(jīng)網(wǎng)絡(luò)論文的相關(guān)資料,歡迎閱讀!
人工智能神經(jīng)網(wǎng)絡(luò)論文篇一
人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及應(yīng)用
摘要隨著科學(xué)技術(shù)的發(fā)展,人工神經(jīng)網(wǎng)絡(luò)技術(shù)得到了空前的發(fā)展,并且在諸多領(lǐng)域得到了廣泛的應(yīng)用,為人工智能化的發(fā)展提供了強(qiáng)大的動力。人工神經(jīng)網(wǎng)絡(luò)的發(fā)展經(jīng)歷了不同的階段,是人工智能的重要組成部分,并且在發(fā)展過程中形成了自身獨(dú)特的特點。文章對人工神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程進(jìn)行回顧,并對其在各個領(lǐng)域的應(yīng)用情況進(jìn)行探討。
關(guān)鍵詞人工神經(jīng)網(wǎng)絡(luò);發(fā)展;應(yīng)用
隨著科學(xué)技術(shù)的發(fā)展,各個行業(yè)和領(lǐng)域都在進(jìn)行人工智能化的研究工作,已經(jīng)成為專家學(xué)者研究的熱點。人工神經(jīng)網(wǎng)絡(luò)就是在人工智能基礎(chǔ)上發(fā)展而來的重要分支,對人工智能的發(fā)展具有重要的促進(jìn)作用。人工神經(jīng)網(wǎng)絡(luò)從形成之初發(fā)展至今,經(jīng)歷了不同的發(fā)展階段,并且在經(jīng)濟(jì)、生物、醫(yī)學(xué)等領(lǐng)域得到了廣泛的應(yīng)用,解決了許多技術(shù)上的難題。
1人工神經(jīng)網(wǎng)絡(luò)概述
關(guān)于人工神經(jīng)網(wǎng)絡(luò),到目前為止還沒有一個得到廣泛認(rèn)可的統(tǒng)一定義,綜合各專家學(xué)者的觀點可以將人工神經(jīng)網(wǎng)絡(luò)簡單的概括為是模仿人腦的結(jié)構(gòu)和功能的計算機(jī)信息處理系統(tǒng)[1]。人工神經(jīng)網(wǎng)絡(luò)具有自身的發(fā)展特性,其具有很強(qiáng)的并行結(jié)構(gòu)以及并行處理的能力,在實時和動態(tài)控制時能夠起到很好的作用;人工神經(jīng)網(wǎng)絡(luò)具有非線性映射的特性,對處理非線性控制的問題時能給予一定的幫助;人工神經(jīng)網(wǎng)絡(luò)可以通過訓(xùn)練掌握數(shù)據(jù)歸納和處理的能力,因此在數(shù)學(xué)模型等難以處理時對問題進(jìn)行解決;人工神經(jīng)網(wǎng)絡(luò)的適應(yīng)性和集成性很強(qiáng),能夠適應(yīng)不同規(guī)模的信息處理和大規(guī)模集成數(shù)據(jù)的處理與控制;人工神經(jīng)網(wǎng)絡(luò)不但在軟件技術(shù)上比較成熟,而且近年來在硬件方面也得到了較大發(fā)展,提高了人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)的信息處理能力。
2人工神經(jīng)網(wǎng)絡(luò)的發(fā)展歷程
2.1 萌芽時期
在20世紀(jì)40年代,生物學(xué)家McCulloch與數(shù)學(xué)家Pitts共同發(fā)表文章,第一次提出了關(guān)于神經(jīng)元的模型M-P模型,這一理論的提出為神經(jīng)網(wǎng)絡(luò)模型的研究和開發(fā)奠定了基礎(chǔ),在此基礎(chǔ)上人工神經(jīng)網(wǎng)絡(luò)研究逐漸展開。1951年,心理學(xué)家Hebb提出了關(guān)于連接權(quán)數(shù)值強(qiáng)化的法則,為神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)功能開發(fā)進(jìn)行了鋪墊。之后生物學(xué)家Eccles通過實驗證實了突觸的真實分流,為神經(jīng)網(wǎng)絡(luò)研究突觸的模擬功能提供了真實的模型基礎(chǔ)以及生物學(xué)的依據(jù)[2]。隨后,出現(xiàn)了能夠模擬行為以及條件反射的處理機(jī)和自適應(yīng)線性網(wǎng)絡(luò)模型,提高了人工神經(jīng)網(wǎng)絡(luò)的速度和精準(zhǔn)度。這一系列研究成果的出現(xiàn)為人工神經(jīng)網(wǎng)絡(luò)的形成和發(fā)展提供了可能。
2.2 低谷時期
在人工神經(jīng)網(wǎng)絡(luò)形成的初期,人們只是熱衷于對它的研究,卻對其自身的局限進(jìn)行了忽視。Minskyh和Papert通過多年對神經(jīng)網(wǎng)絡(luò)的研究,在1969年對之前所取得的研究成果提出了質(zhì)疑,認(rèn)為當(dāng)前研究出的神經(jīng)網(wǎng)絡(luò)只合適處理比較簡單的線性問題,對于非線性問題以及多層網(wǎng)絡(luò)問題卻無法解決。由于他們的質(zhì)疑,使神經(jīng)網(wǎng)絡(luò)的發(fā)展進(jìn)入了低谷時期,但是在這一時期,專家和學(xué)者也并沒有停止對神經(jīng)網(wǎng)絡(luò)的研究,針對他們的質(zhì)疑也得出一些相應(yīng)的研究成果。
2.3 復(fù)興時期
美國的物理學(xué)家Hopfield在1982年提出了新的神經(jīng)網(wǎng)絡(luò)模型,并通過實驗證明在滿足一定的條件時,神經(jīng)網(wǎng)絡(luò)是能夠達(dá)到穩(wěn)定的狀態(tài)的。通過他的研究和帶動,眾多專家學(xué)者又重新開始了對人工神經(jīng)網(wǎng)絡(luò)方面的研究,推動了神經(jīng)網(wǎng)絡(luò)的再一次發(fā)展[3]。經(jīng)過專家學(xué)者的不斷努力,提出了各種不同的人工神經(jīng)網(wǎng)絡(luò)的模型,神經(jīng)網(wǎng)絡(luò)理論研究不斷深化,新的理論和方法層出不窮,使神經(jīng)網(wǎng)絡(luò)的研究和應(yīng)用進(jìn)入了一個嶄新的時期。
2.4 穩(wěn)步發(fā)展時期
隨著人工神經(jīng)網(wǎng)絡(luò)研究在世界范圍內(nèi)的再次興起,我國也迎來了相關(guān)理論研究的熱潮,在人工神經(jīng)網(wǎng)絡(luò)和計算機(jī)技術(shù)方面取得了突破性的進(jìn)展。到20世紀(jì)90年代時,國內(nèi)對于神經(jīng)網(wǎng)絡(luò)領(lǐng)域的研究得到了進(jìn)一步的完善和發(fā)展,而且能夠利用神經(jīng)網(wǎng)絡(luò)對非線性的系統(tǒng)控制問題進(jìn)行解決,研究成果顯著。隨著各類人工神經(jīng)網(wǎng)絡(luò)的相關(guān)刊物的創(chuàng)建和相關(guān)學(xué)術(shù)會議的召開,我國人工神經(jīng)網(wǎng)絡(luò)的研究和應(yīng)用條件逐步改善,得到了國際的關(guān)注。
隨著人工神經(jīng)網(wǎng)絡(luò)的穩(wěn)步發(fā)展,逐漸建立了光學(xué)神經(jīng)網(wǎng)絡(luò)系統(tǒng),利用光學(xué)的強(qiáng)大功能,提高了人工神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)能力和自適應(yīng)能力。對非線性動態(tài)系統(tǒng)的控制問題,采取有效措施,提高超平面的光滑性,對其精度進(jìn)行改進(jìn)。之后有專家提出了關(guān)于人工神經(jīng)網(wǎng)絡(luò)的抽取算法,雖然保證了精度,但也加大了消耗,在一定程度上降低了神經(jīng)網(wǎng)絡(luò)的效率,因此在此基礎(chǔ)上又提出了改進(jìn)算法FERNN。混沌神經(jīng)網(wǎng)絡(luò)的發(fā)展也得到了相應(yīng)的進(jìn)步,提高了神經(jīng)網(wǎng)絡(luò)的泛化能力。
3人工神經(jīng)網(wǎng)絡(luò)的應(yīng)用
3.1 在信息領(lǐng)域中的應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)在信息領(lǐng)域中的應(yīng)用主要體現(xiàn)在信息處理和模式識別兩個方面。由于科技的發(fā)展,當(dāng)代信息處理工作越來越復(fù)雜,利用人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)可以對人的思維進(jìn)行模仿甚至是替代,面對問題自動診斷和解決,能夠輕松解決許多傳統(tǒng)方法無法解決的問題,在軍事信息處理中的應(yīng)用極為廣泛[4]。模式識別是對事物表象的各種信息進(jìn)行整理和分析,對事物進(jìn)行辨別和解釋的一個過程,這樣對信息進(jìn)行處理的過程與人類大腦的思維方式很相像。模式識別的方法可以分為兩種,一種是統(tǒng)計模式識別,還有一種是結(jié)構(gòu)模式識別,在語音識別和指紋識別等方面得到了廣泛的應(yīng)用。
3.2 在醫(yī)學(xué)領(lǐng)域的應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)對于非線性問題處理十分有效,而人體的構(gòu)成和疾病形成的原因十分復(fù)雜,具有不可預(yù)測性,在生物信號的表現(xiàn)形式和變化規(guī)律上也很難掌握,信息檢測和分析等諸多方面都存在著復(fù)雜的非線性聯(lián)系,所以應(yīng)用人工神經(jīng)網(wǎng)絡(luò)決解這些非線性問題具有特殊意義[5]。目前,在醫(yī)學(xué)領(lǐng)域中的應(yīng)用涉及到理論和臨床的各個方面,最主要的是生物信號的檢測和自動分析以及專家系統(tǒng)等方面的應(yīng)用。
3.3 在經(jīng)濟(jì)領(lǐng)域中的應(yīng)用
經(jīng)濟(jì)領(lǐng)域中的商品價格、供需關(guān)系、風(fēng)險系數(shù)等方面的信息構(gòu)成也十分復(fù)雜且變幻莫測,人工神經(jīng)網(wǎng)絡(luò)可以對不完整的信息以及模糊不確定的信息進(jìn)行簡單明了的處理,與傳統(tǒng)的經(jīng)濟(jì)統(tǒng)計方法相比具有其無法比擬的優(yōu)勢,數(shù)據(jù)分析的穩(wěn)定性和可靠性更強(qiáng)。
3.4 在其他領(lǐng)域的應(yīng)用
人工神經(jīng)網(wǎng)絡(luò)在控制領(lǐng)域、交通領(lǐng)域、心理學(xué)領(lǐng)域等方面都有很廣泛的應(yīng)用,能夠?qū)Ω唠y度的非線性問題進(jìn)行處理,對交通運(yùn)輸方面進(jìn)行集成式的管理,以其高適應(yīng)性和優(yōu)秀的模擬性能解決了許多傳統(tǒng)方法無法解決的問題,促進(jìn)了各個領(lǐng)域的快速發(fā)展。
4總結(jié)
隨著科技的發(fā)展,人工智能系統(tǒng)將進(jìn)入更加高級的發(fā)展階段,人工神經(jīng)網(wǎng)絡(luò)也將得到更快的發(fā)展和更加廣泛的應(yīng)用。人工神經(jīng)網(wǎng)絡(luò)也許無法完全對人腦進(jìn)行取代,但是其特有的非線性信息處理能力解決了許多人工無法解決的問題,在智能系統(tǒng)的各個領(lǐng)域中得到成功應(yīng)用,今后的發(fā)展趨勢將向著更加智能和集成的方向發(fā)展。
參考文獻(xiàn)
[1]徐用懋,馮恩波.人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在控制中的應(yīng)用[J].化工進(jìn)展,1993(5):8-12,20.
[2]湯素麗,羅宇鋒.人工神經(jīng)網(wǎng)絡(luò)技術(shù)的發(fā)展與應(yīng)用[J].電腦開發(fā)與應(yīng)用,2009(10):59-61.
[3]李會玲,柴秋燕.人工神經(jīng)網(wǎng)絡(luò)與神經(jīng)網(wǎng)絡(luò)控制的發(fā)展及展望[J].邢臺職業(yè)技術(shù)學(xué)院學(xué)報,2009(5):44-46.
[4]過效杰,祝彥知.人工神經(jīng)網(wǎng)絡(luò)的發(fā)展及其在巖土工程領(lǐng)域研究現(xiàn)狀[J].河南水利,2004(1):22-23.
[5]崔永華.基于人工神經(jīng)網(wǎng)絡(luò)的河流匯流預(yù)報模型及應(yīng)用研究[D].鄭州大學(xué),2006.
下一頁分享更優(yōu)秀的<<<人工智能神經(jīng)網(wǎng)絡(luò)論文
以上就是關(guān)于ai神經(jīng)網(wǎng)絡(luò)算法相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
ai人工智能機(jī)器人app(AI人工智能機(jī)器人圖片)
關(guān)于介紹ai技術(shù)的視頻(關(guān)于介紹ai技術(shù)的視頻素材)
幼兒園景觀設(shè)計平面圖(幼兒園景觀設(shè)計平面圖怎么畫)
牧野公園景觀設(shè)計(牧野公園景觀設(shè)計理念)