-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 技術(shù) > 專(zhuān)題列表 > 正文
基于svm的手寫(xiě)數(shù)字識(shí)別(基于svm的手寫(xiě)數(shù)字識(shí)別是一對(duì)一還是一對(duì)多)
大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于基于svm的手寫(xiě)數(shù)字識(shí)別的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。
開(kāi)始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話(huà)答疑等等
只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫(xiě)出的就越詳細(xì),有微信小程序端、在線(xiàn)網(wǎng)頁(yè)版、PC客戶(hù)端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶(hù)遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請(qǐng)撥打電話(huà)175-8598-2043,或添加微信:1454722008
本文目錄:
一、圖像識(shí)別 | 基于Keras的手寫(xiě)數(shù)字識(shí)別(含代碼)
前沿
人工智能的浪潮已經(jīng)席卷全球,深度學(xué)習(xí)(Deep Learning)和人工智能(Artificial Intelligence, AI)等詞匯也不斷地充斥在我們身邊。人工智能的發(fā)展是一個(gè)三起兩落的變化,90年代期間,知識(shí)推理>神經(jīng)網(wǎng)絡(luò)>機(jī)器學(xué)習(xí);2005年左右,機(jī)器學(xué)習(xí)>知識(shí)(語(yǔ)義網(wǎng))>神經(jīng)網(wǎng)絡(luò);而從2017年之后,基于深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)>知識(shí)(知識(shí)圖譜)>機(jī)器學(xué)習(xí)。
卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network, CNN)作為深度學(xué)習(xí)中的代表,最早的靈感是來(lái)源于1961年Hubel和Wiesel兩位神經(jīng)生物學(xué)家,在對(duì)貓視覺(jué)皮層細(xì)胞的實(shí)驗(yàn)中,發(fā)現(xiàn)大腦可視皮層是分層的(CNN中的分層網(wǎng)絡(luò)結(jié)構(gòu)與其如出一轍)。深度學(xué)習(xí)作為機(jī)器學(xué)習(xí)(ML)的一個(gè)子領(lǐng)域,由于計(jì)算機(jī)能力的提高和大量數(shù)據(jù)的可用性,得到了戲劇性的復(fù)蘇。但是,深度學(xué)習(xí)是否能等同或代表人工智能,這一點(diǎn)筆者認(rèn)為有待商榷,深度學(xué)習(xí)可以認(rèn)為是目前人工智能發(fā)展階段的重要技術(shù)。由于本文主要撰寫(xiě)關(guān)于深度學(xué)習(xí)的入門(mén)實(shí)戰(zhàn),關(guān)于細(xì)節(jié)概念不做深入研究,下面筆者從實(shí)際案例,介紹深度學(xué)習(xí)處理圖像的大致流程。
目錄:
以手寫(xiě)識(shí)別數(shù)字為例,作為深度學(xué)習(xí)的入門(mén)項(xiàng)目,本文以Keras深度學(xué)習(xí)庫(kù)為基礎(chǔ)。其中使用的tensorflow等模塊需要提前配置好,同時(shí)注意模型,圖片保存、載入的文件路徑問(wèn)題。在自己的計(jì)算機(jī)上運(yùn)行時(shí),需要?jiǎng)?chuàng)建或修改。下面的流程包括:使用Keras載入MNIST數(shù)據(jù)集,構(gòu)建Lenet訓(xùn)練網(wǎng)絡(luò)模型,使用Keras進(jìn)行模型的保存、載入,使用Keras實(shí)現(xiàn)對(duì)手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集的訓(xùn)練和預(yù)測(cè),最后畫(huà)出誤差迭代圖。
手寫(xiě)數(shù)字?jǐn)?shù)據(jù)集介紹:
手寫(xiě)數(shù)字識(shí)別幾乎是深度學(xué)習(xí)的入門(mén)數(shù)據(jù)集了。在keras中內(nèi)置了MNIST數(shù)據(jù)集,其中測(cè)試集包含60000條數(shù)據(jù),驗(yàn)證集包含10000條數(shù)據(jù),為單通道的灰度圖片,每張圖片的像素大小為28 28.一共包含10個(gè)類(lèi)別,為數(shù)字0到9。
導(dǎo)入相關(guān)模塊:
載入MNIST數(shù)據(jù)集
Keras可實(shí)現(xiàn)多種神經(jīng)網(wǎng)絡(luò)模型,并可以加載多種數(shù)據(jù)集來(lái)評(píng)價(jià)模型的效果,下面我們使用代碼自動(dòng)加載MNIST數(shù)據(jù)集。
顯示MNIST訓(xùn)練數(shù)據(jù)集中的前面6張圖片:
數(shù)據(jù)的預(yù)處理
首先,將數(shù)據(jù)轉(zhuǎn)換為4維向量[samples][width][height][pixels],以便于后面模型的輸入
為了使模型訓(xùn)練效果更好,通常需要對(duì)圖像進(jìn)行歸一化處理
最后,原始MNIST數(shù)據(jù)集的數(shù)據(jù)標(biāo)簽是0-9,通常要將其表示成one-hot向量。如訓(xùn)練數(shù)據(jù)標(biāo)簽為1,則將其轉(zhuǎn)化為向量[0,1,0,0,0,0,0,0,0,0]
模型的建立與計(jì)算
訓(xùn)練模型的參數(shù)設(shè)置:
本文使用Lenet網(wǎng)絡(luò)架構(gòu),下面定義Lenet網(wǎng)絡(luò)結(jié)構(gòu),若要更改網(wǎng)絡(luò)結(jié)構(gòu),如用VGGNet,GoogleNet,Inception,ResNets或自己構(gòu)建不同的網(wǎng)絡(luò)結(jié)構(gòu),可以直接在這一塊函數(shù)內(nèi)進(jìn)行修改。
再附上兩個(gè)經(jīng)典的模型:
VGG16:
GoogleNet:
設(shè)置優(yōu)化方法,loss函數(shù),并編譯模型:
本文使用生成器以節(jié)約內(nèi)存:
結(jié)果分析
作出訓(xùn)練階段的損失、精確度迭代圖,本文將epoch設(shè)置為10,已達(dá)到0.98的準(zhǔn)確率(代碼、圖像如下所示)。
公眾號(hào):帕帕 科技 喵
歡迎關(guān)注與討論~
二、(2012, AlexNet) ImageNet Classification with Deep Convolutional Neural Networks
上一篇文章中的LeNet-5是第一個(gè)廣為人知的經(jīng)典CNN網(wǎng)絡(luò),但那是20年前提出的CNN網(wǎng)絡(luò),最成功的案例是解決了手寫(xiě)數(shù)字識(shí)別的問(wèn)題,當(dāng)時(shí)被廣泛應(yīng)用于郵局/銀行的手寫(xiě)郵編/支票數(shù)字自動(dòng)識(shí)別系統(tǒng)。但直到2012年之前,在這14年間,CNN網(wǎng)絡(luò)在圖像識(shí)別領(lǐng)域的地位逐漸被其他分類(lèi)模型如SVM取代。其中主要的原因有(事后諸葛亮......):
經(jīng)過(guò)十幾年的發(fā)展,以上制約CNN網(wǎng)絡(luò)發(fā)展的主要限制因素一個(gè)個(gè)被解決,結(jié)果在2012年的ImageNet競(jìng)賽中,繼LeNet-5之后的第二個(gè)經(jīng)典CNN網(wǎng)絡(luò)—AlexNet橫空出世。以超出第二名10%以上的top-5準(zhǔn)確率,勇奪ImageNet2012分類(lèi)比賽的冠軍,從此, 深度學(xué)習(xí) 重新回到人們的視野,并一發(fā)不可收拾。
下面從一些直觀(guān)的數(shù)據(jù)比較1998年的LeNet-5和2012年的AlexNet的區(qū)別:
AlexNet網(wǎng)絡(luò)結(jié)構(gòu)如下圖所示:
論文中由于使用了2塊GPU,將網(wǎng)絡(luò)結(jié)構(gòu)布置成了上下兩部分,看著很不方便,上圖是在網(wǎng)上找的簡(jiǎn)易版本。
下面總結(jié)AlexNet的主要特點(diǎn):
3.1. 使引入Relu激活函數(shù)減輕深度網(wǎng)絡(luò)難以訓(xùn)練的問(wèn)題
關(guān)于CNN網(wǎng)絡(luò)的激活函數(shù)的討論,SigAI公眾號(hào)這篇文章總結(jié)的挺好:
另外,下面這篇論文對(duì)深度網(wǎng)絡(luò)難以訓(xùn)練的問(wèn)題進(jìn)行了分析:
之前的CNN網(wǎng)絡(luò),包括前面著名的LeNet-5,都使用tanh/Sigmoid作為激活函數(shù),這類(lèi)激活函數(shù)具有飽和性,在訓(xùn)練深層網(wǎng)絡(luò)時(shí)會(huì)造成梯度消失問(wèn)題,而AlexNet引入了非飽和的Relu激活函數(shù),有效地緩解了梯度消失問(wèn)題。
3.2. 解決深度網(wǎng)絡(luò)的過(guò)擬合問(wèn)題
一方面,近幾年來(lái),人們?cè)絹?lái)越意識(shí)到構(gòu)建龐大的數(shù)據(jù)集的重要性,于是出現(xiàn)了像ImageNet這樣超過(guò)1500萬(wàn)張標(biāo)注圖片,2200多種類(lèi)別的數(shù)據(jù)集,ILSVRC2012中,AlexNet使用了150萬(wàn)張圖片的龐大訓(xùn)練集,使得擁有6000萬(wàn)個(gè)參數(shù)的AlexNet也沒(méi)出現(xiàn)嚴(yán)重過(guò)擬合問(wèn)題;
另外,AlexNet在訓(xùn)練時(shí)使用了數(shù)據(jù)增強(qiáng)(data augmentation)策略,相當(dāng)于進(jìn)一步擴(kuò)大了訓(xùn)練數(shù)據(jù)集;
最后,AlexNet在全連接層部分引入了一個(gè)dropout層,同樣能有效防止模型出現(xiàn)過(guò)擬合。
3.3. 計(jì)算能力問(wèn)題
盡管AlexNet的模型復(fù)雜度很大,但其利用了英偉達(dá)GPU強(qiáng)大的計(jì)算能力,在GPU面前,模型復(fù)雜度不是問(wèn)題。
從模型的設(shè)計(jì)思路來(lái)看,其實(shí)AlexNet遵循了LeNet-5的思想,即使用交替的卷積層和池化層用于提取圖像的高級(jí)語(yǔ)義特征,同時(shí)降低特征尺寸。然后使用全連接層/MLP作為分類(lèi)層。
但是,在細(xì)節(jié)部分,ALexNet引入了很多新的元素,用于解決以上提到的CNN網(wǎng)絡(luò)遇到的諸多問(wèn)題,使得CNN網(wǎng)絡(luò)開(kāi)始重新散發(fā)光芒。
三、車(chē)上svm是什么意思
SVM(360度全景影像)。
用SVM在線(xiàn)比對(duì)可以恢復(fù)車(chē)輛電腦的編碼等數(shù)據(jù),再比如要更換某些電腦,備件定會(huì)來(lái)裝上是沒(méi)法直接使用的需要編碼,而有SVM在線(xiàn)比對(duì)后就不用修理工選擇編碼直接一比對(duì)原車(chē)的編碼就編上了。
SVM是一種基于統(tǒng)計(jì)學(xué)習(xí)理論的模式識(shí)別方法,主要應(yīng)用于模式識(shí)別領(lǐng)域.由于當(dāng)時(shí)這些研究尚不十分完善,在解決模式識(shí)別問(wèn)題中往往趨于保守,且數(shù)學(xué)上比較艱澀,因此這些研究一直沒(méi)有得到充的重視。
直到90年代:
一個(gè)較完善的理論體系—統(tǒng)計(jì)學(xué)習(xí)理論( StatisticalLearningTheory,簡(jiǎn)稱(chēng)SLT)的實(shí)現(xiàn)和由于神經(jīng)網(wǎng)絡(luò)等較新興的機(jī)器學(xué)習(xí)方法的研究遇到一些重要的困難,比如如何確定網(wǎng)絡(luò)結(jié)構(gòu)的問(wèn)題、過(guò)學(xué)習(xí)與欠學(xué)習(xí)問(wèn)題、局部極小點(diǎn)問(wèn)題等,使得SVM迅速發(fā)展和完善,在解決小樣本、非線(xiàn)性及高維模式識(shí)別問(wèn)題中表現(xiàn)出許多特有的優(yōu)勢(shì)。
并能夠推廣應(yīng)用到函數(shù)擬合等其他機(jī)器學(xué)習(xí)問(wèn)題中.從此迅速的發(fā)展起來(lái),現(xiàn)在已經(jīng)在許多領(lǐng)域(生物信息學(xué),文本和手寫(xiě)識(shí)別等)都取得了成功的應(yīng)用。
SVM的關(guān)鍵在于核函數(shù),這也是最喜人的地方。低維空間向量集通常難于劃分,解決的方法是將它們映射到高維空間。但這個(gè)辦法帶來(lái)的困難就是計(jì)算復(fù)雜度的增加,而核函數(shù)正好巧妙地解決了這個(gè)問(wèn)題。也就是說(shuō),只要選用適當(dāng)?shù)暮撕瘮?shù),我們就可以得到高維空間的分類(lèi)函數(shù)。
四、matlab的數(shù)字差異和結(jié)合原理
基于MATLAB的數(shù)字識(shí)別
計(jì)算機(jī)與信息工程學(xué)院 本科生畢業(yè)論文 基于BP神經(jīng)網(wǎng)絡(luò)的手寫(xiě)數(shù)字識(shí)別算法的設(shè)計(jì)與實(shí)現(xiàn) 班 級(jí): 13漢班 學(xué) 號(hào): 姓 名: 江曉雪 指導(dǎo)教師: 李艷玲 2017 年 3 月 31 日 畢 業(yè) 論 文 目 錄 1 緒論1 1.1 圖像識(shí)別的提出1 1.2 圖像識(shí)別的現(xiàn)狀與發(fā)展趨勢(shì)1 2 BP神經(jīng)網(wǎng)絡(luò)的概述2 3 手寫(xiě)體數(shù)字識(shí)別的實(shí)現(xiàn)過(guò)程4 3.1 整體線(xiàn)路圖4 3.2 算法流程5 3.3 圖像預(yù)處理10 3.4 結(jié)果分析10 4 結(jié)論11 參考文獻(xiàn)12 全文共 13 頁(yè) 4834 字 基于BP神經(jīng)網(wǎng)絡(luò)的手寫(xiě)數(shù)字識(shí)別算法的設(shè)計(jì)與實(shí)現(xiàn) 計(jì)算機(jī)與信息工程學(xué)院 2013級(jí)漢班 江曉雪 指導(dǎo)教師 李艷玲 副教授 摘要 本文實(shí)現(xiàn)了基于MATLAB關(guān)于神經(jīng)網(wǎng)絡(luò)的手寫(xiě)數(shù)字識(shí)別算法的設(shè)計(jì)過(guò)程,采用神經(jīng)網(wǎng)絡(luò)中反向傳播神經(jīng)網(wǎng)絡(luò)(即BP神經(jīng)網(wǎng)絡(luò))對(duì)手寫(xiě)數(shù)字的識(shí)別,由MATLAB對(duì)圖片進(jìn)行讀入、灰度化以及二值化等處理,通過(guò)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練和測(cè)試。實(shí)驗(yàn)證明:該神經(jīng)網(wǎng)絡(luò)對(duì)手寫(xiě)數(shù)字的識(shí)別可以達(dá)到95.65%。 關(guān)鍵詞 手寫(xiě)數(shù)字識(shí)別;BP神經(jīng)網(wǎng)絡(luò);MATLAB語(yǔ)言 1 緒論 1.1 圖像識(shí)別的提出 圖像識(shí)別在信息技術(shù)發(fā)達(dá)的今天已經(jīng)占據(jù)了很重要的地位,在我們實(shí)際生活中也有很多應(yīng)用。所謂的圖像識(shí)別,就是指通過(guò)計(jì)算機(jī)對(duì)圖像進(jìn)行相應(yīng)的處理、分析,來(lái)達(dá)到識(shí)別不同模型的目標(biāo)和任務(wù)的一種技術(shù)。對(duì)于它的提出,簡(jiǎn)單的來(lái)說(shuō),它的發(fā)展經(jīng)歷了三個(gè)階段:第一個(gè)是文字識(shí)別 、第二個(gè)是數(shù)字圖像處理與識(shí)別、第三個(gè)是物體識(shí)別。第一種相對(duì)來(lái)說(shuō)比較簡(jiǎn)單,它的研究是從1950年開(kāi)始的,一般情況是識(shí)別字母、符號(hào)和數(shù)字,無(wú)論是印刷體識(shí)別還是手寫(xiě)體識(shí)別,它的應(yīng)用都非常廣泛,但是也伴隨著,這個(gè)識(shí)別的過(guò)程會(huì)更加的耗時(shí)、費(fèi)力,無(wú)論是人力還是物力,都會(huì)有很大的損失;第二種就是我們所說(shuō)的數(shù)字圖像處理與識(shí)別,在圖片的識(shí)別過(guò)程中,圖片識(shí)別會(huì)有一定的誤差,也會(huì)帶來(lái)小小的麻煩;第三就是物體識(shí)別,而物體的識(shí)別主要指的是:在三維世界中,對(duì)于個(gè)體、環(huán)境的感知和認(rèn)識(shí)進(jìn)行識(shí)別,這不同于二維世界的認(rèn)知,相對(duì)來(lái)說(shuō)是更高級(jí)的計(jì)算機(jī)圖像識(shí)別,它是以二維世界中對(duì)數(shù)字圖像和模擬圖像處理的辦法為依據(jù),進(jìn)行更高一級(jí)的,并且結(jié)合了現(xiàn)代人工智能技術(shù)等學(xué)科的研究目標(biāo),研究成果已經(jīng)被廣泛的應(yīng)用在各種工業(yè)探測(cè)機(jī)器人上,為人們的安全提供了很大的幫助。 1.2 圖像識(shí)別的現(xiàn)狀與發(fā)展趨勢(shì) 隨著網(wǎng)絡(luò)的發(fā)達(dá)、電子的信息化,圖像識(shí)別的應(yīng)用已經(jīng)非常廣泛,而主要的研究工作也包括各行各業(yè),整理以下幾點(diǎn)對(duì)其應(yīng)用的廣泛度進(jìn)行說(shuō)明: ⒈在生物學(xué)中,對(duì)生物的原型進(jìn)行研究。從生物的腦細(xì)胞結(jié)構(gòu)、物體解剖等其他科學(xué)研究的方向?qū)ι锏捏w系結(jié)構(gòu)、神經(jīng)結(jié)構(gòu)、神經(jīng)細(xì)胞組織等生物的原型結(jié)構(gòu)及其功能機(jī)理進(jìn)行研究,增強(qiáng)對(duì)生物學(xué)更加全面的理解。 ⒉在實(shí)際應(yīng)用中,建立我們需要的理論模型。根據(jù)需要應(yīng)用的信息在生物學(xué)中的應(yīng)用,建立需要的生物原型,也可以建立類(lèi)似神經(jīng)元、神經(jīng)網(wǎng)絡(luò)這樣不可見(jiàn)的理論模型,以便可以讓其更加有效的應(yīng)用在生活中。建立我們生活中不能直觀(guān)表現(xiàn)的事物模型,以便我們可以更方便的、更直觀(guān)的理解事物的本質(zhì)。 ⒊在信息時(shí)代中,建立網(wǎng)絡(luò)模型以及算法研究。就是通過(guò)上面所說(shuō)的,建立相應(yīng)的理論模型,在這個(gè)基礎(chǔ)上加以理解,建立我們所需要的網(wǎng)絡(luò)模型,實(shí)現(xiàn)計(jì)算機(jī)應(yīng)用,主要應(yīng)用在網(wǎng)絡(luò)學(xué)習(xí)算法的研究,這方面的研究工作也被人們稱(chēng)為技術(shù)模型研究。 ⒋信息時(shí)代的發(fā)展,讓我們?cè)谏钪杏泻芏嗟膽?yīng)用,例如:完成某種函數(shù)圖像的繪制以及對(duì)其變化的形式進(jìn)行分析、對(duì)圖片信號(hào)的處理、模式識(shí)別等功能,建立需要的應(yīng)用系統(tǒng)、制造機(jī)器人等等。 通過(guò)上面的說(shuō)明,也就是說(shuō)從開(kāi)始根據(jù)生物學(xué)原理的應(yīng)用,直到建立需要的神經(jīng)網(wǎng)絡(luò)模型,最后應(yīng)用到圖像識(shí)別當(dāng)中,可以看出其模型的建立是在生活中實(shí)例的基礎(chǔ)上,其可靠性和準(zhǔn)確性是顯而易見(jiàn)的,這樣就大大的增加了可信度,與此同時(shí),也減少了工作中不必要的麻煩與困擾。而在網(wǎng)絡(luò)信息發(fā)達(dá)的今天,人類(lèi)在基本粒子、宇宙空間、生命起源等科學(xué)領(lǐng)域方面都已經(jīng)顯現(xiàn)出很高的興趣度,而這其中難免會(huì)有圖像提取后的處理工作,所以圖像識(shí)別的應(yīng)用就會(huì)越來(lái)越廣泛。 2 BP神經(jīng)網(wǎng)絡(luò)的概述 反向傳播(Back-Propagation,BP)學(xué)習(xí)算法簡(jiǎn)稱(chēng)BP算法,采用BP算法的前饋型神經(jīng)網(wǎng)絡(luò)簡(jiǎn)稱(chēng)BP網(wǎng)絡(luò)。BP網(wǎng)絡(luò)是多層感知器的一種,它具備多層感知器的特點(diǎn),同時(shí)也有自己的特點(diǎn)。多層感知器包括輸入層、隱藏層、輸出層,其中隱藏層可以有多個(gè),而我們BP網(wǎng)絡(luò)中隱藏層只有一個(gè),其簡(jiǎn)單構(gòu)造如圖所示: 圖1 多層感知器結(jié)構(gòu)圖 而我們用到的BP網(wǎng)絡(luò)中的具體信號(hào)流如圖所示,它有一個(gè)反向傳播的過(guò)程,這也是對(duì)傳播進(jìn)行調(diào)整,使精確度更高的一種辦法。如圖所示,其中有兩種信號(hào)流通: 圖2 多層感知器的信號(hào)流 第一:函數(shù)信號(hào) 簡(jiǎn)單來(lái)說(shuō)就是信號(hào)進(jìn)入輸入層,然后通過(guò)隱藏層到達(dá)輸入層,通過(guò)輸出層輸出所得值,就可以完成一個(gè)函數(shù)信號(hào)。 第二:誤差信號(hào) 誤差信號(hào)就是在逆向的傳播的過(guò)程中傳輸?shù)男盘?hào)。其中,有兩個(gè)重要參數(shù)。一個(gè)是函數(shù)信號(hào)即sigmoid函數(shù),還有一個(gè)就是權(quán)值的梯度運(yùn)算即梯度向量。(注:sigmoid函數(shù)、權(quán)重的修正函數(shù),如圖所示。) (1) (2) 通過(guò)對(duì)兩個(gè)參數(shù)的調(diào)整,完成整個(gè)算法的應(yīng)用。 3 手寫(xiě)體數(shù)字識(shí)別的實(shí)現(xiàn)過(guò)程 3.1 整體線(xiàn)路圖 整體流程圖如圖3所示: 圖像測(cè)試 損失函數(shù)的設(shè)計(jì)與應(yīng)用 可視化測(cè)試數(shù)據(jù) 神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)與訓(xùn)練 sigmoid函數(shù) 圖3 整體流程圖 部分文件調(diào)用流程圖如圖4所示: sigmoid checkNNGradients nnCostFunction 第八部分:實(shí)現(xiàn)正規(guī)化 第八部分:訓(xùn)練NN fmincg nnCostFunction sigmoidGradient sigmoid nnCostFunction sigmoidGradient randInitializeWeights checkNNGradients debugInitializeWeights nnCostFunction computeNumericalGradient 第五部分:sigmoid函數(shù) 第六部分:初始化參數(shù) 第七部分:實(shí)現(xiàn)反向傳播 第三部分:前饋網(wǎng)絡(luò) 第四部分:前饋正規(guī)化 圖4 整體流程圖 3.2 算法流程
以上就是關(guān)于基于svm的手寫(xiě)數(shù)字識(shí)別相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢(xún),客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
基于自然的景觀(guān)設(shè)計(jì)(基于自然的景觀(guān)設(shè)計(jì)作品)
基于味覺(jué)的景觀(guān)設(shè)計(jì)手法(基于味覺(jué)的景觀(guān)設(shè)計(jì)手法是什么)
谷歌端對(duì)端的翻譯是基于大數(shù)據(jù)(谷歌端對(duì)端的翻譯是基于大數(shù)據(jù)翻譯嗎)
杭州下沙沁香公寓樓盤(pán)介紹(杭州下沙沁香公寓樓盤(pán)介紹圖片)
二建考試時(shí)間2023報(bào)名時(shí)間(二建考試時(shí)間2023考試時(shí)間)