HOME 首頁
SERVICE 服務(wù)產(chǎn)品
XINMEITI 新媒體代運(yùn)營
CASE 服務(wù)案例
NEWS 熱點(diǎn)資訊
ABOUT 關(guān)于我們
CONTACT 聯(lián)系我們
創(chuàng)意嶺
讓品牌有溫度、有情感
專注品牌策劃15年

    回歸算法(回歸算法原理是什么)

    發(fā)布時(shí)間:2023-04-19 02:33:43     稿源: 創(chuàng)意嶺    閱讀: 57        

    大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關(guān)于回歸算法的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。

    開始之前先推薦一個(gè)非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對話答疑等等

    只需要輸入關(guān)鍵詞,就能返回你想要的內(nèi)容,越精準(zhǔn),寫出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁版、PC客戶端

    官網(wǎng):https://ai.de1919.com。

    創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務(wù)客戶遍布全球各地,如需了解SEO相關(guān)業(yè)務(wù)請撥打電話175-8598-2043,或添加微信:1454722008

    本文目錄:

    回歸算法(回歸算法原理是什么)

    一、機(jī)器學(xué)習(xí)故事匯-邏輯回歸算法

    機(jī)器學(xué)習(xí)故事匯-邏輯回歸算法

    今天我們要來討論的一個(gè)分類算法-邏輯回歸(你有沒有搞錯(cuò),這不還是回歸嗎,雖然名字帶上了回歸其實(shí)它是一個(gè)非常實(shí)用的分類算法)。,適合對數(shù)學(xué)很頭疼的同學(xué)們,小板凳走起!

    先來吹一吹邏輯回歸的應(yīng)用,基本上所有的機(jī)器學(xué)習(xí)分類問題都可以使用邏輯回歸來求解,當(dāng)前拿到一份數(shù)據(jù)想做一個(gè)分類任務(wù)的時(shí)候第一手準(zhǔn)備一定要拿邏輯回歸來嘗試(雖然有很多復(fù)雜的模型比如神經(jīng)網(wǎng)絡(luò),支持向量機(jī)的名氣更大,但是邏輯回歸卻更接地氣,用的最多的還是它)!在機(jī)器學(xué)習(xí)中無論是算法的推導(dǎo)還是實(shí)際的應(yīng)用一直有這樣的一種思想,如果一個(gè)問題能用簡單的算法去解決那么絕對沒必要去套用復(fù)雜的模型。

    在邏輯回歸中最核心的概念就是Sigmoid函數(shù)了,首先我們先來觀察一下它的自變量取值范圍以及值域,自變量可以是任何實(shí)數(shù)(這沒啥特別的!)但是我們觀察值域的范圍是[0,1]也就是任意的一個(gè)輸入都會(huì)映射到[0,1]的區(qū)間上,我們來想一想這個(gè)區(qū)間有什么特別的含義嗎?在我們做分類任務(wù)的時(shí)候一般我都都會(huì)認(rèn)為一個(gè)數(shù)據(jù)來了它要么是0要么是1(只考慮二分類問題),我們其實(shí)可以更細(xì)致一點(diǎn)得出來它是0或者1的可能性有多大,由此我們就得出了一個(gè)輸入屬于某一個(gè)類別的概率值,這個(gè)[0,1]不就恰好是這個(gè)概率嗎!

    在這里我們的預(yù)測函數(shù)還是跟線性回歸沒有多大差別,只不過我們將結(jié)果又輸入到Sigmoid函數(shù)中,這樣得到了數(shù)據(jù)屬于類別的概率值。在推導(dǎo)過程中,我們假定分類是兩個(gè)類別的(邏輯回歸是經(jīng)典的而分類器)。設(shè)定y(標(biāo)簽)要么取0要么取1,這樣就可以把兩個(gè)類別進(jìn)行整合,得到一個(gè)更直觀的表達(dá)。

    對于邏輯回歸的求解,已然沿用我們上次跟大家討論的梯度下降算法。給出似然函數(shù),轉(zhuǎn)換對數(shù)似然(跟線性回歸一致),但是我們現(xiàn)在的優(yōu)化目標(biāo)卻跟之前不太一樣了,線性回歸的時(shí)候我們要求解的是最小值(最小二乘法),但是現(xiàn)在我們想得到的卻是使得該事件發(fā)生得最大值,為了沿用梯度下降來求解,可以做一個(gè)簡單的轉(zhuǎn)換添加一個(gè)負(fù)號(hào)以及一個(gè)常數(shù)很簡單的兩步就可以把原始問題依然轉(zhuǎn)換成梯度下降可以求解的問題。

    此處求導(dǎo)過程看起來有些長,但也都是非常非?;镜倪\(yùn)算了,感興趣拿起一支筆來實(shí)際算算吧!

    最終就是參數(shù)更新了,迭代更新是機(jī)器學(xué)習(xí)的常規(guī)套路了。但是我們來簡單想一想另外的一個(gè)問題,現(xiàn)在我們說的邏輯回歸是一個(gè)二分類算法,那如果我的實(shí)際問題是一個(gè)多分類該怎么辦呢?這個(gè)時(shí)候就需要Softmax啦,引入了歸一化機(jī)制,來將得分值映射成概率值。

    最后一句話總結(jié)一下吧,任何時(shí)候(沒錯(cuò)就是這么狠)當(dāng)我們一個(gè)實(shí)際任務(wù)來了,第一個(gè)算法就是邏輯回歸啦,可以把它當(dāng)成我們的基礎(chǔ)模型,然后不斷改進(jìn)對比!

    二、GBDT與XGBoost

    之前介紹過 梯度下降法與牛頓法 ,GBDT與XGBoost就與這兩種方法有關(guān)。

    GBDT泛指所有梯度提升樹算法,包括XGBoost,它也是GBDT的一種變種,為了區(qū)分它們,GBDT一般特指“Greedy Function Approximation:A Gradient Boosting Machine”里提出的算法,只用了一階導(dǎo)數(shù)信息。

    算法流程如下:

    算法流程圖也可以如下圖:

    GBDT常用損失函數(shù)

    分類算法:

    分類算法中CART樹也是采用回歸樹

    (1) 指數(shù)損失函數(shù):

    負(fù)梯度計(jì)算和葉子節(jié)點(diǎn)的最佳負(fù)梯度擬合與Adaboost相似。

    (2) 對數(shù)損失函數(shù):

    二元分類:

    多元分類:

    回歸算法:

    (1)均方差:

    (2)絕對損失:

    負(fù)梯度誤差為:

    (3)Huber損失:

    均方差和絕對損失的折中,對遠(yuǎn)離中心的異常點(diǎn),采用絕對損失,而中心附近的點(diǎn)采用均方差。界限一般用分位數(shù)點(diǎn)度量。損失函數(shù)如下:

    負(fù)梯度誤差:

    (4) 分位數(shù)損失:分位數(shù)回歸的損失函數(shù),表達(dá)式為

    θ為分位數(shù),需要我們在回歸前指定。對應(yīng)的負(fù)梯度誤差為:

    Huber損失和分位數(shù)損失,減少異常點(diǎn)對損失函數(shù)的影響。

    問題:GBDT如何減少異常點(diǎn)的影響?

    GBDT優(yōu)點(diǎn):

    GBDT缺點(diǎn):

    Adaboost與GBDT:

    RF與GBDT:

    RF優(yōu)點(diǎn):

    RF缺點(diǎn):

    XGBoost目標(biāo)函數(shù)及歸一化公式

    歸一化解釋

    XGBoost參數(shù)定義

    XGBoost第t次迭代: 訓(xùn)練第t棵子樹,損失函數(shù)最小求參數(shù),計(jì)算過程如下

    假設(shè)分到j(luò)這個(gè)葉子節(jié)點(diǎn)上的樣本只有一個(gè)。那么,w* j 如下:

    回歸樹的學(xué)習(xí)策略

    XGBoost的打分函數(shù)

    樹節(jié)點(diǎn)分裂方法

    尋找分為點(diǎn)可以使用Weighted Quantile Sketch—分布式加權(quán)直方圖算法

    稀疏值處理

    關(guān)鍵的改進(jìn)是只訪問非缺失的條目I k 。 所提出的算法將不存在的值視為缺失值并且學(xué)習(xí)處理缺失值的最佳方向。稀疏感知算法運(yùn)行速度比初始版本快50倍

    XGBoost的其它特性

    Shrinkage and Column Subsampling

    Shrinkage and Column Subsampling均是為了防止過擬合

    XGBoost的系統(tǒng)設(shè)計(jì)

    Column Block

    xgboost的并行不是tree粒度的并行,而是特征粒度上。

    緩存感知訪問(Cache-aware Access)

    XGBoost的優(yōu)點(diǎn)

    XGBoost與GBDT對比

    問題:XGBoost為什么使用CART樹而不是用普通的決策樹呢?

    XGBoost參數(shù)說明

    回歸樹 生成算法如下,使用最小二乘偏差(LSD)。

    分類樹 算法流程如下,使用GINI指數(shù)

    GINI 指數(shù):

    分類中,假設(shè) K 個(gè)類,樣本屬于第 k 類的概率為 p k ,概率分布的基尼指數(shù)為:

    樣本集合 D 的基尼指數(shù)為:

    C k 為數(shù)據(jù)集D中屬于第k類的樣本子集,| * |表示樣本集中樣本的個(gè)數(shù)。

    數(shù)據(jù)集 D 根據(jù)特征 A 在某一取值 a 上進(jìn)行分割,得到 D 1 、D 2 兩部分,則在特征 A 下集合 D 的基尼指數(shù)為:

    停止條件:

    剪枝

    決策樹防止過擬合方法:

    代價(jià)復(fù)雜度剪枝 Cost-Complexity Pruning(CCP) 方法對CART剪枝,算法流程如下:

    其中 C(T)為誤差(例如基尼指數(shù)),|T| 為 T 的葉節(jié)點(diǎn)個(gè)數(shù),alpha 為非負(fù)參數(shù),用來權(quán)衡訓(xùn)練數(shù)據(jù)的擬合程度和模型的復(fù)雜度。

    剪枝例子如下:

    例如 t 1 節(jié)點(diǎn),R(t)即剪枝后誤差,數(shù)據(jù)所占比例16/16,節(jié)點(diǎn)誤差率 = 該節(jié)點(diǎn)較少類別的數(shù)/該節(jié)點(diǎn)類別總數(shù) = 8/16

    R(Tt)為剪枝前誤差,即葉子節(jié)點(diǎn)誤差之和,以該節(jié)點(diǎn)為根節(jié)點(diǎn)的4葉子節(jié)點(diǎn)均只有一個(gè)類別的樣本,該節(jié)點(diǎn)較少類別的數(shù)/該節(jié)點(diǎn)類別總數(shù) = 0,所以R(Tt) = 0

    參考

    三、什么是指機(jī)器學(xué)習(xí)過程中需要提供指導(dǎo)信號(hào)的學(xué)習(xí)方式

    機(jī)器學(xué)習(xí)過程中需要提供指導(dǎo)信號(hào)的學(xué)習(xí)方式

    根據(jù)數(shù)據(jù)類型的不同,對一個(gè)問題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會(huì)考慮算法的學(xué)習(xí)方式。在機(jī)器學(xué)習(xí)領(lǐng)域,有幾種主要的學(xué)習(xí)方式。將算法按照學(xué)習(xí)方式分類是一個(gè)不錯(cuò)的想法,這樣可以讓人們在建模和算法選擇的時(shí)候考慮能根據(jù)輸入數(shù)據(jù)來選擇最合適的算法來獲得最好的結(jié)果。

    1.監(jiān)督式學(xué)習(xí):

    在監(jiān)督式學(xué)習(xí)下,輸入數(shù)據(jù)被稱為“訓(xùn)練數(shù)據(jù)”,每組訓(xùn)練數(shù)據(jù)有一個(gè)明確的標(biāo)識(shí)或結(jié)果,如對防垃圾郵件系統(tǒng)中“垃圾郵件”“非垃圾郵件”,對手寫數(shù)字識(shí)別中的“1“,”2“,”3“,”4“等。在建立預(yù)測模型的時(shí)候,監(jiān)督式學(xué)習(xí)建立一個(gè)學(xué)習(xí)過程,將預(yù)測結(jié)果與“訓(xùn)練數(shù)據(jù)”的實(shí)際結(jié)果進(jìn)行比較,不斷的調(diào)整預(yù)測模型,直到模型的預(yù)測結(jié)果達(dá)到一個(gè)預(yù)期的準(zhǔn)確率。監(jiān)督式學(xué)習(xí)的常見應(yīng)用場景如分類問題和回歸問題。常見算法有邏輯回歸(Logistic Regression)和反向傳遞神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)

    2.非監(jiān)督式學(xué)習(xí):

    在非監(jiān)督式學(xué)習(xí)中,數(shù)據(jù)并不被特別標(biāo)識(shí),學(xué)習(xí)模型是為了推斷出數(shù)據(jù)的一些內(nèi)在結(jié)構(gòu)。常見的應(yīng)用場景包括關(guān)聯(lián)規(guī)則的學(xué)習(xí)以及聚類等。常見算法包括Apriori算法以及k-Means算法。

    3.半監(jiān)督式學(xué)習(xí):

    在此學(xué)習(xí)方式下,輸入數(shù)據(jù)部分被標(biāo)識(shí),部分沒有被標(biāo)識(shí),這種學(xué)習(xí)模型可以用來進(jìn)行預(yù)測,但是模型首先需要學(xué)習(xí)數(shù)據(jù)的內(nèi)在結(jié)構(gòu)以便合理的組織數(shù)據(jù)來進(jìn)行預(yù)測。應(yīng)用場景包括分類和回歸,算法包括一些對常用監(jiān)督式學(xué)習(xí)算法的延伸,這些算法首先試圖對未標(biāo)識(shí)數(shù)據(jù)進(jìn)行建模,在此基礎(chǔ)上再對標(biāo)識(shí)的數(shù)據(jù)進(jìn)行預(yù)測。如圖論推理算法(Graph Inference)或者拉普拉斯支持向量機(jī)(Laplacian SVM.)等。

    4.強(qiáng)化學(xué)習(xí):

    在這種學(xué)習(xí)模式下,輸入數(shù)據(jù)作為對模型的反饋,不像監(jiān)督模型那樣,輸入數(shù)據(jù)僅僅是作為一個(gè)檢查模型對錯(cuò)的方式,在強(qiáng)化學(xué)習(xí)下,輸入數(shù)據(jù)直接反饋到模型,模型必須對此立刻作出調(diào)整。常見的應(yīng)用場景包括動(dòng)態(tài)系統(tǒng)以及機(jī)器人控制等。常見算法包括Q-Learning以及時(shí)間差學(xué)習(xí)(Temporal difference learning)

    在企業(yè)數(shù)據(jù)應(yīng)用的場景下, 人們最常用的可能就是監(jiān)督式學(xué)習(xí)和非監(jiān)督式學(xué)習(xí)的模型。 在圖像識(shí)別等領(lǐng)域,由于存在大量的非標(biāo)識(shí)的數(shù)據(jù)和少量的可標(biāo)識(shí)數(shù)據(jù), 目前半監(jiān)督式學(xué)習(xí)是一個(gè)很熱的話題。 而強(qiáng)化學(xué)習(xí)更多的應(yīng)用在機(jī)器人控制及其他需要進(jìn)行系統(tǒng)控制的領(lǐng)域。

    二、算法類似性

    根據(jù)算法的功能和形式的類似性,我們可以把算法分類,比如說基于樹的算法,基于神經(jīng)網(wǎng)絡(luò)的算法等等。當(dāng)然,機(jī)器學(xué)習(xí)的范圍非常龐大,有些算法很難明確歸類到某一類。而對于有些分類來說,同一分類的算法可以針對不同類型的問題。這里,我們盡量把常用的算法按照最容易理解的方式進(jìn)行分類。

    1.回歸算法

    回歸算法是試圖采用對誤差的衡量來探索變量之間的關(guān)系的一類算法?;貧w算法是統(tǒng)計(jì)機(jī)器學(xué)習(xí)的利器。在機(jī)器學(xué)習(xí)領(lǐng)域,人們說起回歸,有時(shí)候是指一類問題,有時(shí)候是指一類算法,這一點(diǎn)常常會(huì)使初學(xué)者有所困惑。常見的回歸算法包括:最小二乘法(Ordinary Least Square),邏輯回歸(Logistic Regression),逐步式回歸(Stepwise Regression),多元自適應(yīng)回歸樣條(Multivariate Adaptive Regression Splines)以及本地散點(diǎn)平滑估計(jì)(Locally Estimated Scatterplot Smoothing)

    2.基于實(shí)例的算法

    基于實(shí)例的算法常常用來對決策問題建立模型,這樣的模型常常先選取一批樣本數(shù)據(jù),然后根據(jù)某些近似性把新數(shù)據(jù)與樣本數(shù)據(jù)進(jìn)行比較。通過這種方式來尋找最佳的匹配。因此,基于實(shí)例的算法常常也被稱為“贏家通吃”學(xué)習(xí)或者“基于記憶的學(xué)習(xí)”。常見的算法包括 k-Nearest Neighbor(KNN), 學(xué)習(xí)矢量量化(Learning Vector Quantization, LVQ),以及自組織映射算法(Self-Organizing Map , SOM)

    3.正則化方法

    正則化方法是其他算法(通常是回歸算法)的延伸,根據(jù)算法的復(fù)雜度對算法進(jìn)行調(diào)整。正則化方法通常對簡單模型予以獎(jiǎng)勵(lì)而對復(fù)雜算法予以懲罰。常見的算法包括:Ridge Regression, Least Absolute Shrinkage and Selection Operator(LASSO),以及彈性網(wǎng)絡(luò)(Elastic Net)。

    4.決策樹學(xué)習(xí)

    決策樹算法根據(jù)數(shù)據(jù)的屬性采用樹狀結(jié)構(gòu)建立決策模型, 決策樹模型常常用來解決分類和回歸問題。常見的算法包括:分類及回歸樹(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 隨機(jī)森林(Random Forest), 多元自適應(yīng)回歸樣條(MARS)以及梯度推進(jìn)機(jī)(Gradient Boosting Machine, GBM)

    5.貝葉斯方法

    貝葉斯方法算法是基于貝葉斯定理的一類算法,主要用來解決分類和回歸問題。常見算法包括:樸素貝葉斯算法,平均單依賴估計(jì)(Averaged One-Dependence Estimators, AODE),以及Bayesian Belief Network(BBN)。

    6.基于核的算法

    基于核的算法中最著名的莫過于支持向量機(jī)(SVM)了。 基于核的算法把輸入數(shù)據(jù)映射到一個(gè)高階的向量空間, 在這些高階向量空間里, 有些分類或者回歸問題能夠更容易的解決。 常見的基于核的算法包括:支持向量機(jī)(Support Vector Machine, SVM), 徑向基函數(shù)(Radial Basis Function ,RBF), 以及線性判別分析(Linear Discriminate Analysis ,LDA)等。

    7.聚類算法

    聚類,就像回歸一樣,有時(shí)候人們描述的是一類問題,有時(shí)候描述的是一類算法。聚類算法通常按照中心點(diǎn)或者分層的方式對輸入數(shù)據(jù)進(jìn)行歸并。所以的聚類算法都試圖找到數(shù)據(jù)的內(nèi)在結(jié)構(gòu),以便按照最大的共同點(diǎn)將數(shù)據(jù)進(jìn)行歸類。常見的聚類算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM)。

    8.關(guān)聯(lián)規(guī)則學(xué)習(xí)

    關(guān)聯(lián)規(guī)則學(xué)習(xí)通過尋找最能夠解釋數(shù)據(jù)變量之間關(guān)系的規(guī)則,來找出大量多元數(shù)據(jù)集中有用的關(guān)聯(lián)規(guī)則。常見算法包括 Apriori算法和Eclat算法等。

    9.人工神經(jīng)網(wǎng)絡(luò)

    人工神經(jīng)網(wǎng)絡(luò)算法模擬生物神經(jīng)網(wǎng)絡(luò),是一類模式匹配算法。通常用于解決分類和回歸問題。人工神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的一個(gè)龐大的分支,有幾百種不同的算法。(其中深度學(xué)習(xí)就是其中的一類算法,我們會(huì)單獨(dú)討論),重要的人工神經(jīng)網(wǎng)絡(luò)算法包括:感知器神經(jīng)網(wǎng)絡(luò)(Perceptron Neural Network), 反向傳遞(Back Propagation), Hopfield網(wǎng)絡(luò),自組織映射(Self-Organizing Map, SOM)。學(xué)習(xí)矢量量化(Learning Vector Quantization, LVQ)

    10.深度學(xué)習(xí)

    深度學(xué)習(xí)算法是對人工神經(jīng)網(wǎng)絡(luò)的發(fā)展。 在近期贏得了很多關(guān)注, 特別是 百度也開始發(fā)力深度學(xué)習(xí)后, 更是在國內(nèi)引起了很多關(guān)注。 在計(jì)算能力變得日益廉價(jià)的今天,深度學(xué)習(xí)試圖建立大得多也復(fù)雜得多的神經(jīng)網(wǎng)絡(luò)。很多深度學(xué)習(xí)的算法是半監(jiān)督式學(xué)習(xí)算法,用來處理存在少量未標(biāo)識(shí)數(shù)據(jù)的大數(shù)據(jù)集。常見的深度學(xué)習(xí)算法包括:受限波爾茲曼機(jī)(Restricted Boltzmann Machine, RBN), Deep Belief Networks(DBN),卷積網(wǎng)絡(luò)(Convolutional Network), 堆棧式自動(dòng)編碼器(Stacked Auto-encoders)。

    11.降低維度算法

    像聚類算法一樣,降低維度算法試圖分析數(shù)據(jù)的內(nèi)在結(jié)構(gòu),不過降低維度算法是以非監(jiān)督學(xué)習(xí)的方式試圖利用較少的信息來歸納或者解釋數(shù)據(jù)。這類算法可以用于高維數(shù)據(jù)的可視化或者用來簡化數(shù)據(jù)以便監(jiān)督式學(xué)習(xí)使用。常見的算法包括:主成份分析(Principle Component Analysis, PCA),偏最小二乘回歸(Partial Least Square Regression,PLS), Sammon映射,多維尺度(Multi-Dimensional Scaling, MDS), 投影追蹤(Projection Pursuit)等。

    12.集成算法

    集成算法用一些相對較弱的學(xué)習(xí)模型獨(dú)立地就同樣的樣本進(jìn)行訓(xùn)練,然后把結(jié)果整合起來進(jìn)行整體預(yù)測。集成算法的主要難點(diǎn)在于究竟集成哪些獨(dú)立的較弱的學(xué)習(xí)模型以及如何把學(xué)習(xí)結(jié)果整合起來。這是一類非常強(qiáng)大的算法,同時(shí)也非常流行。常見的算法包括:Boosting, Bootstrapped Aggregation(Bagging), AdaBoost,堆疊泛化(Stacked Generalization, Blending),梯度推進(jìn)機(jī)(Gradient Boosting Machine, GBM),隨機(jī)森林(Random Forest)。

    四、多元回歸屬于分類算法嗎

    你好,經(jīng)過我查閱相關(guān)資料得知

    多元回歸不屬于分類算法,回歸算法與分類算法都屬于監(jiān)督學(xué)習(xí)算法,不同的是,分類算法中標(biāo)簽是一些離散值,代表不同的分類,而回歸算法中,標(biāo)簽是一些連續(xù)值,回歸算法需要訓(xùn)練得到樣本特征到這些連續(xù)標(biāo)簽之間的映射。

    以上就是關(guān)于回歸算法相關(guān)問題的回答。希望能幫到你,如有更多相關(guān)問題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。


    推薦閱讀:

    景觀設(shè)計(jì)的回歸與出發(fā)(景觀設(shè)計(jì)的回歸與出發(fā)論文)

    支持向量機(jī)回歸matlab程序(支持向量機(jī)回歸代碼)

    回歸分析中數(shù)據(jù)缺失怎么處理(回歸分析中數(shù)據(jù)缺失怎么處理好)

    畫房屋平面圖用什么軟件好(畫房屋平面圖用什么軟件好一點(diǎn))

    抗氧化食物排行榜(抗氧化食物排行榜對照著吃比買化妝品更養(yǎng)顏)