機(jī)器學(xué)習(xí)常見算法分類匯總剖析課件_第1頁(yè)
機(jī)器學(xué)習(xí)常見算法分類匯總剖析課件_第2頁(yè)
機(jī)器學(xué)習(xí)常見算法分類匯總剖析課件_第3頁(yè)
機(jī)器學(xué)習(xí)常見算法分類匯總剖析課件_第4頁(yè)
機(jī)器學(xué)習(xí)常見算法分類匯總剖析課件_第5頁(yè)
已閱讀5頁(yè),還剩17頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、機(jī)器學(xué)習(xí)常見算法分類匯總機(jī)器學(xué)習(xí)無(wú)疑是當(dāng)前數(shù)據(jù)分析領(lǐng)域的一個(gè)熱點(diǎn)內(nèi)容。很多人在平時(shí)的工作中都或多或少會(huì)用到機(jī)器學(xué)習(xí)的算法。這里總結(jié)一下常見的機(jī)器學(xué)習(xí)算法,以供您在工作和學(xué)習(xí)中參考。機(jī)器學(xué)習(xí)的算法很多。很多時(shí)候困惑人們都是,很多算法是一類算法,而有些算法又是從其他算法中延伸出來(lái)的。這里,我們從兩個(gè)方面來(lái)給大家介紹:機(jī)器學(xué)習(xí)常見算法分類匯總二,算法的類似性一、學(xué)習(xí)的方式根據(jù)數(shù)據(jù)類型的不同,對(duì)一個(gè)問題的建模有不同的方式。在機(jī)器學(xué)習(xí)或者人工智能領(lǐng)域,人們首先會(huì)考慮算法的學(xué)習(xí)方式。在機(jī)器學(xué)習(xí)領(lǐng)域,有幾種主要的學(xué)習(xí)方式。將算法按照學(xué)習(xí)方式分類是一個(gè)不錯(cuò)的想法,這樣可以讓人們?cè)诮:退惴ㄟx擇的時(shí)候考慮能根據(jù)

2、輸入數(shù)據(jù)來(lái)選擇最合適的算法來(lái)獲得最好的結(jié)果。學(xué)習(xí)方式監(jiān)督式學(xué)習(xí):學(xué)習(xí)方式在監(jiān)督式學(xué)習(xí)下,輸入數(shù)據(jù)被稱為“訓(xùn)練數(shù)據(jù)”,每組訓(xùn)練數(shù)據(jù)有一個(gè)明確的標(biāo)識(shí)或結(jié)果,如對(duì)防垃圾郵件系統(tǒng)中“垃圾郵件”“非垃圾郵件”,對(duì)手寫數(shù)字識(shí)別中的“1”、“2”,“3”、“4”等。在建立預(yù)測(cè)模型的時(shí)候,監(jiān)督式學(xué)習(xí)建立一個(gè)學(xué)習(xí)過程,將預(yù)測(cè)結(jié)果與“訓(xùn)練數(shù)據(jù)”的實(shí)際結(jié)果進(jìn)行比較,不斷的調(diào)整預(yù)測(cè)模型,直到模型的預(yù)測(cè)結(jié)果達(dá)到一個(gè)預(yù)期的準(zhǔn)確率。監(jiān)督式學(xué)習(xí)的常見應(yīng)用場(chǎng)景如分類問題和回歸問題。常見算法:邏輯回歸(Logistic Regression)反向傳遞神經(jīng)網(wǎng)絡(luò)(Back Propagation Neural Network)非監(jiān)督

3、式學(xué)習(xí):學(xué)習(xí)方式在非監(jiān)督式學(xué)習(xí)中,數(shù)據(jù)并不被特別標(biāo)識(shí),學(xué)習(xí)模型是為了推斷出數(shù)據(jù)的一些內(nèi)在結(jié)構(gòu)。常見的應(yīng)用場(chǎng)景包括關(guān)聯(lián)規(guī)則的學(xué)習(xí)以及聚類等。常見算法:Apriori算法k-Means算法半監(jiān)督式學(xué)習(xí):學(xué)習(xí)方式在此學(xué)習(xí)方式下,輸入數(shù)據(jù)部分被標(biāo)識(shí),部分沒有被標(biāo)識(shí),這種學(xué)習(xí)模型可以用來(lái)進(jìn)行預(yù)測(cè),但是模型首先需要學(xué)習(xí)數(shù)據(jù)的內(nèi)在結(jié)構(gòu)以便合理的組織數(shù)據(jù)來(lái)進(jìn)行預(yù)測(cè)。應(yīng)用場(chǎng)景包括分類和回歸,算法包括一些對(duì)常用監(jiān)督式學(xué)習(xí)算法的延伸,這些算法首先試圖對(duì)未標(biāo)識(shí)數(shù)據(jù)進(jìn)行建模,在此基礎(chǔ)上再對(duì)標(biāo)識(shí)的數(shù)據(jù)進(jìn)行預(yù)測(cè)。如圖論推理算法(Graph Inference)或者拉普拉斯支持向量機(jī)(Laplacian SVM.)等。強(qiáng)化學(xué)

4、習(xí):學(xué)習(xí)方式在這種學(xué)習(xí)模式下,輸入數(shù)據(jù)作為對(duì)模型的反饋,不像監(jiān)督模型那樣,輸入數(shù)據(jù)僅僅是作為一個(gè)檢查模型對(duì)錯(cuò)的方式,在強(qiáng)化學(xué)習(xí)下,輸入數(shù)據(jù)直接反饋到模型,模型必須對(duì)此立刻作出調(diào)整。常見的應(yīng)用場(chǎng)景包括動(dòng)態(tài)系統(tǒng)以及機(jī)器人控制等。常見算法:Q-Learning時(shí)間差學(xué)習(xí)(Temporal difference learning)在企業(yè)數(shù)據(jù)應(yīng)用的場(chǎng)景下, 人們最常用的可能就是監(jiān)督式學(xué)習(xí)和非監(jiān)督式學(xué)習(xí)的模型。 在圖像識(shí)別等領(lǐng)域,由于存在大量的非標(biāo)識(shí)的數(shù)據(jù)和少量的可標(biāo)識(shí)數(shù)據(jù), 目前半監(jiān)督式學(xué)習(xí)是一個(gè)很熱的話題。 而強(qiáng)化學(xué)習(xí)更多的應(yīng)用在機(jī)器人控制及其他需要進(jìn)行系統(tǒng)控制的領(lǐng)域。學(xué)習(xí)方式根據(jù)算法的功能和形式的類

5、似性,我們可以把算法分類,比如說(shuō)基于樹的算法,基于神經(jīng)網(wǎng)絡(luò)的算法等等。當(dāng)然,機(jī)器學(xué)習(xí)的范圍非常龐大,有些算法很難明確歸類到某一類。而對(duì)于有些分類來(lái)說(shuō),同一分類的算法可以針對(duì)不同類型的問題。這里,我們盡量把常用的算法按照最容易理解的方式進(jìn)行分類。算法類似性學(xué)習(xí)方式回歸算法:算法類似性回歸算法是試圖采用對(duì)誤差的衡量來(lái)探索變量之間的關(guān)系的一類算法?;貧w算法是統(tǒng)計(jì)機(jī)器學(xué)習(xí)的利器。在機(jī)器學(xué)習(xí)領(lǐng)域,人們說(shuō)起回歸,有時(shí)候是指一類問題,有時(shí)候是指一類算法,這一點(diǎn)常常會(huì)使初學(xué)者有所困惑。常見的回歸算法包括:最小二乘法(Ordinary Least Square) 邏輯回歸(Logistic Regression

6、)逐步式回歸(Stepwise Regression)多元自適應(yīng)回歸樣條(Multivariate Adaptive Regression Splines)本地散點(diǎn)平滑估計(jì)(Locally Estimated Scatterplot Smoothing)學(xué)習(xí)方式基于實(shí)例的算法:算法類似性基于實(shí)例的算法常常用來(lái)對(duì)決策問題建立模型,這樣的模型常常先選取一批樣本數(shù)據(jù),然后根據(jù)某些近似性把新數(shù)據(jù)與樣本數(shù)據(jù)進(jìn)行比較。通過這種方式來(lái)尋找最佳的匹配。因此,基于實(shí)例的算法常常也被稱為“贏家通吃”學(xué)習(xí)或者“基于記憶的學(xué)習(xí)”。常見的算法包括 :k-Nearest Neighbor(KNN)學(xué)習(xí)矢量量化(Learn

7、ing Vector Quantization, LVQ)自組織映射算法(Self-Organizing Map , SOM)學(xué)習(xí)方式正則化方法:算法類似性正則化方法是其他算法(通常是回歸算法)的延伸,根據(jù)算法的復(fù)雜度對(duì)算法進(jìn)行調(diào)整。正則化方法通常對(duì)簡(jiǎn)單模型予以獎(jiǎng)勵(lì)而對(duì)復(fù)雜算法予以懲罰。Ridge Regression Least Absolute Shrinkage and Selection Operator(LASSO)彈性網(wǎng)絡(luò)(Elastic Net)常見的算法包括:學(xué)習(xí)方式?jīng)Q策樹學(xué)習(xí):算法類似性決策樹算法根據(jù)數(shù)據(jù)的屬性采用樹狀結(jié)構(gòu)建立決策模型, 決策樹模型常常用來(lái)解決分類和回歸問題。

8、分類及回歸樹(Classification And Regression Tree, CART ID3 (Iterative Dichotomiser 3) C4.5Chi-squared Automatic Interaction Detection(CHAID)Decision Stump隨機(jī)森林(Random Forest)多元自適應(yīng)回歸樣條(MARS)以及梯度推進(jìn)機(jī)(Gradient Boosting Machine, GBM)常見的算法包括:學(xué)習(xí)方式貝葉斯方法:算法類似性貝葉斯方法算法是基于貝葉斯定理的一類算法,主要用來(lái)解決分類和回歸問題。樸素貝葉斯算法平均單依賴估計(jì)(Average

9、d One-Dependence Estimators, AODE)Bayesian Belief Network(BBN)常見算法包括:學(xué)習(xí)方式基于核的算法:算法類似性基于核的算法中最著名的莫過于支持向量機(jī)(SVM)了。 基于核的算法把輸入數(shù)據(jù)映射到一個(gè)高階的向量空間, 在這些高階向量空間里, 有些分類或者回歸問題能夠更容易的解決。常見的基于核的算法包括:支持向量機(jī)(Support Vector Machine, SVM)徑向基函數(shù)(Radial Basis Function ,RBF)線性判別分析(Linear Discriminate Analysis ,LDA)學(xué)習(xí)方式聚類算法:算法類

10、似性聚類,就像回歸一樣,有時(shí)候人們描述的是一類問題,有時(shí)候描述的是一類算法。聚類算法通常按照中心點(diǎn)或者分層的方式對(duì)輸入數(shù)據(jù)進(jìn)行歸并。所以的聚類算法都試圖找到數(shù)據(jù)的內(nèi)在結(jié)構(gòu),以便按照最大的共同點(diǎn)將數(shù)據(jù)進(jìn)行歸類。常見的聚類算法包括 :k-Means算法期望最大化算法(Expectation Maximization, EM)學(xué)習(xí)方式關(guān)聯(lián)規(guī)則學(xué)習(xí):算法類似性常見算法包括: 關(guān)聯(lián)規(guī)則學(xué)習(xí)通過尋找最能夠解釋數(shù)據(jù)變量之間關(guān)系的規(guī)則,來(lái)找出大量多元數(shù)據(jù)集中有用的關(guān)聯(lián)規(guī)則。Apriori算法 Eclat算法學(xué)習(xí)方式人工神經(jīng)網(wǎng)絡(luò):算法類似性人工神經(jīng)網(wǎng)絡(luò)算法模擬生物神經(jīng)網(wǎng)絡(luò),是一類模式匹配算法。通常用于解決分類和

11、回歸問題。人工神經(jīng)網(wǎng)絡(luò)是機(jī)器學(xué)習(xí)的一個(gè)龐大的分支,有幾百種不同的算法。 (其中深度學(xué)習(xí)就是其中的一類算法,我們會(huì)單獨(dú)討論)。重要的人工神經(jīng)網(wǎng)絡(luò)算法包括:感知器神經(jīng)網(wǎng)絡(luò)(Perceptron Neural Network)反向傳遞(Back Propagation)Hopfield網(wǎng)絡(luò)自組織映射(Self-Organizing Map, SOM)學(xué)習(xí)矢量量化(Learning Vector Quantization, LVQ)學(xué)習(xí)方式深度學(xué)習(xí):算法類似性深度學(xué)習(xí)算法是對(duì)人工神經(jīng)網(wǎng)絡(luò)的發(fā)展。 在近期贏得了很多關(guān)注, 特別是百度也開始發(fā)力深度學(xué)習(xí)后, 更是在國(guó)內(nèi)引起了很多關(guān)注。 在計(jì)算能力變得日益廉

12、價(jià)的今天,深度學(xué)習(xí)試圖建立大得多也復(fù)雜得多的神經(jīng)網(wǎng)絡(luò)。很多深度學(xué)習(xí)的算法是半監(jiān)督式學(xué)習(xí)算法,用來(lái)處理存在少量未標(biāo)識(shí)數(shù)據(jù)的大數(shù)據(jù)集。常見的深度學(xué)習(xí)算法包括:受限波爾茲曼機(jī)(Restricted Boltzmann Machine, RBN)Deep Belief Networks(DBN)卷積網(wǎng)絡(luò)(Convolutional Network)堆棧式自動(dòng)編碼器(Stacked Auto-encoders)學(xué)習(xí)方式降低維度算法:算法類似性常見的算法包括:像聚類算法一樣,降低維度算法試圖分析數(shù)據(jù)的內(nèi)在結(jié)構(gòu),不過降低維度算法是以非監(jiān)督學(xué)習(xí)的方式試圖利用較少的信息來(lái)歸納或者解釋數(shù)據(jù)。這類算法可以用于高維數(shù)據(jù)的可視化或者用來(lái)簡(jiǎn)化數(shù)據(jù)以便監(jiān)督式學(xué)習(xí)使用。主成份分析(Principle Component Analysis, PCA)偏最小二乘回歸(Partial Least Square Regression,PLS) Sammon映射多維尺度(Multi-Dimensional Scaling, MDS)投影追蹤(Projection Pursuit)等學(xué)習(xí)方式集成算法:算法類似性常見的算法包括:集成算法用一些相對(duì)較弱的學(xué)習(xí)模型獨(dú)立地就同樣的樣本進(jìn)行訓(xùn)練,然后把結(jié)果整合起來(lái)進(jìn)行整體預(yù)測(cè)。集成算法的主要難點(diǎn)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論