![數(shù)據(jù)挖掘-線性回歸_第1頁](http://file3.renrendoc.com/fileroot_temp3/2021-12/16/b3095fd6-6c95-4f34-8024-167a3fc70d56/b3095fd6-6c95-4f34-8024-167a3fc70d561.gif)
![數(shù)據(jù)挖掘-線性回歸_第2頁](http://file3.renrendoc.com/fileroot_temp3/2021-12/16/b3095fd6-6c95-4f34-8024-167a3fc70d56/b3095fd6-6c95-4f34-8024-167a3fc70d562.gif)
![數(shù)據(jù)挖掘-線性回歸_第3頁](http://file3.renrendoc.com/fileroot_temp3/2021-12/16/b3095fd6-6c95-4f34-8024-167a3fc70d56/b3095fd6-6c95-4f34-8024-167a3fc70d563.gif)
![數(shù)據(jù)挖掘-線性回歸_第4頁](http://file3.renrendoc.com/fileroot_temp3/2021-12/16/b3095fd6-6c95-4f34-8024-167a3fc70d56/b3095fd6-6c95-4f34-8024-167a3fc70d564.gif)
![數(shù)據(jù)挖掘-線性回歸_第5頁](http://file3.renrendoc.com/fileroot_temp3/2021-12/16/b3095fd6-6c95-4f34-8024-167a3fc70d56/b3095fd6-6c95-4f34-8024-167a3fc70d565.gif)
版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領
文檔簡介
1、數(shù)據(jù)挖掘數(shù)據(jù)挖掘: :線性回歸線性回歸王成(副教授)王成(副教授)計算機科學與技術學院計算機科學與技術學院主要內容主要內容線性回歸梯度下降算法線性最小二乘問題的矩陣解法最小二乘的概率解釋局部加權線性回歸有監(jiān)督的機器學習過程有監(jiān)督的機器學習過程輸出 y:fxy(貸款申請人信息)(是否可以批準?)歷史數(shù)據(jù)學習算法:g xy輸出 y:g xy(是否可以批準?)學習算法(貸款申請人信息)不可知假設(Hypothesis),由學習得到,是f的近似機器學習的關鍵因素機器學習的關鍵因素1. 模式存在2. 但無法用數(shù)學方式確定下來3. 有數(shù)據(jù)可供學習有監(jiān)督的機器學習過程有監(jiān)督的機器學習過程:fxy:g xy擬
2、合數(shù)據(jù)點擬合擬合擬合: 指已知某函數(shù)的若干離散函數(shù)值,通過調整該函數(shù)中若干待定系數(shù),使得該函數(shù)與已知點集的差別最小如果待定函數(shù)是線性,就叫線性擬合或者線性回歸分類與回歸分類與回歸分類問題: 目標變量是離散值回歸問題: 目標變量是連續(xù)值(數(shù)值預測)“回歸”是由達爾文的表兄弟弗朗西斯高爾頓爵士(Sir Francis Galton,1822-1911)發(fā)明的。高爾頓于1877年完成了第一次回歸預測,目的是根據(jù)上一代豌豆種子(雙親)的尺寸預測下一代豌豆種子的尺寸。高爾頓在大量對象上應用了回歸分析,包括人的身高。他注意到,如果雙親的高度比平均高度高,他們的子女也傾向于比平均高度高,但尚不及雙親,孩子的
3、高度向著平均高度回退(回歸)。盡管這個單詞和數(shù)值預測沒有任何關系,但這種研究方法仍被稱為回歸。給定一套房屋的信息,如何預測其價格?房屋信息: (面積=100平, 三室, 兩衛(wèi))預測價格 = 0.8500 * 面積 + 0.0500 * 臥室數(shù)量 + 0.0015 * 衛(wèi)生間數(shù)量線性回歸線性回歸01 122( )h xxx1 (1)(1) 11 (1)(1) 10( )nTTiinnnnih xxxx 設x0=1x1yx2這個方程稱為回歸方程,i稱為回歸系數(shù)或權重房屋價格與其面積及臥室數(shù)量的統(tǒng)計數(shù)據(jù)線性回歸線性回歸( )( )211( )()2miiiJhxyy(i)表示第i個訓練實例對應的目標
4、變量值,m為實例數(shù)量;常數(shù)1/2是為了方便后續(xù)計算;最小二乘(least squares)損失函數(shù)線性回歸線性回歸兩條不同的擬合直線線性回歸線性回歸( )( )211( )()2miiiJhxy計算回歸系數(shù)計算回歸系數(shù)主要內容主要內容線性回歸梯度下降算法線性最小二乘問題的矩陣解法最小二乘的概率解釋局部加權線性回歸梯度下降算法梯度下降算法梯度下降法梯度下降法(Gradient descent)是一個最優(yōu)化算法最優(yōu)化算法,通常也稱為最速下降法最速下降法。1847年由著名的數(shù)學家柯西給出假設我們爬山,如果想最快上到山頂,那么我們應該從山勢最陡的地方上山。也就是山勢變化最快的地方上山同樣,如果從任意一
5、點出發(fā),需要最快搜索到函數(shù)最大值最快搜索到函數(shù)最大值,那么我們也應該從函數(shù)變化最快的方向搜索函數(shù)變化最快函數(shù)變化最快的方向是函數(shù)的梯度方向函數(shù)的梯度方向梯度下降算法梯度下降算法如果函數(shù)為一元函數(shù),梯度就是該函數(shù)的導數(shù))()(xfxf如果為二元函數(shù),梯度定義為12121212(,)(,)(,)y xxy xxfxxijxx梯度下降算法梯度下降算法要搜索極小值C點:在A點必須向x增加方向搜索,此時與A點梯度方向相反;在B點必須向x減小方向搜索,此時與B點梯度方向相反。總之,搜索極小值,必須向負梯度方向搜索。梯度下降算法梯度下降算法- -步驟步驟假設函數(shù) 只有一個極小點。初始給定參數(shù)為 。從這個點如
6、何搜索才能找到原函數(shù)的極小值點?方法:12(,)nyfxxx(1) 101(,)Tnn1. 首先設定一個較小的正數(shù),以及迭代次數(shù)k;2. 求當前位置處的各個偏導數(shù):( ),1 jfxjn3. 修改當前函數(shù)的參數(shù)值,公式如下:( ),1 jjjfxjn4. 若參數(shù)變化量小于或已達迭代次數(shù),退出;否則返回2梯度下降算法梯度下降算法- -舉例舉例例: 利用梯度下降法求函數(shù) 的極小值(1) 設 (2) 計算導數(shù):(3) 計算當前導數(shù)值:(4) 修改當前參數(shù):4,01.0,9.002ddy6yddy4 .1)6(9 .044 .5)6(9 .0(5) 計算當前導數(shù)值:6.0y(6) 修改當前參數(shù):ddy
7、94.1)6 .0(9 .04 .154.0)6 .0(9 .02212y梯度下降算法梯度下降算法- -舉例舉例(7) 計算當前導數(shù)值:(8) 修改當前參數(shù):06.0yddy994.1)06.0(9 .094.1(9) 計算當前導數(shù)值:(10) 修改當前參數(shù):006.0yddy9994.1)006.0(9 .0994.1(11)此時變化量滿足終止條件,終止054.0)06.0(9 .00054.0)006.0(9 .0梯度下降算法梯度下降算法( ):jjjJ其中稱為學習速率,即每次“前進”的步長梯度下降算法梯度下降算法簡單起見,暫假設只有一個訓練實例,則對j求偏導時,僅jxj一項不為常數(shù),因此
8、求偏導的結果為xj0011jj x + x +.+ x +.+ x -ynnj( )( )( ):()iiijjjhxyx( ):jjjJ梯度下降算法梯度下降算法( )( )( ):()iiijjjyhxx梯度下降算法梯度下降算法應用到不只一個訓練實例的情況( )( )( )1:()miiijjjihxyx梯度下降算法舉例梯度下降算法舉例01 122( )h xxx0=0, 1=0, 2=0, h(x(i)=0, x0=1y(1)=400, y(2)=330, y(3)=369, y(4)=232, y(5)=540 x1(1)=2104, x1(2)=1600, x1(3)=2400, x1
9、(4)=1416, x1(5)=3000 x2(1)=3, x2(2)=3, x2(3)=3, x2(4)=2, x2(5)=40=0+0.01(y(1)-h(x(1)x0(1)+.+(y(5)-h(x(5)x0(5)1=0+0.01(y(1)-h(x(1)x1(1)+.+(y(5)-h(x(5)x1(5)2=0+0.01(y(1)-h(x(1)x2(1)+.+(y(5)-h(x(5)x2(5)x1yx2( )( )( )1:()miiijjjiyhxx隨機梯度下降算法隨機梯度下降算法批量梯度下降算法每一步都要考慮整個數(shù)據(jù)集以計算梯度,這在數(shù)據(jù)集較大時計算成本很高另一種可選的方案是一次僅用一個
10、樣本來更新回歸系數(shù),該方法稱為隨機梯度下降算法隨機梯度下降算法(Stochastic gradient descent) 值的選擇值的選擇過大容易“越過”極值點,導致不收斂,過小則收斂速度慢隨著迭代次數(shù)的增加,一般要慢慢減小 (直觀上,一開始前進快點,然后放慢速度)梯度下降算法梯度下降算法主要內容主要內容線性回歸梯度下降算法線性最小二乘問題的矩陣解法最小二乘的概率解釋局部加權線性回歸矩陣解法矩陣解法對于m*n矩陣A,定義關于A的函數(shù) f 的梯度:例如,其中第(i, j)個元素為 ijAAf)(23523)(2221212111111AAAAAAAf121210)(AAAf2221)(AAAf2
11、122)(AAAf矩陣解法矩陣解法n*n矩陣A的跡(trace)定義為A的主對角上元素之和,記為 tr AniiiAtrA1若a是一實數(shù),即一個1x1矩陣,則 tr a = a性質性質:trBAtrAB trBCDAtrCDABtrDABCtrABCDTtrAtrA trBtrABAtr)(atrAtraA TABtrAB 跡可理解為一個應用在A上的函數(shù) f(A) = tr(A)TAAAfAfT)()(TTTAABCCABCtrABA矩陣解法矩陣解法(1)(1)(1)(1)12(2)(2)(2)(2)12()()()()121.()1.().1.()TnTnmmmmTnxxxxxxxxXxxx
12、x輸入矩陣(m * (n+1)維):目標變量值向量(m維):)()2()1(.myyyy在房屋價格預測例子中,x1為“面積”屬性,x2為“臥室數(shù)量”屬性,x1(1)為第1個樣本的面積,x2(1)為第1個樣本的臥室數(shù)量,x1(2)為第2個樣本的面積,x2(2)為第2個樣本的臥室數(shù)量,共m個樣本,每個屬性有n個屬性在房屋價格預測例子中,y(1)為第1個樣本的報價,y(2)為第2個樣本的報價,共m個樣本假設共有m個訓練樣本,每個樣本有n個屬性矩陣解法矩陣解法( )( )( )( )01 1().iiii Tnnhxxxx(1)(1)(1)(1)(2)(2)(2)(2)()()()()()()()()
13、.()()TTmmmmTxhxyyhxyyxyhxyyxX( )( )211() ()21()2( )TmiiiyyhxyJXX21nTiiz zz 矩陣解法矩陣解法為最小化 J,計算 J 的梯度() ()()()()()TTTTTTTTTTTTyyyyyyyyy yXXXXXXX XXX X是m(n+1)維= 一個數(shù)矩陣解法矩陣解法若a為一實數(shù),則 tr a = a矩陣解法矩陣解法TTTTTTTTyyyXXXTtrtrAA()trtrtrABABTTTTTTtrytrytryXXXyyT矩陣解法矩陣解法TAAAfAfT)()(TTTAABCCABCtrABACBACABABCCtrABACt
14、rABATTTTTTTTTATATCABTATTBXXBEC TTTTtrX XX XX XTByXTABtrAB 22222TTTTTTtrytrytr yyy XXXXXtrBAtrAB 矩陣解法矩陣解法J( )0TTyX XXTTyX XX11()()TTTTyX XX XX XX1()TTy X XX1A AI主要內容主要內容線性回歸梯度下降算法線性最小二乘問題的矩陣解法最小二乘的概率解釋局部加權線性回歸最小二乘的概率解釋最小二乘的概率解釋為什么最小二乘代價函數(shù)J是一個合理的選擇?( )( )211( )()2miiiJhxy最小二乘的概率解釋最小二乘的概率解釋假設目標變量和輸入的關系
15、可表示為:( )( )( )iTiiyx其中(i)表示線性模型與目標值的誤差。例如樣本的某屬性和房價預測相關,但卻沒有被考慮進來;或隨機噪音。最小二乘的概率解釋最小二乘的概率解釋假設誤差(i)獨立同分布(IID, Independent and Identical Distribution),并服從正態(tài)分布:), 0(2)(Ni中心極限定理: 若一隨機變量受大量微小獨立的隨機因素影響,其中每個個別隨機變量對于總和的作用都是微小的,那么作為總和的隨機變量的分布就會逼近于正態(tài)分布。22)(2)()(21)(iepi因此,(i)的概率密度:( )( ) 22()( )( )21(|; )2iTiyx
16、iip yxe( )( )( )iiTiyx最小二乘的概率解釋最小二乘的概率解釋給定輸入矩陣X (每i行為第i個樣本的特征向量)和參數(shù),可得到似然(likelihood)函數(shù):( )( ) 22( )( )1()21( )( ;, )( |; )(|; )12iTimiiiyxmiLLyp yp yxeXXm為樣本總數(shù),(i)上標表示第(i)個樣本最大似然法,也叫極大似然估計最小二乘的概率解釋最小二乘的概率解釋( )( ) 22( )( ) 22( )( ) 22()21()21()21( )( )221( )ln ( )1ln21ln21lnln2111ln()22iTiiTiiTiyxmi
17、yxmiyxmimiTiilLeememyx最小化( )( )211()2miTiiyx( )J最小二乘的概率解釋最小二乘的概率解釋基于前面的概率假設(IID,正態(tài)分布),最小二乘回歸相當于尋找最大化似然函數(shù)的。因此,最小二乘回歸可被證明是一種非常自然的選擇。主要內容主要內容線性回歸梯度下降算法線性最小二乘問題的矩陣解法最小二乘的概率解釋局部加權線性回歸局部加權線性回歸局部加權線性回歸使用更多合適的特征,例如y=0+1x+2x2可能可以擬合得更好考慮對數(shù)據(jù)集進行線性擬合得到線性模型 y=0+1x數(shù)據(jù)點不在一條直線上,用線性模型擬合的并不好局部加權線性回歸局部加權線性回歸但也可能導致過擬合,例如
18、上圖為y=0+1x+.+5x5的擬合結果考慮對數(shù)據(jù)集進行線性擬合得到線性模型 y=0+1x數(shù)據(jù)點不在一條直線上,用線性模型擬合的并不好局部加權線性回歸局部加權線性回歸局部加權線性回歸 (LWLR, Locally weighted linear regression):越靠近待預測點的訓練樣本,對預測結果的影響越大,越遠離待預測點的訓練樣本,對預測結果的影響越小。只關注位于待預測點附近的樣本點(即“局部”的含義)給每個訓練樣本賦予一個權重w(i),訓練樣本點離待預測點越近,w(i)越趨于1訓練樣本點離待預測點越遠,w(i)越趨于0局部加權線性回歸局部加權線性回歸直觀的理解,局部加權線性回歸在給定待預測點時,對其附近的點進行訓練得到局部線性模型,并用于預測局部加權線性回歸局部加權線性回歸直觀的理解,局部加權線性回歸在給定待預測點時,對其附近的點進行訓練得到局部線性模型,并用于預測局部加權線性回歸局部加權線性回歸直觀的理解,局部加權線性回歸在給定待預測點時,對其附近的點進行訓練得到局部線性模型,并用于預測局部加權線性回歸局部加權線性回歸線性回歸局部加權線性回歸1. 求擬合參數(shù)以最小化2. 輸出 Tx1. 求擬合參數(shù)以最小化2. 輸出 Tx 21miii
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
- 4. 未經權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
- 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 出售蔬菜大棚合同范例
- 公司設備轉讓合同范例
- 2025年中國連鎖超市行業(yè)市場前景預測及投資方向研究報告
- 2025年貨廂門鎖項目可行性研究報告
- 某某鄉(xiāng)農田水利灌溉維修合同范本
- 加工制作合同范本樣板
- 農村買賣土地合同范本
- 債務分期合同范例
- 農田地出租合同范例
- 個人簽銷售合同范本
- 項目獎金分配獎勵制度和方案完整版
- 上海中學國際部幼升小面試真題
- 贏在團隊執(zhí)行力課件
- 慢性胰腺炎課件
- 北京理工大學應用光學課件第四章
- 陰道鏡幻燈課件
- PCB行業(yè)安全生產常見隱患及防范措施課件
- DB32∕T 186-2015 建筑消防設施檢測技術規(guī)程
- 2022年福建泉州中考英語真題【含答案】
- 汽車座椅骨架的焊接夾具畢業(yè)設計說明書(共23頁)
- 露天礦山職業(yè)危害預先危險分析表
評論
0/150
提交評論