R語(yǔ)言與回歸分析_第1頁(yè)
R語(yǔ)言與回歸分析_第2頁(yè)
R語(yǔ)言與回歸分析_第3頁(yè)
R語(yǔ)言與回歸分析_第4頁(yè)
R語(yǔ)言與回歸分析_第5頁(yè)
已閱讀5頁(yè),還剩4頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、-作者xxxx-日期xxxxR語(yǔ)言與回歸分析【精品文檔】R語(yǔ)言與回歸分析回歸模型是計(jì)量里最基礎(chǔ)也最常見(jiàn)的模型之一。究其原因,我想是因?yàn)樵趯?shí)際問(wèn)題中我們并不知道總體分布如何,而且只有一組數(shù)據(jù),那么試著對(duì)數(shù)據(jù)作回歸分析將會(huì)是一個(gè)不錯(cuò)的選擇。一、簡(jiǎn)單線性回歸 簡(jiǎn)單的線性回歸涉及到兩個(gè)變量:一個(gè)是解釋變量,通常稱(chēng)為x;另一個(gè)是被解釋變量,通常稱(chēng)為y?;貧w會(huì)用常見(jiàn)的最小二乘算法擬合線性模型:yi = 0 + 1xi +i其中0和1是回歸系數(shù),i表示誤差。在R中,你可以通過(guò)函數(shù)lm()去計(jì)算他。Lm()用法如下:lm(formula, data, subset, weights, na.action,me

2、thod = qr, model = TRUE, x = FALSE, y = FALSE, qr = TRUE,singular.ok = TRUE, contrasts = NULL, offset, .) 參數(shù)是formula模型公式,例如y x。公式中波浪號(hào)()左側(cè)的是響應(yīng)變量,右側(cè)是預(yù)測(cè)變量。函數(shù)會(huì)估計(jì)回歸系數(shù)0和1,分別以截距(intercept)和x的系數(shù)表示。 有三種方式可以實(shí)現(xiàn)最小二乘法的簡(jiǎn)單線性回歸,假設(shè)數(shù)據(jù)wage1(可以通過(guò)names函數(shù)查看數(shù)據(jù)框各項(xiàng)名稱(chēng))(1)lm(wage1$wage wage1$educ + wage1$exper)(2)lm (wage edu

3、c + exper, data= wage1)(3)attach(wage1) lm(wageeduc+exper)#不要忘記處理完后用detach()解出關(guān)聯(lián) 我們以數(shù)據(jù)wage1為例,可以看到工資與教育水平的線性關(guān)系:運(yùn)行下列代碼:library(foreign)Alm(wageeduc,data=A)Call:lm(formula = wage educ, data = A)Coefficients:(Intercept) educ 當(dāng)然得到這些數(shù)據(jù)是不夠的,我們必須要有足夠的證據(jù)去證明我們所做的回歸的合理性。那么如何獲取回歸的信息呢? 嘗試運(yùn)行以下代碼:result|t|)(Inter

4、cept) -0.904850.68497 -1.3210.187educ 0.54136 0.0532510.167 2e-16 *-Signif.codes: 0 * 0.001 * 0.01 * 0.05. 0.1 1Residual standarderror: 3.378 on 524 degrees of freedom 解讀上述結(jié)果,我們不難看出,單從判決系數(shù)R-squared上看,回歸結(jié)果是不理想的,但是,從p值來(lái)看,我們還是可以得到回歸系數(shù)是很顯著地(注意,這里的P lm(y u + v+ w) 顯然,多元線性回歸是簡(jiǎn)單的線性回歸的擴(kuò)展。可以有多個(gè)預(yù)測(cè)變量,還是用OLS計(jì)算多

5、項(xiàng)式的系數(shù)。三變量的回歸等同于這個(gè)線性模型:yi = 0 + 1ui +2vi + 3wi + i 在R中,簡(jiǎn)單線性回歸和多元線性回歸都是用lm函數(shù)。只要在模型公式的右側(cè)增加變量即可。輸出中會(huì)有擬合的模型的系數(shù):result1summary(result1)Call:lm(formula = wage educ + exper + tenure, data = A)Residuals: Min1Q Median 3QMax -866.29 -249.23 -51.07189.62 2190.01 Coefficients: Estimate Std.Error t value Pr(|t|)(

6、Intercept) -276.240106.702 -2.589 0.009778 *educ 74.415 6.28711.836 plot(wageeduc,data=A)A$logwageresult1summary(result1)Call:lm(formula =logwage educ + exper + tenure, data = A)Residuals: Min1Q Median3Q Max Coefficients: Estimate Std. Error t value Pr(|t|)(Intercept) 0.2843600.104190 2.729 0.00656*

7、educ 0.092029 0.00733012.555 2e-16 *exper 0.004121 0.0017232.391 0.01714 *tenure 0.0220670.003094 7.133 3.29e-12 *-Signif.codes: 0 * 0.001 * 0.01 * 0.05. 0.1 1Residual standarderror: 0.4409 on 522 degrees of freedom 看得出,平穩(wěn)化后的數(shù)據(jù)線性性是更加好的。 下面我們來(lái)提取回歸分析的各項(xiàng)統(tǒng)計(jì)數(shù)據(jù): 一些統(tǒng)計(jì)量和參數(shù)都被存儲(chǔ)在lm或者summary中output -summary (r

8、esult1)SSR- deviance(result1)殘差平方和;(另一種方法:RSquared - output$r.squared)LL-logLik(result1) #對(duì)數(shù)似然統(tǒng)計(jì)量DegreesOfFreedom-result1$df #自由度Yhat- result1$fitted.values#擬合值向量Resid- result1$residualss-output$sigma #誤差標(biāo)準(zhǔn)差的估計(jì)值(假設(shè)同方差)CovMatrix -s2*output$cov #系數(shù)的方差協(xié)方差矩陣(與vcov(result1)同)ANOVA-anova(result1)effects(result1)#計(jì)算正交效應(yīng)向量(Vector of orthogonal effects )三、檢查結(jié)果 通過(guò)圖形我們可以以一種十分直觀的辦法檢測(cè)我們的擬合效果:plot(result1) 通過(guò)擴(kuò)展包c(diǎn)ar中的函數(shù)來(lái)檢測(cè)異常值與主要影響因子。代碼如下:library(car)outlierTes

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論