久久国产成人av_抖音国产毛片_a片网站免费观看_A片无码播放手机在线观看,色五月在线观看,亚洲精品m在线观看,女人自慰的免费网址,悠悠在线观看精品视频,一级日本片免费的,亚洲精品久,国产精品成人久久久久久久

分享

R語言中的回歸診斷

 楓林秋2016 2019-12-25

如何判斷我們的線性回歸模型是正確的,?

1,、回歸診斷的基本方法
opar<-par(no.readOnly=TRUE)

fit <- lm(weight ~ height, data = women)
par(mfrow = c(2, 2))
plot(fit)
par(opar)

為理解這些圖形,我們來回顧一下OLS回歸的統(tǒng)計假設,。
(1)正態(tài)性(主要使用QQ圖) 當預測變量值固定時,,因變量成正態(tài)分布,則殘差值也應該是一個均值為0的正態(tài)分布,。正態(tài)Q-Q圖(Normal Q-Q,,右上)是在正態(tài)分布對應的值下,標準化殘差的概率圖,。若滿足正態(tài)假設,,那么圖上的點應該落在呈45度角的直線上;若不是如此,,那么就違反了正態(tài)性的假設,。
(2)獨立性 你無法從這些圖中分辨出因變量值是否相互獨立,只能從收集的數(shù)據(jù)中來驗證,。上面的例子中,,沒有任何先驗的理由去相信一位女性的體重會影響另外一位女性的體重。假若你發(fā)現(xiàn)數(shù)據(jù)是從一個家庭抽樣得來的,,那么可能必須要調(diào)整模型獨立性的假設,。
(3)線性(使用左上角的圖,該曲線盡量擬合所有點) 若因變量與自變量線性相關,,那么殘差值與預測(擬合)值就沒有任何系統(tǒng)關聯(lián),。換句話說,除了白噪聲,,模型應該包含數(shù)據(jù)中所有的系統(tǒng)方差,。在“殘差圖與擬合圖”Residuals vs Fitted,左上)中可以清楚的看到一個曲線關系,,這暗示著你可能需要對回歸模型加上一個二次項,。
(4)同方差性(左下角,,點隨機分布在曲線的周圍) 若滿足不變方差假設,那么在位置尺度圖(Scale-Location Graph,,左下)中,,水平線周圍的點應該隨機分布,。該圖似乎滿足此假設,。最后一幅“殘差與杠圖”(Residuals vs Leverage,右下)提供了你可能關注的單個觀測點的信息,。從圖形可以鑒別出離群點,、高杠桿值點和強影響點

通過看圖重新修改模型

newfit <- lm(weight ~ height + I(height^2), data = women[-c(13, 15),])
par(mfrow = c(2, 2))
plot(newfit)
par(opar)

2、使用改進的方法進行

主要使用的car包,,進行回歸診斷

(1)自變量的正態(tài)分布

qqPlot()函數(shù)提供了更為精確的正態(tài)假設檢驗方法

library(car)

fit <- lm(Murder ~ Population + Illiteracy + Income + 

Frost, data = states)
qqPlot(fit, labels = FALSE, simulate = TRUE, main = "Q-Q Plot")

(2)誤差的獨立性

durbinWatsonTest(fit)

 lag Autocorrelation D-W Statistic p-value
   1      -0.2006929      2.317691   0.248
 Alternative hypothesis: rho != 0

(3)線性相關性

crPlots(fit, one.page = TRUE, ask = FALSE)

(4)同方差性

1,、car包提供了兩個有用的函數(shù),可以判斷誤差方差是否恒定,。ncvTest()函數(shù)生成一個計分檢驗,,零假設為誤差方差不變,備擇假設為誤差方差隨著擬合值水平的變化而變化,。

2,、spreadLevelPlot()函數(shù)創(chuàng)建一個添加了最佳擬合曲線的散點圖,展示標準化殘差絕對值與擬合值的關系

library(car)
ncvTest(fit)

Non-constant Variance Score Test 
Variance formula: ~ fitted.values 
Chisquare = 1.746514    Df = 1     p = 0.1863156    

滿足方差不變 p = 0.1863156   
spreadLevelPlot(fit)

3,、線性模型假設的綜合驗證

library(gvlma)
gvmodel <- gvlma(fit)
summary(gvmodel)

Call:
lm(formula = Murder ~ Population + Illiteracy + Income + Frost, 
    data = states)

Residuals:
    Min      1Q  Median      3Q     Max 
-4.7960 -1.6495 -0.0811  1.4815  7.6210 

Coefficients:
             Estimate Std. Error t value Pr(>|t|)    
(Intercept) 1.235e+00  3.866e+00   0.319   0.7510    
Population  2.237e-04  9.052e-05   2.471   0.0173 *  
Illiteracy  4.143e+00  8.744e-01   4.738 2.19e-05 ***
Income      6.442e-05  6.837e-04   0.094   0.9253    
Frost       5.813e-04  1.005e-02   0.058   0.9541    
---
Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1

Residual standard error: 2.535 on 45 degrees of freedom
Multiple R-squared:  0.567,     Adjusted R-squared:  0.5285 
F-statistic: 14.73 on 4 and 45 DF,  p-value: 9.133e-08

ASSESSMENT OF THE LINEAR MODEL ASSUMPTIONS
USING THE GLOBAL TEST ON 4 DEGREES-OF-FREEDOM:
Level of Significance =  0.05 

Call:
 gvlma(x = fit) 
                    Value p-value                Decision
Global Stat        2.7728  0.5965 Assumptions acceptable.
Skewness           1.5374  0.2150 Assumptions acceptable.
Kurtosis           0.6376  0.4246 Assumptions acceptable.
Link Function      0.1154  0.7341 Assumptions acceptable.
Heteroscedasticity 0.4824  0.4873 Assumptions acceptable.

4,、多重共線性

如何檢測多重共線性

library(car)

vif(fit)

Population Illiteracy     Income      Frost 
  1.245282   2.165848   1.345822   2.082547 
sqrt(vif(fit)) > 2

Population Illiteracy     Income      Frost 
     FALSE      FALSE      FALSE      FALSE 

如何解決多重共線性?

逐步回歸法(此法最常用的,,也最有效)

R語言回歸分析中的異常值點的介紹

(1)離群點

如何識別離群點,?

1、Q-Q圖,,落在置信區(qū)間帶[-2,,2]外的點即可被認為是離群點。

2,、一個粗糙的判斷準則:標準化殘差值大于2或者小于2的點可能是離群

3,、library(car)
   outlierTest(fit)  顯示離群點

       rstudent unadjusted p-value Bonferonni p
Nevada 3.542929         0.00095088     0.047544

(2)高杠桿值點

它們是由許多異常的預測變量值組合起來的,與響應變量值沒有關系

高杠桿值的觀測點可通過帽子統(tǒng)計量(hat statistic)判斷

hat.plot <- function(fit){
    p <- length(coefficients(fit))
    n <- length(fitted(fit))
    plot(hatvalues(fit), main = "Index Plot of Hat Values")
    abline(h = c(2, 3) * p/n, col = "red", lty = 2)
    identify(1:n, hatvalues(fit), names(hatvalues(fit)))
}
hat.plot(fit)

 

(3)強影響點

強影響點,,即對模型參數(shù)估計值影響有些比例失衡的點,。例如,若移除模型的一個觀測點時模型會發(fā)生巨大的改變,,那么你就需要檢測一下數(shù)據(jù)中是否存在強影響點了

cutoff <- 4/(nrow(states) - length(fit$coefficients) - 2)
plot(fit, which = 4, cook.levels = cutoff)
abline(h = cutoff, lty = 2, col = "red")

4,、如何對線性模型進行改進?

1,、刪除觀測點,;

刪除離群點通??梢蕴岣邤?shù)據(jù)集對于正態(tài)假設的擬合度,而強影響點會干擾結(jié)果,,通常也會被刪除,。刪除最大的離群點或者強影響點后,模型需要重新擬合
2,、變量變換:


Box-Cox正態(tài)變換

library(car)
summary(powerTransform(states$Murder))

 

library(car)
boxTidwell(Murder ~ Population + Illiteracy, data = states)
3,、添加或刪除變量;
4,、
使用其他回歸方法,。

轉(zhuǎn)載于:http://blog.csdn.net/u011955252

    本站是提供個人知識管理的網(wǎng)絡存儲空間,所有內(nèi)容均由用戶發(fā)布,,不代表本站觀點,。請注意甄別內(nèi)容中的聯(lián)系方式、誘導購買等信息,,謹防詐騙,。如發(fā)現(xiàn)有害或侵權(quán)內(nèi)容,請點擊一鍵舉報,。
    轉(zhuǎn)藏 分享 獻花(0

    0條評論

    發(fā)表

    請遵守用戶 評論公約

    類似文章 更多