1. 80以上不用訂正

總分是47+42

 

2.課本重點摘錄

Regression analysis回歸分析幫助揭露變數之間的關係,透過模型models,透過一個自變項independent variables去預測依變項dependent variables。這個章節探討簡單線性回歸simple linear regression,用一個自變項預測數值依變項。

13.1回歸模型的種類p452

用散佈圖scatter plot將X、Y變相視覺化,如圖。

A是正的線性關係。

B是負的線性關係

C則是X期之間沒太多關係。

D的正曲線是一開始正相關但到後面趨緩。

E為U型,一開始Y隨X減少,到後面則增加。

F為指數的關係,在X還小時,Y降的非常快,但到後面趨緩。

 

Simple Linear Regression Model 簡單線性回歸模型

簡單線性迴歸呈現了最簡單的直線,或是線性關係linear relationship。

公式如下,註解在圖上。

 

13.2 決定簡單回歸線的方程式p454

The Least Square Method最小平方法

在前一節,統計模型是被假設代表兩變項的關係,用以呈現關係,然而,座隨機抽樣時,如果某些假設是成立的(13.4節會講),可以使用簡單Y截距b0和簡單斜率b1來代表母體的截距與斜率,做簡單回歸分析方程式simple linear regression equation,而這條直線方程式就是預測線predict line。公式13.2如圖。

13.2方程式,要求你決定兩個回歸係數b0簡單Y截距以及b1簡單Y斜率。而最常用來找這兩個係數的方法就是The Least Square Method最小平方法,最小平方法是點與預測線predict line之間最小差異平方的和。其他任何方法算出來的值都會比最小平方法所算出來觀察與預測值的差異來得大。

 

回歸分析的預測,內插Interpolation與外插Extrapolation

當用一個回歸模型做預測時,當做預測時,只應該考慮自變數的相關範圍relevant range,相關範圍包含做回歸模型時X最小到最大的值。因此,當給定X要預測Y時,可以在相關範圍內將X內插,但不應該外插X值的範圍外。

補充:

「內插」就是找一個函數,完全符合手邊的一堆數據。此函數稱作「內插函數」。

「外插」是指從已知數據的點集合中構建新的數據的方法。

~~~還是不懂。

計算簡單Y截距與簡單斜率的公式如下

13.3變異量數Measure of Variation p462

當使用最小平方法決定回歸係數時,你必須計算三個變異量數。

1.總離均平方和SST,用來計算觀察值Yi和其平均的變異。

2.回歸平方和SSR,也是explained variation用以呈現X、Y關係間的變異。

3.誤差平方和SSE,也是unexplained variation,用以呈現X、Y關係以外的變異。

 

計算平方和Computing Sum of Square

SSR計算預期值Y與Y平均,SSE計算觀察值Y與Y平均。

而SST就是SSR+SSE,公式如下。

 

 

決定係數The Coefficient of Determination

單獨的時候SST、SSR、SSE提供有限的資訊,但是其比率就不同了。

SSR和SST的比率呈現Y當中變異的佔比,被自變數X和依變數Y的線性關係所解釋的部分。公式如下,其值介於0和1之間,直越大,回歸模型中Y的變異越能被X解釋。

Standard Error of the Estimate 估計的標準誤

不可能所有的值都在回歸線上,估計的標準誤測量觀察值Y與預測值Y之間的不同,跟標準差做法一樣,Sxy代表,公式如下。

簡單線性迴歸 Week11
>>將內容用自己的手機、平版分享到.....
標籤:    

發佈留言