您好,登錄后才能下訂單哦!
這篇文章給大家分享的是有關PCA方法的運算過程的內容。小編覺得挺實用的,因此分享給大家做個參考。一起跟隨小編過來看看吧。
1 引言
在展開數據分析工作時,我們經常會面臨兩種困境,一種是原始數據中特征屬性太少,“巧婦難為無米之炊”,很難挖掘出潛在的規律,對于這種情況,我們只能在收集這一環節上多下功夫;另一種困境剛好相反,那就是特征屬性太多,這真是一種幸福得煩惱,因為特征屬性多就意味著信息量大,可挖掘的價值就大,但另一方面也可能造成過擬合和計算量的急劇增大,對于這一問題,最好的方法就是在預處理階段對數據進行降維。
說到降維,很自然得就想到主成分分析法(Principal Component Analysis,PCA),因為這一方法在眾多降維方法中獨領風騷,應用的最為廣泛。主成分分析法是一種無監督學習方法,它的主要觀點是認為數據的特征屬性之間存在線性相關,導致數據間的信息冗余,通過正交變換把線性相關的特征用較少線性無關的數據來表示,以達到降維的目的。
本文接下來的內容就對PCA方法進行思想和運算過程等方面由淺入深地展開介紹。
2 算法原理
2.1 最大投影方差法
為方便描述,我們先以二維平面上的數據集為例。如下圖所示,有左下至右上45度角斜向上分布。現在,我們要對數據集進行降維,因為是二維數據,所以也只能降到一維,只需要找到一個條合適的坐標軸將數據投影過去即可。最簡單地,我們可以將數據直接投影到已有的兩個坐標軸上,如如圖(a)(b)所示,這種方法相當于直接舍棄另一特征維度,將直接導致對另一特征維度信息的完全丟失,往往并不可取。降維過程雖然不可避免得會造成信息丟失,但我們卻也希望最大化地保留數據的原始信息。既然往已有的坐標軸上投影不可取,那么,我們構造新的坐標系,如圖(c)所示,我們沿左下至右上45度角斜向上構造出一條y軸,從直覺上判斷我們也會覺得將數據投影到這個y軸比直接頭引導x1軸、x2軸更加合適,因為這個時候y軸與數據分布最“契合”,數據的投影在y軸上最為分散,或者說數據在y軸上的投影的方差最大。這就是最大投影方差法,通過這種方法,在投影后的空間中數據的方差最大,才能最大化數據的差異性,因此可以保留更多的原始數據信息。
image
我們從數學角度上分析一下為什么方差最大是獲得的新坐標系才是最好的。
如下圖2所示,假設我們點A、B、C為圖1中數據集零均值化化后的樣本點,點A′、B′、C′分別是點A、B、C在旋轉后的X1′軸上的投影,O為坐標原點。|AA′|表示原坐標點A到X1′軸上投影A′的距離,又被稱為投影誤差。顯然,投影誤差越小,A與A′相似度越大,那么投影后的數據就保留了更多的信息,所以投影誤差越小越好,等價地,對各樣本點投影誤差的平方和|AA′|2+|BB′|2+|CC′|2也越大越好。因為斜邊的長度|OA|、|OB|、|OC|是固定的,結合勾股定理可知,|AA′|2+|BB′|2+|CC′|2+|OA′|2+|OB′|2+|OC′|2的大小也是保持不變的,這就意味著,投影誤差越小,|OA′|2+|OB′|2+|OC′|2就越大。其實,|OA′|2+|OB′|2+|OC′|2就是樣本方差和,所以說,方差最大是獲得的新坐標系最好。
image
現在,我們知道了怎么確定最優的方向進行投影的問題,不過還有問題沒有解決:
(1)上面的講述都是以二維數據為例子,對于二維數據的降維,當然只需要找到一個維度或者說一條坐標軸進行投影即可,如果是更高維度的數據進行降維時,就不可能都降為一維,這時候可就需要尋找到多條坐標軸來來投影,如果尋找第一個維度時,使用方差最大化投影當然沒問題,但是,如果在尋找第二個維度時,仍然堅持方差最大化,那么第二個維度的坐標軸就回與第一個維度的坐標做基本重合,這樣投影后的數據相關性極大,是沒有意義的。那么,對于高維度數據降維,要如何確定多個維度坐標軸呢?
(2)找到了新的坐標系后,怎么將原始數據映射到新的坐標系中呢?
帶著這兩個問題,我們繼續往下分析。
2.2 協方差矩陣
PCA算法降維的主要通過是降低原始數據中的冗余信息來實現的,這里的冗余信息指的是數據集中不同特征屬性間的相關性,例如工作時長、學歷、薪資待遇這三個屬性,這確實是三個不同的特征屬性,但無論是工作時長還是學歷都跟薪資待遇之間存在一定影響,在大多數情況下,工作時長越長、學歷越高薪資待遇就越高。所以,工作時長、學歷與薪資待遇是存在相關性的,PCA算法目標就是消除這些相關性達到降維的目的。
對于相關性,在數學上通常用協方差來進行描述。假設數據集X是包含n個樣本,m個特征屬性,xi和xj分別是數據集X中的兩個不同的特征屬性,那么xi和xj之間的協方差為:
Cov(xi,xj)=1n?1?∑nk=1(xik?xˉi)(xjk?xˉj)
式中,xik,xjk表示xi、xj的第k個樣本在兩個特征屬性中的取值,xˉi、xˉj分別是xi,xj的均值。
協方差取值區間為[?1,1],協方差絕對值越大兩特征屬性相關性越大,當協方差小于0時,表示兩個特征屬性呈負相關,當協方差大于0時,表示兩個特征屬性呈正相關,當協方差為0時,表示量特征屬性不相關,在線性代數上,這兩個特征屬性時正交的。
特殊地,Cov(xi,xi)表示特征屬性xi的方差。
通過上一小節,我們知道,降維時選擇第一個投影方向是通過方差最大化進行選取,選取后續為投影方向時,我們就不可能再讓降維后的各維度數據間還存在相關性,所以,在選取后續維度時需要在滿足與所有已選取投影方向正交,即協方差為0的前提下,選取方差最大的方向。總結一下降維的過程,假如我們需要從m維降到k維,首先要在所有可能方向中選取一個投影方差最大的方向作為第一個維度,然后在所有與第一個維度正交的方向中選取一個方差最大的方向作為第二個維度方向,重復這一步驟,直到選取了k個維度。
可以看出,在整個降維過程中,既要計算方差,也要計算特征屬性兩兩之間的協方差,有沒有什么方法將兩者統一到一起呢?有,協方差矩陣。 協方差矩陣中每一個元素對應兩個特征屬性間的協方差,例如第i行第j列元素表示第i個特征屬性與第j個特征屬性間的協方差;協方差矩陣對角線上的元素,當i=j時,表示第i個特征屬性的方差。數據集X的協方差矩陣表示為: image
仔細觀察協方差矩陣,可以發現協方差矩陣是實對稱矩陣,實對稱矩陣剛好有一些很好的性質可以被利用:
(1)實對稱矩陣必可對角化,且其相似對角矩陣的對角線元素為m個特征值
(2)實對稱矩陣的特征值是實數,特征向量是實向量
(3)實對稱矩陣的不同特征值對應的特征向量是正交的
請務必注意,這三個性質很重要,不理解沒關系,記住就好,接下來的內容都必須以這三個性質為基礎。因為特征值對應的特征向量就是理想中想取得正確的坐標軸的基,而特征值就等于數據在投影之后的坐標上的方差。所以有了協方差矩陣,接下來要做的,就是將協方差矩陣對角化,這個對角化的過程可以理解為是對來原坐標軸的旋轉即尋找最佳投影坐標軸的過程,通過對角化的過程可以讓除對角元素外的所有元素為零,也就是協方差為零,各特征屬性將將變得不相關。當協方差矩陣對角化之后,對角元素就是特征值,也是各投影后坐標軸上的方差,我們選取最大的一個特征值對應的特征向量作為基,對原始數據進行變換,就可以用獲得原始數據在新坐標軸上的投影。
我們大概描述一下這個坐標變換的原理。在機器學習中,我們喜歡用向量和矩陣來表示數據,因為向量和矩陣有很多很好的數學性質,可以很方便的進行數學運算。如下圖3所示,從圖1所示數據集中取一點,假設坐標為(3,1),那么我們可以表示為以原點為起點以點(3,1)為終點的一個箭頭,這個箭頭在x1軸上投影為3,在x2軸三的投影是1。我們可以這么理解,有一個向量在兩條坐標軸上的投影分別為x1,x2,那么該向量又可以表示為:x1?(1,0)T+x2?(0,1)T,這里的(1,0)和(0,1)就是下圖黑色直角坐標系的一組基。對于基,可以粗淺的理解為坐標軸的基礎,有了基,坐標才有意義,在大多數情況下,我們都默認以(1,0)和(0,1)這對相互正交且模長為1向量為基。如果我們對黑色直角坐標系逆時針旋轉45就得到了一個新的坐標系,這個坐標系的基為(12√,12√)和(?12√,12√),這類我們不深入討論這個基是怎么得來的,反正在PCA方法中通過協方差對角化之后多的的特征值對應特征向量就是新坐標系的基。有了新坐標系的基,怎么將原坐標系的坐標轉換的用新坐標系表示呢?其實我們只需要對新坐標系的基與原坐標系中的坐標進行內積運算即可:將原坐標與兩個基做內積運算,獲得的兩個結果分別作為新坐標系的第一個坐標和第二個坐標,這個過程叫做基變換,我們用矩陣運算來表示這個過程:
image
所以點(3,1)在新坐標系中的坐標為(42√,?2–√)。這種基變換的方式也適用于更加多維的情況,因為兩個矩陣相乘本質就是一種線性變換,也可以理解為將游標矩陣中的每一列列向量變換到左邊矩陣中每一行行行向量為基坐標是的空間中去。
image
總結來說,完成對角化之后,矩陣中對角線上元素就是特征值,也是尋找到的眾多坐標軸的投影方差,每次從中去所有特征值中最大的一個,然后求對應的特征向量,這個特征向量就是對應的新坐標軸的基,用這個基于原始數據做內積運算就可以得到原始數據在新坐標軸上的投影,重復這個過程k次,就完成可降維。
將上文中所有內容囊括在一起,那么,主成分分析法就概括為以下5各步驟:
(1) 零平均值,在很多情況下,為了去除量綱的影響,最好直接標準化。
(2) 計算協方差矩陣。
(3) 協方差矩陣對角化,求特征值。
(4) 對特征值從大到小排序,選擇其中最大的k個,然后求其對應的k個特征向量分別作為行向量組成特征向量矩陣P。
(5) 將k個特征向量作為新的坐標系的基對原始數據進行變換。
3 總結
PCA算法是一種無監督學習方法,只需要對數據集本身的特征屬性進行運算,消除相關性達到壓縮數據去噪降維的目的。 PCA算法的主要優點有:
(1)僅僅需要以方差衡量信息量,不受數據集以外的因素影響。
(2)各主成分之間正交,可消除原始數據成分間的相互影響的因素。
(3)計算方法簡單,易于實現。
PCA算法的主要缺點有:
(1)主成分各個特征維度的含義不在具有實際的物理意義,所以不如原始樣本特征的解釋性強。
(2)方差小的非主成分也可能含有對樣本差異的重要信息,因降維丟棄可能對后續數據處理有影響。
關于PCA方法的運算過程就分享到這里了,希望以上內容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。
免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。