歡迎光臨
每天分享高質量文章

詳解線性判別分析(Linear Discriminant Analysis)

(點選上方公眾號,可快速關註)

轉自:JerryLead

http://www.cnblogs.com/jerrylead/archive/2011/04/21/2024384.html#3855889

好文投稿, 請點選 → 這裡瞭解詳情

之前我們討論的PCA、ICA也好,對樣本資料來言,可以是沒有類別標簽y的。回想我們做回歸時,如果特徵太多,那麼會產生不相關特徵引入、過度擬合等問題。我們可以使用PCA來降維,但PCA沒有將類別標簽考慮進去,屬於無監督的。


 比如回到上次提出的檔案中含有“learn”和“study”的問題,使用PCA後,也許可以將這兩個特徵合併為一個,降了維度。但假設我們的類別標簽y是判斷這篇文章的topic是不是有關學習方面的。那麼這兩個特徵對y幾乎沒什麼影響,完全可以去除。


再舉一個例子,假設我們對一張100*100畫素的圖片做人臉識別,每個畫素是一個特徵,那麼會有10000個特徵,而對應的類別標簽y僅僅是0/1值,1代表是人臉。這麼多特徵不僅訓練複雜,而且不必要特徵對結果會帶來不可預知的影響,但我們想得到降維後的一些最佳特徵(與y關係最密切的),怎麼辦呢?


線性判別分析(二類情況)


 回顧我們之前的logistic回歸方法,給定m個n維特徵的訓練樣例(i從1到m),每個對應一個類標簽。我們就是要學習出引數,使得(g是sigmoid函式)。


現在只考慮二值分類情況,也就是y=1或者y=0。


為了方便表示,我們先換符號重新定義問題,給定特徵為d維的N個樣例,,其中有個樣例屬於類別,另外個樣例屬於類別


現在我們覺得原始特徵數太多,想將d維特徵降到只有一維,而又要保證類別能夠“清晰”地反映在低維資料上,也就是這一維就能決定每個樣例的類別。


我們將這個最佳的向量稱為w(d維),那麼樣例x(d維)到w上的投影可以用下式來計算

     

這裡得到的y值不是0/1值,而是x投影到直線上的點到原點的距離。


當x是二維的,我們就是要找一條直線(方向為w)來做投影,然後尋找最能使樣本點分離的直線。如下圖:


     

從直觀上來看,右圖比較好,可以很好地將不同類別的樣本點分離。

     

接下來我們從定量的角度來找到這個最佳的w。

     

首先我們尋找每類樣例的均值(中心點),這裡i只有兩個


     

由於x到w投影后的樣本點均值為


     

    

 由此可知,投影后的的均值也就是樣本中心點的投影。


什麼是最佳的直線(w)呢?我們首先發現,能夠使投影后的兩類樣本中心點儘量分離的直線是好的直線,定量表示就是:


     

J(w)越大越好。


但是隻考慮J(w)行不行呢?不行,看下圖


     

樣本點均勻分佈在橢圓裡,投影到橫軸x1上時能夠獲得更大的中心點間距J(w),但是由於有重疊,x1不能分離樣本點。投影到縱軸x2上,雖然J(w)較小,但是能夠分離樣本點。因此我們還需要考慮樣本點之間的方差,方差越大,樣本點越難以分離。


我們使用另外一個度量值,稱作雜湊值(scatter),對投影后的類求雜湊值,如下


     

從公式中可以看出,只是少除以樣本數量的方差值,雜湊值的幾何意義是樣本點的密集程度,值越大,越分散,反之,越集中。


而我們想要的投影后的樣本點的樣子是:不同類別的樣本點越分開越好,同類的越聚集越好,也就是均值差越大越好,雜湊值越小越好。正好,我們可以使用J(w)和S來度量,最終的度量公式是


     

 接下來的事就比較明顯了,我們只需尋找使J(w)最大的w即可。

 先把雜湊值公式展開


     

     

我們定義上式中中間那部分


     

這個公式的樣子不就是少除以樣例數的協方差矩陣麼,稱為雜湊矩陣(scatter matrices)

     

我們繼續定義

    

 

    

 稱為Within-class scatter matrix。

     

那麼回到上面的公式,使用替換中間部分,得

    

 

   

  

     

然後,我們展開分子

  

   

  稱為Between-class scatter,是兩個向量的外積,雖然是個矩陣,但秩為1。

     

那麼J(w)最終可以表示為


     

     

在我們求導之前,需要對分母進行歸一化,因為不做歸一的話,w擴大任何倍,都成立,我們就無法確定w。因此我們打算令,那麼加入拉格朗日乘子後,求導

  

   

    

其中用到了矩陣微積分,求導時可以簡單地把當做看待。

     

如果可逆,那麼將求導後的結果兩邊都乘以,得


     

這個可喜的結果就是w就是矩陣的特徵向量了。

     

這個公式稱為Fisher linear discrimination。

     

等等,讓我們再觀察一下,發現前面的公式


     

     

那麼


     

     

代入最後的特徵值公式得


     

     

由於對w擴大縮小任何倍不影響結果,因此可以約去兩邊的未知常數,得到


     

     

至此,我們只需要求出原始樣本的均值和方差就可以求出最佳的方向w,這就是Fisher於1936年提出的線性判別分析。

     

看上面二維樣本的投影結果圖:


     

線性判別分析(多類情況)

     

前面是針對只有兩個類的情況,假設類別變成多個了,那麼要怎麼改變,才能保證投影后類別能夠分離呢?


我們之前討論的是如何將d維降到一維,現在類別多了,一維可能已經不能滿足要求。假設我們有C個類別,需要K維向量(或者叫做基向量)來做投影。


     

將這K維向量表示為

     

我們將樣本點在這K維向量投影后結果表示為,有以下公式成立


     

     

     

為了像上節一樣度量J(w),我們打算仍然從類間雜湊度和類內雜湊度來考慮。

     

當樣本是二維時,我們從幾何意義上考慮:


     

     

其中與上節的意義一樣,是類別1裡的樣本點相對於該類中心點的雜湊程度。變成類別1中心點相對於樣本中心點的協方差矩陣,即類1相對於的雜湊程度。


 


     

    

 的計算公式不變,仍然類似於類內部樣本點的協方差矩陣


     

    

 需要變,原來度量的是兩個均值點的雜湊情況,現在度量的是每類均值點相對於樣本中心的雜湊情況。類似於將看作樣本點,是均值的協方差矩陣,如果某類裡面的樣本點較多,那麼其權重稍大,權重用Ni/N表示,但由於J(w)對倍數不敏感,因此使用Ni。


     

     

其中


     

    

 是所有樣本的均值。

     

上面討論的都是在投影前的公式變化,但真正的J(w)的分子分母都是在投影后計算的。下麵我們看樣本點投影后的公式改變:

    

 這兩個是第i類樣本點在某基向量上投影后的均值計算公式。


     

     

     

下麵兩個是在某基向量上投影后的

     

     

     

其實就是將換成了

     

綜合各個投影向量(w)上的,更新這兩個引數,得到


     

     

     

W是基向量矩陣,是投影后的各個類內部的雜湊矩陣之和,是投影后各個類中心相對於全樣本中心投影的雜湊矩陣之和。

     

回想我們上節的公式J(w),分子是兩類中心距,分母是每個類自己的雜湊度。現在投影方向是多維了(好幾條直線),分子需要做一些改變,我們不是求兩兩樣本中心距之和(這個對描述類別間的分散程度沒有用),而是求每類中心相對於全樣本中心的雜湊度之和。

     

然而,最後的J(w)的形式是


     

    

由於我們得到的分子分母都是雜湊矩陣,要將矩陣變成實數,需要取行列式。又因為行列式的值實際上是矩陣特徵值的積,一個特徵值可以表示在該特徵向量上的發散程度。因此我們使用行列式來計算(此處我感覺有點牽強,道理不是那麼有說服力)。

    

整個問題又回歸為求J(w)的最大值了,我們固定分母為1,然後求導,得出最後結果(我翻查了很多講義和文章,沒有找到求導的過程)


     

     

與上節得出的結論一樣


     

     

最後還歸結到了求矩陣的特徵值上來了。首先求出的特徵值,然後取前K個特徵向量組成W矩陣即可。

     

註意:由於中的 秩為1,因此的秩至多為C(矩陣的秩小於等於各個相加矩陣的秩的和)。由於知道了前C-1個後,最後一個可以有前面的來線性表示,因此的秩至多為C-1。那麼K最大為C-1,即特徵向量最多有C-1個。特徵值大的對應的特徵向量分割效能最好。

    

由於不一定是對稱陣,因此得到的K個特徵向量不一定正交,這也是與PCA不同的地方。



覺得本文有幫助?請分享給更多人

關註「演演算法愛好者」,修煉程式設計內功

淘口令複製以下紅色內容,再開啟手淘即可購買

範品社,使用¥極客T恤¥搶先預覽(長按複製整段文案,開啟手機淘寶即可進入活動內容)

近期,北京地區正常發貨,但派件時間有所延長。

贊(0)

分享創造快樂