www涩-www黄网站-www黄色-www黄色com-国产免费拍拍视频在线观看网站-国产免费怕怕免费视频观看

【知識】正則化與過擬合

2018-05-14 16:43:56 數據科學自媒體  點擊量: 評論 (0)
過擬合怎么理解?如何解決?正則化怎么理解?如何使用?
  • 過擬合怎么理解?如何解決?
  • 正則化怎么理解?如何使用?

在機器學習中有時候會出現過擬合為了解決過擬合問題,通常有兩種辦法,第一是減少樣本的特征(即維度),第二就是我們這里要說的“正則化”(又稱為“懲罰”,penalty)。

從多項式變換和線性回歸說起

在非線性變換小節中,我們有討論Q次多項式變換的定義和其包含關系,這里如果是10次多項式變換,那么系數的個數是11個,而2次多項式的系數個數是3。從中我們可以看出,所有的2次多項式其實是10次多項式加上一些限制,即w3=w4=...=w10=0。

基于上面的討論,我們希望能將二次多項式表示成十次多項式再加上一些約束條件,這一步的目的是希望能拓寬一下視野,在推導后面的問題的時候能容易一些。

這個過程,我們首先要將二次多項式的系數w拓展到11維空間,加上w3=w4=...=w10=0這個條件得到假設集合H2;然后為了進一步化簡,我們可以將這個條件設置的寬松一點,即任意的8個wi為0,只要其中有三個系數不為0就行,得到一組新的假設空間H2',但這個問題的求解是一個NP-hard的問題,還需要我們修正一下;最后,我們還需要將這個約束條件進一步修正一下得到假設集合H(C),給系數的平方的加和指定一個上限,這個假設集合H(C)和H2'是有重合部分的,但不相等。

最后,我們把H(C)所代表的假設集合稱為正則化的假設集合。

下圖表示了這個約束條件的變化:

正則化的回歸問題的矩陣形式

由上圖所示,我們現在要求解的是在一定約束條件下求解最佳化問題,求解這個問題可以用下面的圖形來描述。

本來要求解Ein的梯度,相當于在一個橢圓藍色圈中求解梯度為零的點,而下面這個圖表示,系數w在半徑是根號C的紅色球里面(w需要滿足的約束條件),求解藍色區域使得梯度最小的點。

那么,最優解發生在梯度的反方向和w的法向量是平行的,即梯度在限制條件下不能再減小。我們可以用拉格朗日乘數的方法來求解這個w。

Ridge Regression

Ridge Regression是利用線性回歸的矩陣形式來求解方程,得到最佳解。

Augmented Error

我們要求解這個梯度加上w等于0的問題,等同于求解最小的Augmented Error,其中wTw這項被稱為regularizer(正則項)。我們通過求解Augmented Error,Eaug(w)來得到回歸的系數Wreg。這其實就是說,如果沒有正則項的時候(λ=0),我們是求解最小的Ein問題,而現在有了一個正則項(λ>0),那么就是求解最小的Eaug的問題了。

不同的λ造成的結果

從上圖可以看出,當λ=0的時候就會發生過擬合的問題,當λ很小時(λ=0.0001),結果很接近理想的情況,如果λ很大(λ=1),會發生欠擬合的現象。所以加一點正則化(λ很小)就可以做到效果很好。

正則化和VC理論

我們要解一個受限的訓練誤差Ein的問題,我們將這個問題簡化成Augmented Error的問題來求解最小的Eaug。

原始的問題對應的是VC的保證是Eout要比Ein加上復雜度的懲罰項(penalty of complexity)要小。而求解Eaug是間接地做到VC Bound,并沒有真正的限制在H(C)中。

wTw可以看成是一個假設的復雜度,而VC Bound的Ω(H)代表的是整個假設集合有多么的復雜(或者說有多少種選擇)。

這兩個問題都好像是計算一個問題的復雜度,我們該怎么聯系著兩種復雜度的表示方式呢?其理解是,一個單獨的很復雜的多項式可以看做在一類很復雜的假設集合中,所以Eaug可以看做是Eout的一個代理人(proxy),這其實是我們運用一個比原來的Ein更好一點點代理人Eaug來貼近好的Eout。

一般性的正則項 L1 Regularizer

L1 Regularizer是用w的一范數來算,該形式是凸函數,但不是處處可微分的,所以它的最佳化問題會相對難解一些。

L1 Regularizer的最佳解常常出現在頂點上(頂點上的w只有很少的元素是非零的,所以也被稱為稀疏解sparse solution),這樣在計算過程中會比較快。

L2 Regularizer

L2 Regularizer是凸函數,平滑可微分,所以其最佳化問題是好求解的。

最優的λ

噪聲越多,λ應該越大。由于噪聲是未知的,所以做選擇很重要,我將在下一小節中繼續接受有關參數λ選擇的問題。

總結

過擬合表現在訓練數據上的誤差非常小,而在測試數據上誤差反而增大。其原因一般是模型過于復雜,過分得去擬合數據的噪聲和異常點。正則化則是對模型參數添加先驗,使得模型復雜度較小,對于噪聲以及outliers的輸入擾動相對較小。

正則化符合奧卡姆剃刀原理,在所有可能選擇的模型,能夠很好的解釋已知數據并且十分簡單才是最好的模型,也就是應該選擇的模型。從貝葉斯估計的角度看,正則化項對應于模型的先驗概率,可以假設復雜的模型有較小的先驗概率,簡單的模型有較大的先驗概率。

參考資料

機器學習中的范數規則化之(一)L0、L1與L2范數

http://blog.csdn.net/zouxy09/article/details/24971995

機器學習中的范數規則化之(二)核范數與規則項參數選擇

http://blog.csdn.net/zouxy09/article/details/24972869

作者Jason Ding

http://blog.csdn.net/jasonding1354/article/details/44006935#comments

大云網官方微信售電那點事兒

責任編輯:售電衡衡

免責聲明:本文僅代表作者個人觀點,與本站無關。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。
我要收藏
個贊
?
主站蜘蛛池模板: 亚洲手机在线| 亚洲欧美视频二区| 亚洲精品午夜一区二区在线观看| 日韩精品亚洲人成在线观看| 精品三级国产| 亚洲精品99久久久久久| 久久网站免费观看| 国产第一区二区三区在线观看 | 91精品日本久久久久久牛牛| 日本在线看小视频网址| 成人国产三级精品| 欧美日韩一级片在线观看| 国产精品久久久久久久久久久久| 亚洲精品成人a在线观看| 国内免费视频成人精品| 日韩精品一区二区三区视频| 国产在线观看91精品一区| 亚洲视频 在线观看| 国产区高清| 免费一级做a爰片久久毛片| 成人性色生活片免费网| 日本乱子伦xxxx| 亚洲视频在线网| 国产美女在线一区二区三区| 亚洲美女在线观看| 成a人片亚洲日本久久 | 国产一级毛片国语版| 亚洲国产成人精品激情| 成年人午夜免费视频| 久久精品免看国产成| 亚洲精品国产第一区二区多人| 国产xvideos国产在线| 久久精品国产99久久6动漫欧| 亚洲三级网| 91刘亦菲精品福利在线| 狠狠综合久久| 三级成人网| 性刺激久久久久久久久| xxx欧美老熟| 国产三级国产精品国产普男人| 久久久久久一级毛片免费野外|