亚洲激情专区-91九色丨porny丨老师-久久久久久久女国产乱让韩-国产精品午夜小视频观看

溫馨提示×

溫馨提示×

您好,登錄后才能下訂單哦!

密碼登錄×
登錄注冊×
其他方式登錄
點擊 登錄注冊 即表示同意《億速云用戶服務條款》

從另一個視角看待邏輯回歸

發布時間:2020-06-12 14:18:03 來源:網絡 閱讀:1381 作者:hffzkl 欄目:開發技術

摘要

邏輯回歸是用在分類問題中,而分類為題有存在兩個比較大的方向:分類的結果用數值表是,比如1和0(邏輯回歸采用的是這種),或者-1和1(svm采用的),還有一種是以概率的形式來反應,通過概率來說明此樣本要一個類的程度即概率。同時分類問題通過適用的場合可以分為:離散和連續,其中決策樹分類,貝葉斯分類都是適用離散場景,但是連續場景也可以處理,只是處理起來比較麻煩,而邏輯回歸就是用在連續特征空間中的,并把特征空間中的超平面的求解轉化為概率進行求解,然后通過概率的形式來找給出分類信息,最后設置一個閾值來進行分類。

邏輯回歸

問題描述

首先我們要明白,我們要解決的問題:給你一批數據,這一批數據特征都是連續的,并且我還知道這批數據的分類信息(x,y),x為特征,y為類別,取值為:0或者1。我們想干什么,想通過這批數據,然后再

給一個新的數據x,這個數據只存在特征,不存在類別,我們想給出分類的結果,是0還是1。下面為了方便,我們以二維空間的點為例進行說明。

解決策略

遇到這個問題時,我們首先做的是把數據的特征放到空間中,看有沒有什么好的特點。如下,從網上取的圖。

從另一個視角看待邏輯回歸

這些是二維空間的點,我們想在空間中找到一個超平面,在二維空間中超平面的為一條直線f(x),當我們帶入數據時:

從另一個視角看待邏輯回歸

得到這樣的結果。其中從另一個視角看待邏輯回歸

就是我們所要求的的直線。那么找這個直線怎么找,在機器學習中,我們要找的是一個學習模型,然后通過損失函數來進行模型參數的求解。那么對于邏輯回歸,求邏輯回歸的參數就是w和b,那么這個損失函數應該怎么設置。給一條數據,我們希望,他距離這個直線越遠我們越可以認為能夠很好的進行分類,即屬于這個類的可信度就越高。那么我們就需要有一個函數來反應這個情況啊,古人也很聰明啊,使用了logistics函數:

從另一個視角看待邏輯回歸

而且這個函數又非常的好,f(x)來衡量數據距離超平面的距離二維中是直線,他被成為函數間隔,f(x)是有正負的,上圖中,在直線上面的點發f(x)是負的,相反位于其下的點事正的。這個為什么?是解析幾何的最基本的一些性質了。

從另一個視角看待邏輯回歸

是直線,而不在這個直線上的點f(x)是帶入后,其實是不等于0的,但是有規律,則就可以通過這個規律來進行劃分分類。以上面的圖為討論對象,位于上方的點是負的,為與下方的點是正的,那么當f(x)為正,越來越大,則說明點在直線的下方越來越靠下,那么他分為一個類的可能性是不是越大啊,相反,在上方的時候,f(x)是負的,越來越遠的時候,是不是越靠近另一個類啊。那么logistics函數不就是反應了這個現象嗎?我們類別設置成0或者1,當f(x)正向最大時為1,f(x)負向最大時為0,多好。下面給一下logistics的圖像(網上盜圖):從另一個視角看待邏輯回歸

這個函數是不是可以反應出我們所說的情況。其中f(x)就是我們logistics函數的x軸的值。y可以是一個程度,h越大,則說明其分為正類1的可能性越大,h越小,則說明分為負類0可能性越大。那么在數學中可能性的度量是什么?概率啊,logistics函數的大小剛好是[0,1]之間的,多好啊。那么我們以前的求直線問題就轉化為求如下的函數:

從另一個視角看待邏輯回歸

把以前的問題就轉化為求概率的問題

從另一個視角看待邏輯回歸


為什么把y放上面,我認為這只是數學上的一種表示形式,給一個特征樣本,要么屬于0類的,要么屬于1類的,在不知道的情況下這樣表示和最后知道類別得到的概率是一樣的嘛。變化后的logistics函數其中的參數也只是包含w和b,那么我們求解超平面轉化為了求解h函數,在概率問題中,求解最優化的損失函數是誰?這又涉及到另外一個問題,我的數學模型已經有了,數學模型中包含一些參數,我需要進行抽樣,得到這個問題的一些樣本,理由這些樣本來對參數進行估計,對參數估計時需要一個損失函數。概率問題最優化的損失函數一般用的是最大似然函數,也就是通過最大似然估計進行計算。這樣大家又會問,最大似然估計最大化的是什么?只有知道最大化的是什么的時候,我們才能構造出似然函數啊。剛才我們說了進行參數估計時,我們需要一個樣本,那么最大似然函數最大化的是這個樣本出現的概率最大,從而來求解參數。可能有點抽象,在樣本空間中,樣本空間的數據很大,我們想得到含有n個對象的樣本,這樣含有n個的樣本是不是有很多很多,不同的人得到的樣本數據也不一樣,那么在我們已經得到了這n個樣本的情況下,我們進行參數估計,最大似然估計最大化的是我們已經得到的樣本在整個樣本空間中出現的概率最大,從而來求解參數。

最大似然估計

通過上面的討論,我們很容易構造出我們的似然函數:

從另一個視角看待邏輯回歸

這就很簡單了,把上面的似然函數對數化,即:

從另一個視角看待邏輯回歸

一般有數學基礎的人都會知道我們這個下面就是求導唄,現在的x和y都是已知的只有w是未知的,我們要求的是找到w是我們抽到這個樣本的概率最大。但是有一個問題,這樣平白無故的求的w不一定是我們這個樣本中最優的啊,不是讓我們在整個樣本空間中進行求導,而是我們有一個樣本,在這n個樣本中找到我們最想要那個的w,這個用什么啊,這種搜索算法最常用的就是梯度下降啊,沿著梯度的負方向來找我們想要的點。

從另一個視角看待邏輯回歸

從另一個視角看待邏輯回歸

1、圖中的i表示的是第i個記錄,j表示的一個記錄中的第j個特征分量

2、上面的推導中1→ 2為什么有求和,而后又不存在了啊,這個是和梯度下降法有關系的,梯度下降法就是在當前點下找到一個梯度最大的點作為下一個可以使用的,所有在1到2中,去掉了求和號

3、2→ 3的推導是根據logistics函數的性質得到的。

從另一個視角看待邏輯回歸


如果這還是不懂,那沒有辦法了。


向AI問一下細節

免責聲明:本站發布的內容(圖片、視頻和文字)以原創、轉載和分享為主,文章觀點不代表本網站立場,如果涉及侵權請聯系站長郵箱:is@yisu.com進行舉報,并提供相關證據,一經查實,將立刻刪除涉嫌侵權內容。

AI

木兰县| 平罗县| 仙游县| 遵化市| 临澧县| 海淀区| 灵丘县| 福安市| 上栗县| 永丰县| 张家口市| 汽车| 贺州市| 长泰县| 阿图什市| 龙海市| 乃东县| 来安县| 孟连| 于都县| 临湘市| 息烽县| 手游| 贵溪市| 肇庆市| 福泉市| 嘉义市| 河津市| 正宁县| 泾阳县| 古蔺县| 陆河县| 牙克石市| 象山县| 富锦市| 屯留县| 弥渡县| 佛山市| 延寿县| 称多县| 泗水县|