黄色网页视频 I 影音先锋日日狠狠久久 I 秋霞午夜毛片 I 秋霞一二三区 I 国产成人片无码视频 I 国产 精品 自在自线 I av免费观看网站 I 日本精品久久久久中文字幕5 I 91看视频 I 看全色黄大色黄女片18 I 精品不卡一区 I 亚洲最新精品 I 欧美 激情 在线 I 人妻少妇精品久久 I 国产99视频精品免费专区 I 欧美影院 I 欧美精品在欧美一区二区少妇 I av大片网站 I 国产精品黄色片 I 888久久 I 狠狠干最新 I 看看黄色一级片 I 黄色精品久久 I 三级av在线 I 69色综合 I 国产日韩欧美91 I 亚洲精品偷拍 I 激情小说亚洲图片 I 久久国产视频精品 I 国产综合精品一区二区三区 I 色婷婷国产 I 最新成人av在线 I 国产私拍精品 I 日韩成人影音 I 日日夜夜天天综合

Logistic Regression and Classification

系統(tǒng) 3103 0

分類(lèi)(Classification)與回歸都屬于監(jiān)督學(xué)習(xí),兩者的唯一區(qū)別在于,前者要預(yù)測(cè)的輸出變量\(y\)只能取離散值,而后者的輸出變量是連續(xù)的。這些離散的輸出變量在分類(lèi)問(wèn)題中通常稱(chēng)之為標(biāo)簽(Label)。

線性回歸的策略同樣也適用于分類(lèi)嗎?答案是否定的。下面結(jié)合例子簡(jiǎn)要說(shuō)明理由。假設(shè)我們現(xiàn)在的任務(wù)是根據(jù)腫瘤大小判斷是否為良性腫瘤,答案當(dāng)然只有yes或no。我們用\(y=1\)表示良性腫瘤,用\(y=0\)表示惡性腫瘤。當(dāng)然,如果你想用其他兩個(gè)不同的值分別對(duì)應(yīng)這兩類(lèi)腫瘤也是可以的。在下圖所示的例子中,我們都使用線性回歸的方式進(jìn)行分類(lèi)。在左圖中,如果樣本對(duì)應(yīng)的輸出值小于\(0.5\),我們視其為惡性腫瘤,否則為良性腫瘤,分類(lèi)效果還不錯(cuò);在右圖中,良性腫瘤的大小范圍變廣了一些,線性模型要發(fā)生偏轉(zhuǎn),如果仍然用\(0.5\)作為分類(lèi)的閾值(Threshold),誤分類(lèi)的樣本所占比例就不少了。另外一方面,該分類(lèi)問(wèn)題中\(zhòng)(y\)只能取0或1兩種值,而線性模型預(yù)測(cè)的值去可以遠(yuǎn)大于1或遠(yuǎn)小于0,極大地偏離輸出變量的值。因此,我們認(rèn)為用線性回歸解決分類(lèi)問(wèn)題是不明智的。

Logistic Regression and Classification_第1張圖片 Logistic Regression and Classification_第2張圖片

接下來(lái),我們以二分類(lèi)為基礎(chǔ)展開(kāi)討論。樣本標(biāo)簽\(y\in\{0,1\}\),標(biāo)簽為1的樣本稱(chēng)為正樣本(Positive Samples),標(biāo)簽為0的樣本稱(chēng)為負(fù)樣本(Negative Samples)。我們希望假設(shè)函數(shù)\(h_\theta(x)\in[0,1]\),選用logistic函數(shù)。下圖為logistic函數(shù)曲線圖,定義域?yàn)閈((-\infty,+\infty)\),在整個(gè)定義域上都連續(xù)可導(dǎo),其一階偏導(dǎo)如下:

\begin{align}g'(z)&=\fracbr5n5555bvll{dz}\frac{1}{1+e^{-z}}\\&=-\frac{1}{(1+e^{-z})^2}\cdot \frac{d(1+e^{-z})}{dz}\\&=\frac{e^{-z}}{(1+e^{-z})^2}\\&=\frac{1}{1+e^{-z}}\cdot\left(1-\frac{1}{1+e^{-z}}\right)\\&=g(z)(1-g(z))\end{align}

Logistic Regression and Classification_第3張圖片

我們的假設(shè)函數(shù)形式如下:

\begin{equation}h_\theta(x)=g(\theta^Tx)=\frac{1}{1+\exp(-\theta^Tx)}\end{equation}

假設(shè)分類(lèi)問(wèn)題中的后驗(yàn)概率(posterior probability)形式如下:

\begin{equation}P(y=1|x;\theta)=h_\theta(x)\end{equation}

\begin{equation}P(y=0|x;\theta)=1-h_\theta(x)\end{equation}

綜合公式(7)和公式(8),用更緊湊的形式表述:

\begin{equation}P(y|x;\theta)=h_\theta(x)^y(1-h_\theta(x))^{1-y}\end{equation}

假設(shè)所有樣本相互獨(dú)立,則似然函數(shù)為:\begin{align}L(\theta)&=P(\vec{y}|X;\theta)\\&=\prod_{i=1}^mP(y^{(i)}|x^{(i)};\theta)\\&=\prod_{i=1}^m(h_\theta(x^{(i)})^{y^{(i)}}(1-h_\theta(x^{(i)}))^{1-y^{(i)}}\end{align}

將公式(13)轉(zhuǎn)換為對(duì)數(shù)似然函數(shù)的形式:

\begin{equation}\ell(\theta)=\log L(\theta)=\sum_{i=1}^m y^{(i)}\log h_\theta(x^{(i)})+(1-y^{(i)})\log(1-h_\theta(x^{(i)}))\end{equation}

對(duì)數(shù)似然函數(shù)\(\ell(\theta)\)對(duì)參數(shù)\(\theta\)求導(dǎo):

\begin{equation}
\begin{array}{ll}
&\quad\frac{\partial\ell(\theta)}{\partial \theta_i}\\
&=\sum_{j=1}^m\left(y^{(j)}\frac{1}{g(\theta^Tx^{(j)})}-(1-y^{(j)})\frac{1}{1-g(\theta^Tx^{(j)})}\right)\\
&\quad\cdot\frac{\partial}{\partial\theta_i}g(\theta^Tx^{(j)})\\
&=\sum_{j=1}^m\left(y^{(j)}\frac{1}{g(\theta^Tx^{(j)})}-(1-y^{(j)})\frac{1}{1-g(\theta^Tx^{(j)})}\right)\\
&\quad\cdot g(\theta^Tx^{(j)})(1-g(\theta^Tx^{(j)}))\frac{\partial}{\partial\theta_i}\theta^Tx^{(j)}\\
&=\sum_{j=1}^m\left(y^{(j)}(1-g(\theta^Tx^{(j)})-(1-y^{(j)})g(\theta^Tx^{(j)})\right)x_i^{(j)}\\ &=\sum_{j=1}^m(y^{(j)}-h_\theta(x^{(j)}))x_i^{(j)}
\end{array}
\end{equation}

最后,我們可以采用梯度上升(Gradient Ascend)的策略迭代更新參數(shù)\(\theta\),以使對(duì)數(shù)似然函數(shù)收斂到最大值,更新規(guī)則如下:

\begin{equation}\theta_i=\theta_i+\alpha\sum_{j=1}^m(y^{(j)}-h_\theta(x^{(j)}))x_i^{(j)}\end{equation}

我在數(shù)據(jù)集 ionosphere 上做了實(shí)驗(yàn), 實(shí)驗(yàn)代碼在這里下載 。該數(shù)據(jù)集一共有351個(gè)樣本,每個(gè)樣本有35個(gè)屬性,其中第35個(gè)屬性為'b'或'g'(表示bad或good),是一個(gè)二分類(lèi)問(wèn)題。我將整個(gè)數(shù)據(jù)集抽取7成作為訓(xùn)練集,剩下的作為測(cè)試集,最終得到的正確率為\(91.509\%\)。代碼中有兩點(diǎn)要說(shuō)明:1)代碼中實(shí)際上還考慮了對(duì)參數(shù)\(\theta\)正則化處理,避免某些參數(shù)過(guò)大,我們將LGClassifier.m中的lambda設(shè)置為0即可屏蔽正則項(xiàng),在lambda=0.1時(shí),正確率是會(huì)有提升的;2)本文中的目標(biāo)函數(shù)是求使似然函數(shù)最大的參數(shù),但是我們利用的LBFGS工具包只針對(duì)使目標(biāo)函數(shù)最小的優(yōu)化,我們只需要在文中的目標(biāo)函數(shù)前面添加負(fù)號(hào)即可將最大化問(wèn)題等價(jià)轉(zhuǎn)化為最小化問(wèn)題;最后,在針對(duì)參數(shù)\(\theta\)求倒數(shù)的時(shí)候,也需要在前面添加負(fù)號(hào)。

Logistic Regression and Classification


更多文章、技術(shù)交流、商務(wù)合作、聯(lián)系博主

微信掃碼或搜索:z360901061

微信掃一掃加我為好友

QQ號(hào)聯(lián)系: 360901061

您的支持是博主寫(xiě)作最大的動(dòng)力,如果您喜歡我的文章,感覺(jué)我的文章對(duì)您有幫助,請(qǐng)用微信掃描下面二維碼支持博主2元、5元、10元、20元等您想捐的金額吧,狠狠點(diǎn)擊下面給點(diǎn)支持吧,站長(zhǎng)非常感激您!手機(jī)微信長(zhǎng)按不能支付解決辦法:請(qǐng)將微信支付二維碼保存到相冊(cè),切換到微信,然后點(diǎn)擊微信右上角掃一掃功能,選擇支付二維碼完成支付。

【本文對(duì)您有幫助就好】

您的支持是博主寫(xiě)作最大的動(dòng)力,如果您喜歡我的文章,感覺(jué)我的文章對(duì)您有幫助,請(qǐng)用微信掃描上面二維碼支持博主2元、5元、10元、自定義金額等您想捐的金額吧,站長(zhǎng)會(huì)非常 感謝您的哦?。?!

發(fā)表我的評(píng)論
最新評(píng)論 總共0條評(píng)論