欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

sklearn線性邏輯回歸和非線性邏輯回歸的實現(xiàn)

 更新時間:2020年06月09日 14:55:18   作者:iownlucky  
這篇文章主要介紹了sklearn線性邏輯回歸和非線性邏輯回歸的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧

線性邏輯回歸

本文用代碼實現(xiàn)怎么利用sklearn來進行線性邏輯回歸的計算,下面先來看看用到的數(shù)據(jù)。


這是有兩行特征的數(shù)據(jù),然后第三行是數(shù)據(jù)的標簽。

python代碼

首先導入包和載入數(shù)據(jù)


寫一個畫圖的函數(shù),把這些數(shù)據(jù)表示出來:


然后我們調(diào)用這個函數(shù)得到下面的圖像:


接下來開始創(chuàng)建模型并擬合,然后調(diào)用sklearn里面的邏輯回歸方法,里面的函數(shù)可以自動幫算出權(quán)值和偏置值,非常簡單,接著畫出圖像。



最后我們可以來看看評估值:


可以看到,正確率、召回率、F1值都達到了95%。

非線性邏輯回歸

非線性邏輯回歸意味著決策邊界是曲線,和線性邏輯回歸的原理是差不多的,這里用到的數(shù)據(jù)是datasets自動生成的,



接下來要把數(shù)據(jù)進行多項式處理,簡單地說就是增加數(shù)據(jù)的特征,


然后規(guī)定好圖像的坐標值,并生成一個網(wǎng)格矩陣,


定義一個等高線的高,


結(jié)果一目了然,很好的分成了兩類:


看一下準確率,98%,說明算比較成功,準確率很高。


線性邏輯回歸和非線性邏輯回歸用到的代價函數(shù)都是一樣的,原理相同,只不過是預估函數(shù)的復雜度不一樣,非線性邏輯回歸要對數(shù)據(jù)進行多項式處理,增加數(shù)據(jù)的特征量。

到此這篇關(guān)于sklearn線性邏輯回歸和非線性邏輯回歸的實現(xiàn)的文章就介紹到這了,更多相關(guān)sklearn線性邏輯回歸和非線性邏輯回歸內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評論