python的numpy模塊實(shí)現(xiàn)邏輯回歸模型
使用python的numpy模塊實(shí)現(xiàn)邏輯回歸模型的代碼,供大家參考,具體內(nèi)容如下
使用了numpy模塊,pandas模塊,matplotlib模塊
1.初始化參數(shù)
def initial_para(nums_feature): ? ? """initial the weights and bias which is zero""" ? ? #nums_feature是輸入數(shù)據(jù)的屬性數(shù)目,因此權(quán)重w是[1, nums_feature]維 ? ? #且w和b均初始化為0 ? ? w = np.zeros((1, nums_feature)) ? ? b = 0 ? ? return w, b
2.邏輯回歸方程
def activation(x, w , b): ? ? """a linear function and then sigmoid activation function:? ? ? x_ = w*x +b,y = 1/(1+exp(-x_))""" ? ? #線性方程,輸入的x是[batch, 2]維,輸出是[1, batch]維,batch是模型優(yōu)化迭代一次輸入數(shù)據(jù)的數(shù)目 ? ? #[1, 2] * [2, batch] = [1, batch], 所以是w * x.T(x的轉(zhuǎn)置) ? ? #np.dot是矩陣乘法 ? ? x_ = np.dot(w, x.T) + b ? ? #np.exp是實(shí)現(xiàn)e的x次冪 ? ? sigmoid = 1 / (1 + np.exp(-x_)) ? ? return sigmoid
3.梯度下降
def gradient_descent_batch(x, w, b, label, learning_rate): ? ? #獲取輸入數(shù)據(jù)的數(shù)目,即batch大小 ? ? n = len(label) ? ? #進(jìn)行邏輯回歸預(yù)測(cè) ? ? sigmoid = activation(x, w, b) ? ? #損失函數(shù),np.sum是將矩陣求和 ? ? cost = -np.sum(label.T * np.log(sigmoid) + (1-label).T * np.log(1-sigmoid)) / n ? ? #求對(duì)w和b的偏導(dǎo)(即梯度值) ? ? g_w = np.dot(x.T, (sigmoid - label.T).T) / n ? ? g_b = np.sum((sigmoid - label.T)) / n ? ? #根據(jù)梯度更新參數(shù) ? ? w = w - learning_rate * g_w.T ? ? b = b - learning_rate * g_b ? ? return w, b, cost
4.模型優(yōu)化
def optimal_model_batch(x, label, nums_feature, step=10000, batch_size=1): ? ? """train the model with batch""" ? ? length = len(x) ? ? w, b = initial_para(nums_feature) ? ? for i in range(step): ? ? ? ? #隨機(jī)獲取一個(gè)batch數(shù)目的數(shù)據(jù) ? ? ? ? num = randint(0, length - 1 - batch_size) ? ? ? ? x_batch = x[num:(num+batch_size), :] ? ? ? ? label_batch = label[num:num+batch_size] ? ? ? ? #進(jìn)行一次梯度更新(優(yōu)化) ? ? ? ? w, b, cost = gradient_descent_batch(x_batch, w, b, label_batch, 0.0001) ? ? ? ? #每1000次打印一下?lián)p失值 ? ? ? ? if i%1000 == 0: ? ? ? ? ? ? print('step is : ', i, ', cost is: ', cost) ? ? return w, b
5.讀取數(shù)據(jù),數(shù)據(jù)預(yù)處理,訓(xùn)練模型,評(píng)估精度
import numpy as np import pandas as pd from sklearn.model_selection import train_test_split from random import randint from sklearn.preprocessing import StandardScaler ? def _main(): ? ? #讀取csv格式的數(shù)據(jù)data_path是數(shù)據(jù)的路徑 ? ? data = pd.read_csv('data_path') ? ? #獲取樣本屬性和標(biāo)簽 ? ? x = data.iloc[:, 2:4].values ? ? y = data.iloc[:, 4].values ? ? #將數(shù)據(jù)集分為測(cè)試集和訓(xùn)練集 ? ? x_train, x_test, y_train, y_test = train_test_split(x, y, test_size = 0.2, random_state=0) ? ? #數(shù)據(jù)預(yù)處理,去均值化 ? ? standardscaler = StandardScaler() ? ? x_train = standardscaler.fit_transform(x_train) ? ? x_test = standardscaler.transform(x_test) ? ? #w, b = optimal_model(x_train, y_train, 2, 50000) ? ? #訓(xùn)練模型 ? ? w, b = optimal_model_batch(x_train, y_train, 2, 50000, 64) ? ? print('trian is over') ? ? #對(duì)測(cè)試集進(jìn)行預(yù)測(cè),并計(jì)算精度 ? ? predict = activation(x_test, w, b).T ? ? n = 0 ? ? for i, p in enumerate(predict): ? ? ? ? if p >=0.5: ? ? ? ? ? ? if y_test[i] == 1: ? ? ? ? ? ? ? ? n += 1 ? ? ? ? else: ? ? ? ? ? ? if y_test[i] == 0: ? ? ? ? ? ? ? ? n += 1 ? ? print('accuracy is : ', n / len(y_test))
6.結(jié)果可視化
predict = np.reshape(np.int32(predict), [len(predict)]) ? ? #將預(yù)測(cè)結(jié)果以散點(diǎn)圖的形式可視化 ? ? for i, j in enumerate(np.unique(predict)): ? ? ? ? plt.scatter(x_test[predict == j, 0], x_test[predict == j, 1],? ? ? ? ? c = ListedColormap(('red', 'blue'))(i), label=j) ? ? plt.show()
以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。
相關(guān)文章
解決python3中自定義wsgi函數(shù),make_server函數(shù)報(bào)錯(cuò)的問(wèn)題
下面小編就為大家分享一篇解決python3中自定義wsgi函數(shù),make_server函數(shù)報(bào)錯(cuò)的問(wèn)題,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2017-11-11python計(jì)算兩個(gè)數(shù)的百分比方法
今天小編就為大家分享一篇python計(jì)算兩個(gè)數(shù)的百分比方法,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧2018-06-06淺析PHP與Python進(jìn)行數(shù)據(jù)交互
本篇文章給大家分享了PHP與Python進(jìn)行數(shù)據(jù)交互的詳細(xì)方法以及重點(diǎn)點(diǎn)撥,有興趣的朋友可以學(xué)習(xí)下。2018-05-05Python selenium爬取微信公眾號(hào)文章代碼詳解
這篇文章主要介紹了Python selenium爬取微信公眾號(hào)歷史文章代碼詳解,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下2020-08-08python創(chuàng)建和使用字典實(shí)例詳解
字典是python中唯一內(nèi)建的映射類型。字典中的值并沒(méi)有特殊的順序,但是都存儲(chǔ)在一個(gè)特定的鍵(key)里。2013-11-11python計(jì)算機(jī)視覺(jué)OpenCV入門講解
這篇文章主要介紹了python計(jì)算機(jī)視覺(jué)OpenCV入門講解,關(guān)于圖像處理的相關(guān)簡(jiǎn)單操作,包括讀入圖像、顯示圖像及圖像相關(guān)理論知識(shí)2022-06-06