Python實現(xiàn)SVM支持向量機的示例代碼
下面是使用 scikit-learn 庫中的 SVM 模型的示例代碼:
from sklearn import svm from sklearn.datasets import make_classification # generate some example data X, y = make_classification(n_features=4, random_state=0) # fit an SVM model to the data clf = svm.SVC(kernel='linear') clf.fit(X, y) # predict new data print(clf.predict([[0, 0, 0, 0]]))
什么是支持向量機
支持向量機(SVM),SVM 的目的是在數(shù)據(jù)集中找到一條最佳分隔超平面,使得在這個超平面兩側(cè)的數(shù)據(jù)分別屬于不同的類別,且該超平面與最近的數(shù)據(jù)點之間的距離最大。
這些最近的數(shù)據(jù)點稱為支持向量,因此該模型被稱為支持向量機。
SVM 可以處理線性可分和線性不可分的情況,也可以通過使用核函數(shù)來處理非線性問題。
SVM 在解決分類問題時,通常是通過構(gòu)造一個最大間隔分離超平面來實現(xiàn)的。
在回歸問題中,SVM 通過構(gòu)造一個回歸超平面來實現(xiàn)預(yù)測。
SVM 的核心思想是利用數(shù)學(xué)方法將高維數(shù)據(jù)映射到低維空間,從而對不可分?jǐn)?shù)據(jù)進行線性分類。
SVM 模型具有很好的泛化能力,可以解決高維數(shù)據(jù)的分類問題。
SVM 模型可以使用不同的核函數(shù),如線性核、多項式核、高斯核等,這樣可以解決非線性問題。此外,SVM 還可以處理大量特征數(shù)據(jù),并具有高效的計算速度。
用 Python 實現(xiàn) SVM
使用 scikit-learn 庫實現(xiàn) SVM 分類
import numpy as np
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC
from sklearn.metrics import accuracy_score
# 加載數(shù)據(jù)集
iris = datasets.load_iris()
X = iris["data"]
y = iris["target"]
# 劃分訓(xùn)練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# 創(chuàng)建 SVM 模型
model = SVC(kernel='linear', C=1, random_state=0)
# 訓(xùn)練模型
model.fit(X_train, y_train)
# 在測試集上進行預(yù)測
y_pred = model.predict(X_test)
# 計算預(yù)測精度
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)
首先使用 load_iris() 函數(shù)加載 iris 數(shù)據(jù)集,然后使用 train_test_split() 函數(shù)將數(shù)據(jù)集劃分為訓(xùn)練集和測試集。
接著,使用 SVC 函數(shù)創(chuàng)建一個 SVM 模型,并使用 fit() 函數(shù)在訓(xùn)練集上進行訓(xùn)練。
最后,使用 predict 函數(shù)在測試集上進行預(yù)測,并使用 accuracy_score() 函數(shù)計算預(yù)測精度。
多項式和高斯核函數(shù)的 SVM
使用高斯核函數(shù)的 SVM 可以如下實現(xiàn):
import numpy as np
from sklearn import datasets
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC
from sklearn.metrics import accuracy_score
# 加載數(shù)據(jù)集
iris = datasets.load_iris()
X = iris["data"]
y = iris["target"]
# 劃分訓(xùn)練集和測試集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0)
# 創(chuàng)建 SVM 模型,使用高斯核函數(shù)
model = SVC(kernel='rbf', C=1, random_state=0)
# 訓(xùn)練模型
model.fit(X_train, y_train)
# 在測試集上進行預(yù)測
y_pred = model.predict(X_test)
# 計算預(yù)測精度
accuracy = accuracy_score(y_test, y_pred)
print("Accuracy:", accuracy)
在上面的代碼中,首先加載了 scikit-learn 中的 iris 數(shù)據(jù)集,并將其特征數(shù)據(jù)存儲在 X 中,標(biāo)簽存儲在 y 中。
使用 train_test_split() 函數(shù)劃分出了訓(xùn)練集和測試集,并將其分別存儲在 X_train , X_test , y_train , y_test 中。
創(chuàng)建了一個 SVM 模型,使用了高斯核函數(shù)(Radial basis function, RBF)。參數(shù) C 用于控制對誤差的懲罰程度,數(shù)值越大,懲罰程度越大。參數(shù) gamma 控制高斯核函數(shù)的影響范圍,數(shù)值越小,影響范圍越廣。
使用 fit() 方法訓(xùn)練模型。訓(xùn)練后,使用 predict() 方法在測試集上進行預(yù)測,并將預(yù)測結(jié)果存儲在 y_pred 中。
最終的結(jié)果將通過 accuracy_score() 函數(shù)計算預(yù)測精度,并將其打印出來。
還可以調(diào)整 SVM 模型的超參數(shù)以改變模型的表現(xiàn),例如 C 和 gamma 。通過調(diào)整超參數(shù)可以使模型更加適合數(shù)據(jù),并提高模型的預(yù)測精度。
到此這篇關(guān)于Python實現(xiàn)SVM支持向量機的示例代碼的文章就介紹到這了,更多相關(guān)Python SVM支持向量機內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
相關(guān)文章
python網(wǎng)絡(luò)爬蟲精解之pyquery的使用說明
PyQuery是一個類似于jQuery的解析網(wǎng)頁工具,使用lxml操作xml和html文檔,它的語法和jQuery很像。和XPATH,Beautiful Soup比起來,PyQuery更加靈活,提供增加節(jié)點的class信息,移除某個節(jié)點,提取文本信息等功能2021-09-09
使用Keras預(yù)訓(xùn)練好的模型進行目標(biāo)類別預(yù)測詳解
這篇文章主要介紹了使用Keras預(yù)訓(xùn)練好的模型進行目標(biāo)類別預(yù)測詳解,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-06-06
python中三種輸出格式總結(jié)(%,format,f-string)
在Python語言編程中,我們會與字符串打交道,那務(wù)必會輸出字符串來查看字符串的內(nèi)容,下面這篇文章主要給大家介紹了關(guān)于python中三種輸出格式的相關(guān)資料,三種格式分別是%,format,f-string,需要的朋友可以參考下2022-03-03
Python數(shù)據(jù)結(jié)構(gòu)列表
這篇文章主要介紹了Python數(shù)據(jù)結(jié)構(gòu)列表,本文重點內(nèi)容主要是對列表數(shù)據(jù)結(jié)構(gòu)的使用,在Python中,序列是一組按順序排列的值。Python?有?3?種內(nèi)置的序列類型:字符串、?元組和列表,下面一起進入文章了解更詳細(xì)內(nèi)容吧,需要的小伙伴可以參考一下</P><P>2021-12-12
Python日志打印里logging.getLogger源碼分析詳解
在本篇文章里小編給大家整理的是一篇關(guān)于Python logging.getLogger源碼分析的相關(guān)內(nèi)容,有興趣的朋友們可以學(xué)習(xí)參考下。2021-01-01

