PyTorch中的神經(jīng)網(wǎng)絡(luò) Mnist 分類任務(wù)
本文參加新星計(jì)劃人工智能(Pytorch)賽道:https://bbs.csdn.net/topics/613989052

一、Mnist 分類任務(wù)簡(jiǎn)介
- 在上一篇博客當(dāng)中,我們通過(guò)搭建 PyTorch 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了氣溫預(yù)測(cè),這本質(zhì)上是一個(gè)回歸任務(wù)。在本次博文當(dāng)中,我們使用 PyTorch 做一個(gè)分類任務(wù)。
- 其實(shí),分類任務(wù)和回歸任務(wù)在本質(zhì)上沒有任何區(qū)別,只是說(shuō)在結(jié)果上是不同的,損失函數(shù)是不同的,中間的網(wǎng)絡(luò)架構(gòu)卻是大體一致的。
- 在本次的分類任務(wù)當(dāng)中,我們使用的數(shù)據(jù)集是 Mnist 數(shù)據(jù)集,這個(gè)數(shù)據(jù)集大家都比較熟悉,可以在 http://yann.lecun.com/exdb/mnist/ 中獲取,主要包括四個(gè)文件:
| 文件名稱 | 大小 | 內(nèi)容 |
|---|---|---|
| train-images-idx3-ubyte.gz | 9,681 kb | 55000 張訓(xùn)練集,5000 張驗(yàn)證集 |
| train-labels-idx1-ubyte.gz | 29 kb | 訓(xùn)練集圖片對(duì)應(yīng)的標(biāo)簽 |
| t10k-images-idx3-ubyte.gz | 1,611kb | 10000 張測(cè)試集 |
| t10k-labels-idx1-ubyte.gz | 5 kb | 測(cè)試集圖片對(duì)應(yīng)的標(biāo)簽 |
- 在上述在上述文件中,訓(xùn)練集 train 一共包含了 60000 張圖像和標(biāo)簽,而測(cè)試集一共包含了 10000 張圖像和標(biāo)簽。
- idx3 表示 3 維,ubyte 表示是以字節(jié)的形式進(jìn)行存儲(chǔ)的,t10k 表示 10000 張測(cè)試圖片(test10000)。
- 每張圖片是一個(gè) 28*28 像素點(diǎn)的 0 ~ 9 的灰質(zhì)手寫數(shù)字圖片,黑底白字,圖像像素值為 0 ~ 255,越大該點(diǎn)越白。
- 本次分類任務(wù)主要包含如下的幾個(gè)部分:
- (1) 網(wǎng)絡(luò)基本構(gòu)建與訓(xùn)練方法,常用函數(shù)解析。
- (2) torch.nn.functional 模塊。
- (3) nn.Module 模塊。
二、Mnist 數(shù)據(jù)集的讀取
- 對(duì)于 Mnist 數(shù)據(jù)集,我們可以通過(guò)代碼編寫,就可以實(shí)現(xiàn)自動(dòng)下載。
%matplotlib inline
from pathlib import Path
import requests
?
DATA_PATH = Path("data")
PATH = DATA_PATH / "mnist"
?
PATH.mkdir(parents=True, exist_ok=True)
?
URL = "http://deeplearning.net/data/mnist/"
FILENAME = "mnist.pkl.gz"對(duì)于我們上面定義的下載路徑等等,會(huì)進(jìn)行自動(dòng)判斷,如果該路徑下沒有 Minst 數(shù)據(jù)集的話,就會(huì)自動(dòng)進(jìn)行下載。
if not (PATH / FILENAME).exists():
content = requests.get(URL + FILENAME).content
(PATH / FILENAME).open("wb").write(content)由于下載出來(lái)的數(shù)據(jù)集是壓縮包的狀態(tài),因此,我們還需要對(duì)其進(jìn)行解壓,具體的代碼詳見下面。
import pickle
import gzip
?
with gzip.open((PATH / FILENAME).as_posix(), "rb") as f:
((x_train, y_train), (x_valid, y_valid), _) = pickle.load(f, encoding="latin-1")在上述工作準(zhǔn)備完成后,我們可以先查看一個(gè)數(shù)據(jù),觀察他的特征。
from matplotlib import pyplot import numpy as np ? pyplot.imshow(x_train[0].reshape((28, 28)), cmap="gray") print(x_train.shape) #(50000, 784)
在此處,我們查看的訓(xùn)練集當(dāng)中的第一個(gè)數(shù)據(jù),大小重構(gòu)為 (28,28,1),表示長(zhǎng)是 28,寬是 28,顏色通道是 1(黑白圖就只有一個(gè)顏色通道),顏色設(shè)置為灰色。在查看第一個(gè)數(shù)據(jù)的同時(shí),我們也輸出整個(gè)訓(xùn)練集的數(shù)據(jù)大小,其中,(50000, 784) 中的 50000 表示訓(xùn)練集一共有 50000 個(gè)數(shù)據(jù)樣本,784 表示訓(xùn)練集中每個(gè)樣本有 784 個(gè)像素點(diǎn)(可以理解成 784 個(gè)特征)。

三、 Mnist 分類任務(wù)實(shí)現(xiàn)
1. 標(biāo)簽和簡(jiǎn)單網(wǎng)絡(luò)架構(gòu) 在分類任務(wù)當(dāng)中,標(biāo)簽的設(shè)計(jì)是有所不同的。

- 很多人認(rèn)為預(yù)測(cè)出來(lái)的 9,具體指的是 0,1,2,3,4,5,6,7,8,9 當(dāng)中的具體哪一個(gè),但實(shí)際上并不是這樣的,他也是一個(gè) One-Hot 的編碼,他預(yù)測(cè)的出來(lái)的不是一個(gè)具體的數(shù)值,而是十個(gè)概率,就是當(dāng)前這個(gè)輸入屬于 0-9 這十個(gè)數(shù)字的概率是多少。
- 以上圖為例,該輸入屬于 0 的概率就是 0,屬于 1 的概率就是 12%,屬于 9 的概率就是 87%,屬于 9 的概率最高,因此,該輸入的輸出就是 9。

- 對(duì)于這個(gè)網(wǎng)絡(luò)架構(gòu),由于我們的每個(gè)數(shù)據(jù)樣本都有 784 個(gè)像素點(diǎn),中間進(jìn)行特征提取,得到一定數(shù)量的特征,最終得到 10 個(gè)輸出,通過(guò) Softmax 層得到是個(gè)概率。
2. 具體代碼實(shí)現(xiàn)
- 需要注意的是,我們需要先將數(shù)據(jù)轉(zhuǎn)換成 tensor 才能參與后續(xù)建模訓(xùn)練。
- 這里的數(shù)據(jù)包括 x_train, y_train, x_valid, y_valid 四種,對(duì)于他們的含義,我們可以這樣理解:
- (1) x_train 包括所有自變量,這些變量將用于訓(xùn)練模型。
- (2) y_train 是指因變量,需要此模型進(jìn)行預(yù)測(cè),其中包括針對(duì)自變量的類別標(biāo)簽,我們需要在訓(xùn)練/擬合模型時(shí)指定我們的因變量。
- (3) x_valid 也就是 x_test,這些自變量將不會(huì)在訓(xùn)練階段使用,并將用于進(jìn)行預(yù)測(cè),以測(cè)試模型的準(zhǔn)確性。
- (4) y_valid 也就是 y_test,此數(shù)據(jù)具有測(cè)試數(shù)據(jù)的類別標(biāo)簽,這些標(biāo)簽將用于測(cè)試實(shí)際類別和預(yù)測(cè)類別之間的準(zhǔn)確性。
import torch
?
x_train, y_train, x_valid, y_valid = map(
torch.tensor, (x_train, y_train, x_valid, y_valid)
)
n, c = x_train.shape
x_train, x_train.shape, y_train.min(), y_train.max()
print(x_train, y_train)
print(x_train.shape)
print(y_train.min(), y_train.max())
#tensor([[0., 0., 0., ..., 0., 0., 0.],
# [0., 0., 0., ..., 0., 0., 0.],
# [0., 0., 0., ..., 0., 0., 0.],
# ...,
# [0., 0., 0., ..., 0., 0., 0.],
# [0., 0., 0., ..., 0., 0., 0.],
# [0., 0., 0., ..., 0., 0., 0.]]) tensor([5, 0, 4, ..., 8, 4, 8])
#torch.Size([50000, 784])
#tensor(0) tensor(9)- 在模型訓(xùn)練的過(guò)程中,大家經(jīng)常會(huì)看到 nn.Module 和 nn.functional。那什么時(shí)候使用 nn.Module,什么時(shí)候使用 nn.functional 呢?
- 一般情況下,如果模型有可學(xué)習(xí)的參數(shù),最好用 nn.Module,其他情況 nn.functional 相對(duì)更簡(jiǎn)單一些。
- 我們先導(dǎo)入需要的模塊包。
import torch.nn.functional as F
?
loss_func = F.cross_entropy
?
def model(xb):
return xb.mm(weights) + bias然后進(jìn)行參數(shù)的設(shè)定。
bs = 64 xb = x_train[0:bs] # a mini-batch from x yb = y_train[0:bs] weights = torch.randn([784, 10], dtype = torch.float, requires_grad = True) bs = 64 bias = torch.zeros(10, requires_grad=True) ? print(loss_func(model(xb), yb)) #tensor(10.7988, grad_fn=<NllLossBackward>)
- 我們也創(chuàng)建一個(gè) model 來(lái)更簡(jiǎn)化代碼。
- 在這中間必須繼承 nn.Module 且在其構(gòu)造函數(shù)中需調(diào)用 nn.Module 的構(gòu)造函數(shù),無(wú)需寫反向傳播函數(shù),nn.Module 能夠利用 autograd 自動(dòng)實(shí)現(xiàn)反向傳播,Module 中的可學(xué)習(xí)參數(shù)可以通過(guò) named_parameters() 或者 parameters() 返回迭代器。
from torch import nn
?
class Mnist_NN(nn.Module):
def __init__(self):
super().__init__()
self.hidden1 = nn.Linear(784, 128) #隱藏層1:784*128
self.hidden2 = nn.Linear(128, 256) #隱藏層2:128*256
self.out = nn.Linear(256, 10) #輸出層,256*10
?
def forward(self, x):
x = F.relu(self.hidden1(x))
x = F.relu(self.hidden2(x))
x = self.out(x)
return x
net = Mnist_NN()
print(net)
?#Mnist_NN(
# (hidden1): Linear(in_features=784, out_features=128, bias=True)
# (hidden2): Linear(in_features=128, out_features=256, bias=True)
# (out): Linear(in_features=256, out_features=10, bias=True)
#)我們可以打印定義好名字里的權(quán)重和偏置項(xiàng),首先打印名字,然后打印參數(shù),最后打印參數(shù)的維度。
for name, parameter in net.named_parameters():
print(name, parameter,parameter.size())
#hidden1.weight Parameter containing:
#tensor([[ 0.0018, 0.0218, 0.0036, ..., -0.0286, -0.0166, 0.0089],
# [-0.0349, 0.0268, 0.0328, ..., 0.0263, 0.0200, -0.0137],
# [ 0.0061, 0.0060, -0.0351, ..., 0.0130, -0.0085, 0.0073],
# ...,
# [-0.0231, 0.0195, -0.0205, ..., -0.0207, -0.0103, -0.0223],
# [-0.0299, 0.0305, 0.0098, ..., 0.0184, -0.0247, -0.0207],
# [-0.0306, -0.0252, -0.0341, ..., 0.0136, -0.0285, 0.0057]],
# requires_grad=True) torch.Size([128, 784])
#hidden1.bias Parameter containing:
#tensor([ 0.0072, -0.0269, -0.0320, -0.0162, 0.0102, 0.0189, -0.0118, -0.0063,
# -0.0277, 0.0349, 0.0267, -0.0035, 0.0127, -0.0152, -0.0070, 0.0228,
# -0.0029, 0.0049, 0.0072, 0.0002, -0.0356, 0.0097, -0.0003, -0.0223,
# -0.0028, -0.0120, -0.0060, -0.0063, 0.0237, 0.0142, 0.0044, -0.0005,
# 0.0349, -0.0132, 0.0138, -0.0295, -0.0299, 0.0074, 0.0231, 0.0292,
# -0.0178, 0.0046, 0.0043, -0.0195, 0.0175, -0.0069, 0.0228, 0.0169,
# 0.0339, 0.0245, -0.0326, -0.0260, -0.0029, 0.0028, 0.0322, -0.0209,
# -0.0287, 0.0195, 0.0188, 0.0261, 0.0148, -0.0195, -0.0094, -0.0294,
# -0.0209, -0.0142, 0.0131, 0.0273, 0.0017, 0.0219, 0.0187, 0.0161,
# 0.0203, 0.0332, 0.0225, 0.0154, 0.0169, -0.0346, -0.0114, 0.0277,
# 0.0292, -0.0164, 0.0001, -0.0299, -0.0076, -0.0128, -0.0076, -0.0080,
# -0.0209, -0.0194, -0.0143, 0.0292, -0.0316, -0.0188, -0.0052, 0.0013,
# -0.0247, 0.0352, -0.0253, -0.0306, 0.0035, -0.0253, 0.0167, -0.0260,
# -0.0179, -0.0342, 0.0033, -0.0287, -0.0272, 0.0238, 0.0323, 0.0108,
# 0.0097, 0.0219, 0.0111, 0.0208, -0.0279, 0.0324, -0.0325, -0.0166,
# -0.0010, -0.0007, 0.0298, 0.0329, 0.0012, -0.0073, -0.0010, 0.0057],
# requires_grad=True) torch.Size([128])
#hidden2.weight Parameter containing:
#tensor([[-0.0383, -0.0649, 0.0665, ..., -0.0312, 0.0394, -0.0801],
# [-0.0189, -0.0342, 0.0431, ..., -0.0321, 0.0072, 0.0367],
# [ 0.0289, 0.0780, 0.0496, ..., 0.0018, -0.0604, -0.0156],
# ...,
# [-0.0360, 0.0394, -0.0615, ..., 0.0233, -0.0536, -0.0266],
# [ 0.0416, 0.0082, -0.0345, ..., 0.0808, -0.0308, -0.0403],
# [-0.0477, 0.0136, -0.0408, ..., 0.0180, -0.0316, -0.0782]],
# requires_grad=True) torch.Size([256, 128])
#hidden2.bias Parameter containing:
#tensor([-0.0694, -0.0363, -0.0178, 0.0206, -0.0875, -0.0876, -0.0369, -0.0386,
# 0.0642, -0.0738, -0.0017, -0.0243, -0.0054, 0.0757, -0.0254, 0.0050,
# 0.0519, -0.0695, 0.0318, -0.0042, -0.0189, -0.0263, -0.0627, -0.0691,
# 0.0713, -0.0696, -0.0672, 0.0297, 0.0102, 0.0040, 0.0830, 0.0214,
# 0.0714, 0.0327, -0.0582, -0.0354, 0.0621, 0.0475, 0.0490, 0.0331,
# -0.0111, -0.0469, -0.0695, -0.0062, -0.0432, -0.0132, -0.0856, -0.0219,
# -0.0185, -0.0517, 0.0017, -0.0788, -0.0403, 0.0039, 0.0544, -0.0496,
# 0.0588, -0.0068, 0.0496, 0.0588, -0.0100, 0.0731, 0.0071, -0.0155,
# -0.0872, -0.0504, 0.0499, 0.0628, -0.0057, 0.0530, -0.0518, -0.0049,
# 0.0767, 0.0743, 0.0748, -0.0438, 0.0235, -0.0809, 0.0140, -0.0374,
# 0.0615, -0.0177, 0.0061, -0.0013, -0.0138, -0.0750, -0.0550, 0.0732,
# 0.0050, 0.0778, 0.0415, 0.0487, 0.0522, 0.0867, -0.0255, -0.0264,
# 0.0829, 0.0599, 0.0194, 0.0831, -0.0562, 0.0487, -0.0411, 0.0237,
# 0.0347, -0.0194, -0.0560, -0.0562, -0.0076, 0.0459, -0.0477, 0.0345,
# -0.0575, -0.0005, 0.0174, 0.0855, -0.0257, -0.0279, -0.0348, -0.0114,
# -0.0823, -0.0075, -0.0524, 0.0331, 0.0387, -0.0575, 0.0068, -0.0590,
# -0.0101, -0.0880, -0.0375, 0.0033, -0.0172, -0.0641, -0.0797, 0.0407,
# 0.0741, -0.0041, -0.0608, 0.0672, -0.0464, -0.0716, -0.0191, -0.0645,
# 0.0397, 0.0013, 0.0063, 0.0370, 0.0475, -0.0535, 0.0721, -0.0431,
# 0.0053, -0.0568, -0.0228, -0.0260, -0.0784, -0.0148, 0.0229, -0.0095,
# -0.0040, 0.0025, 0.0781, 0.0140, -0.0561, 0.0384, -0.0011, -0.0366,
# 0.0345, 0.0015, 0.0294, -0.0734, -0.0852, -0.0015, -0.0747, -0.0100,
# 0.0801, -0.0739, 0.0611, 0.0536, 0.0298, -0.0097, 0.0017, -0.0398,
# 0.0076, -0.0759, -0.0293, 0.0344, -0.0463, -0.0270, 0.0447, 0.0814,
# -0.0193, -0.0559, 0.0160, 0.0216, -0.0346, 0.0316, 0.0881, -0.0652,
# -0.0169, 0.0117, -0.0107, -0.0754, -0.0231, -0.0291, 0.0210, 0.0427,
# 0.0418, 0.0040, 0.0762, 0.0645, -0.0368, -0.0229, -0.0569, -0.0881,
# -0.0660, 0.0297, 0.0433, -0.0777, 0.0212, -0.0601, 0.0795, -0.0511,
# -0.0634, 0.0720, 0.0016, 0.0693, -0.0547, -0.0652, -0.0480, 0.0759,
# 0.0194, -0.0328, -0.0211, -0.0025, -0.0055, -0.0157, 0.0817, 0.0030,
# 0.0310, -0.0735, 0.0160, -0.0368, 0.0528, -0.0675, -0.0083, -0.0427,
# -0.0872, 0.0699, 0.0795, -0.0738, -0.0639, 0.0350, 0.0114, 0.0303],
# requires_grad=True) torch.Size([256])
#out.weight Parameter containing:
#tensor([[ 0.0232, -0.0571, 0.0439, ..., -0.0417, -0.0237, 0.0183],
# [ 0.0210, 0.0607, 0.0277, ..., -0.0015, 0.0571, 0.0502],
# [ 0.0297, -0.0393, 0.0616, ..., 0.0131, -0.0163, -0.0239],
# ...,
# [ 0.0416, 0.0309, -0.0441, ..., -0.0493, 0.0284, -0.0230],
# [ 0.0404, -0.0564, 0.0442, ..., -0.0271, -0.0526, -0.0554],
# [-0.0404, -0.0049, -0.0256, ..., -0.0262, -0.0130, 0.0057]],
# requires_grad=True) torch.Size([10, 256])
#out.bias Parameter containing:
#tensor([-0.0536, 0.0007, 0.0227, -0.0072, -0.0168, -0.0125, -0.0207, -0.0558,
# 0.0579, -0.0439], requires_grad=True) torch.Size([10])
四、使用 TensorDataset 和 DataLoader 簡(jiǎn)化
自己構(gòu)建數(shù)據(jù)集,使用 batch 取數(shù)據(jù)會(huì)略顯麻煩,因此,我們可以使用 TensorDataset 和 DataLoader 這兩個(gè)模塊進(jìn)行簡(jiǎn)化。
from torch.utils.data import TensorDataset
from torch.utils.data import DataLoader
?
train_ds = TensorDataset(x_train, y_train)
train_dl = DataLoader(train_ds, batch_size=bs, shuffle=True)
?
valid_ds = TensorDataset(x_valid, y_valid)
valid_dl = DataLoader(valid_ds, batch_size=bs * 2)
def get_data(train_ds, valid_ds, bs):
return (
DataLoader(train_ds, batch_size=bs, shuffle=True),
DataLoader(valid_ds, batch_size=bs * 2),
)- 一般在訓(xùn)練模型時(shí)加上 model.train(),這樣會(huì)正常使用 Batch Normalization 和 Dropout。
- 測(cè)試的時(shí)候一般選擇 model.eval(),這樣就不會(huì)使用 Batch Normalization 和 Dropout。
import numpy as np
?
def fit(steps, model, loss_func, opt, train_dl, valid_dl):
for step in range(steps):
model.train()
for xb, yb in train_dl:
loss_batch(model, loss_func, xb, yb, opt)
?
model.eval()
with torch.no_grad():
losses, nums = zip(
*[loss_batch(model, loss_func, xb, yb) for xb, yb in valid_dl]
)
val_loss = np.sum(np.multiply(losses, nums)) / np.sum(nums)
print('當(dāng)前step:'+str(step), '驗(yàn)證集損失:'+str(val_loss))
from torch import optim
def get_model():
model = Mnist_NN()
return model, optim.SGD(model.parameters(), lr=0.001)
def loss_batch(model, loss_func, xb, yb, opt=None):
loss = loss_func(model(xb), yb)
?
if opt is not None:
loss.backward()
opt.step()
opt.zero_grad()
?
return loss.item(), len(xb)我們也可以像上篇博文一樣,使用三行代碼進(jìn)行解決。
train_dl, valid_dl = get_data(train_ds, valid_ds, bs) model, opt = get_model() fit(25, model, loss_func, opt, train_dl, valid_dl) #當(dāng)前step:0 驗(yàn)證集損失:2.2796445930480957 #當(dāng)前step:1 驗(yàn)證集損失:2.2440698066711424 #當(dāng)前step:2 驗(yàn)證集損失:2.1889826164245605 #當(dāng)前step:3 驗(yàn)證集損失:2.0985311767578123 #當(dāng)前step:4 驗(yàn)證集損失:1.9517273582458496 #當(dāng)前step:5 驗(yàn)證集損失:1.7341805934906005 #當(dāng)前step:6 驗(yàn)證集損失:1.4719875366210937 #當(dāng)前step:7 驗(yàn)證集損失:1.2273896869659424 #當(dāng)前step:8 驗(yàn)證集損失:1.0362271406173706 #當(dāng)前step:9 驗(yàn)證集損失:0.8963696184158325 #當(dāng)前step:10 驗(yàn)證集損失:0.7927186088562012 #當(dāng)前step:11 驗(yàn)證集損失:0.7141492074012756 #當(dāng)前step:12 驗(yàn)證集損失:0.6529350900650024 #當(dāng)前step:13 驗(yàn)證集損失:0.60417300491333 #當(dāng)前step:14 驗(yàn)證集損失:0.5643046331882476 #當(dāng)前step:15 驗(yàn)證集損失:0.5317994566917419 ##當(dāng)前step:16 驗(yàn)證集損失:0.5047958114624024 #當(dāng)前step:17 驗(yàn)證集損失:0.4813900615692139 #當(dāng)前step:18 驗(yàn)證集損失:0.4618900228500366 #當(dāng)前step:19 驗(yàn)證集損失:0.4443243554592133 #當(dāng)前step:20 驗(yàn)證集損失:0.4297310716629028 #當(dāng)前step:21 驗(yàn)證集損失:0.416976597738266 #當(dāng)前step:22 驗(yàn)證集損失:0.406348459148407 #當(dāng)前step:23 驗(yàn)證集損失:0.3963301926612854 #當(dāng)前step:24 驗(yàn)證集損失:0.38733808159828187?
到此這篇關(guān)于PyTorch中的神經(jīng)網(wǎng)絡(luò) Mnist 分類任務(wù)的文章就介紹到這了,更多相關(guān)PyTorch神經(jīng)網(wǎng)絡(luò) Mnist 分類任務(wù)內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!
- 使用Pytorch構(gòu)建第一個(gè)神經(jīng)網(wǎng)絡(luò)模型?附案例實(shí)戰(zhàn)
- pytorch簡(jiǎn)單實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)功能
- pytorch深度神經(jīng)網(wǎng)絡(luò)入門準(zhǔn)備自己的圖片數(shù)據(jù)
- Pytorch卷積神經(jīng)網(wǎng)絡(luò)遷移學(xué)習(xí)的目標(biāo)及好處
- Pytorch深度學(xué)習(xí)經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)resnet模塊訓(xùn)練
- Pytorch卷積神經(jīng)網(wǎng)絡(luò)resent網(wǎng)絡(luò)實(shí)踐
- PyTorch實(shí)現(xiàn)卷積神經(jīng)網(wǎng)絡(luò)的搭建詳解
- Pytorch神經(jīng)網(wǎng)絡(luò)參數(shù)管理方法詳細(xì)講解
相關(guān)文章
django利用request id便于定位及給日志加上request_id
這篇文章主要介紹了django利用request id便于定位及給日志加上request_id的相關(guān)資料,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家學(xué)習(xí)或者使用django具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面來(lái)一起看看吧2018-08-08
詳解python的xlwings庫(kù)讀寫excel操作總結(jié)
這篇文章主要介紹了詳解python的xlwings庫(kù)讀寫excel操作總結(jié),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2021-02-02
Python爬蟲實(shí)現(xiàn)爬取百度百科詞條功能實(shí)例
這篇文章主要介紹了Python爬蟲實(shí)現(xiàn)爬取百度百科詞條功能,結(jié)合完整實(shí)例形式分析了Python爬蟲的基本原理及爬取百度百科詞條的步驟、網(wǎng)頁(yè)下載、解析、數(shù)據(jù)輸出等相關(guān)操作技巧,需要的朋友可以參考下2019-04-04
python+django+selenium搭建簡(jiǎn)易自動(dòng)化測(cè)試
這篇文章主要介紹了python+django+selenium搭建簡(jiǎn)易自動(dòng)化測(cè)試,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧2020-08-08
python機(jī)器學(xué)習(xí)實(shí)現(xiàn)oneR算法(以鳶尾data為例)
本文主要介紹了python機(jī)器學(xué)習(xí)實(shí)現(xiàn)oneR算法(以鳶尾data為例),文中通過(guò)示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-03-03
Python全局變量關(guān)鍵字global的簡(jiǎn)單使用
python中g(shù)lobal關(guān)鍵字主要作用是聲明變量的作用域,下面這篇文章主要給大家介紹了關(guān)于Python全局變量關(guān)鍵字global的簡(jiǎn)單使用,文中通過(guò)實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下2022-06-06
python實(shí)現(xiàn)郵件循環(huán)自動(dòng)發(fā)件功能
這篇文章主要介紹了python實(shí)現(xiàn)郵件循環(huán)自動(dòng)發(fā)件功能,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下2020-09-09
python實(shí)現(xiàn)AI聊天機(jī)器人詳解流程
事情是這樣的,最近認(rèn)識(shí)的一位小姐姐有每天早晨看天氣預(yù)報(bào)的習(xí)慣。在我看來(lái),很多人起床第一件事情就是看微信消息,既然這樣,我就勉為其難每天早晨給小姐姐發(fā)送一則天氣預(yù)報(bào)吧2021-11-11

