欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

python機(jī)器學(xué)習(xí)之隨機(jī)森林(七)

 更新時(shí)間:2018年03月26日 10:00:11   作者:蓬萊道人  
這篇文章主要為大家詳細(xì)介紹了python機(jī)器學(xué)習(xí)之隨機(jī)森林,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下

機(jī)器學(xué)習(xí)之隨機(jī)森林,供大家參考,具體內(nèi)容如下

1、Bootstraping(自助法) 

      名字來(lái)自成語(yǔ)“pull up by your own bootstraps”,意思是依靠你自己的資源,稱為自助法,它是一種有放回的抽樣方法,它是非參數(shù)統(tǒng)計(jì)中一種重要的估計(jì)統(tǒng)計(jì)量方差進(jìn)而進(jìn)行區(qū)間估計(jì)的統(tǒng)計(jì)方法。其核心思想和基本步驟如下:
?。?) 采用重抽樣技術(shù)從原始樣本中抽取一定數(shù)量(自己給定)的樣本,此過(guò)程允許重復(fù)抽樣。
?。?) 根據(jù)抽出的樣本計(jì)算給定的統(tǒng)計(jì)量T。
?。?) 重復(fù)上述N次(一般大于1000),得到N個(gè)統(tǒng)計(jì)量T。
?。?) 計(jì)算上述N個(gè)統(tǒng)計(jì)量T的樣本方差,得到統(tǒng)計(jì)量的方差。
  應(yīng)該說(shuō)Bootstrap是現(xiàn)代統(tǒng)計(jì)學(xué)較為流行的一種統(tǒng)計(jì)方法,在小樣本時(shí)效果很好。通過(guò)方差的估計(jì)可以構(gòu)造置信區(qū)間等,其運(yùn)用范圍得到進(jìn)一步延伸。   

2、Bagging (套袋法) 

    Bagging即bootstrap aggregating(自舉匯聚法)的縮寫(xiě),其算法過(guò)程如下:
    A).從原始樣本集中抽取訓(xùn)練集。每輪從原始樣本集中使用Bootstraping的方法抽取n個(gè)訓(xùn)練樣本,意思是從原始集合中隨機(jī)選擇一個(gè)樣本,然后隨機(jī)選擇一個(gè)樣本來(lái)代替這個(gè)樣本(在訓(xùn)練集中,有些樣本可能被多次抽取到,而有些樣本可能一次都沒(méi)有被抽中)。共進(jìn)行k輪抽取,得到k個(gè)訓(xùn)練集。(k個(gè)訓(xùn)練集之間是相互獨(dú)立的)
    B).每次使用一個(gè)訓(xùn)練集得到一個(gè)模型,k個(gè)訓(xùn)練集共得到k個(gè)模型。(注:這里并沒(méi)有具體的分類(lèi)算法或回歸方法,我們可以根據(jù)具體問(wèn)題采用不同的分類(lèi)或回歸方法,如決策樹(shù)、感知器等)

3、Boosting(提升法): 

    其主要思想是將弱分類(lèi)器組裝成一個(gè)強(qiáng)分類(lèi)器。在PAC(概率近似正確)學(xué)習(xí)框架下,則一定可以將弱分類(lèi)器組裝成一個(gè)強(qiáng)分類(lèi)器。關(guān)于Boosting的兩個(gè)核心問(wèn)題:
    1)在每一輪如何改變訓(xùn)練數(shù)據(jù)的權(quán)值或概率分布?
    通過(guò)提高那些在前一輪被弱分類(lèi)器分錯(cuò)樣例的權(quán)值,減小前一輪分對(duì)樣例的權(quán)值,來(lái)使得分類(lèi)器對(duì)誤分的數(shù)據(jù)有較好的效果。
    2)通過(guò)什么方式來(lái)組合弱分類(lèi)器?
    通過(guò)加法模型將弱分類(lèi)器進(jìn)行線性組合,比如AdaBoost通過(guò)加權(quán)多數(shù)表決的方式,即增大錯(cuò)誤率小的分類(lèi)器的權(quán)值,同時(shí)減小錯(cuò)誤率較大的分類(lèi)器的權(quán)值。而提升樹(shù)通過(guò)擬合殘差的方式逐步減小殘差,將每一步生成的模型疊加得到最終模型。

4、gradient boosting(梯度提升法): 

    Boosting是一種思想,Gradient Boosting是一種實(shí)現(xiàn)Boosting的方法,它主要的思想是,每一次建立模型是在之前建立模型損失函數(shù)的梯度下降方向。損失函數(shù)(loss function)描述的是模型的不靠譜程度,損失函數(shù)越大,則說(shuō)明模型越容易出錯(cuò)。如果我們的模型能夠讓損失函數(shù)持續(xù)的下降,則說(shuō)明我們的模型在不停的改進(jìn),而最好的方式就是讓損失函數(shù)在其梯度(Gradient)的方向上下降。

5、Bagging,Boosting二者之間的區(qū)別:

相同點(diǎn):
    bagging算法和boosting算法都屬于集成學(xué)習(xí)集成學(xué)習(xí)(Ensemble Learning)。
不同點(diǎn):
    1)樣本選擇上:
    Bagging:訓(xùn)練集是在原始集中有放回選取的,從原始集中選出的各輪訓(xùn)練集之間是獨(dú)立的。
    Boosting:每一輪的訓(xùn)練集不變,只是訓(xùn)練集中每個(gè)樣例在分類(lèi)器中的權(quán)重發(fā)生變化。而權(quán)值是根據(jù)上一輪的分類(lèi)結(jié)果進(jìn)行調(diào)整。
    2)樣例權(quán)重:
    Bagging:使用均勻取樣,每個(gè)樣例的權(quán)重相等
    Boosting:根據(jù)錯(cuò)誤率不斷調(diào)整樣例的權(quán)值,錯(cuò)誤率越大則權(quán)重越大。
    3)預(yù)測(cè)函數(shù):
    Bagging:所有預(yù)測(cè)函數(shù)的權(quán)重相等。
    Boosting:每個(gè)弱分類(lèi)器都有相應(yīng)的權(quán)重,對(duì)于分類(lèi)誤差小的分類(lèi)器會(huì)有更大的權(quán)重。
    4)并行計(jì)算:
    Bagging:各個(gè)預(yù)測(cè)函數(shù)可以并行生成
    Boosting:各個(gè)預(yù)測(cè)函數(shù)只能順序生成,因?yàn)楹笠粋€(gè)模型參數(shù)需要前一輪模型的結(jié)果。

總結(jié): 

    1)Bagging + 決策樹(shù) = 隨機(jī)森林
    2)AdaBoost + 決策樹(shù) = 提升樹(shù)
    3)Gradient Boosting + 決策樹(shù) = GBDT

6、Rand forest(隨機(jī)森林): 

    隨機(jī)森林是一種重要的基于Bagging的集成學(xué)習(xí)方法,可以用來(lái)做分類(lèi)、回歸等問(wèn)題。
隨機(jī)森林優(yōu)點(diǎn):
    1)具有極高的準(zhǔn)確率
    2)隨機(jī)性的引入,使得隨機(jī)森林不容易過(guò)擬合
    3)隨機(jī)性的引入,使得隨機(jī)森林有很好的抗噪聲能力
    4)能處理很高維度的數(shù)據(jù),并且不用做特征選擇
    5)既能處理離散型數(shù)據(jù),也能處理連續(xù)型數(shù)據(jù),數(shù)據(jù)集無(wú)需規(guī)范化
    6)訓(xùn)練速度快,可以得到變量重要性排序
    7)容易實(shí)現(xiàn)并行化
隨機(jī)森林的缺點(diǎn):
    1)當(dāng)隨機(jī)森林中的決策樹(shù)個(gè)數(shù)很多時(shí),訓(xùn)練時(shí)需要的空間和時(shí)間會(huì)較大
    2)隨機(jī)森林模型還有許多不好解釋的地方,有點(diǎn)算個(gè)黑盒模型
隨機(jī)森林的構(gòu)建過(guò)程:
    1)從原始訓(xùn)練集中使用Bootstraping方法隨機(jī)有放回采樣選出m個(gè)樣本,共進(jìn)行n_tree次采樣,生成n_tree個(gè)訓(xùn)練集
    2)對(duì)于n_tree個(gè)訓(xùn)練集,我們分別訓(xùn)練n_tree個(gè)決策樹(shù)模型
    3)對(duì)于單個(gè)決策樹(shù)模型,假設(shè)訓(xùn)練樣本特征的個(gè)數(shù)為n,那么每次分裂時(shí)根據(jù)信息增益/信息增益比/基尼指數(shù)選擇最好的特征進(jìn)行分裂
    4)每棵樹(shù)都一直這樣分裂下去,直到該節(jié)點(diǎn)的所有訓(xùn)練樣例都屬于同一類(lèi)。在決策樹(shù)的分裂過(guò)程中不需要剪枝
    5)將生成的多棵決策樹(shù)組成隨機(jī)森林。對(duì)于分類(lèi)問(wèn)題,按多棵樹(shù)分類(lèi)器投票決定最終分類(lèi)結(jié)果;對(duì)于回歸問(wèn)題,由多棵樹(shù)預(yù)測(cè)值的均值決定最終預(yù)測(cè)結(jié)果.

7、隨機(jī)森林的實(shí)現(xiàn): 

    隨機(jī)森林就是對(duì)決策樹(shù)的集成,但有兩點(diǎn)不同:
    (1)采樣的差異性:從含m個(gè)樣本的數(shù)據(jù)集中有放回的采樣,得到含m個(gè)樣本的采樣集,用于訓(xùn)練。這樣能保證每個(gè)決策樹(shù)的訓(xùn)練樣本不完全一樣。
    (2)特征選取的差異性:每個(gè)決策樹(shù)的n個(gè)分類(lèi)特征是在所有特征中隨機(jī)選擇的(n是一個(gè)需要我們自己調(diào)整的參數(shù))。傳統(tǒng)決策樹(shù)在選擇劃分特征時(shí)在當(dāng)前節(jié)點(diǎn)的特征集合(假定有d個(gè)特征)中選擇一個(gè)最優(yōu)特征;而在隨機(jī)森林中,對(duì)于決策樹(shù)的每個(gè)節(jié)點(diǎn),先從該節(jié)點(diǎn)的特征集合中隨機(jī)選擇一個(gè)包含n個(gè)特征的子集,然后再?gòu)倪@個(gè)子集中選擇一個(gè)最優(yōu)特征用于劃分。這里的參數(shù)n控制了隨機(jī)性的引入程度:若令n=d,則決策樹(shù)的構(gòu)建與傳統(tǒng)決策樹(shù)相同;若令n=1,則是隨機(jī)選擇一個(gè)特征進(jìn)行劃分。
    隨機(jī)森林需要調(diào)整的參數(shù)有:
    (1)決策樹(shù)的個(gè)數(shù)
    (2)每個(gè)決策樹(shù)分類(lèi)特征的個(gè)數(shù)
    (3)遞歸次數(shù)(即決策樹(shù)的深度)

#coding=utf-8
# Random Forest Algorithm on Sonar Dataset
from random import seed
from random import randrange
from csv import reader
from math import sqrt
from math import log

# 加載數(shù)據(jù)
def load_csv(filename): #導(dǎo)入csv文件
  dataset = list()
  with open(filename, 'r') as file:
    csv_reader = reader(file)
    for row in csv_reader:
      if not row:
        continue
      dataset.append(row)
  return dataset

#除了判別列,其他列都轉(zhuǎn)換為float類(lèi)型 
def str_column_to_float(dataset, column): #將數(shù)據(jù)集的第column列轉(zhuǎn)換成float形式
  for row in dataset:
    row[column] = float(row[column].strip()) #strip()返回移除字符串頭尾指定的字符生成的新字符串。


# 將數(shù)據(jù)集隨機(jī)分成n份,方便交叉驗(yàn)證
def cross_validation_split(dataset, n_folds): #將數(shù)據(jù)集dataset分成n_flods份,每份包含len(dataset) / n_folds個(gè)值,每個(gè)值由dataset數(shù)據(jù)集的內(nèi)容隨機(jī)產(chǎn)生,每個(gè)值被使用一次
  dataset_split = list()
  dataset_copy = list(dataset) #復(fù)制一份dataset,防止dataset的內(nèi)容改變
  fold_size = len(dataset) / n_folds # 每份數(shù)據(jù)集的大小
  for i in range(n_folds):
    fold = list()  #每次循環(huán)fold清零,防止重復(fù)導(dǎo)入dataset_split
    while len(fold) < fold_size:  #這里不能用if,if只是在第一次判斷時(shí)起作用,while執(zhí)行循環(huán),直到條件不成立
      index = randrange(len(dataset_copy))
      fold.append(dataset_copy.pop(index)) #將對(duì)應(yīng)索引index的內(nèi)容從dataset_copy中導(dǎo)出,并將該內(nèi)容從dataset_copy中刪除。pop() 函數(shù)用于移除列表中的一個(gè)元素(默認(rèn)最后一個(gè)元素),并且返回該元素的值。
    dataset_split.append(fold)
  return dataset_split  #由dataset分割出的n_folds個(gè)數(shù)據(jù)構(gòu)成的列表,為了用于交叉驗(yàn)證

#導(dǎo)入實(shí)際值和預(yù)測(cè)值,計(jì)算精確度
def accuracy_metric(actual, predicted): 
  correct = 0
  for i in range(len(actual)):
    if actual[i] == predicted[i]:
      correct += 1
  return correct / float(len(actual)) * 100.0



#根據(jù)特征和特征值分割數(shù)據(jù)集
def test_split(index, value, dataset):
  left, right = list(), list()
  for row in dataset:
    if row[index] < value:
      left.append(row)
    else:
      right.append(row)
  return left, right

# 計(jì)算基尼指數(shù)
def gini_index(groups, class_values):  #個(gè)人理解:計(jì)算代價(jià),分類(lèi)越準(zhǔn)確,則gini越小
  gini = 0.0
  for class_value in class_values: #class_values =[0,1] 
    for group in groups:     #groups=(left,right)
      size = len(group)
      if size == 0:
        continue
      proportion = [row[-1] for row in group].count(class_value) / float(size)
      gini += (proportion * (1.0 - proportion)) #個(gè)人理解:計(jì)算代價(jià),分類(lèi)越準(zhǔn)確,則gini越小
  return gini

#找出分割數(shù)據(jù)集的最優(yōu)特征,得到最優(yōu)的特征index,特征值row[index],以及分割完的數(shù)據(jù)groups(left,right)
def get_split(dataset, n_features):
  class_values = list(set(row[-1] for row in dataset)) #class_values =[0,1]
  b_index, b_value, b_score, b_groups = 999, 999, 999, None
  features = list()
  #往features添加n_features個(gè)特征(n_feature等于特征數(shù)的根號(hào)),特征索引從dataset中隨機(jī)取
  while len(features) < n_features:  
    index = randrange(len(dataset[0])-1) 
    if index not in features:
      features.append(index)
  #在n_features個(gè)特征中選出最優(yōu)的特征索引,并沒(méi)有遍歷所有特征,從而保證了每課決策樹(shù)的差異性    
  for index in features:    
    for row in dataset:
  #groups=(left,right);row[index]遍歷每一行index索引下的特征值作為分類(lèi)值value,找出最優(yōu)的分類(lèi)特征和特征值
      groups = test_split(index, row[index], dataset) 
      gini = gini_index(groups, class_values)
      if gini < b_score:
        b_index, b_value, b_score, b_groups = index, row[index], gini, groups #最后得到最優(yōu)的分類(lèi)特征b_index,分類(lèi)特征值b_value,分類(lèi)結(jié)果b_groups。b_value為分錯(cuò)的代價(jià)成本。
  #print b_score
  return {'index':b_index, 'value':b_value, 'groups':b_groups}

#輸出group中出現(xiàn)次數(shù)較多的標(biāo)簽
def to_terminal(group):
  outcomes = [row[-1] for row in group]      #max()函數(shù)中,當(dāng)key參數(shù)不為空時(shí),就以key的函數(shù)對(duì)象為判斷的標(biāo)準(zhǔn);
  return max(set(outcomes), key=outcomes.count)  # 輸出group中出現(xiàn)次數(shù)較多的標(biāo)簽 

#創(chuàng)建子分割器,遞歸分類(lèi),直到分類(lèi)結(jié)束
def split(node, max_depth, min_size, n_features, depth): #max_depth = 10,min_size = 1,n_features = int(sqrt(len(dataset[0])-1)) 
  left, right = node['groups']
  del(node['groups'])
  # check for a no split
  if not left or not right:
    node['left'] = node['right'] = to_terminal(left + right)
    return
  # check for max depth
  if depth >= max_depth:  #max_depth=10表示遞歸十次,若分類(lèi)還未結(jié)束,則選取數(shù)據(jù)中分類(lèi)標(biāo)簽較多的作為結(jié)果,使分類(lèi)提前結(jié)束,防止過(guò)擬合
    node['left'], node['right'] = to_terminal(left), to_terminal(right)
    return

  # process left child
  if len(left) <= min_size:
    node['left'] = to_terminal(left)
  else:
    node['left'] = get_split(left, n_features) #node['left']是一個(gè)字典,形式為{'index':b_index, 'value':b_value, 'groups':b_groups},所以node是一個(gè)多層字典
    split(node['left'], max_depth, min_size, n_features, depth+1) #遞歸,depth+1計(jì)算遞歸層數(shù)

  # process right child
  if len(right) <= min_size:
    node['right'] = to_terminal(right)
  else:
    node['right'] = get_split(right, n_features)
    split(node['right'], max_depth, min_size, n_features, depth+1)

# 創(chuàng)建決策樹(shù)
def build_tree(train, max_depth, min_size, n_features):
  #找到最佳切分向量和最佳切分點(diǎn)進(jìn)行劃分為兩個(gè)子集
  root = get_split(train, n_features) 
  split(root, max_depth, min_size, n_features, 1)
  return root

#預(yù)測(cè)模型分類(lèi)結(jié)果
def predict(node, row):  
  if row[node['index']] < node['value']:  # index是分割的特征分量,value是特征分量的最優(yōu)切分點(diǎn)
    if isinstance(node['left'], dict):  #isinstance是Python中的一個(gè)內(nèi)建函數(shù)。是用來(lái)判斷一個(gè)對(duì)象是否是一個(gè)已知的類(lèi)型。
      return predict(node['left'], row)
    else:
      return node['left']
  else:
    if isinstance(node['right'], dict):
      return predict(node['right'], row)
    else:
      return node['right']

#使用多個(gè)決策樹(shù)trees對(duì)測(cè)試集test的第row行進(jìn)行預(yù)測(cè),再使用簡(jiǎn)單投票法判斷出該行所屬分類(lèi)
def bagging_predict(trees, row):
  predictions = [predict(tree, row) for tree in trees] 
  return max(set(predictions), key=predictions.count)

#創(chuàng)建數(shù)據(jù)集的隨機(jī)子樣本
def subsample(dataset, ratio):  
  sample = list()
  n_sample = round(len(dataset) * ratio)  #round() 方法返回浮點(diǎn)數(shù)x的四舍五入值。
  while len(sample) < n_sample:
    index = randrange(len(dataset)) #有放回的隨機(jī)采樣,有一些樣本被重復(fù)采樣,從而在訓(xùn)練集中多次出現(xiàn),有的則從未在訓(xùn)練集中出現(xiàn),此則自助采樣法。從而保證每棵決策樹(shù)訓(xùn)練集的差異性
    sample.append(dataset[index])
  return sample

# 隨機(jī)森林算法
def random_forest(train, test, max_depth, min_size, sample_size, n_trees, n_features):
  trees = list()
  for i in range(n_trees):  #n_trees表示決策樹(shù)的數(shù)量
    sample = subsample(train, sample_size) #隨機(jī)采樣保證了每棵決策樹(shù)訓(xùn)練集的差異性
    tree = build_tree(sample, max_depth, min_size, n_features) #建立一個(gè)決策樹(shù)
    trees.append(tree)
  predictions = [bagging_predict(trees, row) for row in test]
  return(predictions)

#評(píng)估算法性能,返回模型得分 
def evaluate_algorithm(dataset, algorithm, n_folds, *args):  
  folds = cross_validation_split(dataset, n_folds)
  scores = list()
  #每次循環(huán)從folds從取出一個(gè)fold作為測(cè)試集,其余作為訓(xùn)練集,遍歷整個(gè)folds,實(shí)現(xiàn)交叉驗(yàn)證
  for fold in folds:  
    train_set = list(folds)
    train_set.remove(fold)
    train_set = sum(train_set, [])  #將多個(gè)fold列表組合成一個(gè)train_set列表
    test_set = list()
    for row in fold:  #fold表示從原始數(shù)據(jù)集dataset提取出來(lái)的測(cè)試集
      row_copy = list(row)
      test_set.append(row_copy)
      row_copy[-1] = None
    predicted = algorithm(train_set, test_set, *args) # 調(diào)用隨機(jī)森林算法,預(yù)測(cè)的分類(lèi)值列表
    actual = [row[-1] for row in fold]         # 真實(shí)的分類(lèi)值列表
    accuracy = accuracy_metric(actual, predicted)
    scores.append(accuracy)
  return scores

if __name__ == '__main__':  
  #每一次執(zhí)行本文件時(shí)都能產(chǎn)生同一個(gè)隨機(jī)數(shù)  
  seed(1)  
  filename = 'sonar-all-data.csv'
  dataset = load_csv(filename)  
  for i in range(0, len(dataset[0])-1): # 每一列的字符屬性轉(zhuǎn)為浮點(diǎn)數(shù)
    str_column_to_float(dataset, i)  
  n_folds = 5   #分成5份數(shù)據(jù),進(jìn)行交叉驗(yàn)證  
  max_depth = 20 #調(diào)參(自己修改)決策樹(shù)深度不能太深,不然容易導(dǎo)致過(guò)擬合
  min_size = 1  #每個(gè)分支下最小的節(jié)點(diǎn)個(gè)數(shù)
  sample_size = 1.0 # 每棵數(shù)所用樣本子集的大小,這里和訓(xùn)練集相同  
  n_features =15 #調(diào)參(自己修改) #準(zhǔn)確性與多樣性之間的權(quán)衡
  for n_trees in [1,10,20]: #理論上樹(shù)的棵數(shù)是越多越好
    scores = evaluate_algorithm(dataset[0:50], random_forest, n_folds, max_depth, min_size, sample_size, n_trees, n_features)
    print('Trees: %d' % n_trees)
    print('Scores: %s' % scores)
    print('Mean Accuracy: %.3f%%' % (sum(scores)/float(len(scores)))) 

以上就是本文的全部?jī)?nèi)容,希望對(duì)大家的學(xué)習(xí)有所幫助,也希望大家多多支持腳本之家。

相關(guān)文章

  • 微信小程序前端如何調(diào)用python后端的模型詳解

    微信小程序前端如何調(diào)用python后端的模型詳解

    近期需要開(kāi)發(fā)一個(gè)打分的微信小程序,涉及到與后臺(tái)服務(wù)器的數(shù)據(jù)交互,這篇文章主要給大家介紹了關(guān)于微信小程序前端如何調(diào)用python后端模型的相關(guān)資料,需要的朋友可以參考下
    2022-04-04
  • Python的Django框架中使用SQLAlchemy操作數(shù)據(jù)庫(kù)的教程

    Python的Django框架中使用SQLAlchemy操作數(shù)據(jù)庫(kù)的教程

    SQLAlchemy是Python一個(gè)專(zhuān)門(mén)的數(shù)據(jù)庫(kù)管理工具,如果對(duì)Django ORM覺(jué)得有些生疏的話完全可以結(jié)合SQLAlchemy,這里我們就來(lái)總結(jié)一下Python的Django框架中使用SQLAlchemy操作數(shù)據(jù)庫(kù)的教程
    2016-06-06
  • 使用Python實(shí)現(xiàn)PDF頁(yè)面設(shè)置操作

    使用Python實(shí)現(xiàn)PDF頁(yè)面設(shè)置操作

    這篇文章主要為大家詳細(xì)介紹了如何使用Python實(shí)現(xiàn)PDF頁(yè)面設(shè)置操作,例如旋轉(zhuǎn)頁(yè)面和調(diào)整頁(yè)面順序,感興趣的小伙伴可以跟隨小編一起學(xué)習(xí)一下
    2024-04-04
  • Python 點(diǎn)擊指定位置驗(yàn)證碼破解的實(shí)現(xiàn)代碼

    Python 點(diǎn)擊指定位置驗(yàn)證碼破解的實(shí)現(xiàn)代碼

    這篇文章主要介紹了Python 點(diǎn)擊指定位置驗(yàn)證碼破解的實(shí)現(xiàn)代碼,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2019-09-09
  • OpenCV學(xué)習(xí)之圖像梯度算子詳解

    OpenCV學(xué)習(xí)之圖像梯度算子詳解

    這篇文章主要為大家詳細(xì)介紹了OpenCV中圖像梯度算子的各種操作,例如Sobel算子、Scharr算子和laplacian算子等操作,感興趣的可以了解一下
    2023-02-02
  • Python文件基本操作實(shí)用指南

    Python文件基本操作實(shí)用指南

    這篇文章主要給大家介紹了Python文件基本操作的相關(guān)資料,其中包括打開(kāi)文件的方式、按行讀取文件內(nèi)容、復(fù)制文件、重命名文件等操作需要的朋友可以參考下
    2021-05-05
  • 淺談Python的正則表達(dá)式

    淺談Python的正則表達(dá)式

    這篇文章主要介紹了淺談Python的正則表達(dá)式,正則表達(dá)式本身是獨(dú)立于編程語(yǔ)言的知識(shí),但是它又依附于編程語(yǔ)言,需要的朋友可以參考下
    2023-04-04
  • Python2和Python3中urllib庫(kù)中urlencode的使用注意事項(xiàng)

    Python2和Python3中urllib庫(kù)中urlencode的使用注意事項(xiàng)

    這篇文章主要介紹了Python2和Python3中urllib庫(kù)中urlencode的使用注意事項(xiàng),非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2018-11-11
  • 對(duì)python同一個(gè)文件夾里面不同.py文件的交叉引用方法詳解

    對(duì)python同一個(gè)文件夾里面不同.py文件的交叉引用方法詳解

    今天小編就為大家分享一篇對(duì)python同一個(gè)文件夾里面不同.py文件的交叉引用方法詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2018-12-12
  • Python defaultdict方法使用分析

    Python defaultdict方法使用分析

    在使用Python字典的過(guò)程中,如果沒(méi)有key就會(huì)自動(dòng)報(bào)錯(cuò),這時(shí)就需要python中defaultdict函數(shù)發(fā)揮作用。defaultdict是Python內(nèi)建dict類(lèi)的一個(gè)子類(lèi),功能與dict相同,但可以產(chǎn)生一個(gè)帶有默認(rèn)值的dict,如果key不存在,就會(huì)返回默認(rèn)值
    2022-10-10

最新評(píng)論