欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

Pandas 模糊查詢(xún)與替換的操作

 更新時(shí)間:2021年03月05日 10:34:08   作者:名字不要太長(zhǎng)像我這樣就好0  
這篇文章主要介紹了Pandas 模糊查詢(xún)與替換的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧

主要用到的工具:Pandas 、fuzzywuzzy

Pandas:是基于numpy的一種工具,專(zhuān)門(mén)為分析大量數(shù)據(jù)而生,它包含大量的處理數(shù)據(jù)的函數(shù)和方法,

以下為pandas中文API:

縮寫(xiě)和包導(dǎo)入

在這個(gè)速查手冊(cè)中,我們使用如下縮寫(xiě):

df:任意的Pandas DataFrame對(duì)象

s:任意的Pandas Series對(duì)象

同時(shí)我們需要做如下的引入:

import pandas as pd

import numpy as np

導(dǎo)入數(shù)據(jù)

pd.read_csv(filename):從CSV文件導(dǎo)入數(shù)據(jù)

pd.read_table(filename):從限定分隔符的文本文件導(dǎo)入數(shù)據(jù)

pd.read_excel(filename):從Excel文件導(dǎo)入數(shù)據(jù)

pd.read_sql(query, connection_object):從SQL表/庫(kù)導(dǎo)入數(shù)據(jù)

pd.read_json(json_string):從JSON格式的字符串導(dǎo)入數(shù)據(jù)

pd.read_html(url):解析URL、字符串或者HTML文件,抽取其中的tables表格

pd.read_clipboard():從你的粘貼板獲取內(nèi)容,并傳給read_table()

pd.DataFrame(dict):從字典對(duì)象導(dǎo)入數(shù)據(jù),Key是列名,Value是數(shù)據(jù)

導(dǎo)出數(shù)據(jù)

df.to_csv(filename):導(dǎo)出數(shù)據(jù)到CSV文件

df.to_excel(filename):導(dǎo)出數(shù)據(jù)到Excel文件

df.to_sql(table_name, connection_object):導(dǎo)出數(shù)據(jù)到SQL表

df.to_json(filename):以Json格式導(dǎo)出數(shù)據(jù)到文本文件

創(chuàng)建測(cè)試對(duì)象

pd.DataFrame(np.random.rand(20,5)):創(chuàng)建20行5列的隨機(jī)數(shù)組成的DataFrame對(duì)象

pd.Series(my_list):從可迭代對(duì)象my_list創(chuàng)建一個(gè)Series對(duì)象

df.index = pd.date_range('1900/1/30', periods=df.shape[0]):增加一個(gè)日期索引

查看、檢查數(shù)據(jù)

df.head(n):查看DataFrame對(duì)象的前n行

df.tail(n):查看DataFrame對(duì)象的最后n行

df.shape():查看行數(shù)和列數(shù)

df.info():查看索引、數(shù)據(jù)類(lèi)型和內(nèi)存信息

df.describe():查看數(shù)值型列的匯總統(tǒng)計(jì)

s.value_counts(dropna=False):查看Series對(duì)象的唯一值和計(jì)數(shù)

df.apply(pd.Series.value_counts):查看DataFrame對(duì)象中每一列的唯一值和計(jì)數(shù)

數(shù)據(jù)選取

df[col]:根據(jù)列名,并以Series的形式返回列

df[[col1, col2]]:以DataFrame形式返回多列

s.iloc[0]:按位置選取數(shù)據(jù)

s.loc['index_one']:按索引選取數(shù)據(jù)

df.iloc[0,:]:返回第一行

df.iloc[0,0]:返回第一列的第一個(gè)元素

df.values[:,:-1]:返回除了最后一列的其他列的所以數(shù)據(jù)

df.query('[1, 2] not in c'): 返回c列中不包含1,2的其他數(shù)據(jù)集

數(shù)據(jù)清理

df.columns = ['a','b','c']:重命名列名

pd.isnull():檢查DataFrame對(duì)象中的空值,并返回一個(gè)Boolean數(shù)組

pd.notnull():檢查DataFrame對(duì)象中的非空值,并返回一個(gè)Boolean數(shù)組

df.dropna():刪除所有包含空值的行

df.dropna(axis=1):刪除所有包含空值的列

df.dropna(axis=1,thresh=n):刪除所有小于n個(gè)非空值的行

df.fillna(x):用x替換DataFrame對(duì)象中所有的空值

s.astype(float):將Series中的數(shù)據(jù)類(lèi)型更改為float類(lèi)型

s.replace(1,'one'):用‘one'代替所有等于1的值

s.replace([1,3],['one','three']):用'one'代替1,用'three'代替3

df.rename(columns=lambda x: x + 1):批量更改列名

df.rename(columns={'old_name': 'new_ name'}):選擇性更改列名

df.set_index('column_one'):更改索引列

df.rename(index=lambda x: x + 1):批量重命名索引

數(shù)據(jù)處理:Filter、Sort和GroupBy

df[df[col] > 0.5]:選擇col列的值大于0.5的行

df.sort_values(col1):按照列col1排序數(shù)據(jù),默認(rèn)升序排列

df.sort_values(col2, ascending=False):按照列col1降序排列數(shù)據(jù)

df.sort_values([col1,col2], ascending=[True,False]):先按列col1升序排列,后按col2降序排列數(shù)據(jù)

df.groupby(col):返回一個(gè)按列col進(jìn)行分組的Groupby對(duì)象

df.groupby([col1,col2]):返回一個(gè)按多列進(jìn)行分組的Groupby對(duì)象

df.groupby(col1)[col2]:返回按列col1進(jìn)行分組后,列col2的均值

df.pivot_table(index=col1, values=[col2,col3], aggfunc=max):創(chuàng)建一個(gè)按列col1進(jìn)行分組,并計(jì)算col2和col3的最大值的數(shù)據(jù)透視表

df.groupby(col1).agg(np.mean):返回按列col1分組的所有列的均值

data.apply(np.mean):對(duì)DataFrame中的每一列應(yīng)用函數(shù)np.mean

data.apply(np.max,axis=1):對(duì)DataFrame中的每一行應(yīng)用函數(shù)np.max

數(shù)據(jù)合并

df1.append(df2):將df2中的行添加到df1的尾部

df.concat([df1, df2],axis=1):將df2中的列添加到df1的尾部

df1.join(df2,on=col1,how='inner'):對(duì)df1的列和df2的列執(zhí)行SQL形式的join

數(shù)據(jù)統(tǒng)計(jì)

df.describe():查看數(shù)據(jù)值列的匯總統(tǒng)計(jì)

df.mean():返回所有列的均值

df.corr():返回列與列之間的相關(guān)系數(shù)

df.count():返回每一列中的非空值的個(gè)數(shù)

df.max():返回每一列的最大值

df.min():返回每一列的最小值

df.median():返回每一列的中位數(shù)

df.std():返回每一列的標(biāo)準(zhǔn)差

以下為數(shù)據(jù)處理的代碼:

#!/usr/bin/python
# -*- encoding: utf-8 
import numpy as np
import pandas as pd
from fuzzywuzzy import fuzz
from fuzzywuzzy import process 
 
def enum_row(row):
 print(row['state']) #對(duì)state這一列做枚舉 
 
def find_state_code(row):
 if row['state'] != 0:  # 如果這個(gè)state的名字存在,就用state的名字與states列表中的值選擇一個(gè)最接近的,如果小于80分,直接舍棄,大于80才返回
 print(process.extractOne(row['state'], states, score_cutoff=80)) 
 
def capital(str): # 把str這個(gè)字符串,第一個(gè)字母大寫(xiě),其余小寫(xiě)
 return str.capitalize() 
 
def correct_state(row):
 if row['state'] != 0: # 如果這個(gè)state的名字存在,就用state的名字與states列表中的值選擇一個(gè)最接近的,如果小于80分,直接舍棄,大于80才返回
 state = process.extractOne(row['state'], states, score_cutoff=80)
 if state: # 如果為真,則找到了一個(gè)相關(guān)性的州名
  state_name = state[0] # 選擇用找到的這個(gè)州名數(shù)據(jù)
  return ' '.join(map(capital, state_name.split(' '))) # 先按空格分開(kāi)(有的州名中間有空格)單詞,然后每個(gè)單詞首字母大寫(xiě)
 return row['state'] 
 
def fill_state_code(row):
 if row['state'] != 0:
 state = process.extractOne(row['state'], states, score_cutoff=80)
 if state:
  state_name = state[0]
  return state_to_code[state_name] # 返回這個(gè)州名的value,即縮寫(xiě)
 return '' 
 
if __name__ == "__main__":
 pd.set_option('display.width', 200) # 橫向最多顯示多少個(gè)字符, 一般80不適合橫向的屏幕,平時(shí)多用200.
 data = pd.read_excel('sales.xlsx', sheetname='sheet1', header=0) # 讀取excel表
 print('data.head() = \n', data.head()) # 默認(rèn)顯示前五行
 print('data.tail() = \n', data.tail()) # tail顯示后五行
 print('data.dtypes = \n', data.dtypes) # 數(shù)據(jù)類(lèi)型
 print('data.columns = \n', data.columns)# 顯示第一行行名
 for c in data.columns:
 print(c, end=' ') # 輸出第一行行名,中間以空格隔開(kāi)
 print() #相當(dāng)于回車(chē)
 data['total'] = data['Jan'] + data['Feb'] + data['Mar'] # Jan、Feb、Mar三列的值相加得到一個(gè)total
 print(data.head())
 print(data['Jan'].sum()) # Jan這一列的值相加
 print(data['Jan'].min()) # Jan這一列的最小值
 print(data['Jan'].max()) # Jan這一列的最大值
 print(data['Jan'].mean()) # Jan這一列的平均值
 
 print('=============')
 # 添加一行
 s1 = data[['Jan', 'Feb', 'Mar', 'total']].sum() # s1包含四個(gè)值,分別是這四列的和
 print(s1)
 s2 = pd.DataFrame(data=s1)
 print(s2)
 print(s2.T)
 print(s2.T.reindex(columns=data.columns)) # 將s2進(jìn)行轉(zhuǎn)置輸出
 # 即:
 s = pd.DataFrame(data=data[['Jan', 'Feb', 'Mar', 'total']].sum()).T
 s = s.reindex(columns=data.columns, fill_value=0)
 print(s)
 data = data.append(s, ignore_index=True)
 data = data.rename(index={15:'Total'})
 print(data.tail())
 
 # apply的使用
 print('==============apply的使用==========')
 data.apply(enum_row, axis=1)  # axis=0時(shí)對(duì)每一列做變換,axis=1時(shí)對(duì)每一行做變換
 
 # 事先寫(xiě)好以state為單位的編碼字典
 state_to_code = {"VERMONT": "VT", "GEORGIA": "GA", "IOWA": "IA", "Armed Forces Pacific": "AP", "GUAM": "GU",
   "KANSAS": "KS", "FLORIDA": "FL", "AMERICAN SAMOA": "AS", "NORTH CAROLINA": "NC", "HAWAII": "HI",
   "NEW YORK": "NY", "CALIFORNIA": "CA", "ALABAMA": "AL", "IDAHO": "ID",
   "FEDERATED STATES OF MICRONESIA": "FM",
   "Armed Forces Americas": "AA", "DELAWARE": "DE", "ALASKA": "AK", "ILLINOIS": "IL",
   "Armed Forces Africa": "AE", "SOUTH DAKOTA": "SD", "CONNECTICUT": "CT", "MONTANA": "MT",
   "MASSACHUSETTS": "MA",
   "PUERTO RICO": "PR", "Armed Forces Canada": "AE", "NEW HAMPSHIRE": "NH", "MARYLAND": "MD",
   "NEW MEXICO": "NM",
   "MISSISSIPPI": "MS", "TENNESSEE": "TN", "PALAU": "PW", "COLORADO": "CO",
   "Armed Forces Middle East": "AE",
   "NEW JERSEY": "NJ", "UTAH": "UT", "MICHIGAN": "MI", "WEST VIRGINIA": "WV", "WASHINGTON": "WA",
   "MINNESOTA": "MN", "OREGON": "OR", "VIRGINIA": "VA", "VIRGIN ISLANDS": "VI",
   "MARSHALL ISLANDS": "MH",
   "WYOMING": "WY", "OHIO": "OH", "SOUTH CAROLINA": "SC", "INDIANA": "IN", "NEVADA": "NV",
   "LOUISIANA": "LA",
   "NORTHERN MARIANA ISLANDS": "MP", "NEBRASKA": "NE", "ARIZONA": "AZ", "WISCONSIN": "WI",
   "NORTH DAKOTA": "ND",
   "Armed Forces Europe": "AE", "PENNSYLVANIA": "PA", "OKLAHOMA": "OK", "KENTUCKY": "KY",
   "RHODE ISLAND": "RI",
   "DISTRICT OF COLUMBIA": "DC", "ARKANSAS": "AR", "MISSOURI": "MO", "TEXAS": "TX", "MAINE": "ME"}
 states = list(state_to_code.keys()) # 把字典中的key拿出來(lái)放到states列表中
 print(fuzz.ratio('Python Package', 'PythonPackage')) #計(jì)算Python Package與PythonPackage的相似度
 print(process.extract('Mississippi', states)) # Mississippi與states中哪個(gè)最接近,并且列出相似比,不考慮大小寫(xiě)
 print(process.extract('Mississipi', states, limit=1)) # limit=1代表只取最接近的一個(gè)
 print(process.extractOne('Mississipi', states)) # extractOne代表只取最接近的一個(gè)
 data.apply(find_state_code, axis=1) #apply表示對(duì)每一行(axis=1)的數(shù)據(jù)做find_state_code的變換
 
 print('Before Correct State:\n', data['state']) # 打印修改之前的state
 data['state'] = data.apply(correct_state, axis=1) # 檢測(cè)每一行,并對(duì)其修改
 print('After Correct State:\n', data['state'])
 data.insert(5, 'State Code', np.nan) # 插入State Code這一列,為這一列州名的縮寫(xiě)
 data['State Code'] = data.apply(fill_state_code, axis=1)
 print(data)
 
 # group by
 print('==============group by================')
 print(data.groupby('State Code'))
 print('All Columns:\n')
 print(data.groupby('State Code').sum()) # 按州名縮寫(xiě)劃分,并將同樣州名的數(shù)字相加
 print('Short Columns:\n')
 print(data[['State Code', 'Jan', 'Feb', 'Mar', 'total']].groupby('State Code').sum())
 
 # 寫(xiě)入文件
 data.to_excel('sales_result.xls', sheet_name='Sheet1', index=False)

補(bǔ)充:pandas基于多條件文本模糊查詢(xún),list,str.contains()

針對(duì)文本的模糊查詢(xún)可以用str.contains()進(jìn)行,但是如果多條件呢,幾十個(gè)上百個(gè),不能一個(gè)一個(gè)去查詢(xún)。

思路是

1.將多條件簡(jiǎn)歷在一個(gè)列表里

2.通過(guò)列表推導(dǎo)式加str.contains()函數(shù)和sum()函數(shù)求和

3.通過(guò)loc篩選出我們需要的本文的內(nèi)容

創(chuàng)建

需要篩選的內(nèi)容words列表,之后進(jìn)行篩選、

下面顯示的是sum函數(shù)里的內(nèi)容的最后形式,1和2都相當(dāng)于True,0代表False

有時(shí)間寫(xiě)一個(gè)更簡(jiǎn)單的的另一種多條件模糊篩選。

以上為個(gè)人經(jīng)驗(yàn),希望能給大家一個(gè)參考,也希望大家多多支持腳本之家。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教。

相關(guān)文章

  • Pytorch 實(shí)現(xiàn)自定義參數(shù)層的例子

    Pytorch 實(shí)現(xiàn)自定義參數(shù)層的例子

    今天小編就為大家發(fā)信息一篇Pytorch 實(shí)現(xiàn)自定義參數(shù)層的例子,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2019-08-08
  • Python argparse模塊應(yīng)用實(shí)例解析

    Python argparse模塊應(yīng)用實(shí)例解析

    這篇文章主要介紹了Python argparse模塊應(yīng)用實(shí)例解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-11-11
  • Python實(shí)現(xiàn)報(bào)警信息實(shí)時(shí)發(fā)送至郵箱功能(實(shí)例代碼)

    Python實(shí)現(xiàn)報(bào)警信息實(shí)時(shí)發(fā)送至郵箱功能(實(shí)例代碼)

    這篇文章主要介紹了Python實(shí)現(xiàn)報(bào)警信息實(shí)時(shí)發(fā)送至郵箱,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2019-11-11
  • 淺析Python中signal包的使用

    淺析Python中signal包的使用

    這篇文章主要介紹了Python中signal包的使用,主要在Linux系統(tǒng)下對(duì)進(jìn)程信號(hào)進(jìn)行相關(guān)操作,需要的朋友可以參考下
    2015-11-11
  • Python計(jì)算指定日期是今年的第幾天(三種方法)

    Python計(jì)算指定日期是今年的第幾天(三種方法)

    這篇文章主要介紹了Python三種方法計(jì)算指定日期是今年的第幾天,本文通過(guò)實(shí)例代碼給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-03-03
  • python MySQLdb使用教程詳解

    python MySQLdb使用教程詳解

    本文主要內(nèi)容python MySQLdb數(shù)據(jù)庫(kù)批量插入insert,更新update的相關(guān)知識(shí),感興趣的朋友跟隨腳本之家小編一起看看吧
    2018-03-03
  • Python實(shí)現(xiàn)繪制多種激活函數(shù)曲線(xiàn)詳解

    Python實(shí)現(xiàn)繪制多種激活函數(shù)曲線(xiàn)詳解

    所謂激活函數(shù)(Activation?Function),就是在人工神經(jīng)網(wǎng)絡(luò)的神經(jīng)元上運(yùn)行的函數(shù),負(fù)責(zé)將神經(jīng)元的輸入映射到輸出端。這篇文章主要介紹了Python如何實(shí)現(xiàn)繪制多種激活函數(shù)曲線(xiàn),希望對(duì)大家有所幫助
    2023-04-04
  • Python裝飾器如何實(shí)現(xiàn)修復(fù)過(guò)程解析

    Python裝飾器如何實(shí)現(xiàn)修復(fù)過(guò)程解析

    這篇文章主要介紹了Python裝飾器如何實(shí)現(xiàn)修復(fù)過(guò)程解析,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2020-09-09
  • Opencv圖像處理方法最全總結(jié)

    Opencv圖像處理方法最全總結(jié)

    這篇文章主要給大家介紹了關(guān)于Opencv圖像處理方法的相關(guān)資料,OpenCV是一個(gè)開(kāi)源的計(jì)算機(jī)視覺(jué)庫(kù),提供了很多圖像處理、計(jì)算機(jī)視覺(jué)和機(jī)器學(xué)習(xí)等方面的函數(shù)和工具,被廣泛應(yīng)用于各種計(jì)算機(jī)視覺(jué)領(lǐng)域的研究和應(yīng)用中,需要的朋友可以參考下
    2024-06-06
  • Python基于Floyd算法求解最短路徑距離問(wèn)題實(shí)例詳解

    Python基于Floyd算法求解最短路徑距離問(wèn)題實(shí)例詳解

    這篇文章主要介紹了Python基于Floyd算法求解最短路徑距離問(wèn)題,結(jié)合完整實(shí)例形式詳細(xì)分析了Python使用Floyd算法求解最短路徑距離問(wèn)題的相關(guān)操作技巧與注意事項(xiàng),需要的朋友可以參考下
    2018-05-05

最新評(píng)論