欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

如何利用python批量提取txt文本中所需文本并寫入excel

 更新時(shí)間:2022年07月27日 10:49:07   作者:我想有很多頭發(fā)和很多錢  
最近幫人寫了幾個(gè)小程序,所以記錄下,下面這篇文章主要給大家介紹了關(guān)于如何利用python批量提取txt文本中所需文本并寫入excel的相關(guān)資料,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下

1.提取txt文本

我想要的文本

我想要的文本是如圖所示,寶可夢(mèng)的外貌描述文本,由于原本的數(shù)據(jù)源結(jié)構(gòu)并不是很穩(wěn)定,而且也不是表格形式,因此在csdn上查了半天。

最原始的一行一行提?。ú唤ㄗh,未采用)

fi = open("D:\python_learning\data\data\Axew.txt","r",encoding="utf-8")
wflag =False                #寫標(biāo)記
newline = []                #創(chuàng)建一個(gè)新的列表


for line in fi :            #按行讀入文件,此時(shí)line的type是str
    if "=" in line:        #重置寫標(biāo)記
        wflag =False
    if "原型剖析" in line:     #檢驗(yàn)是否到了要寫入的內(nèi)容
        wflag = True
        continue
    if wflag == True:
        K = list(line)
        if len(K)>1:           #去除文本中的空行
            for i in K :       #寫入需要內(nèi)容
                newline.append(i)

strlist = "".join(newline)      #合并列表元素
newlines = str(strlist)         #list轉(zhuǎn)化成str
print(newlines)
"""
for D in range(1,100):                       #刪掉句中()
    newlines = newlines.replace("({})".format(D),"")

for P in range(0,9):                               #刪掉前面數(shù)值標(biāo)題
    for O in  range(0,9):
        for U in range(0, 9):
           newlines = newlines.replace("{}.{}{}".format(P,O,U), "")
fo.write(newlines)

fo.close()
fi.close()

"""

源代碼為:將提取出的txt文本儲(chǔ)存到另外一個(gè)txt中,跟我的需求不符合,因此注釋掉了

正則表達(dá)式提取

由于txt文件打開后不是數(shù)據(jù)格式,因此先轉(zhuǎn)為列表形式(一行是一個(gè)元素);再將列表元素合到一起,轉(zhuǎn)為一個(gè)元素。
re.compile函數(shù)可以創(chuàng)建正則函數(shù)

pattern= re.compile(r’=棲息地=\n(.*?)\n==’, flags=re.DOTALL)

flags=re.DOTALL 這樣找尋文本時(shí)可以跨行;

’=棲息地=\n(.*?)\n==’ 正則表達(dá)式表示只要小括號(hào)里面的以‘=棲息地=\n’開頭,‘\n==’結(jié)尾的所有文本

pattern.findall函數(shù)可以在文本中找到符合正則函數(shù)的文本,但是莫名其妙會(huì)重復(fù)好多次,這個(gè)問題應(yīng)該是我哪里寫錯(cuò)了,但是因?yàn)閷?shí)在沒空糾結(jié)這個(gè),所以直接用result=pattern.findall(f2)[0]來提取第一個(gè)。

path='D:\\python_learning\\data\\data\\'+df.iloc[0,3]+'.txt'
#為循環(huán)做準(zhǔn)備
import re

f1=list(open(path,"r",encoding="utf-8"))#列表格式
f2="".join(f1)#合并列表元素
#print(type(f3))

pattern= re.compile(r'===棲息地===\n(.*?)\n==', flags=re.DOTALL)#在所有行里找以‘===棲息地===\n'開頭,‘\n=='結(jié)尾的所有文本

if len(pattern.findall(f2))==0:#有可能找不到,以防報(bào)錯(cuò)
    result='none'
else:
        result=pattern.findall(f2)[0]

print(result)

2.增加數(shù)據(jù)框的列

由于我需要在已有數(shù)據(jù)集上增加上面提取到的文本數(shù)據(jù),因此我準(zhǔn)備先把csv數(shù)據(jù)放到Python里變成數(shù)據(jù)框,再把數(shù)據(jù)框里擴(kuò)列,再改內(nèi)容,再寫入新的csv。

參考了代碼,這個(gè)比較亂,只看第一個(gè)import下面就行,我單純就是留個(gè)記錄:

#數(shù)據(jù)框增加列的參考
import pandas as pd
df = pd.DataFrame(columns = list('abcd'),data = [[6,7,8,9],[10,11,12,13]])
#在b列前面增加一個(gè)m列
col_name = list(df.columns)
col_name.insert(1,'m')
df.reindex(columns = col_name,fill_value = 12)
#在b列前一次性增加三列h,n,g
col_name = col_name[0:2]+list('hng')+col_name[2:]
df.reindex(columns = col_name,fill_value = 10)
import pandas as pd

df = pd.DataFrame(columns =word,data = [['Bulbasaur',7,8,9],[10,11,12,13]])
print(df)
col_name = list(df.columns)#列名
print(col_name )
#在b列前面增加一個(gè)m列

col_name.insert(1,'m')
print(col_name)
df=df.reindex(columns =['name','概述', '外貌', '棲息地', '原型剖析'],fill_value = 12)
print(df)

3.引入基礎(chǔ)csv數(shù)據(jù),并擴(kuò)列

是之后循環(huán)和寫入的基礎(chǔ)

import pandas as pd
data_name = pd.read_csv(r'D:\python_learning\data\basedata.csv')
#print(data_name)
word=['概述','外貌','棲息地','原型剖析']
col_name = list(data_name.columns)#列名
col_name = col_name +word#添加新的列名
#print(col_name )
df=data_name.reindex(columns = col_name,fill_value =' ')#在數(shù)據(jù)框中增加四列,填充空格
print(df)
#print(df.iloc[2,2])

我的數(shù)據(jù)是這樣的:

匯總

把上面的放在一起,并且把需要循環(huán)的模塊寫成函數(shù):

# #  引入包

# In[ ]:

import re
import pandas as pd

# # 引入基礎(chǔ)數(shù)據(jù)

# In[135]:

data_name = pd.read_csv(r'D:\python_learning\data\basedata.csv')
#print(data_name)
word=['概述','外貌','棲息地','原型剖析']

col_name = list(data_name.columns)#列名
col_name = col_name +word#添加新的列名

#print(col_name )
df=data_name.reindex(columns = col_name,fill_value =' ')#在數(shù)據(jù)框中增加四列,填充空格
#print(df)
#print(df.iloc[2,2])

# # 引入函數(shù)

# In[ ]:

#去除空行函數(shù)
def deletespace(path1,path2):
    with open(path1,'r',encoding = 'utf-8') as fr,open(path2,'w',encoding = 'utf-8') as fd:
            for text in fr.readlines():
                    if text.split():
                            fd.write(text)
            print('輸出成功....')
    fr.close()
    fd.close()

# In[143]:

#正則找文本
def find(path,conversion):
    f1=list(open(path,"r",encoding="utf-8"))#列表格式
    f2="".join(f1)#合并列表元素
    #print(type(f3))

    pattern= re.compile(conversion, flags=re.DOTALL)#在所有行里找以‘===棲息地===\n'開頭,‘\n=='結(jié)尾的所有文本

    if len(pattern.findall(f2))==0:#有可能找不到,以防報(bào)錯(cuò)
        result='none'
    else:
            result=pattern.findall(f2)[0]
    return result

# # 起始準(zhǔn)備 把所有空行消除,不需要運(yùn)行第二遍

# In[ ]:

data_name = pd.read_csv(r'D:\python_learning\data\basedata.csv')
for word in df.iloc[:,3]:
    path1='D:\\python_learning\\data\\data\\'+word+'.txt'#爬蟲獲取的數(shù)據(jù)
    path2='D:\\python_learning\\data\\description\\'+word+'.txt'
    deletespace(path1,path2)

# # 開始循環(huán)

# In[ ]:

word=['概述','外貌','棲息地','原型剖析']#根據(jù)文本中情況進(jìn)行正則
conversion=['==概述==\n(.*?)==','===外貌===\n(.*?)==','===棲息地===\n(.*?)==','==原型剖析==\n(.*?)==']#正則文本

word1=col_name[7]
print(word1)
newlines=seek(path,word1)
print(newlines)

# In[145]:

print(len(df))
print(len(list(df.columns)))

# In[150]:

for i in range(len(df)):
    for j in range(6,len(list(df.columns))):
        path='D:\\python_learning\\data\\description\\'+df.iloc[i,3]+'.txt'
        k=j-6
        cword=conversion[k]
        result=find(path,cword)
        df.iloc[i,j]=result
# In[152]:

df.to_csv('df.csv',encoding ='utf_8_sig')#輸出中文必須用這個(gè)utf_8_sig  編碼才是中文
print("已輸出文檔")
#出現(xiàn)問題,很多匹配不到,發(fā)現(xiàn)是原始文本的原因

總之我文本描述的準(zhǔn)備是差不多了。

總結(jié) 

到此這篇關(guān)于如何利用python批量提取txt文本中所需文本并寫入excel的文章就介紹到這了,更多相關(guān)python批量提取txt文本寫入excel內(nèi)容請(qǐng)搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

最新評(píng)論