Python 如何對文件目錄操作
概述
I/O操作不僅包括屏幕輸入輸出,還包括文件的讀取與寫入,Python提供了很多必要的方法和功能,進行文件及文件夾的相關(guān)操作。本文主要通過兩個簡單的小例子,簡述Python在文件夾及文件的應(yīng)用,僅供學習分享使用,如有不足之處,還請指正。
涉及知識點
os模塊:os 模塊提供了非常豐富的方法用來處理文件和目錄。
open方法:open方法用于打開一個文件,用于讀取和寫入。
實例1:獲取指定目錄下所有的文件大小,并找出最大文件及最小文件
分解步驟:
遍歷文件夾下所有的子文件及子文件夾(需要遞歸),并計算每一個文件的大小
計算所有文件的大小總和
找出最大文件及最小文件
核心代碼
定義一個方法get_file_size,獲取單個文件的大小,單位有KB和MB兩種。關(guān)鍵點如下所示:
- os.path.getsize 用于獲取指定文件的大小,單位是Byte。
- round為四舍五入函數(shù),保留指定位數(shù)的小數(shù)。
def get_file_size(file_path, KB=False, MB=False): """獲取文件大小""" size = os.path.getsize(file_path) if KB: size = round(size / 1024, 2) elif MB: size = round(size / 1024 * 1024, 2) else: size = size return size
定義一個方法list_files,遍歷指定文件目錄,并存入字典當中。關(guān)鍵點如下所示:
- os.path.isfile 用于判斷給定的路徑是文件還是文件夾。
- os.listdir 用于獲取指定目錄下所有的文件及文件夾,返回一個列表,但是只是當前文件夾的名稱,并不是全路徑。
- os.path.join 用于拼接兩個路徑
def list_files(root_dir): """遍歷文件""" if os.path.isfile(root_dir): # 如果是文件 size = get_file_size(root_dir, KB=True) file_dict[root_dir] = size else: # 如果是文件夾,則遍歷 for f in os.listdir(root_dir): # 拼接路徑 file_path = os.path.join(root_dir, f) if os.path.isfile(file_path): # 如果是一個文件 size = get_file_size(file_path, KB=True) file_dict[file_path] = size else: list_files(file_path)
計算總大小和最大文件及最小文件,如下所示:
通過比較字典value的大小,返回對應(yīng)的key的名稱。關(guān)鍵點如下所示:
- max_file = max(file_dict, key=lambda x: file_dict[x])
- min_file = min(file_dict, key=lambda x: file_dict[x])
if __name__ == '__main__': list_files(root_dir) # print( len(file_dict)) # 計算文件目錄大小 total_size = 0 # 遍歷字典的key for file in file_dict: total_size += file_dict[file] print('total size is : %.2f' % total_size) # 找最大最小文件 max_file = max(file_dict, key=lambda x: file_dict[x]) min_file = min(file_dict, key=lambda x: file_dict[x]) print('max file is : ', max_file, '\n file size is :', file_dict[max_file]) print('min file is : ', min_file, '\n file size is :', file_dict[min_file])
實例2:將兩個文本文件中的內(nèi)容進行合并,并保存到文件中
兩個文件內(nèi)容,如下圖所示:
分解步驟:
- 讀取兩個文件中的內(nèi)容并進行解析出key和value,存入字典當中(兩個字典,分別存儲兩個文件的內(nèi)容)。
- 遍歷第1個字典,并查找第2個字典當中相同key的值,如不存在,則只顯示第1個內(nèi)容,如存在,則進行合并。
- 遍歷第2個字典,并查找不在第1個字典當中的key的值,進行累加。
- 將拼接后的列表存入文件當中。
核心代碼
定義一個函數(shù)read_book,用于讀取兩個文件的內(nèi)容。關(guān)鍵點如下所示:
- open函數(shù)用于打開一個文件,文件編碼為UTF-8。
- readlines用于讀取所有的行,并返回一個列表。
- split用于分割字符串為數(shù)組。
def read_book(): """讀取內(nèi)容""" # 讀取一個文件 file1 = open('book1.txt', 'r', encoding='UTF-8') lines1 = file1.readlines() file1.close() for line in lines1: line = line.strip() # 去空白 content = line.split(',') book1[content[0]] = content[1] # 另一種方式,讀取另一個文件,不需要close,會自動關(guān)閉 with open('book2.txt', 'r', encoding='UTF-8') as file2: lines2 = file2.readlines() for line in lines2: line = line.strip() # 去空白 content = line.split(',') book2[content[0]] = content[1]
定義一個函數(shù),用于合并內(nèi)容,并保存。關(guān)鍵點如下所示:
- append 用于為數(shù)組添加新元素。
- dict.keys函數(shù) 用于返回所有的key。
- join函數(shù)用于將數(shù)組轉(zhuǎn)換成字符串,并以對應(yīng)字符分割。
- writelines 用于寫入所有的行到文件。
- with語法,當執(zhí)行結(jié)束時,自動close,并釋放資源。
def merge_book(): """合并內(nèi)容""" lines = [] # 定義一個空列表 header = '姓名\t 電話\t 文本\n' lines.append(header) # 遍歷第一個字典 for key in book1: line = '' if key in book2.keys(): line = line + '\t'.join([key, book1[key], book2[key]]) line += '\n' else: line = line + '\t'.join([key, book1[key], ' *****']) line += '\n' lines.append(line) # 遍歷第2個,將不包含在第1個里面的寫入 for key in book2: line = '' if key not in book1.keys(): line = line + '\t'.join([key, ' *****', book2[key]]) line += '\n' lines.append(line) # 寫入book3 with open('book3.txt', 'w', encoding='UTF-8') as f: f.writelines(lines)
整體調(diào)用,如下所示:
if __name__ == '__main__': # 讀取內(nèi)容 read_book() # 合并內(nèi)容 merge_book() # print(book1) # print(book2)
最后拼接后生成的文件,如下所示:
通過以上兩個例子,可以大致了解文件及目錄操作的一些方法及步驟。
以上就是Python 如何對文件目錄操作的詳細內(nèi)容,更多關(guān)于Python 文件目錄操作的資料請關(guān)注腳本之家其它相關(guān)文章!
相關(guān)文章
Python實現(xiàn)將json文件中向量寫入Excel的方法
這篇文章主要介紹了Python實現(xiàn)將json文件中向量寫入Excel的方法,涉及Python讀取、遍歷json格式數(shù)據(jù)及Excel文件寫入相關(guān)操作技巧,需要的朋友可以參考下2018-03-03python中使用百度音樂搜索的api下載指定歌曲的lrc歌詞
這篇文章主要介紹了python中使用百度音樂搜索的api下載指定歌曲的lrc歌詞,同時也分析出了歌曲的下載地址,需要的朋友可以參考下2014-07-07python使用Scrapy庫進行數(shù)據(jù)提取和處理的方法詳解
在我們的初級教程中,我們介紹了如何使用Scrapy創(chuàng)建和運行一個簡單的爬蟲,在這篇文章中,我們將深入了解Scrapy的強大功能,學習如何使用Scrapy提取和處理數(shù)據(jù)2023-09-09