linux 下python多線程遞歸復(fù)制文件夾及文件夾中的文件
本文是利用python 復(fù)制文件夾 剛開始寫了一個普通的遞歸復(fù)制文件夾 然后想了想 覺得對io頻繁的程序 threading 線程還比較友好 就寫了個多線程版本的 最惡心人的地方就是路徑 其他都還好吧
import os import threading import multiprocessing length_of_folder = 0 def copyfile(Path): if os.path.isdir(Path): print("-----------%s" % ("Testfortherading_" + '/' + Path[length_of_folder:])) os.makedirs("Testforthreading_" + '/' + Path[length_of_folder:]) filenames = os.listdir(Path) for filename in filenames: if os.path.isdir(Path + '/' + filename): #ps = "Testforthreading_" +"/" + Path[length_of_folder:] #print("%s" % (ps + '/' + filename)) #os.mkdir(ps + '/' + filename) temp = Path + '/' + filename t = threading.Thread(target=copyfile , args=(temp,)) t.start() else: f = open(Path + '/' + filename , 'rb') content = f.read() F = open('Testforthreading_' + '/' + Path[length_of_folder:]+ '/' + filename , 'wb') F.write(content) f.close() F.close() def main(): """""" foldername = input("Please input the folder you want to copy:") length_of_folder = len(foldername) if os.path.isdir("Testforthreading_"): os.removedirs("Testforthreading_") os.mkdir("Testforthreading_") copyfile(foldername) #p = multiprocessing.Pool(10) #que = multiprocessing.Manager().Queue() if __name__ == "__main__": main()
ps:Python多進程遞歸復(fù)制文件夾中的文件
import multiprocessing import os import reimport time # 源文件夾地址、目標(biāo)文件夾地址 SOUR_PATH = "" DEST_PATH = "" # 源文件列表 文件夾列表 SOUR_FILE_LIST = list() SOUR_DIR_LIST = list() def traverse(source_path): """遞歸遍歷源文件夾,獲取文件夾列表、文件列表 :param source_path: 用戶指定的源路徑 """ if os.path.isdir(source_path): SOUR_DIR_LIST.append(source_path) for temp in os.listdir(source_path): new_source_path = os.path.join(source_path, temp) traverse(new_source_path) else: SOUR_FILE_LIST.append(source_path) def copy_files(queue, sour_file, dest_file): """復(fù)制文件列表中的文件到指定文件夾 :param queue: 隊列,用于監(jiān)測進度 :param sour_file: :param dest_file: """ # time.sleep(0.1) try: old_f = open(sour_file, "rb") new_f = open(dest_file, "wb") except Exception as ret: print(ret) else: content = old_f.read() new_f.write(content) old_f.close() new_f.close() queue.put(sour_file) def main(): source_path = input("請輸入需要復(fù)制的文件夾的路徑:\n") SOUR_PATH = source_path DEST_PATH = SOUR_PATH + "[副本]" # dest_path = input("請輸入目標(biāo)文件夾路徑") # DEST_PATH = dest_path print(">>>源文件夾路徑:", SOUR_PATH) print(">目標(biāo)文件夾路徑:", DEST_PATH) print("開始計算文件...") queue = multiprocessing.Manager().Queue() po = multiprocessing.Pool(5) traverse(source_path) print("創(chuàng)建目標(biāo)文件夾...") for sour_dir in SOUR_DIR_LIST: dest_dir = sour_dir.replace(SOUR_PATH, DEST_PATH) try: os.mkdir(dest_dir) except Exception as ret: print(ret) else: print("\r目標(biāo)文件夾 %s 創(chuàng)建成功" % DEST_PATH, end="") print() print("開始復(fù)制文件") for sour_file in SOUR_FILE_LIST: dest_file = sour_file.replace(SOUR_PATH, DEST_PATH) po.apply_async(copy_files, args=(queue, sour_file, dest_file)) count_file = len(SOUR_FILE_LIST) count = 0 while True: q_sour_file = queue.get() if q_sour_file in SOUR_FILE_LIST: count += 1 rate = count * 100 / count_file print("\r文件復(fù)制進度: %.2f%% %s" % (rate, q_sour_file), end="") if rate >= 100: break print() ret = re.match(r".*\\([^\\]+)", SOUR_PATH) name = ret.group(1) print("文件夾 %s 復(fù)制完成" % name) if __name__ == '__main__': main()
總結(jié)
以上所述是小編給大家介紹的linux 下python多線程遞歸復(fù)制文件夾及文件夾中的文件,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復(fù)大家的。在此也非常感謝大家對腳本之家網(wǎng)站的支持!
如果你覺得本文對你有幫助,歡迎轉(zhuǎn)載,煩請注明出處,謝謝!
相關(guān)文章
Python數(shù)據(jù)可視化JupyterNotebook繪圖生成高清圖片
這篇文章主要為大家介紹了Python數(shù)據(jù)可視化中如何利用Jupyter Notebook繪圖生成高清圖片,有需要的朋友可以借鑒參考下,希望能夠有所幫助2021-09-09Python讀取和寫入txt、Excel文件和JSON文件的方法
Python 提供了多種方法來讀取和寫入不同類型的文件,包括文本文件(txt)、Excel 文件和 JSON 文件,本文給大家介紹了一些常用的方法和示例代碼,對大家的學(xué)習(xí)或工作有一定的幫助,需要的朋友可以參考下2024-07-07Tensorflow 自帶可視化Tensorboard使用方法(附項目代碼)
這篇文章主要介紹了Tensorflow 自帶可視化Tensorboard使用方法(附項目代碼),小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧2018-02-02keras中的loss、optimizer、metrics用法
這篇文章主要介紹了keras中的loss、optimizer、metrics用法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2020-06-06