欧美bbbwbbbw肥妇,免费乱码人妻系列日韩,一级黄片

使用Python實(shí)現(xiàn)讀寫文件自動(dòng)化的幾種方法

 更新時(shí)間:2025年08月05日 08:57:53   作者:小磊哥er  
在日常工作中,文件操作是最基礎(chǔ)也是最常見的任務(wù)之一,無論是批量處理數(shù)據(jù)文件,還是整理工作文檔,掌握高效的文件讀寫技巧都能極大提升工作效率,本文將介紹幾種實(shí)用的Python文件操作方法,幫助你輕松應(yīng)對各種文件處理需求,需要的朋友可以參考下

引言

在日常工作中,文件操作是最基礎(chǔ)也是最常見的任務(wù)之一。無論是批量處理數(shù)據(jù)文件,還是整理工作文檔,掌握高效的文件讀寫技巧都能極大提升工作效率。本文將介紹幾種實(shí)用的Python文件操作方法,幫助你輕松應(yīng)對各種文件處理需求。

使用pathlib庫操作文件

傳統(tǒng)的文件路徑處理往往依賴于os和os.path模塊,代碼繁瑣且平臺(tái)兼容性差。而Python 3.4引入的pathlib庫提供了面向?qū)ο蟮奈募到y(tǒng)路徑處理方式,使代碼更簡潔、更易讀。

基本路徑操作

from pathlib import Path

# 創(chuàng)建路徑對象
file_path = Path('工作報(bào)告.docx')
project_dir = Path('/Users/sunlei/projects')

# 路徑拼接(無需擔(dān)心斜杠問題)
doc_path = project_dir / 'documents' / file_path
print(doc_path)  # 輸出: /Users/sunlei/projects/documents/工作報(bào)告.docx

# 獲取路徑信息
print(doc_path.name)      # 輸出: 工作報(bào)告.docx
print(doc_path.suffix)    # 輸出: .docx
print(doc_path.stem)      # 輸出: 工作報(bào)告
print(doc_path.parent)    # 輸出: /Users/sunlei/projects/documents

文件重命名與刪除

對文件進(jìn)行重命名是常見的需求,通過pathlib庫的Path.rename方法可以輕松實(shí)現(xiàn)對某文件的重命名操作。

from pathlib import Path
import datetime

# 獲取當(dāng)前日期
today = datetime.date.today().strftime('%Y%m%d')

# 批量重命名文件(添加日期前綴)
def rename_with_date(directory, pattern='*.txt'):
    dir_path = Path(directory)
    for file_path in dir_path.glob(pattern):
        # 構(gòu)建新文件名
        new_name = f"{today}_{file_path.name}"
        new_path = file_path.with_name(new_name)
        
        # 執(zhí)行重命名
        file_path.rename(new_path)
        print(f"已重命名: {file_path.name} -> {new_name}")

# 使用示例
rename_with_date('./reports')

Path.unlink方法等價(jià)于os.remove方法,用于刪除已存在的文件;Path.rmdir方法等價(jià)于os.rmdir方法,用于刪除空的目錄,如果目錄非空,該方法會(huì)拋出異常。

# 安全刪除文件
def safe_delete(file_path):
    path = Path(file_path)
    if path.exists():
        if path.is_file():
            path.unlink()
            print(f"已刪除文件: {path}")
        elif path.is_dir() and not any(path.iterdir()):
            path.rmdir()
            print(f"已刪除空目錄: {path}")
        else:
            print(f"目錄非空,無法刪除: {path}")
    else:
        print(f"路徑不存在: {path}")

文件查找與遍歷

使用的listdir()函數(shù)返回的只是文件和子文件夾的名稱,而pathlib的glob()函數(shù)返回的則是文件和子文件夾的完整路徑對象,更加方便操作。

# 查找所有Excel文件并按修改時(shí)間排序
def find_excel_files(directory):
    dir_path = Path(directory)
    excel_files = list(dir_path.glob('**/*.xlsx')) + list(dir_path.glob('**/*.xls'))
    
    # 按修改時(shí)間排序
    excel_files.sort(key=lambda x: x.stat().st_mtime, reverse=True)
    
    print(f"找到 {len(excel_files)} 個(gè)Excel文件:")
    for file in excel_files[:5]:  # 只顯示前5個(gè)
        mod_time = datetime.datetime.fromtimestamp(file.stat().st_mtime)
        print(f"{file.name} - 修改時(shí)間: {mod_time.strftime('%Y-%m-%d %H:%M')}")
    
    return excel_files

文件讀寫操作

pathlib還提供了簡便的文件讀寫方法,無需傳統(tǒng)的open()函數(shù):

# 讀取文本文件
def read_log_file(log_path):
    path = Path(log_path)
    if path.exists() and path.is_file():
        # 直接讀取文本內(nèi)容
        content = path.read_text(encoding='utf-8')
        lines = content.split('\n')
        print(f"日志共 {len(lines)} 行")
        
        # 查找錯(cuò)誤信息
        error_lines = [line for line in lines if 'ERROR' in line]
        if error_lines:
            print(f"發(fā)現(xiàn) {len(error_lines)} 條錯(cuò)誤記錄:")
            for line in error_lines[:3]:  # 只顯示前3條
                print(f"- {line}")
    else:
        print(f"日志文件不存在: {path}")

# 寫入文本文件
def append_to_log(log_path, message):
    path = Path(log_path)
    timestamp = datetime.datetime.now().strftime('%Y-%m-%d %H:%M:%S')
    log_entry = f"[{timestamp}] {message}\n"
    
    # 追加內(nèi)容到文件
    path.write_text(log_entry, encoding='utf-8') if not path.exists() else path.open('a', encoding='utf-8').write(log_entry)
    print(f"日志已更新: {path}")

使用zipfile、tarfile壓縮解壓文件

在處理大量文件時(shí),壓縮和解壓是常見的需求。Python中提供了zipfile與tarfile內(nèi)置庫來分別實(shí)現(xiàn)對兩種常見壓縮文件格式的操作。

ZIP文件操作

import zipfile
from pathlib import Path
import os

# 創(chuàng)建ZIP壓縮文件
def create_zip_archive(directory, zip_name=None):
    dir_path = Path(directory)
    
    # 如果沒有指定壓縮包名稱,使用目錄名
    if zip_name is None:
        zip_name = f"{dir_path.name}.zip"
    
    zip_path = dir_path.parent / zip_name
    
    # 創(chuàng)建壓縮文件
    with zipfile.ZipFile(zip_path, 'w', zipfile.ZIP_DEFLATED) as zipf:
        # 遍歷目錄下所有文件
        for file_path in dir_path.rglob('*'):
            if file_path.is_file():
                # 計(jì)算相對路徑作為壓縮包內(nèi)路徑
                rel_path = file_path.relative_to(dir_path.parent)
                zipf.write(file_path, rel_path)
                print(f"已添加: {rel_path}")
    
    print(f"壓縮完成: {zip_path},大小: {zip_path.stat().st_size / 1024:.2f} KB")
    return zip_path

# 解壓ZIP文件
def extract_zip_archive(zip_path, extract_to=None):
    zip_path = Path(zip_path)
    
    # 如果沒有指定解壓目錄,使用當(dāng)前目錄
    if extract_to is None:
        extract_to = zip_path.parent / zip_path.stem
    
    extract_path = Path(extract_to)
    extract_path.mkdir(exist_ok=True)
    
    with zipfile.ZipFile(zip_path, 'r') as zipf:
        # 獲取壓縮包內(nèi)文件列表
        file_list = zipf.namelist()
        print(f"壓縮包內(nèi)共 {len(file_list)} 個(gè)文件")
        
        # 解壓所有文件
        zipf.extractall(extract_path)
        print(f"解壓完成: {extract_path}")
    
    return extract_path

TAR文件操作

import tarfile
from pathlib import Path

# 創(chuàng)建TAR壓縮文件
def create_tar_archive(directory, tar_name=None, compression='gz'):
    dir_path = Path(directory)
    
    # 如果沒有指定壓縮包名稱,使用目錄名
    if tar_name is None:
        tar_name = f"{dir_path.name}.tar.{compression}"
    
    tar_path = dir_path.parent / tar_name
    
    # 設(shè)置壓縮模式
    mode = f"w:{compression}" if compression else "w"
    
    # 創(chuàng)建壓縮文件
    with tarfile.open(tar_path, mode) as tarf:
        # 添加整個(gè)目錄
        tarf.add(dir_path, arcname=dir_path.name)
        print(f"已添加目錄: {dir_path}")
    
    print(f"壓縮完成: {tar_path},大小: {tar_path.stat().st_size / 1024:.2f} KB")
    return tar_path

# 解壓TAR文件
def extract_tar_archive(tar_path, extract_to=None):
    tar_path = Path(tar_path)
    
    # 如果沒有指定解壓目錄,使用當(dāng)前目錄
    if extract_to is None:
        extract_to = tar_path.parent
    
    extract_path = Path(extract_to)
    extract_path.mkdir(exist_ok=True)
    
    # 自動(dòng)檢測壓縮格式
    with tarfile.open(tar_path, 'r:*') as tarf:
        # 獲取壓縮包內(nèi)文件列表
        file_list = tarf.getnames()
        print(f"壓縮包內(nèi)共 {len(file_list)} 個(gè)文件/目錄")
        
        # 解壓所有文件
        tarf.extractall(extract_path)
        print(f"解壓完成: {extract_path}")
    
    return extract_path

實(shí)際應(yīng)用場景

場景一:日志文件自動(dòng)歸檔

from pathlib import Path
import zipfile
import datetime
import shutil

def archive_logs(log_dir, days_to_keep=30):
    """自動(dòng)歸檔超過指定天數(shù)的日志文件"""
    log_path = Path(log_dir)
    today = datetime.datetime.now()
    archive_dir = log_path / 'archives'
    archive_dir.mkdir(exist_ok=True)
    
    # 獲取所有日志文件
    log_files = list(log_path.glob('*.log'))
    archived_count = 0
    
    for log_file in log_files:
        # 獲取文件修改時(shí)間
        mtime = datetime.datetime.fromtimestamp(log_file.stat().st_mtime)
        days_old = (today - mtime).days
        
        # 如果文件超過保留天數(shù),進(jìn)行歸檔
        if days_old > days_to_keep:
            # 創(chuàng)建年月子目錄
            year_month = mtime.strftime('%Y-%m')
            month_dir = archive_dir / year_month
            month_dir.mkdir(exist_ok=True)
            
            # 創(chuàng)建壓縮文件
            zip_name = f"{log_file.stem}_{mtime.strftime('%Y%m%d')}.zip"
            zip_path = month_dir / zip_name
            
            with zipfile.ZipFile(zip_path, 'w', zipfile.ZIP_DEFLATED) as zipf:
                zipf.write(log_file, log_file.name)
            
            # 刪除原日志文件
            log_file.unlink()
            archived_count += 1
            print(f"已歸檔: {log_file.name} -> {zip_path}")
    
    print(f"歸檔完成,共處理 {archived_count} 個(gè)日志文件")
    return archived_count

場景二:批量文件格式轉(zhuǎn)換

from pathlib import Path
import csv
import json

def convert_csv_to_json(csv_dir, output_dir=None):
    """批量將CSV文件轉(zhuǎn)換為JSON格式"""
    csv_path = Path(csv_dir)
    
    # 如果沒有指定輸出目錄,在原目錄創(chuàng)建json子目錄
    if output_dir is None:
        output_dir = csv_path / 'json_output'
    
    output_path = Path(output_dir)
    output_path.mkdir(exist_ok=True)
    
    # 獲取所有CSV文件
    csv_files = list(csv_path.glob('*.csv'))
    converted_count = 0
    
    for csv_file in csv_files:
        # 讀取CSV文件
        data = []
        try:
            with open(csv_file, 'r', encoding='utf-8', newline='') as f:
                reader = csv.DictReader(f)
                for row in reader:
                    data.append(row)
            
            # 創(chuàng)建對應(yīng)的JSON文件
            json_file = output_path / f"{csv_file.stem}.json"
            with open(json_file, 'w', encoding='utf-8') as f:
                json.dump(data, f, ensure_ascii=False, indent=2)
            
            converted_count += 1
            print(f"已轉(zhuǎn)換: {csv_file.name} -> {json_file.name}")
        except Exception as e:
            print(f"轉(zhuǎn)換失敗: {csv_file.name} - {str(e)}")
    
    print(f"轉(zhuǎn)換完成,共處理 {converted_count} 個(gè)CSV文件")
    return converted_count

通過這些實(shí)用的代碼示例,你可以輕松實(shí)現(xiàn)各種文件操作自動(dòng)化,大幅提高工作效率。無論是日常的文件整理,還是批量的數(shù)據(jù)處理,這些技巧都能幫你節(jié)省大量時(shí)間。

以上就是使用Python實(shí)現(xiàn)讀寫文件自動(dòng)化的幾種方法的詳細(xì)內(nèi)容,更多關(guān)于Python讀寫文件自動(dòng)化的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • Python開發(fā).exe小工具的詳細(xì)步驟

    Python開發(fā).exe小工具的詳細(xì)步驟

    這篇文章主要介紹了Python開發(fā).exe小工具的詳細(xì)步驟,本文給大家介紹的非常詳細(xì),對大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2021-01-01
  • windows下python和pip安裝教程

    windows下python和pip安裝教程

    這篇文章主要為大家詳細(xì)介紹了windows下Python和pip安裝教程,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-05-05
  • 關(guān)于pytorch求導(dǎo)總結(jié)(torch.autograd)

    關(guān)于pytorch求導(dǎo)總結(jié)(torch.autograd)

    這篇文章主要介紹了關(guān)于pytorch求導(dǎo)總結(jié)(torch.autograd),具有很好的參考價(jià)值,希望對大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教
    2023-06-06
  • Python字符串操作實(shí)戰(zhàn)之如何提取子字符串

    Python字符串操作實(shí)戰(zhàn)之如何提取子字符串

    這篇文章主要給大家介紹了關(guān)于Python字符串操作實(shí)戰(zhàn)之如何提取子字符串的相關(guān)資料,字符串是Python中最常用的數(shù)據(jù)類型,大家應(yīng)該都不陌生,文中通過實(shí)例代碼介紹的非常詳細(xì),需要的朋友可以參考下
    2023-06-06
  • python實(shí)現(xiàn)畫一顆樹和一片森林

    python實(shí)現(xiàn)畫一顆樹和一片森林

    這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)畫一顆樹和一片森林,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-06-06
  • Python批量提取PDF文件中文本的腳本

    Python批量提取PDF文件中文本的腳本

    這篇文章主要為大家詳細(xì)介紹了Python批量提取PDF文件中文本的腳本,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2018-03-03
  • Python爬蟲實(shí)戰(zhàn)之使用Scrapy爬取豆瓣圖片

    Python爬蟲實(shí)戰(zhàn)之使用Scrapy爬取豆瓣圖片

    在用Python的urllib和BeautifulSoup寫過了很多爬蟲之后,本人決定嘗試著名的Python爬蟲框架——Scrapy.本次分享將詳細(xì)講述如何利用Scrapy來下載豆瓣名人圖片,需要的朋友可以參考下
    2021-06-06
  • python根據(jù)給定文件返回文件名和擴(kuò)展名的方法

    python根據(jù)給定文件返回文件名和擴(kuò)展名的方法

    這篇文章主要介紹了python根據(jù)給定文件返回文件名和擴(kuò)展名的方法,實(shí)例分析了Python操作文件及字符串的技巧,非常具有實(shí)用價(jià)值,需要的朋友可以參考下
    2015-03-03
  • Django教程筆記之中間件middleware詳解

    Django教程筆記之中間件middleware詳解

    Django 中的中間件(middleware),是一個(gè)鑲嵌到Django的request/response處理機(jī)制中的一個(gè)hooks框架,是一個(gè)修改django全局輸入輸出的一個(gè)底層插件系統(tǒng)。這篇文章主要給大家介紹了關(guān)于Django教程筆記之中間件middleware的相關(guān)資料,需要的朋友可以參考下
    2018-08-08
  • Django 用戶認(rèn)證組件使用詳解

    Django 用戶認(rèn)證組件使用詳解

    這篇文章主要介紹了Django 用戶認(rèn)證組件使用詳解,文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-07-07

最新評(píng)論