百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

Python常用文件操作库使用详解(python文件操作选项)

wptr33 2025-06-15 19:46 73 浏览

Python生态系统提供了丰富的文件操作库,可以处理各种复杂的文件操作需求。本教程将介绍Python中最常用的文件操作库及其实际应用。

一、标准库核心模块

1.1 os模块 - 操作系统接口

主要功能

  • 文件和目录操作
  • 路径操作
  • 环境变量访问
  • 进程管理

常用函数示例

import os

# 文件操作
os.rename('old.txt', 'new.txt')  # 重命名
os.remove('file.txt')            # 删除文件
os.chmod('script.py', 0o755)     # 修改权限

# 目录操作
os.mkdir('new_dir')              # 创建目录
os.rmdir('empty_dir')            # 删除空目录
os.listdir('.')                  # 列出目录内容

# 路径操作
os.path.abspath('file.txt')      # 获取绝对路径
os.path.join('dir', 'file.txt')  # 路径拼接
os.path.getsize('file.txt')      # 获取文件大小

表1:os模块常用函数

函数

描述

返回值

os.getcwd()

获取当前工作目录

字符串

os.chdir(path)

改变工作目录

None

os.listdir(path)

列出目录内容

列表

os.stat(path)

获取文件状态信息

stat_result对象

os.walk(top)

目录树生成器

(dirpath, dirnames, filenames)元组

1.2 shutil模块 - 高级文件操作

主要功能

  • 文件和目录的复制、移动
  • 归档操作
  • 磁盘空间管理

实用示例

import shutil

# 文件复制
shutil.copy('src.txt', 'dst.txt')          # 复制文件内容
shutil.copy2('src.txt', 'dst.txt')         # 复制文件内容和元数据

# 目录复制
shutil.copytree('src_dir', 'dst_dir')      # 递归复制目录

# 文件/目录移动
shutil.move('src', 'dst')                  # 移动文件或目录

# 磁盘空间
total, used, free = shutil.disk_usage('.')  # 获取磁盘使用情况

shutil文件操作流程

二、文件格式处理库

2.1 csv模块 - CSV文件处理

读写CSV文件示例

import csv

# 写入CSV文件
with open('data.csv', 'w', newline='') as f:
    writer = csv.writer(f)
    writer.writerow(['Name', 'Age', 'City'])
    writer.writerow(['Alice', 25, 'New York'])
    writer.writerows([
        ['Bob', 30, 'Chicago'],
        ['Charlie', 35, 'Los Angeles']
    ])

# 读取CSV文件
with open('data.csv', newline='') as f:
    reader = csv.reader(f)
    for row in reader:
        print(row)

# 字典方式读写
with open('data.csv', 'w', newline='') as f:
    fieldnames = ['Name', 'Age', 'City']
    writer = csv.DictWriter(f, fieldnames=fieldnames)
    writer.writeheader()
    writer.writerow({'Name': 'Alice', 'Age': 25, 'City': 'New York'})

CSV方言定制

csv.register_dialect('unix', 
                    delimiter=',', 
                    quoting=csv.QUOTE_MINIMAL,
                    lineterminator='\n')

with open('data.csv', 'w', newline='') as f:
    writer = csv.writer(f, dialect='unix')
    # 使用自定义方言写入

2.2 json模块 - JSON数据处理

JSON文件操作示例

import json

data = {
    "name": "Alice",
    "age": 25,
    "skills": ["Python", "Java"],
    "is_active": True
}

# 写入JSON文件
with open('data.json', 'w') as f:
    json.dump(data, f, indent=2)  # indent参数美化输出

# 读取JSON文件
with open('data.json') as f:
    loaded_data = json.load(f)
    print(loaded_data['name'])

# JSON字符串转换
json_str = json.dumps(data, sort_keys=True)
parsed_data = json.loads(json_str)

表2:json模块参数说明

参数

说明

示例

indent

缩进空格数

2或4

sort_keys

按键排序

True/False

ensure_ascii

非ASCII字符转义

False保留原字符

separators

控制分隔符

(',', ': ')

三、高级文件处理库

3.1 pathlib模块 - 面向对象路径操作

Path对象使用示例

from pathlib import Path

# 创建Path对象
p = Path('dir/subdir/file.txt')

# 常用操作
p.exists()      # 检查路径是否存在
p.is_file()     # 是否是文件
p.is_dir()      # 是否是目录
p.stat()        # 获取文件信息
p.rename('new.txt')  # 重命名

# 路径组合
new_p = p.parent / 'new_dir' / 'new_file.txt'

# 文件读写
content = p.read_text(encoding='utf-8')
p.write_text('Hello', encoding='utf-8')

# 通配符查找
for py_file in Path('.').glob('*.py'):
    print(py_file)

# 递归查找
for py_file in Path('.').rglob('*.py'):
    print(py_file)

实用案例:日志文件清理

def clean_old_logs(log_dir, days=30):
    """删除指定天数前的日志文件"""
    from datetime import datetime, timedelta
    cutoff = datetime.now() - timedelta(days=days)
    
    for log_file in Path(log_dir).glob('*.log'):
        mtime = datetime.fromtimestamp(log_file.stat().st_mtime)
        if mtime < cutoff:
            log_file.unlink()
            print(f"Deleted: {log_file}")

3.2 tempfile模块 - 临时文件处理

临时文件操作示例

import tempfile

# 创建临时文件
with tempfile.NamedTemporaryFile(mode='w+', suffix='.tmp', delete=False) as tmp:
    tmp.write("临时数据")
    tmp_path = tmp.name  # 获取临时文件路径
    print(f"临时文件: {tmp_path}")

# 创建临时目录
with tempfile.TemporaryDirectory() as tmpdir:
    print(f"临时目录: {tmpdir}")
    # 在临时目录中工作
    temp_file = Path(tmpdir) / 'temp.txt'
    temp_file.write_text("临时数据")
    
# 退出with块后自动清理

安全临时文件模式

def secure_temp_file(data):
    """安全创建临时文件并处理"""
    try:
        with tempfile.NamedTemporaryFile(
            mode='w',
            prefix='secure_',
            suffix='.tmp',
            dir='/secure/tmp',  # 指定安全目录
            delete=True
        ) as tmp:
            tmp.write(data)
            tmp.flush()  # 确保数据写入磁盘
            # 处理临时文件
            process_temp_file(tmp.name)
    except OSError as e:
        print(f"临时文件错误: {e}")

四、压缩文件处理

4.1 zipfile模块 - ZIP归档处理

ZIP文件操作示例

import zipfile

# 创建ZIP文件
with zipfile.ZipFile('archive.zip', 'w') as zipf:
    zipf.write('file1.txt', arcname='data/file1.txt')  # 指定归档内路径
    zipf.write('file2.txt')

# 读取ZIP文件
with zipfile.ZipFile('archive.zip', 'r') as zipf:
    print(zipf.namelist())  # 列出归档内容
    zipf.extract('data/file1.txt', 'extracted')  # 提取特定文件
    zipf.extractall('extracted_all')  # 提取全部

# 密码保护的ZIP
with zipfile.ZipFile('secure.zip', 'w') as zipf:
    zipf.setpassword(b'secret')
    zipf.write('secret.txt')

# 检查ZIP文件有效性
if zipfile.is_zipfile('archive.zip'):
    print("有效的ZIP文件")

4.2 gzip/tarfile模块 - 压缩与归档

gzip压缩示例

import gzip
import shutil

# 压缩文件
with open('large_file.txt', 'rb') as f_in:
    with gzip.open('large_file.txt.gz', 'wb') as f_out:
        shutil.copyfileobj(f_in, f_out)

# 解压文件
with gzip.open('large_file.txt.gz', 'rb') as f_in:
    with open('large_file.txt', 'wb') as f_out:
        shutil.copyfileobj(f_in, f_out)

tar归档示例

import tarfile

# 创建tar归档
with tarfile.open('archive.tar.gz', 'w:gz') as tar:
    tar.add('dir_to_archive')  # 添加整个目录

# 读取tar归档
with tarfile.open('archive.tar.gz', 'r:gz') as tar:
    tar.extractall('extracted_dir')  # 解压全部
    # 或者逐个处理
    for member in tar.getmembers():
        if member.name.endswith('.txt'):
            tar.extract(member, 'extracted_txts')

五、特殊文件格式处理

5.1 configparser - 配置文件解析

INI文件处理示例

from configparser import ConfigParser

config = ConfigParser()

# 读取INI文件
config.read('config.ini')

# 访问配置
db_host = config['Database']['host']
db_port = config.getint('Database', 'port')

# 修改配置
config['Database']['host'] = 'new.host.com'
with open('config.ini', 'w') as f:
    config.write(f)

# 创建新配置
config['Logging'] = {
    'level': 'DEBUG',
    'file': '/var/log/app.log'
}

5.2 pickle - Python对象序列化

对象序列化示例

import pickle

data = {
    'name': 'Alice',
    'scores': [85, 92, 88],
    'active': True
}

# 序列化到文件
with open('data.pkl', 'wb') as f:
    pickle.dump(data, f)

# 从文件反序列化
with open('data.pkl', 'rb') as f:
    loaded_data = pickle.load(f)

# 安全提醒:不要反序列化不受信任的来源

安全替代方案

# 对于简单数据,可以考虑使用json
import json

with open('data.json', 'w') as f:
    json.dump(data, f)

with open('data.json') as f:
    loaded_data = json.load(f)

六、应用案例

6.1 文件监控工具

import time
from pathlib import Path
import hashlib

def file_monitor(path, interval=5):
    """监控文件变化"""
    path = Path(path)
    if not path.exists():
        raise FileNotFoundError(f"文件不存在: {path}")
    
    last_mtime = path.stat().st_mtime
    last_hash = file_hash(path)
    
    while True:
        try:
            current_mtime = path.stat().st_mtime
            if current_mtime != last_mtime:
                current_hash = file_hash(path)
                if current_hash != last_hash:
                    print(f"文件 {path} 内容已更改")
                    last_hash = current_hash
                last_mtime = current_mtime
            time.sleep(interval)
        except KeyboardInterrupt:
            print("监控停止")
            break

def file_hash(filepath):
    """计算文件哈希"""
    hash_md5 = hashlib.md5()
    with open(filepath, "rb") as f:
        for chunk in iter(lambda: f.read(4096), b""):
            hash_md5.update(chunk)
    return hash_md5.hexdigest()

6.2 目录同步工具

import filecmp
import shutil
from pathlib import Path

def sync_dirs(src, dst):
    """同步两个目录"""
    src, dst = Path(src), Path(dst)
    comparison = filecmp.dircmp(src, dst)
    
    # 复制左侧独有的文件
    for item in comparison.left_only:
        src_path = src / item
        if src_path.is_file():
            shutil.copy2(src_path, dst)
        else:
            shutil.copytree(src_path, dst / item)
    
    # 复制更新的文件
    for item in comparison.diff_files:
        shutil.copy2(src / item, dst / item)
    
    # 递归处理子目录
    for subdir in comparison.common_dirs:
        sync_dirs(src / subdir, dst / subdir)

6.3 文件搜索工具

from pathlib import Path
import re

def find_files(pattern, root='.', recursive=True):
    """查找匹配模式的文件"""
    root = Path(root)
    if recursive:
        gen = root.rglob('*')
    else:
        gen = root.glob('*')
    
    regex = re.compile(pattern)
    for item in gen:
        if item.is_file() and regex.search(item.name):
            yield item

# 使用示例
for file in find_files(r'\.(py|txt)#39;, 'src'):
    print(file)

七、其他

  1. 批量操作:减少IO操作次数,批量读写数据
  2. 缓冲区调整:对大文件调整缓冲区大小
  3. 内存映射:对大文件使用mmap
  4. 并行处理:对大量文件使用多线程/多进程
  5. 资源清理:确保文件描述符正确关闭

高效文件复制示例

def efficient_copy(src, dst, buffer_size=16*1024):
    """高效文件复制函数"""
    with open(src, 'rb') as f_src:
        with open(dst, 'wb') as f_dst:
            while True:
                chunk = f_src.read(buffer_size)
                if not chunk:
                    break
                f_dst.write(chunk)

内存映射示例

import mmap

def mmap_example(filepath):
    """使用内存映射处理大文件"""
    with open(filepath, 'r+') as f:
        with mmap.mmap(f.fileno(), 0) as mm:
            # 像操作字符串一样操作文件
            if b'search_term' in mm:
                pos = mm.find(b'search_term')
                mm[pos:pos+12] = b'replacement'

八、总结

Python提供了丰富的文件操作库,可以满足从基础到高级的各种需求:

  1. 标准库基础:os, io, shutil提供核心功能
  2. 路径处理:pathlib提供现代化面向对象接口
  3. 文件格式:csv, json, configparser处理特定格式
  4. 压缩归档:zipfile, tarfile, gzip处理压缩文件
  5. 高级功能:tempfile, mmap提供特殊场景支持

选择库时应考虑:

  • 项目需求(基础操作还是特定格式)
  • Python版本兼容性
  • 性能要求
  • 代码可维护性

掌握这些库的使用方法,可以让我们在Python中高效地处理各种文件操作任务。


持续更新Python编程学习日志与技巧,敬请关注!


#编程# #python# #在头条记录我的2025# #夏日生活打卡季#


相关推荐

MySQL进阶五之自动读写分离mysql-proxy

自动读写分离目前,大量现网用户的业务场景中存在读多写少、业务负载无法预测等情况,在有大量读请求的应用场景下,单个实例可能无法承受读取压力,甚至会对业务产生影响。为了实现读取能力的弹性扩展,分担数据库压...

Postgres vs MySQL_vs2022连接mysql数据库

...

3分钟短文 | Laravel SQL筛选两个日期之间的记录,怎么写?

引言今天说一个细分的需求,在模型中,或者使用laravel提供的EloquentORM功能,构造查询语句时,返回位于两个指定的日期之间的条目。应该怎么写?本文通过几个例子,为大家梳理一下。学习时...

一文由浅入深带你完全掌握MySQL的锁机制原理与应用

本文将跟大家聊聊InnoDB的锁。本文比较长,包括一条SQL是如何加锁的,一些加锁规则、如何分析和解决死锁问题等内容,建议耐心读完,肯定对大家有帮助的。为什么需要加锁呢?...

验证Mysql中联合索引的最左匹配原则

后端面试中一定是必问mysql的,在以往的面试中好几个面试官都反馈我Mysql基础不行,今天来着重复习一下自己的弱点知识。在Mysql调优中索引优化又是非常重要的方法,不管公司的大小只要后端项目中用到...

MySQL索引解析(联合索引/最左前缀/覆盖索引/索引下推)

目录1.索引基础...

你会看 MySQL 的执行计划(EXPLAIN)吗?

SQL执行太慢怎么办?我们通常会使用EXPLAIN命令来查看SQL的执行计划,然后根据执行计划找出问题所在并进行优化。用法简介...

MySQL 从入门到精通(四)之索引结构

索引概述索引(index),是帮助MySQL高效获取数据的数据结构(有序),在数据之外,数据库系统还维护者满足特定查询算法的数据结构,这些数据结构以某种方式引用(指向)数据,这样就可以在这些数据结构...

mysql总结——面试中最常问到的知识点

mysql作为开源数据库中的榜一大哥,一直是面试官们考察的重中之重。今天,我们来总结一下mysql的知识点,供大家复习参照,看完这些知识点,再加上一些边角细节,基本上能够应付大多mysql相关面试了(...

mysql总结——面试中最常问到的知识点(2)

首先我们回顾一下上篇内容,主要复习了索引,事务,锁,以及SQL优化的工具。本篇文章接着写后面的内容。性能优化索引优化,SQL中索引的相关优化主要有以下几个方面:最好是全匹配。如果是联合索引的话,遵循最...

MySQL基础全知全解!超详细无废话!轻松上手~

本期内容提醒:全篇2300+字,篇幅较长,可搭配饭菜一同“食”用,全篇无废话(除了这句),干货满满,可收藏供后期反复观看。注:MySQL中语法不区分大小写,本篇中...

深入剖析 MySQL 中的锁机制原理_mysql 锁详解

在互联网软件开发领域,MySQL作为一款广泛应用的关系型数据库管理系统,其锁机制在保障数据一致性和实现并发控制方面扮演着举足轻重的角色。对于互联网软件开发人员而言,深入理解MySQL的锁机制原理...

Java 与 MySQL 性能优化:MySQL分区表设计与性能优化全解析

引言在数据库管理领域,随着数据量的不断增长,如何高效地管理和操作数据成为了一个关键问题。MySQL分区表作为一种有效的数据管理技术,能够将大型表划分为多个更小、更易管理的分区,从而提升数据库的性能和可...

MySQL基础篇:DQL数据查询操作_mysql 查

一、基础查询DQL基础查询语法SELECT字段列表FROM表名列表WHERE条件列表GROUPBY分组字段列表HAVING分组后条件列表ORDERBY排序字段列表LIMIT...

MySql:索引的基本使用_mysql索引的使用和原理

一、索引基础概念1.什么是索引?索引是数据库表的特殊数据结构(通常是B+树),用于...