百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

Python高效数据处理——从基础方法到性能优化

wptr33 2025-07-15 01:27 2 浏览

数据处理是数据分析的核心环节,高效的数据处理方法能显著提升代码性能。本文将深入介绍Pandas中的各种数据处理技术,并分析它们的性能特点。

使用apply方法应用自定义函数

apply是Pandas中最灵活的数据处理方法之一,可以对Series或DataFrame的行/列应用自定义函数。

Series的apply方法

import pandas as pd
import numpy as np

# 创建示例Series
s = pd.Series([1, 2, 3, 4, 5])

# 使用apply应用平方函数
squared = s.apply(lambda x: x**2)
print("平方后的Series:")
print(squared)

# 使用命名函数
def add_prefix(x):
    return f"值_{x}"

prefixed = s.apply(add_prefix)
print("\n添加前缀后的Series:")
print(prefixed)

DataFrame的apply方法

# 创建示例DataFrame
df = pd.DataFrame({
    'A': np.random.randint(1, 10, 5),
    'B': np.random.randn(5),
    'C': np.random.choice(['X', 'Y', 'Z'], 5)
})

# 对列应用函数
col_sum = df.apply(np.sum, axis=0)  # axis=0对列操作
print("\n列求和结果:")
print(col_sum)

# 对行应用函数
row_max = df.apply(np.max, axis=1)  # axis=1对行操作
print("\n行最大值结果:")
print(row_max)

# 复杂行处理
def process_row(row):
    return f"{row['C']}_{round(row['A'] * row['B'], 2)}"

processed = df.apply(process_row, axis=1)
print("\n复杂行处理结果:")
print(processed)

性能考虑

# 创建大数据集测试性能
big_df = pd.DataFrame(np.random.randn(10000, 4), columns=['A', 'B', 'C', 'D'])

# 测试apply性能
%timeit big_df.apply(np.sum, axis=0)  # 列操作通常较快
%timeit big_df.apply(np.sum, axis=1)  # 行操作较慢

使用map和applymap方法

map方法(Series专用)

# 创建示例Series
s = pd.Series(['cat', 'dog', 'cat', 'bird'])

# 简单映射
simple_map = s.map({'cat': '猫', 'dog': '狗', 'bird': '鸟'})
print("\n简单映射结果:")
print(simple_map)

# 函数映射
length_map = s.map(lambda x: len(x))
print("\n字符串长度映射:")
print(length_map)

# 使用str方法替代简单映射
print("\nstr方法实现:")
print(s.str.len())

applymap方法(DataFrame专用)

# 创建示例DataFrame
df = pd.DataFrame(np.random.randn(3, 3), columns=['A', 'B', 'C'])

# 对所有元素应用函数
rounded = df.applymap(lambda x: round(x, 2))
print("\n四舍五入后的DataFrame:")
print(rounded)

# 条件应用
def format_cell(x):
    if x > 0:
        return f"+{x:.2f}"
    return f"{x:.2f}"

formatted = df.applymap(format_cell)
print("\n格式化后的DataFrame:")
print(formatted)

性能对比

# 比较applymap与向量化操作
%timeit df.applymap(lambda x: x * 2)
%timeit df * 2  # 向量化操作快得多

使用iterrows和itertuples进行迭代

虽然Pandas通常推荐向量化操作,但有时迭代是必要的。

iterrows方法

# 创建示例DataFrame
df = pd.DataFrame({
    'name': ['Alice', 'Bob', 'Charlie'],
    'age': [25, 30, 35],
    'score': [85, 92, 78]
})

# 使用iterrows迭代
print("\n使用iterrows迭代:")
for index, row in df.iterrows():
    print(f"索引: {index}, 姓名: {row['name']}, 年龄+分数: {row['age'] + row['score']}")

itertuples方法(更快)

# 使用itertuples迭代
print("\n使用itertuples迭代:")
for row in df.itertuples():
    print(f"索引: {row.Index}, 姓名: {row.name}, 年龄+分数: {row.age + row.score}")

性能对比

# 创建大数据集
big_df = pd.DataFrame(np.random.randn(10000, 4), columns=['A', 'B', 'C', 'D'])

# 比较各种迭代方法
%timeit for index, row in big_df.iterrows(): pass  # 最慢
%timeit for row in big_df.itertuples(): pass  # 较快
%timeit for col in big_df.items(): pass  # 列迭代

使用vectorize加速数值计算

NumPy的vectorize函数可以将Python函数转换为向量化函数,提高性能。

基础vectorize使用

import numpy as np

# 定义普通Python函数
def my_func(x):
    if x > 0:
        return x ** 2
    else:
        return x / 2

# 创建数组
arr = np.array([1, -2, 3, -4, 5])

# 普通Python循环
result = [my_func(x) for x in arr]
print("普通循环结果:", result)

# 使用vectorize
vec_func = np.vectorize(my_func)
vec_result = vec_func(arr)
print("\nvectorize结果:", vec_result)

性能对比

# 创建大型数组
big_arr = np.random.randn(1000000)

# 性能测试
%timeit [my_func(x) for x in big_arr]  # Python循环
%timeit np.vectorize(my_func)(big_arr)  # vectorize
%timeit np.where(big_arr > 0, big_arr**2, big_arr/2)  # 纯NumPy向量化

结合Pandas使用

# 在Pandas中使用vectorize
df = pd.DataFrame(np.random.randn(1000, 3), columns=['A', 'B', 'C'])

# 定义复杂函数
def complex_calc(a, b, c):
    return a**2 + b*3 + np.sqrt(abs(c))

# 普通apply方法
%timeit df.apply(lambda row: complex_calc(row['A'], row['B'], row['C']), axis=1)

# 使用vectorize
vec_complex = np.vectorize(complex_calc)
%timeit vec_complex(df['A'], df['B'], df['C'])

实战案例:电商数据分析

# 创建模拟电商数据集
np.random.seed(42)
n = 100000
data = {
    'order_id': range(1000, 1000 + n),
    'user_id': np.random.randint(100, 200, n),
    'product_id': np.random.choice(['A100', 'B200', 'C300', 'D400'], n),
    'price': np.random.uniform(10, 500, n).round(2),
    'quantity': np.random.randint(1, 10, n),
    'is_member': np.random.choice([True, False], n)
}
ecom_df = pd.DataFrame(data)

# 计算总金额
# 方法1: 简单列运算 (最快)
ecom_df['total'] = ecom_df['price'] * ecom_df['quantity']

# 方法2: 使用apply (较慢但灵活)
def calc_total(row):
    discount = 0.9 if row['is_member'] else 1.0
    return row['price'] * row['quantity'] * discount

ecom_df['total_with_discount'] = ecom_df.apply(calc_total, axis=1)

# 方法3: 使用vectorize (折中方案)
@np.vectorize
def vec_calc_total(price, quantity, is_member):
    discount = 0.9 if is_member else 1.0
    return price * quantity * discount

ecom_df['total_vec'] = vec_calc_total(
    ecom_df['price'], 
    ecom_df['quantity'], 
    ecom_df['is_member']
)

# 性能比较
print("\n性能比较:")
%timeit ecom_df['price'] * ecom_df['quantity']
%timeit ecom_df.apply(calc_total, axis=1)
%timeit vec_calc_total(ecom_df['price'], ecom_df['quantity'], ecom_df['is_member'])

最佳实践与性能优化

方法选择指南

场景

推荐方法

备注

简单列运算

直接向量化运算

df['A'] + df['B']

复杂行处理

apply(axis=1)

灵活性高但性能较低

元素级转换

applymap或map

DataFrame或Series专用

高性能迭代

itertuples

比iterrows快得多

数值计算加速

np.vectorize

介于纯Python和纯NumPy之间

性能优化技巧

# 1. 避免链式操作
# 不推荐
result = df[df['A'] > 0]['B']
# 推荐
result = df.loc[df['A'] > 0, 'B']

# 2. 使用eval实现高效列运算
expr = "(A + B) / (C - D)"
result = df.eval(expr)

# 3. 使用category类型减少内存
df['category_col'] = df['category_col'].astype('category')

常见陷阱与解决方案

# 陷阱1: apply中的意外副作用
def bad_func(row):
    print(row)  # 副作用:打印
    return row['A'] + row['B']
# 解决方案:确保函数是纯函数

# 陷阱2: 修改迭代中的行无效
for index, row in df.iterrows():
    row['A'] = 0  # 不会修改原DataFrame
# 解决方案:使用.loc直接修改
for index, _ in df.iterrows():
    df.loc[index, 'A'] = 0

总结与进阶学习

核心要点总结

  • apply:灵活但性能不高,适合复杂行/列操作
  • map/applymap:元素级转换的专用方法
  • 迭代方法:itertuples > iterrows,但都应作为最后选择
  • vectorize:加速Python函数的好方法,但仍不如纯NumPy操作

进阶学习方向

# 1. 使用Numba加速Python函数
# from numba import vectorize
# @vectorize
# def numba_func(x): ...

# 2. 使用Dask处理超大数据集
# import dask.dataframe as dd
# ddf = dd.from_pandas(df, npartitions=4)

# 3. 使用Cython编写高性能扩展
# %load_ext Cython
# %%cython
# def cython_func(): ...

掌握这些高效数据处理技巧后,我们就可以处理各种规模的数据分析任务了。记住,在Pandas中,向量化操作通常是最佳选择,只有在必要时才使用迭代方法。

相关推荐

SQL轻松入门(5):窗口函数(sql语录中加窗口函数的执行)

01前言标题中有2个字让我在初次接触窗口函数时,真真切切明白了何谓”高级”?说来也是一番辛酸史!话说,我见识了窗口函数的强大后,便磨拳擦掌的要试验一番,结果在查询中输入语句,返回的结果却是报错,Wh...

28个SQL常用的DeepSeek提示词指令,码住直接套用

自从DeepSeek出现后,极大地提升了大家平时的工作效率,特别是对于一些想从事数据行业的小白,只需要掌握DeepSeek的提问技巧,SQL相关的问题也不再是个门槛。...

从零开始学SQL进阶,数据分析师必备SQL取数技巧,建议收藏

上一节给大家讲到SQL取数的一些基本内容,包含SQL简单查询与高级查询,需要复习相关知识的同学可以跳转至上一节,本节给大家讲解SQL的进阶应用,在实际过程中用途比较多的子查询与窗口函数,下面一起学习。...

SQL_OVER语法(sql语句over什么含义)

OVER的定义OVER用于为行定义一个窗口,它对一组值进行操作,不需要使用GROUPBY子句对数据进行分组,能够在同一行中同时返回基础行的列和聚合列。...

SQL窗口函数知多少?(sql窗口怎么执行)

我们在日常工作中是否经常会遇到需要排名的情况,比如:每个部门按业绩来排名,每人按绩效排名,对部门销售业绩前N名的进行奖励等。面对这类需求,我们就需要使用sql的高级功能——窗口函数。...

如何学习并掌握 SQL 数据库基础:从零散查表到高效数据提取

无论是职场数据分析、产品运营,还是做副业项目,掌握SQL(StructuredQueryLanguage)意味着你能直接从数据库中提取、分析、整合数据,而不再依赖他人拉数,节省大量沟通成本,让你...

SQL窗口函数(sql窗口函数执行顺序)

背景在数据分析中,经常会遇到按某某条件来排名、并找出排名的前几名,用日常SQL的GROUPBY,ORDERBY来实现特别的麻烦,有时甚至实现不了,这个时候SQL窗口函数就能发挥巨大作用了,窗...

sqlserver删除重复数据只保留一条,使用ROW_NUMER()与Partition By

1.使用场景:公司的小程序需要实现一个功能:在原有小程序上,有一个优惠券活动表。存储着活动产品数据,但因为之前没有做约束,导致数据的不唯一,这会使打开产品详情页时,可能会出现随机显示任意活动问题。...

SQL面试经典问题(一)(sql经典面试题及答案)

以下是三个精心挑选的经典SQL面试问题及其详细解决方案,涵盖了数据分析、排序限制和数据清理等常见场景。这些问题旨在考察SQL的核心技能,适用于初学者到高级开发者的面试准备。每个问题均包含清晰的...

SQL:求连续N天的登陆人员之通用解答

前几天发了一个微头条:...

SQL四大排序函数神技(sql中的排序是什么语句)

在日常SQL开发中,排序操作无处不在。当大家需要排序时,是否只会想到ORDERBY?今天,我们就来揭秘SQL中四个强大却常被忽略的排序函数:ROW_NUMBER()、RANK()、DENSE_RAN...

四、mysql窗口函数之row_number()函数的使用

1、窗口函数之row_number()使用背景窗口函数中,排序函数rank(),dense_rank()虽说都是排序函数,但是各有用处,假如像上章节说的“同组同分”两条数据,我们不想“班级名次”出现“...

ROW_NUMBER()函数(rownumber函数与rank区别)

ROW_NUMBER()是SQL中的一个窗口函数(WindowFunction)...

Dify「模板转换」节点终极指南:动态文本生成进阶技巧(附代码)Jinja2引擎解析

这篇文章是关于Dify「模板转换」节点的终极指南,解析了基于Jinja2模板引擎的动态文本生成技巧,涵盖多源文本整合、知识检索结构化、动态API构建及个性化内容生成等六大应用场景,助力开发者高效利用模...

Python 最常用的语句、函数有哪些?

1.#coding=utf-8①代码中有中文字符,最好在代码前面加#coding=utf-8②pycharm不加可能不会报错,但是代码最终是会放到服务器上,放到服务器上的时候运行可能会报错。③...