通过Apache Spark和Pandas轻松介绍Apache Arrow
wptr33 2024-12-20 19:03 13 浏览
这次,我将尝试解释如何将Apache Arrow与Apache Spark和Python结合使用。 首先,让我分享有关此开源项目的一些基本概念。
Apache Arrow是用于内存数据的跨语言开发平台。 它为平面和分层数据指定了一种与语言无关的标准化列式存储格式,该格式组织用于在现代硬件上进行有效的分析操作。 [Apache箭头页面]
简而言之,它促进了许多组件之间的通信,例如,使用Python(熊猫)读取实木复合地板文件并转换为Spark数据框,Falcon Data Visualization或Cassandra,而无需担心转换。
一个好问题是问数据在内存中的外观如何? 好吧,Apache Arrow利用列缓冲区来减少IO并加快分析处理性能。
在我们的例子中,我们将使用pyarrow库执行一些基本代码并检查一些功能。 为了安装,我们有两个使用conda或pip命令*的选项。
conda install -c conda-forge pyarrow
pip install pyarrow
*建议在Python 3环境中使用conda。
带有HDFS的Apache Arrow(远程文件系统)
Apache Arrow附带了到Hadoop File System的基于C ++的接口的绑定。 这意味着我们可以从HDFS读取或下载所有文件,并直接使用Python进行解释。
连接
主机是名称节点,端口通常是RPC或WEBHDFS,允许使用更多参数,例如user,kerberos ticket。 强烈建议您阅读所需的环境变量。
import pyarrow as pa
host = '1970.x.x.x'
port = 8022
fs = pa.hdfs.connect(host, port)
· 如果您的连接位于数据或边缘节点的前面,则可以选择使用
fs = pa.hdfs.connect()
将Parquet文件写入HDFS
pq.write_to_dataset(table, root_path='dataset_name', partition_cols=['one', 'two'], filesystem=fs)
从HDFS读取CSV
import pandas as pd
from pyarrow import csv
import pyarrow as pa
fs = pa.hdfs.connect()
with fs.open('iris.csv', 'rb') as f:
df = pd.read_csv(f, nrows = 10)
df.head()
从HDFS读取Parquet文件
有两种形式可以从HDFS读取实木复合地板文件
使用Pandas和Pyarrow引擎
import pandas as pd
pdIris = pd.read_parquet('hdfs:///iris/part-00000–27c8e2d3-fcc9–47ff-8fd1–6ef0b079f30e-c000.snappy.parquet', engine='pyarrow')
pdTrain.head()
Parquet
import pyarrow.parquet as pq
path = 'hdfs:///iris/part-00000–71c8h2d3-fcc9–47ff-8fd1–6ef0b079f30e-c000.snappy.parquet'
table = pq.read_table(path)
table.schema
df = table.to_pandas()
df.head()
其他文件扩展名
由于我们可以存储任何类型的文件(SAS,STATA,Excel,JSON或对象),因此Python可以轻松解释其中的大多数文件。 为此,我们将使用open函数,该函数返回一个缓冲区对象,许多pandas函数(如read_sas,read_json)都可以接收该缓冲区对象作为输入,而不是字符串URL。
SAS
import pandas as pd
import pyarrow as pa
fs = pa.hdfs.connect()
with fs.open('/datalake/airplane.sas7bdat', 'rb') as f:
sas_df = pd.read_sas(f, format='sas7bdat')
sas_df.head()
电子表格
import pandas as pd
import pyarrow as pa
fs = pa.hdfs.connect()
with fs.open('/datalake/airplane.xlsx', 'rb') as f:
g.download('airplane.xlsx')
ex_df = pd.read_excel('airplane.xlsx')
JSON格式
import pandas as pd
import pyarrow as pa
fs = pa.hdfs.connect()
with fs.open('/datalake/airplane.json', 'rb') as f:
g.download('airplane.json')
js_df = pd.read_json('airplane.json')
从HDFS下载文件
如果我们只需要下载文件,Pyarrow为我们提供了下载功能,可以将文件保存在本地。
import pandas as pd
import pyarrow as pa
fs = pa.hdfs.connect()
with fs.open('/datalake/airplane.cs', 'rb') as f:
g.download('airplane.cs')
上传文件到HDFS
如果我们只需要下载文件,Pyarrow为我们提供了下载功能,可以将文件保存在本地。
import pyarrow as pa
fs = pa.hdfs.connect()
with open('settings.xml') as f:
pa.hdfs.HadoopFileSystem.upload(fs, '/datalake/settings.xml', f)
Apache Arrow with Pandas(本地文件系统)
将Pandas Dataframe转换为Apache Arrow Table
import numpy as np
import pandas as pd
import pyarrow as pa
df = pd.DataFrame({'one': [20, np.nan, 2.5],'two': ['january', 'february', 'march'],'three': [True, False, True]},index=list('abc'))
table = pa.Table.from_pandas(df)
Pyarrow表到Pandas数据框
df_new = table.to_pandas()
读取CSV
from pyarrow import csv
fn = 'data/demo.csv'
table = csv.read_csv(fn)
Ω
从Apache Arrow编写Parquet文件
import pyarrow.parquet as pq
pq.write_table(table, 'example.parquet')
读取Parquet文件
table2 = pq.read_table('example.parquet')
table2
从parquet文件中读取一些列
table2 = pq.read_table('example.parquet', columns=['one', 'three'])
从分区数据集读取
dataset = pq.ParquetDataset('dataset_name_directory/')
table = dataset.read()
table
将Parquet文件转换为Pandas DataFrame
pdf = pq.read_pandas('example.parquet', columns=['two']).to_pandas()
pdf
避免Pandas指数
table = pa.Table.from_pandas(df, preserve_index=False)
pq.write_table(table, 'example_noindex.parquet')
t = pq.read_table('example_noindex.parquet')
t.to_pandas()
检查元数据
parquet_file = pq.ParquetFile('example.parquet')
parquet_file.metadata
查看数据模式
parquet_file.schema
时间戳记
请记住,Pandas使用纳秒,因此您可以以毫秒为单位截断兼容性。
pq.write_table(table, where, coerce_timestamps='ms')
pq.write_table(table, where, coerce_timestamps='ms', allow_truncated_timestamps=True)
压缩
默认情况下,尽管允许其他编解码器,但Apache arrow使用快速压缩(压缩程度不高,但更易于访问)。
pq.write_table(table, where, compression='snappy')
pq.write_table(table, where, compression='gzip')
pq.write_table(table, where, compression='brotli')
pq.write_table(table, where, compression='none')
另外,在一个表中可以使用多个压缩
pq.write_table(table, 'example_diffcompr.parquet', compression={b'one': 'snappy', b'two': 'gzip'})
编写分区的Parquet表
df = pd.DataFrame({'one': [1, 2.5, 3], 'two': ['Peru', 'Brasil', 'Canada'], 'three': [True, False, True]}, index=list('abc'))
table = pa.Table.from_pandas(df)
pq.write_to_dataset(table, root_path='dataset_name',partition_cols=['one', 'two'])
· 兼容性说明:如果您使用pq.write_to_dataset创建一个供HIVE使用的表,则分区列值必须与您正在运行的HIVE版本的允许字符集兼容。
带有Apache Spark的Apache Arrow
Apache Arrow自2.3版本以来已与Spark集成在一起,它很好地演示了如何优化时间以避免序列化和反序列化过程,并与其他库进行了集成,例如Holden Karau上关于在Spark上加速Tensorflow Apache Arrow的演示。
存在其他有用的文章,例如Brian Cutler发表的文章以及Spark官方文档中的非常好的示例
Apache Arrow的一些有趣用法是:
· 加快从Pandas数据框到Spark数据框的转换
· 加快从Spark数据框到Pandas数据框的转换
· 与Pandas UDF(也称为矢量化UDF)一起使用
· 使用Apache Spark优化R
第三项是下一篇文章的一部分,因为这是一个非常有趣的主题,目的是在不损失性能的情况下扩展Pandas和Spark之间的集成,对于第四项,我建议您阅读该文章(于2019年发布!)以获得 了解更多。
让我们先测试Pandas和Spark之间的转换,而不进行任何修改,然后再使用Arrow。
from pyspark.sql import SparkSession
warehouseLocation = "/antonio"
spark = SparkSession\
.builder.appName("demoMedium")\
.config("spark.sql.warehouse.dir", warehouseLocation)\
.enableHiveSupport()\
.getOrCreate()
#Create test Spark DataFrame
from pyspark.sql.functions import rand
df = spark.range(1 << 22).toDF("id").withColumn("x", rand())
df.printSchema()
#Benchmark time%time
pdf = df.toPandas()spark.conf.set("spark.sql.execution.arrow.enabled", "true")
%time
pdf = df.toPandas()
pdf.describe()
结果显然是使用Arrow减少时间转换更方便。
如果我们需要测试相反的情况(Pandas来激发df),那么我们也会及时发现优化。
%time df = spark.createDataFrame(pdf)
spark.conf.set("spark.sql.execution.arrow.enabled", "false")
%time
df = spark.createDataFrame(pdf)
df.describe().show()
结论
本文的目的是发现并了解Apache Arrow以及它如何与Apache Spark和Pandas一起使用,我也建议您查看It的官方页面,以进一步了解CUDA或C ++等其他可能的集成,如果您想更深入地了解它, 并了解有关Apache Spark的更多信息,我认为Spark:权威指南是一本很好的书。
附注:如果您有任何疑问,或者想澄清一些问题,可以在Twitter和LinkedIn上找到我。 我最近发表了Apache Druid的简要介绍,这是一个新的Apache项目,非常适合分析数十亿行。
(本文翻译自Antonio Cachuan的文章《A gentle introduction to Apache Arrow with Apache Spark and Pandas》,参考:https://towardsdatascience.com/a-gentle-introduction-to-apache-arrow-with-apache-spark-and-pandas-bb19ffe0ddae)
相关推荐
- Python自动化脚本应用与示例(python办公自动化脚本)
-
Python是编写自动化脚本的绝佳选择,因其语法简洁、库丰富且跨平台兼容性强。以下是Python自动化脚本的常见应用场景及示例,帮助你快速上手:一、常见自动化场景文件与目录操作...
- Python文件操作常用库高级应用教程
-
本文是在前面《Python文件操作常用库使用教程》的基础上,进一步学习Python文件操作库的高级应用。一、高级文件系统监控1.1watchdog库-实时文件系统监控安装与基本使用:...
- Python办公自动化系列篇之六:文件系统与操作系统任务
-
作为高效办公自动化领域的主流编程语言,Python凭借其优雅的语法结构、完善的技术生态及成熟的第三方工具库集合,已成为企业数字化转型过程中提升运营效率的理想选择。该语言在结构化数据处理、自动化文档生成...
- 14《Python 办公自动化教程》os 模块操作文件与文件夹
-
在日常工作中,我们经常会和文件、文件夹打交道,比如将服务器上指定目录下文件进行归档,或将爬虫爬取的数据根据时间创建对应的文件夹/文件,如果这些还依靠手动来进行操作,无疑是费时费力的,这时候Pyt...
- python中os模块详解(python os.path模块)
-
os模块是Python标准库中的一个模块,它提供了与操作系统交互的方法。使用os模块可以方便地执行许多常见的系统任务,如文件和目录操作、进程管理、环境变量管理等。下面是os模块中一些常用的函数和方法:...
- 21-Python-文件操作(python文件的操作步骤)
-
在Python中,文件操作是非常重要的一部分,它允许我们读取、写入和修改文件。下面将详细讲解Python文件操作的各个方面,并给出相应的示例。1-打开文件...
- 轻松玩转Python文件操作:移动、删除
-
哈喽,大家好,我是木头左!Python文件操作基础在处理计算机文件时,经常需要执行如移动和删除等基本操作。Python提供了一些内置的库来帮助完成这些任务,其中最常用的就是os模块和shutil模块。...
- Python 初学者练习:删除文件和文件夹
-
在本教程中,你将学习如何在Python中删除文件和文件夹。使用os.remove()函数删除文件...
- 引人遐想,用 Python 获取你想要的“某个人”摄像头照片
-
仅用来学习,希望给你们有提供到学习上的作用。1.安装库需要安装python3.5以上版本,在官网下载即可。然后安装库opencv-python,安装方式为打开终端输入命令行。...
- Python如何使用临时文件和目录(python目录下文件)
-
在某些项目中,有时候会有大量的临时数据,比如各种日志,这时候我们要做数据分析,并把最后的结果储存起来,这些大量的临时数据如果常驻内存,将消耗大量内存资源,我们可以使用临时文件,存储这些临时数据。使用标...
- Linux 下海量文件删除方法效率对比,最慢的竟然是 rm
-
Linux下海量文件删除方法效率对比,本次参赛选手一共6位,分别是:rm、find、findwithdelete、rsync、Python、Perl.首先建立50万个文件$testfor...
- Python 开发工程师必会的 5 个系统命令操作库
-
当我们需要编写自动化脚本、部署工具、监控程序时,熟练操作系统命令几乎是必备技能。今天就来聊聊我在实际项目中高频使用的5个系统命令操作库,这些可都是能让你效率翻倍的"瑞士军刀"。一...
- Python常用文件操作库使用详解(python文件操作选项)
-
Python生态系统提供了丰富的文件操作库,可以处理各种复杂的文件操作需求。本教程将介绍Python中最常用的文件操作库及其实际应用。一、标准库核心模块1.1os模块-操作系统接口主要功能...
- 11. 文件与IO操作(文件io和网络io)
-
本章深入探讨Go语言文件处理与IO操作的核心技术,结合高性能实践与安全规范,提供企业级解决方案。11.1文件读写11.1.1基础操作...
- Python os模块的20个应用实例(python中 import os模块用法)
-
在Python中,...
- 一周热门
-
-
C# 13 和 .NET 9 全知道 :13 使用 ASP.NET Core 构建网站 (1)
-
因果推断Matching方式实现代码 因果推断模型
-
git pull命令使用实例 git pull--rebase
-
面试官:git pull是哪两个指令的组合?
-
git 执行pull错误如何撤销 git pull fail
-
git pull 和git fetch 命令分别有什么作用?二者有什么区别?
-
git fetch 和git pull 的异同 git中fetch和pull的区别
-
git pull 之后本地代码被覆盖 解决方案
-
还可以这样玩?Git基本原理及各种骚操作,涨知识了
-
git命令之pull git.pull
-
- 最近发表
- 标签列表
-
- git pull (33)
- git fetch (35)
- mysql insert (35)
- mysql distinct (37)
- concat_ws (36)
- java continue (36)
- jenkins官网 (37)
- mysql 子查询 (37)
- python元组 (33)
- mybatis 分页 (35)
- vba split (37)
- redis watch (34)
- python list sort (37)
- nvarchar2 (34)
- mysql not null (36)
- hmset (35)
- python telnet (35)
- python readlines() 方法 (36)
- munmap (35)
- docker network create (35)
- redis 集合 (37)
- python sftp (37)
- setpriority (34)
- c语言 switch (34)
- git commit (34)