百度360必应搜狗淘宝本站头条
当前位置:网站首页 > IT技术 > 正文

四十四、SparkSQL整合Hive (Spark on Hive)

wptr33 2024-12-20 19:04 38 浏览

SparkSQL设计的目的是让用户可以在Spark上面使用SQL语法处理结构数据,它支持丰富的数据源,可以是RDD, 也可以是外部的数据源(文件文件、json、csv、parquet、hive、hbase等)。SparkSQL的一个重要的分支就是Spark兼容Hive, 也就是在Spark中运用了Hive的元数据管理、HQL语法、UDFs、序列化与反序列化(SerDers)功能:

在这里会涉及到两个概念:Spark on HiveHive on Spark,那么这两者之间有什么区别呢?

一、理解Spark on Hive与Hive on Spark

  • 1.Spark on Hive

Hive在这里扮演的角色是存储角色,Spark负责sql的解析与优化,执行。具体可以理解为SparkSQL使用Hive语句操作Hive表,底层的计算引擎使用的是Spark RDD,具体的流程如下:

    • 通过SparkSQL,加载Hive的配置文件,获取到Hive的元数据信息(一般存储在MySQL或PostgreSQL等关系型数据库中, 建议不使用自带的derby数据库,因为Derby数据库不支持多用户同时访问)
    • 获取到Hive的元数据信息后可以拿到Hive表的数据;
    • 通过SparkSQL来操作Hive中的表;
  • 2.Hive on Spark

Hive在这里扮演的角色是既作为存储,同时还负责sql的解析与优化,Spark仅负责计算,即Spark的角色是执行引擎,一般通过几下配置:

    • 配置hvie-site.xml中的hive.execution.engine,默认为mapreduce, 即mr
<property>
    <name>hive.execution.engine</name>
    <value>spark</value>
    <description>
      Expects one of [mr, tez, spark].
      Chooses execution engine. Options are: mr (Map reduce, default), tez, spark. While MR
      remains the default engine for historical reasons, it is itself a historical engine
      and is deprecated in Hive 2 line. It may be removed without further warning.
    </description>
  </property>
    • 将spak所需要的所有依赖包拷贝到$HIVE_HOME/lib/下, 这种配置方法可能会因为依赖包的版本问题发生很多错误,处理起来比较麻烦,一般需要对Spark源码进行编译。

与Spark on Hive相比,这种实现比较麻烦,必须要重新编译Spark并导入Hive的相关依赖jar包。目前,主流的使用是Spark on Hive。下面就以Spark on Hive这种方式来讲解Spark与Hive的整合。


二、Spark整合Hive (Spark on Hive)流程

  • 1.元数据库MySQL的安装与配置
  • 2.MySQL中创建操作Hive元数据库的用户并授权

mysql> create user 'hive'@'%' identified by 'Love88me';
Query OK, 0 rows affected (0.00 sec)

mysql> grant all privileges on hivedb.* to 'hive'@'%' identified by 'Love88me' with grant option;
Query OK, 0 rows affected, 1 warning (0.00 sec)

mysql> flush privileges;
Query OK, 0 rows affected (0.00 sec)
  • 3.MySQL的JDBC驱动包

这里有两种方法:

    • 方法一:把MySQL的JDBC驱动包拷贝到$SPARK_HOME/jars目录下;
    • 方法二:启动spark-sql命令行时指定--driver-class-path指定MySQL的JDBC驱动包位置

这里,我选用了第一种方法

  • 4.配置hive-site.xml,并分发到Spark的配置目录下
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!--
   Licensed to the Apache Software Foundation (ASF) under one or more
   contributor license agreements.  See the NOTICE file distributed with
   this work for additional information regarding copyright ownership.
   The ASF licenses this file to You under the Apache License, Version 2.0
   (the "License"); you may not use this file except in compliance with
   the License.  You may obtain a copy of the License at

       http://www.apache.org/licenses/LICENSE-2.0

   Unless required by applicable law or agreed to in writing, software
   distributed under the License is distributed on an "AS IS" BASIS,
   WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
   See the License for the specific language governing permissions and
   limitations under the License.
-->
<configuration>
  <property>
        <property>
                <name>javax.jdo.option.ConnectionURL</name>
                <value>jdbc:mysql://node04:3306/hivedb?createDatabaseIfNotExist=true&characterEncoding=utf-8&useSSL=false</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionDriverName</name>
                <value>com.mysql.jdbc.Driver</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionUserName</name>
                <value>hive</value>
        </property>
        <property>
                <name>javax.jdo.option.ConnectionPassword</name>
                <value>Love88me</value>
        </property>
</configuration>
  • 5.高可用的hdfs配置(根据实际情况)

如果hdfs是高可用的hdfs, 即有多个namenode的情况,有两种情况可以解决问题:

    • 方法一:需要将hdfs的core-site.xml和hdfs.xml放入Spark的conf目录;
    • 方法二:配置环境变量HADOOP_CONF_DIR指向$HADOOP_HOME/etc/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

这两种方法选择任一种即可, 此处我选择了第二种。


  • 6.启动spark-sql

在启动前,确保hadoop的集群与Spark的standalone集群已成功启动。然后启动spark-sql:

[hadoop@node01 spark]$ bin/spark-sql --master spark://node01:7077,node02:7077 --conf spark.sql.warehouse.dir=hdfs://mycluster/user/hive/warehouse  

注意:

在Spark2.0版本以后由于出现了SparkSession, 在运行spark-sql时,会设置默认的spark.sql.warehouse.dir=spark-warehouse, 此时将Hive与SparkSQL整合完成后,在通过spark-sql脚本启动的时候,就会在启动的目录下创建一个spark.sql.warehouse.dir指定的目录用来存放spark-sql创建数据库和创建数据表的信息,与之前hive的数据信息不存在同一路径下,也就是说由spark-sql中创建的库和表的信息在本地,不在HDFS上,这样不利于操作。所以,解决的方法如下:

在启动spark-sql的时候要加上一个参数:

--conf spark.sql.warehouse.dir=hdfs://mycluster/user/hive/warehouse

这样可以保证spark-sql启动时不再产生新的存放数据的目录,sparksql与hive最终使用的是hive统一存放在hdfs上存放数据的目录。


此时,查看MySQL数据库,可以看出元数据信息是已被创建:

7.常规操作

spark-sql> show databases; //查看有哪些数据库

spark-sql> create database mydb; //创建数据库

//创建表sanguo
spark-sql> create table sanguo
         > (id bigint, master string, member string, country string, power int, weapon string) 
         > row format delimited fields terminated by ',';
//导入本地sanguo.txt中的数据
1,刘备,关羽,蜀国,105,青龙偃月刀
2,刘备,张飞,蜀国,102,丈八蛇矛
3,刘备,赵云,蜀国,100,剑
4,刘备,马超,蜀国,99,霸王枪
5,刘备,黄忠,蜀国,98,弓箭
6,刘备,诸葛亮,蜀国,64,羽扇
7,曹操,张辽,魏国,95,刀
8,曹操,典韦,魏国,99,刀
9,曹操,郭嘉,魏国,64,""

spark-sql> load data local inpath '/home/hadoop/sanguo.txt' into table sanguo;

//查看数据
spark-sql> select * from sanguo;

后话

  • 元数据信息是保存在MySQL中,保存的是描述hive表的描述信息,比如database名称、表名,列的类型等元数据信息, 还保存了hdfs在什么位置;
  • hive存放的是业务数据,用来做离线分析的数据,是数据仓库;

相关推荐

oracle数据导入导出_oracle数据导入导出工具

关于oracle的数据导入导出,这个功能的使用场景,一般是换服务环境,把原先的oracle数据导入到另外一台oracle数据库,或者导出备份使用。只不过oracle的导入导出命令不好记忆,稍稍有点复杂...

继续学习Python中的while true/break语句

上次讲到if语句的用法,大家在微信公众号问了小编很多问题,那么小编在这几种解决一下,1.else和elif是子模块,不能单独使用2.一个if语句中可以包括很多个elif语句,但结尾只能有一个else解...

python continue和break的区别_python中break语句和continue语句的区别

python中循环语句经常会使用continue和break,那么这2者的区别是?continue是跳出本次循环,进行下一次循环;break是跳出整个循环;例如:...

简单学Python——关键字6——break和continue

Python退出循环,有break语句和continue语句两种实现方式。break语句和continue语句的区别:break语句作用是终止循环。continue语句作用是跳出本轮循环,继续下一次循...

2-1,0基础学Python之 break退出循环、 continue继续循环 多重循

用for循环或者while循环时,如果要在循环体内直接退出循环,可以使用break语句。比如计算1至100的整数和,我们用while来实现:sum=0x=1whileTrue...

Python 中 break 和 continue 傻傻分不清

大家好啊,我是大田。今天分享一下break和continue在代码中的执行效果是什么,进一步区分出二者的区别。一、continue例1:当小明3岁时不打印年龄,其余年龄正常循环打印。可以看...

python中的流程控制语句:continue、break 和 return使用方法

Python中,continue、break和return是控制流程的关键语句,用于在循环或函数中提前退出或跳过某些操作。它们的用途和区别如下:1.continue(跳过当前循环的剩余部分,进...

L017:continue和break - 教程文案

continue和break在Python中,continue和break是用于控制循环(如for和while)执行流程的关键字,它们的作用如下:1.continue:跳过当前迭代,...

作为前端开发者,你都经历过怎样的面试?

已经裸辞1个月了,最近开始投简历找工作,遇到各种各样的面试,今天分享一下。其实在职的时候也做过面试官,面试官时,感觉自己问的问题很难区分候选人的能力,最好的办法就是看看候选人的github上的代码仓库...

面试被问 const 是否不可变?这样回答才显功底

作为前端开发者,我在学习ES6特性时,总被const的"善变"搞得一头雾水——为什么用const声明的数组还能push元素?为什么基本类型赋值就会报错?直到翻遍MDN文档、对着内存图反...

2023金九银十必看前端面试题!2w字精品!

导文2023金九银十必看前端面试题!金九银十黄金期来了想要跳槽的小伙伴快来看啊CSS1.请解释CSS的盒模型是什么,并描述其组成部分。答案:CSS的盒模型是用于布局和定位元素的概念。它由内容区域...

前端面试总结_前端面试题整理

记得当时大二的时候,看到实验室的学长学姐忙于各种春招,有些收获了大厂offer,有些还在苦苦面试,其实那时候的心里还蛮忐忑的,不知道自己大三的时候会是什么样的一个水平,所以从19年的寒假放完,大二下学...

由浅入深,66条JavaScript面试知识点(七)

作者:JakeZhang转发链接:https://juejin.im/post/5ef8377f6fb9a07e693a6061目录由浅入深,66条JavaScript面试知识点(一)由浅入深,66...

2024前端面试真题之—VUE篇_前端面试题vue2020及答案

添加图片注释,不超过140字(可选)1.vue的生命周期有哪些及每个生命周期做了什么?beforeCreate是newVue()之后触发的第一个钩子,在当前阶段data、methods、com...

今年最常见的前端面试题,你会做几道?

在面试或招聘前端开发人员时,期望、现实和需求之间总是存在着巨大差距。面试其实是一个交流想法的地方,挑战人们的思考方式,并客观地分析给定的问题。可以通过面试了解人们如何做出决策,了解一个人对技术和解决问...