Learning Spark——Spark连接Mysql、mapPartitions高效连接HBase

2024-04-22 05:32

本文主要是介绍Learning Spark——Spark连接Mysql、mapPartitions高效连接HBase,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

执行Spark任务免不了从多个数据源拿数据,除了从HDFS获取数据以外,我们还经常从Mysql和HBase中拿数据,今天讲一下如何使用Spark查询Mysql和HBase

1. Spark查询Mysql

首先,Spark连接Mysql当然需要有Mysql的驱动包,你可以在启动时加上如下命令:

bin/spark-shell --driver-class-path /home/hadoop/jars/mysql-connector-java-5.1.34.jar --jars /home/hadoop/jars/mysql-connector-java-5.1.34.jar

还有一种更方便的方法就是直接将这个jar包放到Spark放jar包的目录下面,我的目录是/data/install/spark-2.0.0-bin-hadoop2.7/jars,这样Spark就可以直接找到Mysql驱动包了

然后给出Spark读Mysql时的标准代码:

    val imeis = spark.read.format("jdbc").options(Map("url" -> DbUtil.IMEI_DB_URL,
//        "dbtable" -> "(SELECT id,imei,imeiid FROM t_imei_all) a","dbtable" -> DbUtil.IMEI_ALL_TABLE,"user" -> DbUtil.IMEI_DB_USERNAME,"password" -> DbUtil.IMEI_DB_PASSWORD,"driver" -> "com.mysql.jdbc.Driver",
//        "fetchSize" -> "1000","partitionColumn" -> "id","lowerBound" -> "1","upperBound" -> "15509195","numPartitions" -> "20")).load()

解释一下这段代码:

1、其中spark就是SparkSession

2、如果是读操作,就是spark.read,如果是写操作,就是spark.write

3、options里面就是我们需要查询的一些具体信息,有关配置如下:

配置项含义
url数据库连接地址,如:jdbc:mysql://localhost:3306/IMEI?useUnicode=true&characterEncoding=UTF8
dbtable要查询的表,这里有两种书写方式,一种可以直接写一个表名,如:t_test;另一种是写一条查询语句,但是注意要给一个别名,如:(SELECT id,imei,imeiid FROM t_imei_all) a。建议使用第一种,第二种查询会很慢
driver数据库驱动,如Mysql的是:com.mysql.jdbc.Driver
user数据库用户名
password数据库密码
partitionColumn, lowerBound, upperBound, numPartitions这几个参数用来指定用哪个列来分区,当我们查询的量很大时,例如超过千万的数据量,如果Spark不分区查询的话很快就会报OOM异常了。而且这几个参数只要指定其中一个,其他的就也要指定,partitionColumn是要分区的列,必须是整数类型;lowerBound和upperBound是分区的上下限;numPartitions是分区数
fetchsize用于读操作,每次读取多少条记录
batchsize用于写操作,每次写入多少条记录
isolationLevel用于写操作,数据库的隔离级别
truncate用于写操作,当Spark要执行覆盖表操作时,即启用了SaveMode.Overwrite,使用truncate比使用drop或者recreate操作更高效,默认是false
createTableOptions用于写操作,可以指定建表的语句,如: CREATE TABLE t (name string) ENGINE=InnoDB

4、最后的结果是一个DataFrame,可以很方便地使用SparkSql继续其他操作

2. 如何在RDD中高效连接HBase

连接HBase直接用HBase的API就好了,我们这里重点讲的是在RDD中连接HBase,大家都知道Spark处理的都是很大的数据量,而RDD连接HBase的时候势必会产生很多与HBase的连接,这样很快就会用光连接数,这里我们使用一个算子mapPartitions来解决这个问题

mapPartitions函数和map函数类似,只不过映射函数的参数由RDD中的每一个元素变成了RDD中每一个分区的迭代器,返回的结果也是每一个分区的迭代器。如果在映射的过程中需要频繁创建额外的对象,使用mapPartitions要比map高效的多

比如,将RDD中的所有数据通过JDBC连接写入数据库,如果使用map函数,可能要为每一个元素都创建一个connection,这样开销很大,如果使用mapPartitions,那么只需要针对每一个分区建立一个connection

下面上栗子:RDD中的内容是字符串,这段字符串是HBase主键rowKey的一部分,现在要根据这条字符串查出HBase中的一条信息。例如HBase的主键是aaabbb111222,RDD中存的内容是aaa,我们要查出HBase主键前缀是aaa的所有记录的主键、包名列表和时间

代码如下:

package com.trigl.spark.mainimport com.trigl.spark.util.HbaseUtil
import org.apache.hadoop.hbase.TableName
import org.apache.hadoop.hbase.client.{Result, Scan}
import org.apache.hadoop.hbase.util.Bytes
import org.apache.log4j.{Level, Logger}
import org.apache.spark.{SparkConf, SparkContext}/*** 高效连接HBase示例* created by Trigl at 2017-05-20 15:34*/
object HBaseDemo {def main(args: Array[String]) {Logger.getLogger("org.apache.spark").setLevel(Level.WARN)System.setProperty("spark.serializer", "org.apache.spark.serializer.KryoSerializer")val sparkConf = new SparkConf().setAppName("HBaseDemo")val sc = new SparkContext(sparkConf)val data = sc.textFile("/test/imei.txt").mapPartitions(getHBaseInfo)// 结果以 主键|包列表|时间 的格式存入HDFSdata.map(l => {val rowKey = l._2._1val pkgList = l._2._2val time = l._1rowKey + "|" + pkgList + "|" + time // 用"|"分隔}).repartition(1).saveAsTextFile("/test/fenxi/cpz")sc.stop()}/*** 从HBase查询** @param iter mapPartion算子的参数是Iterator* @return 返回的也是Iterator*/def getHBaseInfo(iter: Iterator[String]): Iterator[(String, (String, String))] = {var pkgList = List[(String, (String, String))]() // 结果格式为(日期,(主键,包名集合))// 建立连接查询表val conn = HbaseUtil.getConnection(HbaseUtil.TABLE_NAME_CPZ_APP)val table = conn.getTable(TableName.valueOf(HbaseUtil.TABLE_NAME_CPZ_APP))// 新建Scan用于指定查询内容val scan = new Scan()scan.setCaching(10000)scan.setCacheBlocks(false)// 要查询的列scan.addColumn(HbaseUtil.COLUMN_FAMILY.getBytes, "packagelist".getBytes)scan.addColumn(HbaseUtil.COLUMN_FAMILY.getBytes, "cdate".getBytes)while (iter.hasNext) {// 要查询的前缀val imei = iter.next()// HBase前缀查询scan.setRowPrefixFilter(imei.getBytes)// 查询结果val resultScanner = table.getScanner(scan)val it = resultScanner.iterator()if (it.hasNext) {val result: Result = it.next()// 主键val key = Bytes.toString(result.getRow)// 日期val cdate = Bytes.toString(result.getValue(HbaseUtil.COLUMN_FAMILY.getBytes, "cdate".getBytes))// 包列表val packagelist = Bytes.toString(result.getValue(HbaseUtil.COLUMN_FAMILY.getBytes, "packagelist".getBytes))// 添加到集合中pkgList.::=(cdate, (key, packagelist))}}// 关闭HBase连接table.close()conn.close()// 结果返回iteratorpkgList.iterator}
}

最后存的结果是:

8643960350683910864396035068383020170421134920XHt3IGTdqIKtV5Y|2627,com.sogou.activity.src,fc8dbdce14c111859fd0111b03e80cd7,0;2856,com.qihoo.appstore,aa90bca1ab548eadd44a0c1d8c34cbda,0|2017-04-21 13:49:18

上面的完整代码见我的github:

https://github.com/Trigl/SparkLearning/blob/master/src/main/scala/com/trigl/spark/main/JDBC2Mysql.scala

https://github.com/Trigl/SparkLearning/blob/master/src/main/scala/com/trigl/spark/main/HBaseDemo.scala

Refer:

http://spark.apache.org/docs/latest/sql-programming-guide.html#jdbc-to-other-databases

http://lxw1234.com/archives/2015/07/348.htm

http://blog.csdn.net/lsshlsw/article/details/48627737

这篇关于Learning Spark——Spark连接Mysql、mapPartitions高效连接HBase的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/924927

相关文章

Java图片压缩三种高效压缩方案详细解析

《Java图片压缩三种高效压缩方案详细解析》图片压缩通常涉及减少图片的尺寸缩放、调整图片的质量(针对JPEG、PNG等)、使用特定的算法来减少图片的数据量等,:本文主要介绍Java图片压缩三种高效... 目录一、基于OpenCV的智能尺寸压缩技术亮点:适用场景:二、JPEG质量参数压缩关键技术:压缩效果对比

Ubuntu中远程连接Mysql数据库的详细图文教程

《Ubuntu中远程连接Mysql数据库的详细图文教程》Ubuntu是一个以桌面应用为主的Linux发行版操作系统,这篇文章主要为大家详细介绍了Ubuntu中远程连接Mysql数据库的详细图文教程,有... 目录1、版本2、检查有没有mysql2.1 查询是否安装了Mysql包2.2 查看Mysql版本2.

基于SpringBoot+Mybatis实现Mysql分表

《基于SpringBoot+Mybatis实现Mysql分表》这篇文章主要为大家详细介绍了基于SpringBoot+Mybatis实现Mysql分表的相关知识,文中的示例代码讲解详细,感兴趣的小伙伴可... 目录基本思路定义注解创建ThreadLocal创建拦截器业务处理基本思路1.根据创建时间字段按年进

Python3.6连接MySQL的详细步骤

《Python3.6连接MySQL的详细步骤》在现代Web开发和数据处理中,Python与数据库的交互是必不可少的一部分,MySQL作为最流行的开源关系型数据库管理系统之一,与Python的结合可以实... 目录环境准备安装python 3.6安装mysql安装pymysql库连接到MySQL建立连接执行S

C#使用SQLite进行大数据量高效处理的代码示例

《C#使用SQLite进行大数据量高效处理的代码示例》在软件开发中,高效处理大数据量是一个常见且具有挑战性的任务,SQLite因其零配置、嵌入式、跨平台的特性,成为许多开发者的首选数据库,本文将深入探... 目录前言准备工作数据实体核心技术批量插入:从乌龟到猎豹的蜕变分页查询:加载百万数据异步处理:拒绝界面

MySQL双主搭建+keepalived高可用的实现

《MySQL双主搭建+keepalived高可用的实现》本文主要介绍了MySQL双主搭建+keepalived高可用的实现,文中通过示例代码介绍的非常详细,对大家的学习或者工作具有一定的参考学习价值,... 目录一、测试环境准备二、主从搭建1.创建复制用户2.创建复制关系3.开启复制,确认复制是否成功4.同

Spring Boot + MyBatis Plus 高效开发实战从入门到进阶优化(推荐)

《SpringBoot+MyBatisPlus高效开发实战从入门到进阶优化(推荐)》本文将详细介绍SpringBoot+MyBatisPlus的完整开发流程,并深入剖析分页查询、批量操作、动... 目录Spring Boot + MyBATis Plus 高效开发实战:从入门到进阶优化1. MyBatis

MyBatis 动态 SQL 优化之标签的实战与技巧(常见用法)

《MyBatis动态SQL优化之标签的实战与技巧(常见用法)》本文通过详细的示例和实际应用场景,介绍了如何有效利用这些标签来优化MyBatis配置,提升开发效率,确保SQL的高效执行和安全性,感... 目录动态SQL详解一、动态SQL的核心概念1.1 什么是动态SQL?1.2 动态SQL的优点1.3 动态S

Mysql表的简单操作(基本技能)

《Mysql表的简单操作(基本技能)》在数据库中,表的操作主要包括表的创建、查看、修改、删除等,了解如何操作这些表是数据库管理和开发的基本技能,本文给大家介绍Mysql表的简单操作,感兴趣的朋友一起看... 目录3.1 创建表 3.2 查看表结构3.3 修改表3.4 实践案例:修改表在数据库中,表的操作主要

mysql出现ERROR 2003 (HY000): Can‘t connect to MySQL server on ‘localhost‘ (10061)的解决方法

《mysql出现ERROR2003(HY000):Can‘tconnecttoMySQLserveron‘localhost‘(10061)的解决方法》本文主要介绍了mysql出现... 目录前言:第一步:第二步:第三步:总结:前言:当你想通过命令窗口想打开mysql时候发现提http://www.cpp