hiveserver2服务的启动与简单使用技巧

2024-02-27 19:18

本文主要是介绍hiveserver2服务的启动与简单使用技巧,希望对大家解决编程问题提供一定的参考价值,需要的开发者们随着小编来一起学习吧!

一、hiveserver2简介
    Hive在生产上是不需要部署集群的,操作Hive只需要通过它提供的客户端即可,Hive提供了大致三类客户端:

hive shell:通过hive shell来操作hive,但是至多只能存在一个hive shell,启动第二个会被阻塞,也就是说hive shell不支持并发操作。
WebUI: 通过HUE/Zeppelin来对Hive表进行操作。
基于JDBC等协议:启动hiveserver2,通过jdbc协议可以访问hive,hiveserver2支持高并发。
简而言之,hiveserver2是Hive启动了一个server,客户端可以使用JDBC协议,通过IP+ Port的方式对其进行访问,达到并发访问的目的。

二、使用hiveserver2服务
本次演示使用的Hive版本是:apache-hive-3.1.2,开发工具是IDEA2021

1.启动hiveserver2服务

启动Hiveserver2有两种命令:

hive的bin目录下执行 hive --service hiveserver2

或者
hive的bin目录下执行  ./hiveserver2,

hiveserver2的服务端口默认是10000,WebUI端口默认是10002,这2个都可以在hive-site.xml中配置

我们新开一个终端使用命令netstat -anop|grep 10000 和 netstat -anop|grep 10002:

说明服务端口和web端口都在监听状态,启动正常

我们在浏览器访问 http://master104:10002/,可以看到如下图的界面

2.启动beeline连接server

在装了相同版本Hive的其他主机(启动hiveserver2的主机也可以)上启动beeline,可以连接到Hive的server上。执行命令:beeline -u jdbc:hive2://master104:10000

 连接成功,我们刷新web管理端,可以看到一条连接信息

 我们在beeline终端执行 show databases;输出了结果

 同时刷新web端,可以看到执行了一个mr任务

我们可以使用beeline完成在hive shell中相同的操作。

3.使用JDBC协议连接server

我们打开idea,新建一个maven项目,在pom文件添加依赖

<dependencies><dependency><groupId>junit</groupId><artifactId>junit</artifactId><version>4.12</version></dependency><dependency><groupId>org.apache.hive</groupId><artifactId>hive-jdbc</artifactId><version>3.1.2</version></dependency>
</dependencies>

我们在src下面新建一个测试类HiveTest,输入代码如下

import org.junit.After;
import org.junit.Before;
import org.junit.Test;import java.sql.Connection;
import java.sql.DriverManager;
import java.sql.PreparedStatement;
import java.sql.ResultSet;public class HiveTest {//连接private Connection connection = null;private PreparedStatement preparedStatement = null;private ResultSet resultSet = null;/*** 建立连接*/@Beforepublic void before(){try {//Hive的JDBC驱动String classDriver = "org.apache.hive.jdbc.HiveDriver";//连接串,接数据库名mydb,数据库写你的数据库String url = "jdbc:hive2://master104:10000/default";//加载驱动Class.forName(classDriver);//获得连接connection = DriverManager.getConnection(url);}catch (Exception e){e.printStackTrace();}}/*** 查询表中的数据*/@Testpublic void testHiveSelect(){try {//表和数据需要提前准备好String sql = "select * from test0727";//执行SQL语句preparedStatement = connection.prepareStatement(sql);//得到结果集resultSet = preparedStatement.executeQuery();//遍历结果集while (resultSet.next()){System.out.println(resultSet.getInt(1) + " " + resultSet.getString(2));}}catch (Exception e){e.printStackTrace();}}/*** 结束后关闭连接*/@Afterpublic void after(){try {if (preparedStatement != null)preparedStatement.close();if (resultSet != null)resultSet.close();connection.close();}catch (Exception e){e.printStackTrace();}}
}

这个方法会查询hive上的默认库default下面的表test0727,里面有3条记录

 我们执行单元测试 testHiveSelect,

 在控制台得到下面结果

 这里只是演示了查询Hive表的select查询操作,你会发现,代码和操作MysQL的代码一模一样,仅仅只是驱动不一样,这得益于Java的多态,MySQL和Hive都实现了JDBC的借口,所以在方法的调用层面上,二者是完全一样的!还有表的其他操作比如删除,排序等等也和操作MySQL的一致,这里就不多作介绍了,读者可以自行写测试代码来体验下。
通过查看WebUI,可以看到我们执行查询的操作记录:

 三、总结

Hive的hiveserver2服务本质上是实现了JDBC的接口,所以我们可以各种方式使用JDBC连接它,在终端可以使用beeline,连接Hive的server2,用法和hive shell一致,而编程则可以加载Hive的JDBC驱动,使用操作其他关系型数据库的方法操作Hive


        感谢能看到这里的朋友😉

        本次的分享就到这里,猫头鹰数据致力于为大家分享技术干货😎

        如果以上过程中出现了任何的纰漏错误,烦请大佬们指正😅

        受益的朋友或对技术感兴趣的伙伴记得点赞关注支持一波🙏

        也可以搜索关注我的微信公众号【猫头鹰数据分析】,留言交流🙏

这篇关于hiveserver2服务的启动与简单使用技巧的文章就介绍到这儿,希望我们推荐的文章对编程师们有所帮助!



http://www.chinasem.cn/article/753347

相关文章

Ilya-AI分享的他在OpenAI学习到的15个提示工程技巧

Ilya(不是本人,claude AI)在社交媒体上分享了他在OpenAI学习到的15个Prompt撰写技巧。 以下是详细的内容: 提示精确化:在编写提示时,力求表达清晰准确。清楚地阐述任务需求和概念定义至关重要。例:不用"分析文本",而用"判断这段话的情感倾向:积极、消极还是中性"。 快速迭代:善于快速连续调整提示。熟练的提示工程师能够灵活地进行多轮优化。例:从"总结文章"到"用

中文分词jieba库的使用与实景应用(一)

知识星球:https://articles.zsxq.com/id_fxvgc803qmr2.html 目录 一.定义: 精确模式(默认模式): 全模式: 搜索引擎模式: paddle 模式(基于深度学习的分词模式): 二 自定义词典 三.文本解析   调整词出现的频率 四. 关键词提取 A. 基于TF-IDF算法的关键词提取 B. 基于TextRank算法的关键词提取

使用SecondaryNameNode恢复NameNode的数据

1)需求: NameNode进程挂了并且存储的数据也丢失了,如何恢复NameNode 此种方式恢复的数据可能存在小部分数据的丢失。 2)故障模拟 (1)kill -9 NameNode进程 [lytfly@hadoop102 current]$ kill -9 19886 (2)删除NameNode存储的数据(/opt/module/hadoop-3.1.4/data/tmp/dfs/na

Hadoop数据压缩使用介绍

一、压缩原则 (1)运算密集型的Job,少用压缩 (2)IO密集型的Job,多用压缩 二、压缩算法比较 三、压缩位置选择 四、压缩参数配置 1)为了支持多种压缩/解压缩算法,Hadoop引入了编码/解码器 2)要在Hadoop中启用压缩,可以配置如下参数

Makefile简明使用教程

文章目录 规则makefile文件的基本语法:加在命令前的特殊符号:.PHONY伪目标: Makefilev1 直观写法v2 加上中间过程v3 伪目标v4 变量 make 选项-f-n-C Make 是一种流行的构建工具,常用于将源代码转换成可执行文件或者其他形式的输出文件(如库文件、文档等)。Make 可以自动化地执行编译、链接等一系列操作。 规则 makefile文件

使用opencv优化图片(画面变清晰)

文章目录 需求影响照片清晰度的因素 实现降噪测试代码 锐化空间锐化Unsharp Masking频率域锐化对比测试 对比度增强常用算法对比测试 需求 对图像进行优化,使其看起来更清晰,同时保持尺寸不变,通常涉及到图像处理技术如锐化、降噪、对比度增强等 影响照片清晰度的因素 影响照片清晰度的因素有很多,主要可以从以下几个方面来分析 1. 拍摄设备 相机传感器:相机传

MySQL数据库宕机,启动不起来,教你一招搞定!

作者介绍:老苏,10余年DBA工作运维经验,擅长Oracle、MySQL、PG、Mongodb数据库运维(如安装迁移,性能优化、故障应急处理等)公众号:老苏畅谈运维欢迎关注本人公众号,更多精彩与您分享。 MySQL数据库宕机,数据页损坏问题,启动不起来,该如何排查和解决,本文将为你说明具体的排查过程。 查看MySQL error日志 查看 MySQL error日志,排查哪个表(表空间

csu 1446 Problem J Modified LCS (扩展欧几里得算法的简单应用)

这是一道扩展欧几里得算法的简单应用题,这题是在湖南多校训练赛中队友ac的一道题,在比赛之后请教了队友,然后自己把它a掉 这也是自己独自做扩展欧几里得算法的题目 题意:把题意转变下就变成了:求d1*x - d2*y = f2 - f1的解,很明显用exgcd来解 下面介绍一下exgcd的一些知识点:求ax + by = c的解 一、首先求ax + by = gcd(a,b)的解 这个

hdu2289(简单二分)

虽说是简单二分,但是我还是wa死了  题意:已知圆台的体积,求高度 首先要知道圆台体积怎么求:设上下底的半径分别为r1,r2,高为h,V = PI*(r1*r1+r1*r2+r2*r2)*h/3 然后以h进行二分 代码如下: #include<iostream>#include<algorithm>#include<cstring>#include<stack>#includ

springboot3打包成war包,用tomcat8启动

1、在pom中,将打包类型改为war <packaging>war</packaging> 2、pom中排除SpringBoot内置的Tomcat容器并添加Tomcat依赖,用于编译和测试,         *依赖时一定设置 scope 为 provided (相当于 tomcat 依赖只在本地运行和测试的时候有效,         打包的时候会排除这个依赖)<scope>provided