下载地址:点此链接(P.S.下载带bin的安装包)
下载hive后放到虚拟机文件夹内,打开:
tar -zxf /home/tools/apache-hive-1.2.2-bin.tar.gz -C /home/software/
修改并保存环境配置:
gedit /etc/profile //添加 export HIVE_HOME=/home/software/apache-hive-1.2.2-bin export PATH=$PATH:$JAVA_HOME/bin:$MAVEN_HOME/bin:$FINDBUGS_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin source /etc/profile
重命名hive安装目录下的conf文件夹的两个文件名(可以把conf里面带.template的都删掉后缀):
mv hive-env.sh.template hive-env.sh mv hive-default.xml.template hive-default.xml
修改hadoop下的etc/hadoop/hadoop-env.sh:
export HADOOP_CLASSPATH=.$CLASSPATH:$HADOOP_CLASSPATH:$HADOOP_HOME/bin
修改hive下的/bin/hive-config.sh:添加下面三行:
export JAVA_HOME=/home/software/jdk1.8.0_151 export HADOOP_HOME=/home/software/hadoop-2.6.5 export HIVE_HOME=/home/software/apache-hive-1.2.2-bin
新建hive-site.xml :
touch hive-site.xml
<?xml version="1.0" encoding="UTF-8" standalone="no"?> <?xml-stylesheet type="text/xsl" href="configuration.xsl"?> <configuration> <property> <name>javax.jdo.option.ConnectionURL</name> <value>jdbc:mysql://localhost:3306/hive?createDatabaseIfNotExist=true</value> <description>JDBC connect string for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionDriverName</name> <value>com.mysql.jdbc.Driver</value> <description>Driver class name for a JDBC metastore</description> </property> <property> <name>javax.jdo.option.ConnectionUserName</name> <value>hive</value> <description>username to use against metastore database</description> </property> <property> <name>javax.jdo.option.ConnectionPassword</name> <value>hive</value> <description>password to use against metastore database</description> </property> </configuration>
安装mysql:点此链接
下载mysql jdbc 包:点此链接
tar -zxvf mysql-connector-java-5.1.40.tar.gz #解压 cp mysql-connector-java-5.1.40/mysql-connector-java-5.1.40-bin.jar /home/software/apache-hive-1.2.2-bin/lib //将mysql-connector-java-5.1.40-bin.jar拷贝到hive的lib目录下
启动并登陆mysql shell
service mysql start //启动mysql服务 mysql -u root -p //登陆shell界面
新建hive数据库
mysql> create database hive; //这个hive数据库与hive-site.xml中localhost:3306/hive的hive对应,用来保存hive元数据
配置mysql允许hive接入:
mysql> grant all on *.* to hive@localhost identified by 'hive'; //将所有数据库的所有表的所有权限赋给hive用户,后面的hive是配置hive-site.xml中配置的连接密码 mysql> flush privileges; //刷新mysql系统权限关系表
启动hive,在hive目录下
(启动hive之前,请先启动hadoop集群。)
hive //启动hive
相关推荐
hadoop完全分布式安装整合hive,亲自在实际服务器安装测试成功
hive=3.1.2 scala=2.11.12 spark=2.4.0 sbt=1.3.8 flink=1.9.1 maven=3.6.3 建议配合主机的IntelliJ-IDEA的Bigdata拓展工具以及SSH服务进行远程操控使用。 3.本机密码都是“hadoop”。 4.mysql5.7用户名为"root",...
伪分布式安装教程: Flume Hbase Spark Hive Kafka Sqoop zookeeper等分布式系统框架 备注:Hadoop安装教程当时忘记记录,后续也懒得弄,所以上传资料也暂无hadoop安装教程,尽请理解!!!!
hadoop+hive+hbase在线装,超级简单
包括《Hadoop集群监控与Hive高可用-向磊》,hadoop的三本圣经《Hadoop权威指南(第2版)》,《Hadoop实战》和《Hadoop源码分析完整版》。
本文档是笔者基于阿里云服务器CentOS 7.2搭建的Hadoop伪分布式环境,其中用到的一些工具,如:远程终端Xshell 6、文件传输软件Xftp 6。此文档亦可在其他Linux操作系统中运行,可能其中命令稍有区别,请加以注意。
CentOS下安装伪分布式Hadoop-1.2.1
大数据与云计算培训学习资料 Hadoop资料-分布式数据仓库Hive 共57页.pptx
基于hadoop的分布式搜索系统的实现代码
伪分布式的Hadoop+Hive+HBase搭建记录[收集].pdf
linux上在centos系统中进行hadoop完全分布式集群安装,在hadoop安装完成后的基础之上安装元数据库Mariadb,配置完成后安装hive,zookeeper等。
Hive笔记以及大数据hadoop配置环境
工作中搭建的hadoop分布式文件系统和hive ,mysql等的搭建的具体步骤
Hadoop集群搭建及Hive的安装与使用
《Hadoop系统搭建及项目实践》课件08分布式数据仓库技术 Hive.pdf《Hadoop系统搭建及项目实践》课件08分布式数据仓库技术 Hive.pdf《Hadoop系统搭建及项目实践》课件08分布式数据仓库技术 Hive.pdf《Hadoop系统搭建...
高级软件人才培训专家_Hadoop课程资料_4-第四章 - 分布式SQL计算 Hive 入门
1.2 Hive 和 Hadoop 关系 7 1.3 Hive 和普通关系数据库的异同 8 1.4 HIVE元数据库 9 1.4.1 DERBY 9 1.4.2 Mysql 10 1.5 HIVE的数据存储 11 1.6 其它HIVE操作 11 2. HIVE 基本操作 12 2.1 create table 12 2.1.1 总述...
高级软件人才培训专家_Hadoop课程资料_5-第五章 - 分布式SQL计算 Hive 语法与概念
自己整理的Hadoop环境的一些安装,和一些简单的使用,其中包括Hadoop、hbase、hive、mysql、zookeeper、Kafka、flume。都是一些简单的安装步骤和使用,只在自己的虚拟机(Linux centOS7)上使用测试过。按照步骤一步...
本文是继hadoop伪分布式安装文档后,又一篇详细介绍完全分布式安装hadoop的过程,并在此基础上,介绍了如何集成安装hbase和hive的详细步骤。 本文真实记录了我安装过程的每个细节,初学者,可按文档一步步轻松完成...