首页 > 系统 > 虚拟机 > 正文
Hadoop+Hive环境搭建
2017-07-15 16:11:43       个评论    来源:  
收藏    我要投稿

Hadoop+Hive环境搭建

1虚拟机系统安装+JDK环境

JDK安装采用二进制包压缩方式(解压之后就是直接可用了,但需要修改环境变量,使其任何路径下都可行)

修改/etc/profile,~/.bashrc 配置文件,修改环境变量。

2 Hadoop安装

Hadoop安装采用二进制文件压缩方式

三种方式

1 单机:修改 环境变量使得Hadoop命令在任何路径下可运行

2 伪分布:修改配置文件 core-site.xml Hdfs-site.xml hadoop-env.sh

格式化namenode,运行jps查看是否6个进程都已启动。

3 集群

三种方式分别需要修改配置文件。

3 Hive安装

Hive安装采用二进制文件压缩方式

三种方式

1 内嵌修改 环境变量使得Hive命令在任何路径下可运行

2mysql

安装mysql,修改配置文件hive-site.xml 使其连接mysql,同时将mysqljdbc放到hive、lib中

3远程

修改配置文件hive-site.xml 加上

datanucleus.autoCreateSchema

true

Hive依赖于Hadoop,而Hadoop依赖于JDK,安装Hive后,Hive的启动交给Hadoop,需要配置hadoop配置文件,同时把hive/lib下的hive* jar拷贝到hadoop/lib下。在启动Hadoop时同时启动Hive,jsp查看是否存在进程runjar。

4mysql安装

采用二进制文件压缩方式,mysql安装之后需要配置密码登入方式,同时配置允许远程用户登入,为hive新建一个登入用户和数据库hive,授权。

点击复制链接 与好友分享!回本站首页
上一篇:虚拟机VMware 11如何安装win10正式版系统
下一篇:[云路由器] 设置了虚拟服务器,外网无法访问服务器怎么办?
相关文章
图文推荐
文章
推荐
热门新闻

关于我们 | 联系我们 | 广告服务 | 投资合作 | 版权申明 | 在线帮助 | 网站地图 | 作品发布 |
版权所有: 88bifa.com--致力于做实用的IT技术学习网站