centos7 hadoop 单机模式安装配置

  • 时间:
  • 浏览:0

我的原创地址:https://dongkelun.com/2018/03/23/hadoopConf/

简单的验证hadoop命令:

其中的IP:192.168.44.128为虚拟机ip,只能设置为localhost,将会用localhost,底下在windows上用saprk连接服务器(虚拟机)上的hive会报异常(win读取的配置也是localhost,日后localhost就为win本地ip了~能够否给ip加个映射,不过将会单机的我就没加)。

停止:

验证,浏览器输入:http://192.168.44.128:80070

找到# The java implementation to use.将其下面的一行改为:

将会现在要用spark,而学习spark会和hdfs和hive打交道,日后在公司服务器配的分布式集群,遗弃公司日后,买车人就只能用了,如果用ambari搭的三台虚拟机的集群太卡了,越多有就上网查了一下hadoop+hive的单机部署,以便买车人能进行简单的学习,这里记录一下,日后想把hadoop和hive的装入 一块儿写,将会越多,就分成两篇写了。

在浏览器查看,总出 如下图所示,即为成功

第一次启动hdfs还要格式化:

浏览器查看:http://192.168.44.128:8088



jps查看程序池池



到此,hadoop单机模式就配置成功了!

版权声明:本文由董可伦首发于https://dongkelun.com,非商业转载请注明作者及原创出处。商业转载请联系作者买车人。 https://blog.csdn.net/dkl12/article/details/80232782

Re-format filesystem in Storage Directory /opt/hadoop-2.7.5/tmp/dfs/name ? (Y or N)

输入:Y

(总出 询问输入Y or N,删剪输Y即可)

启动:

参考:linux ssh 免密登录

启动:

https://blog.csdn.net/cafebar123/article/details/73800014

下载地址:http://mirror.bit.edu.cn/apache/hadoop/common/,我下载的是hadoop-2.7.5.tar.gz

(将会我日后用的2.7.1是几年前下载保处于本地的,现在发现日后在配置spark那篇写的那个hadoop下载地址较慢,越多有改成这些 地址)