Hadoop集群搭建第二课——配置jdk环境与hadoop
搭建hadoop集群需要准备两台及以上的服务器或虚拟机。这是必备的前提条件,如果只是单纯在某台服务器上搭建,这不能称之为集群。需要保证虚拟机的网络,以及可以使用ssh工具连接。
我这里准备了两台虚拟机,一台使用镜像文件搭建,完成之后直接克隆一台,以下所有命令均为超级管理员模式。
虚拟机准备完毕,接下来准备jdk压缩包与hadoop压缩包。我这边使用的是jdk1.8和hadoop2.10.1。具体名称为jdk-8u202-linux-x64.tar.gz和hadoop-2.10.1.tar.gz 虚拟机自带的jdk环境如何移除在之前的文章有提到过。
将两个压缩包通过ssh工具上传自虚拟机并解压,可以分别上传。也可以上传至原始虚拟机,在传输到克隆机上,传输的方式查看之前的文章——服务器之间的数据互通
分别修改主机名,我将原始机修改为hadoop01,克隆机修改为hadoop02。修改的方法如下:
cd /etc vim hostname
保存并退出之后使用cat hostname验证结果。接下来编辑hosts,需要几台配几台,至少两台(包含原始机)。让他们的主机名与ip地址一一对应。
两台虚拟机配置完之后,分别重启。接下来开始配置环境变量。
cd /etc/profile.d sudo vim my_env.sh
需要配置的内容如下,需要根据自己的实际存放路径来
export JAVA_HOME=/root/jdk1.8.0_202 export CLASSPATH=$JAVA_HOME/lib/ export PATH=$PATH:$JAVA_HOME/bin export HADOOP_HOME=/usr/local/hadoop-2.10.1 export PATH=$PATH:$HADOOP_HOME/bin export PATH=$PATH:$HADOOP_HOME/sbin
保存并退出,使用source /etc/profile重载变量。使用java -version和hadoop version验证是否配置成功。对于另外的虚拟机可以分别配置,也可以在原始机配置完成以后使用脚本分发。脚本分发如何操作,请查阅之前的文章。
出现如上图所示即表示配置成功。
本站部分文章、数据、图片来自互联网,一切版权均归源网站或源作者所有。
如果侵犯了你的权益请来信告知我们删除。邮箱:1737618317@qq.com