HDFS搭建方式


1.环境准备

CentOS7镜像文件、HDFS安装文件、JDK文件、以及一双勤劳的手。

2虚拟机环境搭建

2.1新建虚拟机->选择自定义->下一步

2.2默认选项->下一步

2.3选择稍后安装系统->下一步

2.4选择Linux CentOS7 64位

2.5为虚拟机命名,方便区分即可

2.6指定cpu配置,这里仅做示范使用2核

2.7指定内存配置,这里仅做示范使用2GB

2.8指定虚拟机网络,这里仅做示范,使用桥接网络,需根据实际生产环境配置

2.9剩下的都一路下一步

2.10指定磁盘大小,自定义20GB

2.11选择自定义硬件

2.12在新CD/DVD(IDE)中选择使用ISO映像文件,选择准备的CentOS7的镜像文件

3.CentOS7环境准备

3.1启动虚拟机

3.2直接回车,安装CentOS7

3.3选择中文->继续

3.4单击安装位置->点击完成->开始安装

3.5正在安装->单击root密码设置root账号密码(简单密码需要点击两次完成)

3.6重启

4.环境搭建

4.1修改网卡配置
vi /etc/sysconfig/network-scripts/ifcfg-ens33
修改完成后重启网卡systemctl restart network,ping通百度,

4.2关闭防火墙和selinux以及防火墙自启(根据实际生产环境而定)
关闭防火墙systemctl stop firewalld
关闭防火墙自启systemctl disable firewalld

关闭selinux vi /etc/selinux/conf
修改为disabled

4.3修改主机名hostnamectl set-hostname hadoop1

4.4 JDK配置需使用第三方ssh工具上传JDK文件,这里以Xshell为例
上传JDK文件到目录下

将准备的tar.gz格式的hadoop文件和jdk文件解压,并移动到/app目录下

配置环境变量vi /etc/profile在末尾添加
export JAVA_HOME=/app/jdk
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export HADOOP_HOME=/app/hadoop
export PATH=${PATH}:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin

刷新配置文件立即生效source /etc/profile
使用java -version和hadoop version查看是否配置成功

4.5hadoop文件配置cd /app/hadoop/etc/hadoop
1.hadoop-env.sh文件修改以下配置

2.yarn-env.sh文件修改一下配置

3.core-site.xml修改以下配置

4.hdfs-site.xml修改以下配置

5.mapred-site.xml需要把mapred-site.xml.template拷贝成mapred-site.xml文件进行配置
cp mapred-site.xml.template mapred-site.xml

6.yarn-site.xml修改以下配置

7.slaves文件

8.修改hosts文件

9.将虚拟机关机,复制两份,一共三台

修改复制出的两台虚拟机的配置
一台主机名为hadoop2 192.168.1.32
一台主机名为hadoop3 192.168.1.33

10.设置三台虚拟机之前ssh免密登录
ssh-keygen -t rsa
ssh-copy-id hadoop1
ssh-copy-id hadoop2
ssh-copy-id hadoop3
将这四个命令在每一台虚拟机之间都执行一遍

11.在hadoop1机器上执行hdfs namenode -format

显示successfully则表示成功
12.执行start-dfs.sh

13.使用jps命令查看三个节点信息

13.浏览器输入http://192.168.1.31:50070/进入面板

感谢观看,观看中如有不同看法欢迎指出!

声明:MonJane的小阁楼|版权所有,违者必究|如未注明,均为原创|本网站采用BY-NC-SA协议进行授权

转载:转载请注明原文链接 - HDFS搭建方式


“待海漫过大地,飞鸟会拥抱鱼”