一、需求描述
给Hadoop
集群动态扩容一个节点
那么,这个节点是全新的,我们需要做哪些准备工作,才能将它融入集群了?
二、初始化配置
1、修改IP和hostname
vim /etc/sysconfig/network-scripts/ifcfg-ens33
vim /etc/hostname
[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-bPaqMfeU-1720771557255)(https://i-blog.csdnimg.cn/direct/33a03434aef54f8f88b762fb0fb5da4d.png)][外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-jJEkstmu-1720771557256)(https://i-blog.csdnimg.cn/direct/59a3630a9d5b4df0ad9884fea22fb6a8.png)]
2、复制102的hadoop、jdk安装包和环境变量文件
复制安装包,可以用普通账号进行复制
scp -r module/* atguigu@hadoop105:/opt/module/
复制环境变量文件,必须用root权限进行复制
sudo scp /etc/profile.d/my_env.sh root@hadoop105:/etc/profile.d/my_env.sh
105上
source /etc/profile
3、105上删除data和logs目录
cd /opt/module/hadoop-3.1.3
rm -rf data/ logs/
4、配置各个节点到新增节点的免密登陆
102、103、104到105的免密登陆
cd /home/atguigu/.ssh
ssh-copy-id hadoop105ssh atguigu@hadoop105 验证免密登陆