当前在线人工客服
天达云-技术
QQ:1324027256
天达云-技术
QQ:1902643386
天达云-售前
QQ:1650874901
天达云-售前
QQ:2207995833
天达云-合作
QQ:1984186903
天达云微信小程序
400-837-6568

主节点的namenode、secondarynamenode启动成功,但是slave启动不成功
更新:HHH   时间:2023-1-7


Hadoop2.7.2集群secondarynamenode启动成功,但是slave节点datenode启动不成功。
slave节点在 logs下的 datanote 日志中报错:java.net.BindException: Port in use: localhost:0, 以及提示:无法指定被请求的地址。
修改 /etc/hosts 文件 将原有的默认配置加入即可(本操作中,将集群所有节点的hosts文件都做了修改,单独修改salve节点未做测试)。

vi /etc/hosts
在最后一行加入如下内容:
127.0.0.1 localhost.localdomain localhost
保存退出。
停止Hadoop集群: sbin/stop-all.sh

启动集群: sbin/start-dfs.sh
成功启动 slave节点

返回大数据教程...