Hadoop上传文件失败

Hadoop上传文件失败

HDFS上传文件失败的原因以及解决方法
本来打算上传一个文件

hdfs dfs -put /opt/software/upload.txt /test

但是报错了!!!
百度了很多,但是没有一条适合我的,就去问了一下老师,在我启动dfs和yarn服务之后由于我经常格式化导致的,致使我的slave01和slave02里面的hadoop/hdfs/data/current/VERSION文件里的clusterID与master中不一致,并且输入jps命令,我的slave01和slave02的datanode未启动的
解决办法:将slave01和slave02里的hadoop/hdfs/data这个文件夹删掉,然后新建一个data文件,再在bin路径下格式化一下,最后重启dfs和yarn服务即可

./hdfs namenode -format//格式化
start-all.sh//启动集群

这样就解决了
所以这个事情告诉我们不要频繁执行格式化操作(./hdfs namenode -format//)

发布者:admin,转转请注明出处:http://www.yc00.com/news/1689133591a211231.html

相关推荐

发表回复

评论列表(0条)

  • 暂无评论

联系我们

400-800-8888

在线咨询: QQ交谈

邮件:admin@example.com

工作时间:周一至周五,9:30-18:30,节假日休息

关注微信