Hadoop上传文件失败
HDFS上传文件失败的原因以及解决方法
本来打算上传一个文件
hdfs dfs -put /opt/software/upload.txt /test
但是报错了!!!
百度了很多,但是没有一条适合我的,就去问了一下老师,在我启动dfs和yarn服务之后由于我经常格式化导致的,致使我的slave01和slave02里面的hadoop/hdfs/data/current/VERSION文件里的clusterID与master中不一致,并且输入jps命令,我的slave01和slave02的datanode未启动的
解决办法:将slave01和slave02里的hadoop/hdfs/data这个文件夹删掉,然后新建一个data文件,再在bin路径下格式化一下,最后重启dfs和yarn服务即可
./hdfs namenode -format//格式化
start-all.sh//启动集群
这样就解决了
所以这个事情告诉我们不要频繁执行格式化操作(./hdfs namenode -format//)
发布者:admin,转转请注明出处:http://www.yc00.com/news/1689133591a211231.html
评论列表(0条)