您当前的位置: 首页 >  pip

川川菜鸟

暂无认证

  • 3浏览

    0关注

    969博文

    0收益

  • 0浏览

    0点赞

    0打赏

    0留言

私信
关注
热门博文

Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being avail

川川菜鸟 发布时间:2022-08-28 23:40:06 ,浏览量:3

报错

我在写文件追加的时候报错如下: Failed to replace a bad datanode on the existing pipeline due to no more good datanodes being available to try.

截图如下: 在这里插入图片描述

解决

对于dfs.client.block.write.replace-datanode-on-failure.enable,客户端在写失败的时候,是否使用更换策略,默认是true没有问题

对于,dfs.client.block.write.replace-datanode-on-failure.policy,default在3个或以上备份的时候,是会尝试更换结点尝试写入datanode。而在两个备份的时候,不更换datanode,直接开始写。对于3个datanode的集群,只要一个节点没响应写入就会出问题,所以可以关掉。

进入目录:

cd $HADOOP_HOME/etc/hadoop
vim hdfs-site.xml

添加内容:


        dfs.client.block.write.replace-datanode-on-failure.enable         true
    

   

    
    dfs.client.block.write.replace-datanode-on-failure.policy
        NEVER
    

解决~

关注
打赏
1665165634
查看更多评论
立即登录/注册

微信扫码登录

0.0413s