這篇文章給大家分享的是有關(guān)hadoop中如何解決java.io.IOException: Bad connect ack with firstBad問題的內(nèi)容。小編覺得挺實(shí)用的,因此分享給大家做個參考,一起跟隨小編過來看看吧。
為通川等地區(qū)用戶提供了全套網(wǎng)頁設(shè)計(jì)制作服務(wù),及通川網(wǎng)站建設(shè)行業(yè)解決方案。主營業(yè)務(wù)為成都網(wǎng)站制作、成都網(wǎng)站設(shè)計(jì)、外貿(mào)營銷網(wǎng)站建設(shè)、通川網(wǎng)站設(shè)計(jì),以傳統(tǒng)方式定制建設(shè)網(wǎng)站,并提供域名空間備案等一條龍服務(wù),秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務(wù)。我們深信只要達(dá)到每一位用戶的要求,就會得到認(rèn)可,從而選擇與我們長期合作。這樣,我們也可以走得更遠(yuǎn)!
[hadoop
@master ~]$
touch bigfile.tar
[hadoop
@master ~]$
cat hadoop-2.5.2.tar.gz >> bigfile.tar
[hadoop
@master ~]$ touch bigfile.tarcat
[hadoop
@master ~]$
[hadoop
@master ~]$
[hadoop@master ~]$
cat hadoop-2.5.2.tar.gz >> bigfile.tar
[hadoop@master ~]$
hadoop fs -put bigfile.tar / 上傳文件到遠(yuǎn)程目錄(/)下
15/12/03 00:57:22 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
15/12/03 00:57:26 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Bad connect ack with firstBadLink as 192.168.209.102:50010
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1377)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1281)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:526)
15/12/03 00:57:26 INFO hdfs.DFSClient: Abandoning BP-2062059271-192.168.209.100-1448384244888:blk_1073741864_1040
15/12/03 00:57:26 INFO hdfs.DFSClient: Excluding datanode 192.168.209.102:50010
15/12/03 00:57:26 INFO hdfs.DFSClient: Exception in createBlockOutputStream
java.io.IOException: Bad connect ack with firstBadLink as 192.168.209.101:50010
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.createBlockOutputStream(DFSOutputStream.java:1377)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.nextBlockOutputStream(DFSOutputStream.java:1281)
at org.apache.hadoop.hdfs.DFSOutputStream$DataStreamer.run(DFSOutputStream.java:526)
15/12/03 00:57:26 INFO hdfs.DFSClient: Abandoning BP-2062059271-192.168.209.100-1448384244888:blk_1073741865_1041
15/12/03 00:57:26 INFO hdfs.DFSClient: Excluding datanode 192.168.209.101:50010
原因:
1、某個節(jié)點(diǎn)機(jī)器突然開啟防火墻,導(dǎo)致不能連接
2、強(qiáng)制kill掉某個節(jié)點(diǎn)(據(jù)說)
3、某個機(jī)器直接當(dāng)?shù)?,豈不是完蛋了?數(shù)據(jù)冗余容災(zāi)的設(shè)計(jì)干什么吃的?(推測)
解決方法:
root用戶關(guān)閉防火墻 service iptables stop
可能是某個節(jié)點(diǎn)因?yàn)橹貑裪ptables又起來了,
可以用chkconfig iptables off解決重啟帶來的問題,
不重啟的話用service iptables stop關(guān)掉。
感謝各位的閱讀!關(guān)于“hadoop中如何解決java.io.IOException: Bad connect ack with firstBad問題”這篇文章就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,讓大家可以學(xué)到更多知識,如果覺得文章不錯,可以把它分享出去讓更多的人看到吧!
本文題目:hadoop中如何解決java.io.IOException:BadconnectackwithfirstBad問題
瀏覽路徑:http://aaarwkj.com/article36/gdicpg.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供手機(jī)網(wǎng)站建設(shè)、用戶體驗(yàn)、企業(yè)網(wǎng)站制作、外貿(mào)建站、域名注冊、自適應(yīng)網(wǎng)站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)