本篇內容主要講解“hadoop0.20.2集群搭建Ubuntu14.04環(huán)境的方法”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“hadoop0.20.2集群搭建Ubuntu14.04環(huán)境的方法”吧!
成都創(chuàng)新互聯專注為客戶提供全方位的互聯網綜合服務,包含不限于成都做網站、成都網站設計、越城網絡推廣、小程序制作、越城網絡營銷、越城企業(yè)策劃、越城品牌公關、搜索引擎seo、人物專訪、企業(yè)宣傳片、企業(yè)代運營等,從售前售中售后,我們都將竭誠為您服務,您的肯定,是我們最大的嘉獎;成都創(chuàng)新互聯為所有大學生創(chuàng)業(yè)者提供越城建站搭建服務,24小時服務熱線:028-86922220,官方網址:aaarwkj.com
配前準備
一. 安裝環(huán)境:Ubuntu 14.04 ---------一共三臺機器
其中一臺namenode+jobtracker (master) , 兩臺 datanode + tasktracker(hadoop, salve1)
下表為各個機器的具體內容
ip username/password hostname
10.60.38.165 hadoop/123456 hadoop
10.60.38.166 hadoop/123456 master
10.60.38.155 hadoop/123456 salve1 (......居然拼錯了,我靠)
在每臺機器的/etc/hosts 下面 添加
10.60.38.165 hadoop
10.60.38.166 master
10.60.38.155 salve1
使得各臺機器相互之間可以ping通(通過hostname可以ping)
(ps: /etc/hosts 里面的數據全部清空,只留上面的三個 以及第一項: 127.0.0.1 localhost )
二. SSH 無密碼驗證配置
1.因為大部分Linux里面默認已經安裝好了ssh,我在安裝時已經默認安裝好,但是ssh service 沒有安裝,使用 sudo apt-get install openssh-server 來安裝 ssh service。(確保 22端口號處于監(jiān)聽狀態(tài):netstat -nat 查看)
2.在每臺機器上都執(zhí)行 下面命令: ssh-kengen -t rsa -P ""
一路enter (將密鑰的位置保存在默認的路徑下)
在user的當前目錄下出現目錄/.ssh(默認的權限為700)
里面生成兩個文件 id_rsa 和 id_rsa.pub
3.接著在 Master 節(jié)點上做如下配置把id_rsa.pub 追加到授權的key 里面
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
4.下面在其他兩臺機器上依次執(zhí)行命令將各自生成的id_rsa.pub 添加到Master 下的authorized_keys 里面
cat id_rsa.pub | ssh hadoop@master "cat >> ~/.ssh/authorized_keys ( 此時 ssh 到 另外一臺機器上 需要另外一臺機器的密碼)
5.最后將Master 機器上得到的 authorized_keys 依次添加到 各臺機器的 /home/hadoop/.ssh 目錄下
scp authorized_keys hadoop@hadoop :~/.ssh
scp authorized_keys hadoop@salve1:~/.ssh
6.配置完成后在每一臺機器上都可以無密碼驗證登錄另外一臺機器了。于是這一步搞定。
在每臺機器上安裝jdk 和 Hadoop
配置Hadoop (此處我的版本為hadoop0.20.2,jdk1.7)
----在配置文件中設值時,兩邊千萬不能有空格,不然無效。
接下來配置配置文件:hadoop-env.sh, core-site.xml, hdfs-site.xml, mapred-site.xml
PS:
對于hadoop-env.sh 各個節(jié)點的配置都是相同的。
對于master節(jié)點,需要額外配置slaves 文件,在里面添加各個datanode 的ip 地址
下面附上master節(jié)點與Hadoop節(jié)點的配置(salve1與Hadoop類似,只需修改對于的ip,這里我已經大部分采用系統(tǒng)默認配置,所以無需更改)
hadoop-env.sh:
export JAVA_HOME=/opt/jdk1.7
(就在最后面加上即可)
core-site.xml:
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
</property>
</configuration>
ps: 這里當我添加屬性 hadoop.tmp.dir 改變其默認路徑時,集群在啟動時報錯。。。。未解,先暫時啟用默認路徑。還望大神指教。
hdfs-site.xml:
<configuration>
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
</configuration>
<configuration>
<property>
<name>dfs.replication</name>
<value>2</value>
</property>
</configuration>
mapred-site.xml:
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>10.60.38.166:9001</value>
</property>
</configuration>
slaves:
10.60.38.165 hadoop
10.60.38.155 salve1
masters:
master
在master節(jié)點配置好了然后復制到各個Datanode 節(jié)點。
注意:這里的master, slaves 文件在復制的時候可以不用變動,系統(tǒng)會自動忽略。而且配置都不需要改變,因為已經盡量采用了默認配置
---------------------------------------------------------------------------------------------------------------------
測試運行
經過以下幾步:
1.create some files(file01.txt, file02.txt)
2.hadoop fs -mkdir input
3.hadoop fs -put file*.txt input
4.hadoop jar /opt/hadoop/hadoop-0.20.2-examples.jar wordcount input output
5.hadoop fs -ls output
6.hadoop fs -cat output/part-r-00000
最得到結果:
;slkdfj 1
aer 1
apple 1
are 1
asfjjjf 1
c++ 1
fj 1
hello 2
java 3
tantairs 1
world 4
到此,相信大家對“hadoop0.20.2集群搭建Ubuntu14.04環(huán)境的方法”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯網站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續(xù)學習!
分享標題:hadoop0.20.2集群搭建Ubuntu14.04環(huán)境的方法
網站網址:http://aaarwkj.com/article30/gjihpo.html
成都網站建設公司_創(chuàng)新互聯,為您提供ChatGPT、關鍵詞優(yōu)化、手機網站建設、響應式網站、商城網站、網站改版
聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯