欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

如何安裝配置hadoop

這篇文章主要講解了“如何安裝配置hadoop”,文中的講解內容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“如何安裝配置hadoop”吧!

創(chuàng)新互聯(lián)專業(yè)為企業(yè)提供北侖網(wǎng)站建設、北侖做網(wǎng)站、北侖網(wǎng)站設計、北侖網(wǎng)站制作等企業(yè)網(wǎng)站建設、網(wǎng)頁設計與制作、北侖企業(yè)網(wǎng)站模板建站服務,10年北侖做網(wǎng)站經(jīng)驗,不只是建網(wǎng)站,更提供有價值的思路和整體網(wǎng)絡服務。

一.配置java home

由于我的java系統(tǒng)是已經(jīng)安裝完畢,而且是1.8版本滿足hadoop要求,只要將java home 指向安裝的目錄即可
先要取得java的安裝目錄
如何安裝配置hadoop
先取得java命令路徑,命令路徑頭就是java的安裝目錄
如何安裝配置hadoop
ll了兩次都是軟鏈接,最后在/usr/lib...下找到了java的目錄,目錄我們只要復制到jre即可,多了少了都報錯。
vim /etc/profile  #配置java home

#------------------------
#  properties jdk
#------------------------
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-7.b13.el7.x86_64/jre
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar:${JRE_HOME}/lib
export PATH=${PATH}:${JAVA_HOME}/bin:${JRE_HOME}/bin

二.下載hadoop ,配置hadoop home

http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.1.2/hadoop-3.1.2.tar.gz
#下載地址
mkdir /hadoop/
#創(chuàng)建hadoop 文件夾,將上面的文件下載到該文件夾,并解壓
ln -s hadoop-3.1.2 hadoop.soft
#創(chuàng)建個軟連接文件
如何安裝配置hadoop
vim /etc/profile #配置 hadoop home

#---------------------------
#  property  hadoop
#------------------------
export HADOOP_HOME=/hadoop/hadoop.soft
export PATH=${PATH}:${HADOOP_HOME}/sbin:${HADOOP_HOME}/bin

source /etc/profile
#重載下配置文件
hadoop version
#執(zhí)行hadoop 驗證命令,如果出現(xiàn)以下字符說明安裝成功了
如何安裝配置hadoop

三.配置

cd /hadoop/hadoop.soft/etc/hadoop  #進入配置文件文件夾
需要修改的以下文件

slaves

hadoop-env.sh

yarn-en.sh

core-site.xml

hdfs-site.xml

mapred-site.xml

yarn-site.xml

1.修改slaves
vim slaves

Slave1
Slave2
#兩個子節(jié)點

2.修改hadoop-env.sh,JAVA_HOME=$JAVA_HOME這一行,把它注釋掉,另外增加一行,添加內容。
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-7.b13.el7.x86_64/jre
#添加java home的路徑
3.修改yarn-env.sh,JAVA_HOME=$JAVA_HOME這一行,把它注釋掉,另外增加一行,添加內容。
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.181-7.b13.el7.x86_64/jre
4.修改core-site.xml,在<configuration> </configuration>之間添加內容。

<property>
        <name>hadoop.tmp.dir</name>
        <value>/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
   </property>
   <property>
        <name>fs.default.name</name>
        <value>hdfs://Master:9000</value>
                #這里填主機的host
   </property>

5.修改hdfs-site.xml,同樣在<configuration></configuration>之間添加內容。

<property>
                <name>dfs.namenode.secondary.http-address</name>
               <value>Master:9001</value>
       </property>
     <property>
             <name>dfs.namenode.name.dir</name>
             <value>file:/hadoop/dfs/name</value>
       </property>
      <property>
              <name>dfs.datanode.data.dir</name>
              <value>file:/hadoop/dfs/date</value>
       </property>
       <property>
               <name>dfs.replication</name>
               <value>3</value>
        </property>
        <property>
                 <name>dfs.webhdfs.enabled</name>
                  <value>true</value>
         </property>

6.修改mapred-site.xml文件,配置文件中沒有這個文件,首先需要將mapred-site.xml.tmporary文件改名為mapred-site.xml

<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.address</name>
        <value>Master:10020</value>
    </property>
    <property>
        <name>mapreduce.jobhistory.webapp.address</name>
        <value>Master:19888</value>
    </property>

7.修改yarn-site.xml

   <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
        </property>
        <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>Master</value>
    </property>

在把需要的文件夾創(chuàng)建下
cd /hadoop
mkdir -pv tmp
mkdir -pv dfs/{name,date}

在把整個文件夾傳送給兩個子節(jié)點,保證所有節(jié)點的文件文件路徑都一樣,java 和hadoop 的home也配置成一樣,主節(jié)點怎么配子節(jié)點一樣配

scp -r /hadoop Slave1:/ #將整個hadoop文件夾復制一份給節(jié)點1  
scp -r /hadoop Slave2:/
四,格式化節(jié)點,啟動hadoop
hdfs namenode -format  #格式化節(jié)點
這一步,在配置完所有文件后,開啟hdfs,star-dfs.sh之前。只使用一次,之后每次開啟hadoop都不需要,格式化名稱節(jié)點,如果沒有格式化名稱節(jié)點,就啟動hadoop,start-dfs.sh,后面會出問題。
解決方法:
關閉hdfs,把tmp,logs文件刪除,重新格式化namenode
stop-all.sh #關閉所有節(jié)點
rm -rf tmp
rm -rf logs
hdfs namenode -format
啟動節(jié)點
su hadoop #切換到hadoop賬號
start-all.sh #啟動所有有節(jié)點
netstat -nltp #查看監(jiān)聽端口如何安裝配置hadoop
訪問9870端口
如何安裝配置hadoop
我這有兩個節(jié)點在線,另一個我關閉測試的,如果花紅圈的地方只有一個主節(jié)點的話
可以登錄到子節(jié)點 運行以下命令,在子節(jié)點上啟動
su hadoop
hadoop-daemon.sh start datanode #啟動本機節(jié)點

四,一下簡單命令

hadoop fs -mkdir /666          新建文件夾
hdfs dfs -put test.txt /666     上傳文件
hadoop fs -ls /                      查看根目錄
hadoop fs -rmr /666             刪除666目錄
如何安裝配置hadoop
上傳一張圖片
如何安裝配置hadoop
到瀏覽器上看看
如何安裝配置hadoop
下載下來看看

感謝各位的閱讀,以上就是“如何安裝配置hadoop”的內容了,經(jīng)過本文的學習后,相信大家對如何安裝配置hadoop這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關知識點的文章,歡迎關注!

網(wǎng)站標題:如何安裝配置hadoop
分享網(wǎng)址:http://aaarwkj.com/article28/iidsjp.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供靜態(tài)網(wǎng)站、小程序開發(fā)、網(wǎng)站建設網(wǎng)站內鏈、云服務器品牌網(wǎng)站建設

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站建設網(wǎng)站維護公司
粉嫩极品国产在线观看| 国产大学生露脸在线视频| 成年免费大片黄在线观看| 少妇人妻偷人精品系列| 成人黄色av免费在线观看| 久久婷婷av一区二区三区| 亚洲天堂网免费在线看| 国产在线一区二区三区不卡| 亚洲综合偷拍日韩av| 午夜视频免费看一区二区| 精品嫩模福利一区二区蜜臀| 亚洲精品一区二区三区不卡| 五月天色婷婷亚洲综合一区| 日本岛国大片在线视频| 国产三级自拍视频在线观看网站 | 色欧美一区二区三区在线| 国产亚洲欧美日韩网站| 日本束缚人妻一区二区三区| 麻豆精品国产一区二区91| 亚洲乱码精品一区二区| 国产我不卡在线观看免费| 婷婷不卡中文字幕三区| 国产精品国产三级农村av| 午夜福利不卡片在线观看| 妞干网视频这里只有精品| 日韩精品免费在线观看视频网站| 成人永久免费播放平台| 一本色桃子精品久久中文字幕| 极品少妇高潮在线观看免费 | 亚洲天堂国产中文在线| 国产九色91中文在线视频| 亚洲av日韩精品久久久| 日产极品一区二区三区| 国产精品乱码一区二区视频| av黄色天堂在线观看| 亚洲国产成人精品女人久久久′| 69国产精品久久久久久人| 亚洲青青草原自拍偷拍| 国产91香蕉在线精品| 亚洲精品另类中文字幕| av免费在线观看大全|