欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

運行Hadoop自帶的wordcount單詞統(tǒng)計程序-創(chuàng)新互聯(lián)

0.前言

為電白等地區(qū)用戶提供了全套網頁設計制作服務,及電白網站建設行業(yè)解決方案。主營業(yè)務為成都網站設計、成都網站建設、電白網站設計,以傳統(tǒng)方式定制建設網站,并提供域名空間備案等一條龍服務,秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務。我們深信只要達到每一位用戶的要求,就會得到認可,從而選擇與我們長期合作。這樣,我們也可以走得更遠!

    前面一篇《Hadoop初體驗:快速搭建Hadoop偽分布式環(huán)境》搭建了一個Hadoop的環(huán)境,現(xiàn)在就使用Hadoop自帶的wordcount程序來做單詞統(tǒng)計的案例。


1.使用示例程序實現(xiàn)單詞統(tǒng)計

(1)wordcount程序

  wordcount程序在hadoop的share目錄下,如下:

[root@leaf mapreduce]# pwd
/usr/local/hadoop/share/hadoop/mapreduce
[root@leaf mapreduce]# ls
hadoop-mapreduce-client-app-2.6.5.jar         hadoop-mapreduce-client-jobclient-2.6.5-tests.jar
hadoop-mapreduce-client-common-2.6.5.jar      hadoop-mapreduce-client-shuffle-2.6.5.jar
hadoop-mapreduce-client-core-2.6.5.jar        hadoop-mapreduce-examples-2.6.5.jar
hadoop-mapreduce-client-hs-2.6.5.jar          lib
hadoop-mapreduce-client-hs-plugins-2.6.5.jar  lib-examples
hadoop-mapreduce-client-jobclient-2.6.5.jar   sources

    就是這個hadoop-mapreduce-examples-2.6.5.jar程序。

(2)創(chuàng)建HDFS數(shù)據目錄

    創(chuàng)建一個目錄,用于保存MapReduce任務的輸入文件:

[root@leaf ~]# hadoop fs -mkdir -p /data/wordcount

    創(chuàng)建一個目錄,用于保存MapReduce任務的輸出文件:

[root@leaf ~]# hadoop fs -mkdir /output

    查看剛剛創(chuàng)建的兩個目錄:

[root@leaf ~]# hadoop fs -ls /
drwxr-xr-x   - root supergroup          0 2017-09-01 20:34 /data
drwxr-xr-x   - root supergroup          0 2017-09-01 20:35 /output

(3)創(chuàng)建一個單詞文件,并上傳到HDFS

    創(chuàng)建的單詞文件如下:

[root@leaf ~]# cat myword.txt 
leaf yyh
yyh xpleaf
katy ling
yeyonghao leaf
xpleaf katy

    上傳該文件到HDFS中:

[root@leaf ~]# hadoop fs -put myword.txt /data/wordcount

    在HDFS中查看剛剛上傳的文件及內容:

[root@leaf ~]# hadoop fs -ls /data/wordcount
-rw-r--r--   1 root supergroup         57 2017-09-01 20:40 /data/wordcount/myword.txt
[root@leaf ~]# hadoop fs -cat /data/wordcount/myword.txt
leaf yyh
yyh xpleaf
katy ling
yeyonghao leaf
xpleaf katy

(4)運行wordcount程序

    執(zhí)行如下命令:

[root@leaf ~]# hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.5.jar wordcount /data/wordcount /output/wordcount
...
17/09/01 20:48:14 INFO mapreduce.Job: Job job_local1719603087_0001 completed successfully
17/09/01 20:48:14 INFO mapreduce.Job: Counters: 38
        File System Counters
                FILE: Number of bytes read=585940
                FILE: Number of bytes written=1099502
                FILE: Number of read operations=0
                FILE: Number of large read operations=0
                FILE: Number of write operations=0
                HDFS: Number of bytes read=114
                HDFS: Number of bytes written=48
                HDFS: Number of read operations=15
                HDFS: Number of large read operations=0
                HDFS: Number of write operations=4
        Map-Reduce Framework
                Map input records=5
                Map output records=10
                Map output bytes=97
                Map output materialized bytes=78
                Input split bytes=112
                Combine input records=10
                Combine output records=6
                Reduce input groups=6
                Reduce shuffle bytes=78
                Reduce input records=6
                Reduce output records=6
                Spilled Records=12
                Shuffled Maps =1
                Failed Shuffles=0
                Merged Map outputs=1
                GC time elapsed (ms)=92
                CPU time spent (ms)=0
                Physical memory (bytes) snapshot=0
                Virtual memory (bytes) snapshot=0
                Total committed heap usage (bytes)=241049600
        Shuffle Errors
                BAD_ID=0
                CONNECTION=0
                IO_ERROR=0
                WRONG_LENGTH=0
                WRONG_MAP=0
                WRONG_REDUCE=0
        File Input Format Counters 
                Bytes Read=57
        File Output Format Counters 
                Bytes Written=48

(5)查看統(tǒng)計結果

    如下:

[root@leaf ~]# hadoop fs -cat /output/wordcount/part-r-00000
katy    2
leaf    2
ling    1
xpleaf  2
yeyonghao       1
yyh     2


3.參考資料

http://www.aboutyun.com/thread-7713-1-1.html

另外有需要云服務器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內外云服務器15元起步,三天無理由+7*72小時售后在線,公司持有idc許可證,提供“云服務器、裸金屬服務器、高防服務器、香港服務器、美國服務器、虛擬主機、免備案服務器”等云主機租用服務以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務可用性高、性價比高”等特點與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應用場景需求。

分享名稱:運行Hadoop自帶的wordcount單詞統(tǒng)計程序-創(chuàng)新互聯(lián)
分享地址:http://aaarwkj.com/article40/cogseo.html

成都網站建設公司_創(chuàng)新互聯(lián),為您提供ChatGPT、網站設計虛擬主機、域名注冊網站改版、網站策劃

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

成都定制網站網頁設計
高清免费欧美大片在线观看| 国产亚洲精品第一综合| 亚洲综合日韩精品国产av| 日韩亚洲在线中文字幕| 国产av综合一区二区三区最新| 国产一区二区三区百合| 日本黄色免费在线观看网站| 亚洲av乱码一区二区三四五六七| 欧美黄片视频在线免费看| 中文字幕乱码人妻一区二| 日韩中文字幕乱码一区| 四虎影院成人精品久久| 国产精品自产在线观看一| 欧美一区二区三区高清正版| 欧美日韩精品激情一区二区| 日本一区二区精美视频| 国产av专区久久伊人亚洲| 国产女主播福利在线播放| 国产av一区二区三区高潮蜜| 欧美中文字幕在线精品| 亚洲品质自拍在线观看| 国产精品夫妇在线激情啪| 在线国产丝袜自拍观看| 青青草原高清在线观看| 日韩免费av在线观看| 相泽南亚洲一区二区在线播放| 成人免费毛片1000部| 欧美精品一区二区久久不卡| 日韩精品在线观看一二三区| 亚洲毛片在线免费播放| 欧美福利免费在线视频| 人妻少妇久久中文字幕韩| 秋霞三级在线免费观看| 日本成人精品一区二区三区| 国产精品妇女一二三区| 日韩一区二区中文字幕| 天天操夜夜骑日日干| 国产免费一区二区福利| 亚洲中文字幕激情中午字幕| 黄片视频免费观看一起草| 91日本视频在线播放|