欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

怎么在Hadoop+HBase上安裝snappy

這篇文章主要介紹“怎么在Hadoop+HBase上安裝snappy ”,在日常操作中,相信很多人在怎么在Hadoop+HBase上安裝snappy 問(wèn)題上存在疑惑,小編查閱了各式資料,整理出簡(jiǎn)單好用的操作方法,希望對(duì)大家解答”怎么在Hadoop+HBase上安裝snappy ”的疑惑有所幫助!接下來(lái),請(qǐng)跟著小編一起來(lái)學(xué)習(xí)吧!

創(chuàng)新互聯(lián)是一家專注于成都網(wǎng)站設(shè)計(jì)、成都網(wǎng)站制作與策劃設(shè)計(jì),勐海網(wǎng)站建設(shè)哪家好?創(chuàng)新互聯(lián)做網(wǎng)站,專注于網(wǎng)站建設(shè)10多年,網(wǎng)設(shè)計(jì)領(lǐng)域的專業(yè)建站公司;建站業(yè)務(wù)涵蓋:勐海等地區(qū)。勐海做網(wǎng)站價(jià)格咨詢:028-86922220

1、檢查snappy壓縮包是否安裝

命令為:bin/hbase org.apache.hadoop.hbase.util.CompressionTest file:///tmp/test.txt snappy

如果顯示信息為:

12/12/03 10:30:02 WARN metrics.SchemaConfigured: Could not determine table and column family of the HFile path file:/tmp/test.txt. Expecting at least 5 path components.
12/12/03 10:30:02 WARN snappy.LoadSnappy: Snappy native library not loaded
Exception in thread "main" java.lang.RuntimeException: native snappy library not available
     at org.apache.hadoop.io.compress.SnappyCodec.getCompressorType(SnappyCodec.java:123)
     at org.apache.hadoop.io.compress.CodecPool.getCompressor(CodecPool.java:100)
     at org.apache.hadoop.io.compress.CodecPool.getCompressor(CodecPool.java:112)
     at org.apache.hadoop.hbase.io.hfile.Compression$Algorithm.getCompressor(Compression.java:264)
     at org.apache.hadoop.hbase.io.hfile.HFileBlock$Writer.<init>(HFileBlock.java:739)
     at org.apache.hadoop.hbase.io.hfile.HFileWriterV2.finishInit(HFileWriterV2.java:127)
     at org.apache.hadoop.hbase.io.hfile.HFileWriterV2.<init>(HFileWriterV2.java:118)
     at org.apache.hadoop.hbase.io.hfile.HFileWriterV2$WriterFactoryV2.createWriter(HFileWriterV2.java:101)
     at org.apache.hadoop.hbase.io.hfile.HFile$WriterFactory.create(HFile.java:394)
     at org.apache.hadoop.hbase.util.CompressionTest.doSmokeTest(CompressionTest.java:108)

 則說(shuō)明snappy壓縮包沒(méi)有安裝;

2、下載snappy-*.tar.gz壓縮包(只要和hbase版本兼容就可以,我的是snappy-1.1.1.tar.gz),解壓;

3、進(jìn)入snappy目錄,進(jìn)行編譯,兩條命令:

      ./configure

       make

4、make完之后會(huì)產(chǎn)生一個(gè)libsnappy.so文件(這就是我們所需要的庫(kù)!??!),正常情況下出現(xiàn)在當(dāng)前目錄./libs/libsnappy.so,但是很多時(shí)候不按套路出牌,跑到別的文件夾下了,如果make沒(méi)有出錯(cuò),可以在根目錄search一下,肯定能找到這個(gè)文件;

5、將生成的這個(gè)libsnappy.so拷貝到HBase的lib/native/Linux-ARCH目錄下,ARCH代表 amd64 或 i386-32,注意,對(duì)于amd64的HBase可能沒(méi)有這個(gè)目錄,此時(shí),需要手動(dòng)創(chuàng)建:

     mkdir /opt/hbase-0.98.6.1/lib/native/Linux-amd64-64

6、如果還是不確定HBase在哪里查找lib,那么可以修改log4j文件中的日志級(jí)別(log level)進(jìn)行調(diào)試;

7、重新運(yùn)行第1步中的命令,現(xiàn)在看到的信息應(yīng)該為:

12/12/03 10:34:35 INFO util.ChecksumType: Checksum can use java.util.zip.CRC32
12/12/03 10:34:35 INFO util.ChecksumType: org.apache.hadoop.util.PureJavaCrc32C not available. 
12/12/03 10:34:35 DEBUG util.FSUtils: Creating file:file:/tmp/test.txtwith permission:rwxrwxrwx
12/12/03 10:34:35 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
12/12/03 10:34:35 WARN metrics.SchemaConfigured: Could not determine table and column family of the HFile path file:/tmp/test.txt. Expecting at least 5 path components.
12/12/03 10:34:35 WARN snappy.LoadSnappy: Snappy native library is available
12/12/03 10:34:35 WARN snappy.LoadSnappy: Snappy native library not loaded
Exception in thread "main" java.lang.RuntimeException: native snappy library not available
    at org.apache.hadoop.io.compress.SnappyCodec.getCompressorType(SnappyCodec.java:123)
    at org.apache.hadoop.io.compress.CodecPool.getCompressor(CodecPool.java:100)
    at org.apache.hadoop.io.compress.CodecPool.getCompressor(CodecPool.java:112)
    at org.apache.hadoop.hbase.io.hfile.Compression$Algorithm.getCompressor(Compression.java:264)
    at org.apache.hadoop.hbase.io.hfile.HFileBlock$Writer.<init>(HFileBlock.java:739)
    at org.apache.hadoop.hbase.io.hfile.HFileWriterV2.finishInit(HFileWriterV2.java:127)
    at org.apache.hadoop.hbase.io.hfile.HFileWriterV2.<init>(HFileWriterV2.java:118)
    at org.apache.hadoop.hbase.io.hfile.HFileWriterV2$WriterFactoryV2.createWriter(HFileWriterV2.java:101)
    at org.apache.hadoop.hbase.io.hfile.HFile$WriterFactory.create(HFile.java:394)
    at org.apache.hadoop.hbase.util.CompressionTest.doSmokeTest(CompressionTest.java:108)
    at org.apache.hadoop.hbase.util.CompressionTest.main(CompressionTest.java:138)

8、可以看到,snappy已經(jīng)可以找到了,但是還沒(méi)有加載(not loaded)。想加載的話,還需要拷貝hadoop的本地庫(kù)到與libsnappy.so同一個(gè)路徑下,hadoop的本地庫(kù)路徑為:

      hadoop-1.2.1/lib/native/Linux-ARCH/libhadoop.so;

       如果這個(gè)路徑下沒(méi)有,可以根據(jù)所使用的hadoop版本到 https://archive.apache.org/dist/hadoop/core/ 下載相應(yīng)的tar.gz包,解壓之后就能找到所需要的文件了;

9、再次運(yùn)行測(cè)試命令(第1步中的命令),可以得到:

12/12/03 10:37:48 INFO util.ChecksumType: org.apache.hadoop.util.PureJavaCrc32 not available.
12/12/03 10:37:48 INFO util.ChecksumType: Checksum can use java.util.zip.CRC32
12/12/03 10:37:48 INFO util.ChecksumType: org.apache.hadoop.util.PureJavaCrc32C not available. 
12/12/03 10:37:48 DEBUG util.FSUtils: Creating file:file:/tmp/test.txtwith permission:rwxrwxrwx
12/12/03 10:37:48 INFO util.NativeCodeLoader: Loaded the native-hadoop library
12/12/03 10:37:48 WARN metrics.SchemaConfigured: Could not determine table and column family of the HFile path file:/tmp/test.txt. Expecting at least 5 path components.
12/12/03 10:37:48 WARN snappy.LoadSnappy: Snappy native library is available
12/12/03 10:37:48 INFO snappy.LoadSnappy: Snappy native library loaded
12/12/03 10:37:48 INFO compress.CodecPool: Got brand-new compressor
12/12/03 10:37:48 DEBUG hfile.HFileWriterV2: Initialized with CacheConfig:disabled
12/12/03 10:37:49 WARN metrics.SchemaConfigured: Could not determine table and column family of the HFile path file:/tmp/test.txt. Expecting at least 5 path components.
12/12/03 10:37:49 INFO compress.CodecPool: Got brand-new decompressor
SUCCESS

      看到SUCCESS,說(shuō)明安裝成功,snappy壓縮包可以使用,搞定。

到此,關(guān)于“怎么在Hadoop+HBase上安裝snappy ”的學(xué)習(xí)就結(jié)束了,希望能夠解決大家的疑惑。理論與實(shí)踐的搭配能更好的幫助大家學(xué)習(xí),快去試試吧!若想繼續(xù)學(xué)習(xí)更多相關(guān)知識(shí),請(qǐng)繼續(xù)關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編會(huì)繼續(xù)努力為大家?guī)?lái)更多實(shí)用的文章!

標(biāo)題名稱:怎么在Hadoop+HBase上安裝snappy
標(biāo)題網(wǎng)址:http://aaarwkj.com/article10/ihhogo.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站建設(shè)、小程序開(kāi)發(fā)、網(wǎng)站維護(hù)App開(kāi)發(fā)、軟件開(kāi)發(fā)、外貿(mào)建站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

營(yíng)銷型網(wǎng)站建設(shè)
日韩精品一区二区国产| 在线观看青青草原免费| 久久久人妻91久久久久| 神马视频一区二区在线观看| 亚洲五月综合激情综合久久| 免费人成网站视频在线观看不卡 | 91麻豆精品一二三区在线| 亚洲a∨乱码一区二区三区蜜臀| 国产真实精品对白又爽欧美| 亚洲综合日韩精品在线| 日韩欧美国产麻豆91在线精品| 91精品国产自产在线观看| 久久亚洲精品中文字幕馆| 一区二区高清免费日本| 欧美日韩免费高清视视频| 人人爽人人妻人人澡| 热久久视频这里只有精品| 国产91精品成人在线观看| 国产精品久久综合网| 男人av天堂手机在线| 亚洲成人av在线直播| 欧美日本精品在线观看| 97精品国产高清在线| 韩国专区福利一区二区| 国产精品水嫩水嫩粉嫩| 久久久亚洲精品中文字幕蜜桃 | 韩国电视剧大全免费国语观看| 亚洲第一中文字幕久久| 国产精品亚洲一区二区在| 人妻精品久久一区二区三区 | 亚洲风情亚av在线播放| 亚洲不卡高清一区二区三区| 欧美日韩三级国产在线| 久久精品国产欧美日韩| 国产伦理自拍视频在线观看| 欧美精品一区二区久久| 男人天堂手机视频在线| 亚洲国产精品久久久久久99| 最新国产不卡一区二区| 欧美精品在线高清观看| 中日韩中文字幕一区二区|