這篇文章給大家分享的是有關(guān)Hue3.9如何搭建集成HDFS和Hive的內(nèi)容。小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考,一起跟隨小編過(guò)來(lái)看看吧。
創(chuàng)新互聯(lián)主打移動(dòng)網(wǎng)站、成都網(wǎng)站設(shè)計(jì)、做網(wǎng)站、網(wǎng)站改版、網(wǎng)絡(luò)推廣、網(wǎng)站維護(hù)、域名申請(qǐng)、等互聯(lián)網(wǎng)信息服務(wù),為各行業(yè)提供服務(wù)。在技術(shù)實(shí)力的保障下,我們?yōu)榭蛻舫兄Z穩(wěn)定,放心的服務(wù),根據(jù)網(wǎng)站的內(nèi)容與功能再?zèng)Q定采用什么樣的設(shè)計(jì)。最后,要實(shí)現(xiàn)符合網(wǎng)站需求的內(nèi)容、功能與設(shè)計(jì),我們還會(huì)規(guī)劃穩(wěn)定安全的技術(shù)方案做保障。
運(yùn)行環(huán)境:
CentOS 6.5
hadoop-2.6.0-cdh6.7.0
hadoop-2.6.0-cdh6.7.0
hive-1.1.0-cdh6.7.0
hue-3.9.0-cdh6.7.0
sqoop-1.4.6-cdh6.7.0
Hue:
官網(wǎng)地址:http://gethue.com/
官網(wǎng)安裝說(shuō)明:http://cloudera.github.io/hue/latest/admin-manual/manual.html#centosrhel
官網(wǎng)github地址:
http://github.com/cloudera/hue
Hue是一個(gè)開(kāi)源的Apache Hadoop UI系統(tǒng),最早是由Cloudera Desktop演化而來(lái),由Cloudera貢獻(xiàn)給開(kāi)源社區(qū),它是基于Python Web框架Django實(shí)現(xiàn)的。通過(guò)使用Hue我們可以在瀏覽器端的Web控制臺(tái)上與Hadoop集群進(jìn)行交互來(lái)分析處理數(shù)據(jù),例如操作HDFS上的數(shù)據(jù),運(yùn)行MapReduce Job,Hive
等等
支持功能:
數(shù)據(jù)庫(kù)查詢編輯器,支持 Hive, Impala, MySQL, PostGres, Sqlite and Oracle
動(dòng)態(tài)查詢儀表盤(pán),支持 Solr
支持 Spark 編輯器和儀表盤(pán)
瀏覽器查看狀態(tài),支持 YARN, HDFS, Hive table Metastore, HBase, ZooKeeper
支持 Pig Editor, Sqoop2, Oozie workflows 編輯器和儀表盤(pán)
將數(shù)據(jù)導(dǎo)入hdfs
1.CentOS6.5依賴環(huán)境:
yum install -y ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel
2.下載CDH5.7.0平臺(tái)Hue:
wget http://archive-primary.cloudera.com/cdh6/cdh/5/http://archive-primary.cloudera.com/cdh6/cdh/5/hue-3.9.0-cdh6.7.0.tar.gz
3.環(huán)境變量配置:
vim /.bash_profile export HUE_HOME=/home/hadoop/app/hue-3.9.0 export PATH=$HUE_HOME/bin:$PATH source ~/.bash_profile
4.編譯源碼(Hue3.9)
tar -xzvf hue-3.9.0-cdh6.7.0.tar.gz -C ~/app/ -- 檢查解壓后的用戶和用戶組 cd hue-3.9.0 make apps
編譯過(guò)程需要下很多模塊和包,所以根據(jù)你的網(wǎng)速可能會(huì)需要編譯很久。
最后出現(xiàn)xxx post-processed說(shuō)明編譯成功
1190 static files copied to '/home/hadoop/app/hue-3.9.0/build/static', 1190 post-processed. make[1]: Leaving directory `/home/hadoop/app/hue-3.9.0/apps'
5.Hue配置全局文件($HUE_HOME/desktop/conf/hue.ini)
[desktop] secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW5o http_host=hadoop001 time_zone=Asia/Shanghai
6.Hue集成Hadoop($HADOOP_HOME/etc/hadoop)
hdfs-site.xml <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> core-site.xml <property> <name>hadoop.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.hue.groups</name> <value>*</value> </property> httpfs-site.xml <property> <name>httpfs.proxyuser.hue.hosts</name> <value>*</value> </property> <property> <name>httpfs.proxyuser.hue.groups</name> <value>*</value> </property>
6.1 Hue集成Hadoop($HUE_HOME/desktop/conf/hue.ini)
[hadoop] # Configuration for HDFS NameNode # ------------------------------------------------------------------------ [[hdfs_clusters]] # HA support by using HttpFs [[[default]]] # Enter the filesystem uri fs_defaultfs=hdfs://localhost:8020 # NameNode logical name. ## logical_name= # Use WebHdfs/HttpFs as the communication mechanism. # Domain should be the NameNode or HttpFs host. # Default port is 14000 for HttpFs. webhdfs_url= -- 取消注釋
7.Hue集成Hive($HIVE_HOME/conf/hive-site.xml)
<property> <name>hive.server2.thrift.bind.port</name> <value>10000</value> </property> <property> <name>hive.server2.thrift.bind.host</name> <value>hadoop001</value> </property> <property> <name>hive.server2.long.polling.timeout</name> <value>5000</value> </property> <property> <name>hive.server2.authentication</name> <value>NOSASL</value> </property>
7.1.Hue集成Hive($HUE_HOME/desktop/conf/hue.ini)
[beeswax] # Host where HiveServer2 is running. # If Kerberos security is enabled, use fully-qualified domain name (FQDN). hive_server_host=hadoop001 # Port where HiveServer2 Thrift server runs on. hive_server_port=10000 # Hive configuration directory, where hive-site.xml is located hive_conf_dir=/home/hadoop/app/apache-hive-2.2.0-bin/conf
8.啟動(dòng)Hue
-- 先啟動(dòng)Hive [hadoop@hadoop001 bin]$ ./hiveserver2 --hiveconf hive.server2.thrift.port=10000 -- 啟動(dòng)hue服務(wù) [hadoop@hadoop001 hue-3.9.0]$ build/env/bin/supervisor
9.訪問(wèn)Hue操作hive
http://IP:8888/
由于初次創(chuàng)建的用戶admin用戶 只能權(quán)限操作HDFS上/user/admin/* 目錄
如果要操作/user/hadoop/目錄,hue必須創(chuàng)建hadoop用戶操作;
遇到的權(quán)限報(bào)錯(cuò):
Note: you are a Hue admin but not a HDFS superuser, "hadoop" or part of HDFS supergroup, "supergroup".
解決辦法:
# This should be the hadoop cluster admin default_hdfs_superuser=hadoop -- HDFS 修改為 hadoop
感謝各位的閱讀!關(guān)于“Hue3.9如何搭建集成HDFS和Hive”這篇文章就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí),如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!
分享名稱:Hue3.9如何搭建集成HDFS和Hive
轉(zhuǎn)載源于:http://aaarwkj.com/article10/ijppgo.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站改版、面包屑導(dǎo)航、網(wǎng)頁(yè)設(shè)計(jì)公司、微信公眾號(hào)、電子商務(wù)、外貿(mào)建站
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)