欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

hive-1.2.1的安裝步驟

本篇內容主要講解“hive-1.2.1的安裝步驟”,感興趣的朋友不妨來看看。本文介紹的方法操作簡單快捷,實用性強。下面就讓小編來帶大家學習“hive-1.2.1的安裝步驟”吧!

為五指山等地區(qū)用戶提供了全套網(wǎng)頁設計制作服務,及五指山網(wǎng)站建設行業(yè)解決方案。主營業(yè)務為成都做網(wǎng)站、成都網(wǎng)站設計、五指山網(wǎng)站設計,以傳統(tǒng)方式定制建設網(wǎng)站,并提供域名空間備案等一條龍服務,秉承以專業(yè)、用心的態(tài)度為用戶提供真誠的服務。我們深信只要達到每一位用戶的要求,就會得到認可,從而選擇與我們長期合作。這樣,我們也可以走得更遠!

環(huán)境介紹
IP主機名部署
192.168.2.10bi10
hadoop-2.6.2,hive-1.2.1,hive metastore
192.168.2.12bi12hadoop-2.6.2,hive-1.2.1,hive metastore
192.168.2.13bi13hadoop-2.6.2,hive-1.2.1
MySQL配置

    新建用戶hive,密碼hive,然后授權。數(shù)據(jù)庫IP:192.168.2.11 端口:3306

CREATE USER 'hive'@'%' IDENTIFIED BY 'hive';
GRANT ALL PRIVILEGES ON *.* TO 'hive'@'%' WITH GRANT OPTION;
FLUSH PRIVILEGES;
CREATE DATABASE hive;
alter database hive character set latin1;
Hive配置

    解壓hive-1.2.1到/home/hadoop/work/hive-1.2.1目錄下,然后修改配置文件

    修改hive-site.xml,進入hive的conf目錄下

[hadoop@bi13 conf]$ mv hive-env.sh.template hive-site.xml
[hadoop@bi13 conf]$ vim hive-site.xml

    hive-site.xml,參數(shù)說明:

hive.metastore.warehouse.dirhive數(shù)據(jù)倉庫在hdfs中的位置,由于hadoop集群采用了ha的方式,所以在這里使用hdfs://masters/user/hive/warehouse,而沒有具體的namenode主機+端口
hive.metastore.uris這個使用hive使用metastore server的端口配置,我們使用默認的9083端口
hive.exec.scratchdir同樣,由于ha的配置,我們使用hdfs://masters/user/hive/tmp
javax.jdo.option.ConnectionPasswordmysql數(shù)據(jù)庫密碼
javax.jdo.option.ConnectionDriverNamemysql數(shù)據(jù)庫驅動
javax.jdo.option.ConnectionURLmysql數(shù)據(jù)庫URL
javax.jdo.option.ConnectionUserNamemysql數(shù)據(jù)庫用戶名

hive.querylog.location

hive.server2.logging.operation.log.location

hive.exec.local.scratchdir

hive.downloaded.resources.dir

這些配置項的value值必須寫成具體的路徑,否在會出現(xiàn)問題
<property>
  <name>hive.metastore.warehouse.dir</name>
  <value>hdfs://masters/user/hive/warehouse</value>
  <description>location of default database for the warehouse</description>
</property>
<property>
  <name>hive.metastore.uris</name>
  <value>thrift://bi10:9083,thrift://bi12:9083</value>
  <description>Thrift URI for the remote metastore. Used by metastore client to connect to remote metastore.</description>
</property>
<property>
  <name>hive.exec.scratchdir</name>
  <value>hdfs://masters/user/hive/tmp</value>
  <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/&lt;username&gt; is created, with ${hive.scratch.dir.permission}.</description>
</property>
<property>
  <name>javax.jdo.option.ConnectionPassword</name>
  <value>hive</value>
  <description>password to use against metastore database</description>
</property>
  <property>
  <name>javax.jdo.option.ConnectionDriverName</name>
  <value>com.mysql.jdbc.Driver</value>
  <description>Driver class name for a JDBC metastore</description>
</property>
  <property>
  <name>javax.jdo.option.ConnectionURL</name>
  <value>jdbc:mysql://192.168.2.11:3306/hive?createDatabaseIfNotExist=true</value>
  <description>JDBC connect string for a JDBC metastore</description>
</property>
  <property>
  <name>javax.jdo.option.ConnectionUserName</name>
  <value>hive</value>
  <description>Username to use against metastore database</description>
</property>

<property>
  <name>hive.querylog.location</name>
  <value>/home/hadoop/work/hive-1.2.1/tmp/iotmp</value>
  <description>Location of Hive run time structured log file</description>
</property>
  <property>
  <name>hive.server2.logging.operation.log.location</name>
  <value>/home/hadoop/work/hive-1.2.1/tmp/operation_logs</value>
  <description>Top level directory where operation logs are stored if logging functionality is enabled</description>
</property>
<property>
  <name>hive.exec.local.scratchdir</name>
  <value>/home/hadoop/work/hive-1.2.1/tmp/${system:user.name}</value>
  <description>Local scratch space for Hive jobs</description>
</property>
<property>
  <name>hive.downloaded.resources.dir</name>
  <value>/home/hadoop/work/hive-1.2.1/tmp/${hive.session.id}_resources</value>
  <description>Temporary local directory for added resources in the remote file system.</description>
</property>

    使用hive下面的jline-2.12.jar替代hadoop下面的jline-0.9.94.jar

mv hive-1.2.1/lib/jline-2.12.jar hadoop-2.6.2/share/hadoop/yarn/lib/
mv hadoop-2.6.2/share/hadoop/yarn/lib/jline-0.9.94.jar hadoop-2.6.2/share/hadoop/yarn/lib/jline-0.9.94.jar.bak

    把以上操作復制到所有部署hive的機器上

啟動metastore service

    分別在bi10和bi12下面啟動metastore service

nohup hive --service metastore > null 2>&1 &
測試

    進入hive,看是否有問題。如果存在問題是用hive --hiveconf hive.root.logger=DEBUG,console啟動,可以看到具體的日志。

[hadoop@bi13 work]$ hive
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoop/work/hadoop-2.6.2/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoop/work/spark-1.5.1/lib/spark-assembly-1.5.1-hadoop2.4.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/hadoop/work/hadoop-2.6.2/share/hadoop/common/lib/slf4j-log4j12-1.7.5.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/hadoop/work/spark-1.5.1/lib/spark-assembly-1.5.1-hadoop2.4.0.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]

Logging initialized using configuration in jar:file:/home/hadoop/work/hive-1.2.1/lib/hive-common-1.2.1.jar!/hive-log4j.properties
hive>

到此,相信大家對“hive-1.2.1的安裝步驟”有了更深的了解,不妨來實際操作一番吧!這里是創(chuàng)新互聯(lián)網(wǎng)站,更多相關內容可以進入相關頻道進行查詢,關注我們,繼續(xù)學習!

文章標題:hive-1.2.1的安裝步驟
地址分享:http://aaarwkj.com/article44/igeihe.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供微信小程序、網(wǎng)站排名、虛擬主機、App設計、網(wǎng)站維護網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

外貿網(wǎng)站建設
日本一区二区免费高清不卡| 黄片无毛欧美在线观看| 久久国产亚洲精品赲碰热| 日韩av在线观看大全| 免费在线观看污污污网站| 日本熟女中文字幕一区| 四虎精品在线免费视频| 在线观看国产一区二区不卡| 日韩欧美中文字幕区| 亚洲国产精品有码专区| 亚洲日本韩国三级一区| 亚洲欧美日韩综合一区| 久久人妻精品一区二区三区| 欧美精品一区二区网址| 亚洲国产精品视频自拍| 爱高潮www亚洲精品| 成年午夜福利片在线观看| 亚洲熟妇av一区二区| 精品人妻少妇一区二区三区| 久久精品一区二区三区乱码| 国产91精品在线观看| 久久久亚洲熟妇熟女一区二区| 亚洲欧美综合精品二区| 中文字幕日韩欧美一区在线| 91久久亚洲综合精品日本| 成人精品国产一区二区| 国产中文字幕一区久久| 国产成人亚洲综合色影视| 亚洲一区二区视频在线观看免费| 丝袜亚洲激情欧美日韩偷拍| 婷婷激情五月国产丝袜| 国产剧情在线观看网站| 亚洲欧美日韩国产亚洲欧美日韩国产| 日日夜夜久久国产精品| 女同蝴蝶在线看完整版| 国产一区二区三区日本精品| 91午夜福利国产在线观看| 国产精品亚洲一区二区在| 亚洲码与欧洲码一二三| 爱爱网爱综合日日干夜夜操| 亚洲av乱码一区二区三|