欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

SparkSQL怎么連接開啟Kerberos認證的Phoenix

SparkSQL怎么連接開啟Kerberos認證的Phoenix,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

公司主營業(yè)務:成都網(wǎng)站設計、成都網(wǎng)站制作、移動網(wǎng)站開發(fā)等業(yè)務。幫助企業(yè)客戶真正實現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競爭能力。創(chuàng)新互聯(lián)公司是一支青春激揚、勤奮敬業(yè)、活力青春激揚、勤奮敬業(yè)、活力澎湃、和諧高效的團隊。公司秉承以“開放、自由、嚴謹、自律”為核心的企業(yè)文化,感謝他們對我們的高要求,感謝他們從不同領域給我們帶來的挑戰(zhàn),讓我們激情的團隊有機會用頭腦與智慧不斷的給客戶帶來驚喜。創(chuàng)新互聯(lián)公司推出路北免費做網(wǎng)站回饋大家。

   SparkSQL可以與HBase交互,比如說通過jdbc,但是實際使用時,一般是利用Phoenix操作HBase,由于我們這里HDP集群開啟了Kerberos安全認證,網(wǎng)上也沒有連接代碼實例,這里我整理了一個完整的實戰(zhàn)代碼給大家分享一下經(jīng)驗:

組件版本信息:

     spark2.2.0

     phoenix4.10.0

    票據(jù)和krb5.conf信息根據(jù)自己的集群去修改,代碼如下:

package com.hadoop.ljs.spark220.security;import org.apache.spark.SparkConf;import org.apache.spark.sql.Dataset;import org.apache.spark.sql.Row;import org.apache.spark.sql.SQLContext;import org.apache.spark.sql.SparkSession;import java.util.Properties;/** * @author: Created By lujisen * @company ChinaUnicom Software JiNan * @date: 2020-03-04 10:41 * @version: v1.0 * @description: com.hadoop.ljs.spark220.security */public class SparkKerberosPhoenix {    public static final String krb5Conf="D:\\kafkaSSL\\krb5.conf";    public static final String zookeeperQuorum="salver158.hadoop.unicom,salver31.hadoop.unicom,salver32.hadoop.unicom";    public static final String zookeeperZnode="/hbase-secure";    public static final String zookeeperPort="2181";    public static final String userTicket="hbase-unicomhdp98@CHINAUNICOM";    public static final String userKeytab="D:\\kafkaSSL\\hbase.headless.keytab";    public static final String hbaseMasterPrincipal="hbase/_HOST@CHINAUNICOM";    public static final String hbaseRegionserverPrincipal="hbase/_HOST@CHINAUNICOM";    public static final String  phoenixKerbersURL="jdbc:phoenix:"                                                    +zookeeperQuorum+":"+zookeeperPort+":"                                                    +zookeeperZnode+":"+userTicket+":"+userKeytab;    public static void main(String[] args) {        // 初始化配置文件        System.setProperty("java.security.krb5.conf",krb5Conf);        SparkConf conf = new SparkConf().setAppName("PhoenixSparkDemo")                .setMaster("local[*]")                .set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");        SparkSession sparkSession = SparkSession.builder().config(conf).getOrCreate();        Properties props=new Properties();        props.setProperty("phoenix.schema.isNamespaceMappingEnabled", "true");        props.setProperty("phoenix.schema.mapSystemTablesToNamespace", "true");        props.setProperty("hbase.security.authentication", "kerberos");        props.setProperty("hadoop.security.authentication", "kerberos");        props.setProperty("hadoop.security.authorization", "true");        props.setProperty("hbase.security.authorization", "true");        props.setProperty("hbase.zookeeper.quorum", zookeeperQuorum);        props.setProperty("zookeeper.znode.parent", zookeeperZnode);        props.setProperty("hbase.zookeeper.property.clientPort", zookeeperPort);        props.setProperty("hbase.master.kerberos.principal", hbaseMasterPrincipal);        props.setProperty("hbase.regionserver.kerberos.principal", hbaseRegionserverPrincipal);        Dataset<Row> df = sparkSession                .read()                .jdbc(phoenixKerbersURL,"LUJS.TBL_ORDER",props);        df.createOrReplaceTempView("TBL_ORDER");        SQLContext sqlCtx = new SQLContext(sparkSession);        df = sqlCtx.sql("select  * from  TBL_ORDER  limit 10");        df.show();        sparkSession.stop();    }}

補充:

    后面如果需要通過spark-submit提交phoenix代碼,需要配置以下幾項,這里可以參考phoenix官網(wǎng):

1.做了HA的yarn集群這個配置有時候沒修改過來,確認yarn-site.xml中的配置:

  yarn.client.failover-proxy-provider=org.apache.hadoop.yarn.client.RequestHedgingRMFailoverProxyProvider

修改為:

yarn.client.failover-proxy-provider=org.apache.hadoop.yarn.client.ConfiguredRMFailoverProxyProvider

2.提交命令中指定以下兩個配置項,或者配置到spark2-defaults.conf配置文件中

spark.driver.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jarspark.executor.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jar

或者提交任務手動指定即可:

    spark.driver.extraClassPath

    spark.executor.extraClassPath

/usr/hdp/2.6.3.0-235/spark2/bin/spark-submit  --class com.hadoop.ljs.spark.SparkOnPhoenix --conf spark.driver.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jar  --conf spark.executor.extraClassPath=/usr/hdp/current/phoenix-client/phoenix-4.10.0-HBase-1.2-client.jar  --jars /usr/hdp/2.6.3.0-235/phoenix/phoenix-4.10.0-HBase-1.2-client.jar spark220Scala-1.0-SNAPSHOT.jar

關于SparkSQL怎么連接開啟Kerberos認證的Phoenix問題的解答就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注創(chuàng)新互聯(lián)行業(yè)資訊頻道了解更多相關知識。

當前名稱:SparkSQL怎么連接開啟Kerberos認證的Phoenix
文章鏈接:http://aaarwkj.com/article30/ipojpo.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供手機網(wǎng)站建設、軟件開發(fā)、App開發(fā)、品牌網(wǎng)站設計、域名注冊、動態(tài)網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

外貿(mào)網(wǎng)站建設
日韩不卡区高清在线视频| 亚洲欧洲成熟熟女妇专区乱| 亚洲精品国产av一区二区三区| 白白色最新福利在线视频观看| 国内自拍视频一区高清视频| 黄色成人av在线网站| 黄色18禁网站在线看| 蜜桃传媒18传媒在线| 日韩国产欧美色资源在线| 日本在线一区二区视频麻豆| 狠狠躁夜夜躁人人爽蜜桃| 久久激情日本人妻av免费| 亚洲综合久久五月天| 国产黄片自拍视频免费看| 日韩精品一区二区三区欲色av | 亚洲精品一区二区三区网站| 久久精品国产亚洲成人av| av一级免费在线观看| 国产精品不卡一不卡二| 一级亚洲国产日韩欧美| 91精品国产自产在线蜜臀| 日本在线观看高清区一区二| 国产成人原创免费观看| 三级国产大片在线观看| 欧美午夜福利视频电影| 国产精品观看在线亚洲人成网| 国产操大奶头女人自拍av| 亚洲青涩精品一区二区三区| 中文字幕人妻少妇美臀| 欧美特黄在线免费观看| 91精品国产综合久久麻豆| 午夜性生活免费在线观看| 国产成人在线免费短视频| 久久精品国产亚洲av高清一区 | 日韩av人妻一区二区三区| 中文字幕午夜av福利| 亚洲一区二区三区久久伊人| 久久se精品一区精品二区国产| 成人黄网站色大片免费观看| 日韩免费av在线网站| 国产精品大片一区二区三区四区|