這篇文章主要講解了“Spark啟動時的master參數(shù)以及Spark的部署方法”,文中的講解內(nèi)容簡單清晰,易于學習與理解,下面請大家跟著小編的思路慢慢深入,一起來研究和學習“Spark啟動時的master參數(shù)以及Spark的部署方法”吧!
我們提供的服務(wù)有:做網(wǎng)站、成都做網(wǎng)站、微信公眾號開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認證、海豐ssl等。為成百上千企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學管理、有技術(shù)的海豐網(wǎng)站制作公司
我們在初始化SparkConf時,或者提交Spark任務(wù)時,都會有master參數(shù)需要設(shè)置,如下:
conf = SparkConf().setAppName(appName).setMaster(master)
sc = SparkContext(conf=conf)
/bin/spark-submit \
--cluster cluster_name \
--master yarn-cluster \
...
但是這個master到底是何含義呢?文檔說是設(shè)定master url,但是啥是master url呢?說到這就必須先要了解下Spark的部署方式了。
我們要部署Spark這套計算框架,有多種方式,可以部署到一臺計算機,也可以是多臺(cluster)。我們要去計算數(shù)據(jù),就必須要有計算機幫我們計算,當然計算機越多(集群規(guī)模越大),我們的計算力就越強。但有時候我們只想在本機做個試驗或者小型的計算,因此直接部署在單機上也是可以的。Spark部署方式可以用如下圖形展示:
下面我們就來分別介紹下。
Local模式就是運行在一臺計算機上的模式,通常就是用于在本機上練手和測試。它可以通過以下集中方式設(shè)置master。
local: 所有計算都運行在一個線程當中,沒有任何并行計算,通常我們在本機執(zhí)行一些測試代碼,或者練手,就用這種模式。
local[K]: 指定使用幾個線程來運行計算,比如local[4]就是運行4個worker線程。通常我們的cpu有幾個core,就指定幾個線程,最大化利用cpu的計算能力
local[*]: 這種模式直接幫你按照cpu最多cores來設(shè)置線程數(shù)了。
使用示例:
/bin/spark-submit \
--cluster cluster_name \
--master local[*] \
...
總而言之這幾種local模式都是運行在本地的單機版模式,通常用于練手和測試,而實際的大規(guī)模計算就需要下面要介紹的cluster模式。
cluster模式肯定就是運行很多機器上了,但是它又分為以下三種模式,區(qū)別在于誰去管理資源調(diào)度。(說白了,就好像后勤管家,哪里需要資源,后勤管家要負責調(diào)度這些資源)
這種模式下,Spark會自己負責資源的管理調(diào)度。它將cluster中的機器分為master機器和worker機器,master通常就一個,可以簡單的理解為那個后勤管家,worker就是負責干計算任務(wù)活的苦勞力。具體怎么配置可以參考Spark Standalone Mode
使用standalone模式示例:
/bin/spark-submit \
--cluster cluster_name \
--master spark://host:port \
...
--master就是指定master那臺機器的地址和端口,我想這也正是--master參數(shù)名稱的由來吧。
這里就很好理解了,如果使用mesos來管理資源調(diào)度,自然就應(yīng)該用mesos模式了,示例如下:
/bin/spark-submit \
--cluster cluster_name \
--master mesos://host:port \
...
同樣,如果采用yarn來管理資源調(diào)度,就應(yīng)該用yarn模式,由于很多時候我們需要和mapreduce使用同一個集群,所以都采用Yarn來管理資源調(diào)度,這也是生產(chǎn)環(huán)境大多采用yarn模式的原因。yarn模式又分為yarn cluster模式和yarn client模式:
yarn cluster: 這個就是生產(chǎn)環(huán)境常用的模式,所有的資源調(diào)度和計算都在集群環(huán)境上運行。
yarn client: 這個是說Spark Driver和ApplicationMaster進程均在本機運行,而計算任務(wù)在cluster上。
使用示例:
/bin/spark-submit \
--cluster cluster_name \
--master yarn-cluster \
...
感謝各位的閱讀,以上就是“Spark啟動時的master參數(shù)以及Spark的部署方法”的內(nèi)容了,經(jīng)過本文的學習后,相信大家對Spark啟動時的master參數(shù)以及Spark的部署方法這一問題有了更深刻的體會,具體使用情況還需要大家實踐驗證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識點的文章,歡迎關(guān)注!
網(wǎng)站題目:Spark啟動時的master參數(shù)以及Spark的部署方法
文章分享:http://aaarwkj.com/article46/gojpeg.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供品牌網(wǎng)站建設(shè)、商城網(wǎng)站、ChatGPT、移動網(wǎng)站建設(shè)、App開發(fā)、網(wǎng)站維護
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)