Spark集群部署

Spark集群部署

成都創(chuàng)新互聯(lián)公司專注于精河網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗(yàn)。 熱誠(chéng)為您提供精河營(yíng)銷型網(wǎng)站建設(shè),精河網(wǎng)站制作、精河網(wǎng)頁設(shè)計(jì)、精河網(wǎng)站官網(wǎng)定制、成都小程序開發(fā)服務(wù),打造精河網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供精河網(wǎng)站排名全網(wǎng)營(yíng)銷落地服務(wù)。

本次博文希望對(duì)各位Spark技術(shù)研究者有用。

第一步:安裝軟件
Spark 1.5.4
Hadoop 2.6.3
scala :apt-get install scala
第二步:配置環(huán)境變量
執(zhí)行/etc/profile
export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_80
export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/BIN:${SCALA_HOME}/bin:${SPARK_HOME}/bin:/home/supermap/program/hadoop-2.6.3/bin:$PATH
export CLASSPATH=$CLASSPATH:.:$JAVA_HOME/lib:$JAVA_HOME/jre/lib
export SCALA_HOME=/usr/lib/scala/scala-2.11.7
export PATH=${SCALA_HOME}/bin:$PATH
export SPARK_HOME=/program/spark-1.5.2-bin-hadoop2.6
source /etc/profile
第三步:創(chuàng)建鏡像
通過OpenStack管理器根據(jù)配置好的虛擬機(jī)創(chuàng)建鏡像,生成的鏡像配置如下:
鏡像概況信息
________________________________________
名稱 spark-hadoop
ID 61055db5-598b-4f1a-98fa-d2cbbf305d0c
狀態(tài) Active
公有 False
受保護(hù)的 False
校驗(yàn)和 47acf7993101713aee17764802602941
________________________________________
配置 4.4 GB
容器格式 BARE
磁盤格式 QCOW2
最小磁盤 60.0GB

第四步:創(chuàng)建虛擬機(jī)
基于創(chuàng)建的鏡像,生成2臺(tái)虛擬機(jī),加上最開始用于創(chuàng)建鏡像的1臺(tái),一共3臺(tái)虛擬主機(jī),名稱分別為:
spark_hadoop_master
spark_hadoop_slave1
spark_hadoop_slave2
下面就可以開始做與創(chuàng)建Spark集群相關(guān)的操作了。
第五步:設(shè)置主機(jī)名
1.在/etc/hostname中就改主機(jī)名,分別設(shè)置三臺(tái)主機(jī)為master、slave1、slave2,并重啟

2.重啟之后,分別設(shè)置三個(gè)節(jié)點(diǎn)etc/hosts,指定ip和主機(jī)名的對(duì)應(yīng)關(guān)系。

通過測(cè)試root@master :~# ssh slave1,在輸入root用戶密碼后可以登錄。
第六步:修改ssh無密碼訪問
首先開啟root用戶訪問權(quán)限
1.修改/etc/ssh/sshd-config文件,設(shè)置如下:
2.PermitRootLogin yes
3.PubkeyAuthentication yes
4.PasswordAuthentication yes
重新啟動(dòng)ssh服務(wù):service ssh restart
再進(jìn)行如下測(cè)試,可以免輸入密碼登錄了。

第七步:配置Spark集群
進(jìn)入Spark的conf目錄:

把spark-env.sh.template拷貝為spark-env.sh
把slaves.template拷貝為slaves

vim打開spark-env.sh修改其中的內(nèi)容,加入以下設(shè)置

export JAVA_HOME=/usr/lib/jvm/jdk1.7.0_80
export SPARK_MASTER_IP=192.168.12.154
export SPARK_WORKER_MEMORY=4g
export SCALA_HOME=/usr/lib/scala/scala-2.11.7
export HADOOP_CONF_DIR=/home/supermap/program/hadoop-2.6.3/conf

SPARK_WORKER_MEMORY:制定的Worker節(jié)點(diǎn)能夠分配給Excutors的內(nèi)存大小,由于配置的虛擬機(jī)是4g內(nèi)存,為了限度使用內(nèi)存,這里設(shè)置4G。
接下來配置slaves文件,把Workers節(jié)點(diǎn)都添加進(jìn)去:

這種配置把master也作為一個(gè)Worker節(jié)點(diǎn)。

以上配置在master和slave1,slave2節(jié)點(diǎn)都做相同處理。

第八步:?jiǎn)?dòng)集群
這里測(cè)試沒有啟動(dòng)Hadoop集群,只需要Spark集群進(jìn)行啟動(dòng)即可,在Spark目錄下,運(yùn)行sbin/start-all.sh即可啟動(dòng)集群服務(wù)。

最后通過訪問spark管理頁面查看服務(wù)狀態(tài)


文章標(biāo)題:Spark集群部署
分享URL:http://www.muchs.cn/article2/cjjhic.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供響應(yīng)式網(wǎng)站、關(guān)鍵詞優(yōu)化、網(wǎng)站維護(hù)、網(wǎng)站制作、網(wǎng)站內(nèi)鏈、企業(yè)建站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

h5響應(yīng)式網(wǎng)站建設(shè)