在 Spark 中,提供了兩種類型的共享變量:累加器 (accumulator) 與廣播變量 (broadcast variable):
公司主營(yíng)業(yè)務(wù):做網(wǎng)站、網(wǎng)站設(shè)計(jì)、移動(dòng)網(wǎng)站開發(fā)等業(yè)務(wù)。幫助企業(yè)客戶真正實(shí)現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競(jìng)爭(zhēng)能力。成都創(chuàng)新互聯(lián)是一支青春激揚(yáng)、勤奮敬業(yè)、活力青春激揚(yáng)、勤奮敬業(yè)、活力澎湃、和諧高效的團(tuán)隊(duì)。公司秉承以“開放、自由、嚴(yán)謹(jǐn)、自律”為核心的企業(yè)文化,感謝他們對(duì)我們的高要求,感謝他們從不同領(lǐng)域給我們帶來的挑戰(zhàn),讓我們激情的團(tuán)隊(duì)有機(jī)會(huì)用頭腦與智慧不斷的給客戶帶來驚喜。成都創(chuàng)新互聯(lián)推出澄江免費(fèi)做網(wǎng)站回饋大家。這里先看一個(gè)具體的場(chǎng)景,對(duì)于正常的累計(jì)求和,如果在集群模式中使用下面的代碼進(jìn)行計(jì)算,會(huì)發(fā)現(xiàn)執(zhí)行結(jié)果并非預(yù)期:
var counter = 0
val data = Array(1, 2, 3, 4, 5)
sc.parallelize(data).foreach(x => counter += x)
println(counter)
counter 最后的結(jié)果是 0,導(dǎo)致這個(gè)問題的主要原因是閉包。
1. Scala 中閉包的概念
這里先介紹一下 Scala 中關(guān)于閉包的概念:
var more = 10
val addMore = (x: Int) => x + more
如上函數(shù) addMore
中有兩個(gè)變量 x 和 more:
按照定義:在創(chuàng)建函數(shù)時(shí),如果需要捕獲自由變量,那么包含指向被捕獲變量的引用的函數(shù)就被稱為閉包函數(shù)。
2. Spark 中的閉包
在實(shí)際計(jì)算時(shí),Spark 會(huì)將對(duì) RDD 操作分解為 Task,Task 運(yùn)行在 Worker Node 上。在執(zhí)行之前,Spark 會(huì)對(duì)任務(wù)進(jìn)行閉包,如果閉包內(nèi)涉及到自由變量,則程序會(huì)進(jìn)行拷貝,并將副本變量放在閉包中,之后閉包被序列化并發(fā)送給每個(gè)執(zhí)行者。因此,當(dāng)在 foreach 函數(shù)中引用 counter
時(shí),它將不再是 Driver 節(jié)點(diǎn)上的 counter
,而是閉包中的副本 counter
,默認(rèn)情況下,副本 counter
更新后的值不會(huì)回傳到 Driver,所以 counter
的最終值仍然為零。
需要注意的是:在 Local 模式下,有可能執(zhí)行 foreach
的 Worker Node 與 Diver 處在相同的 JVM,并引用相同的原始 counter
,這時(shí)候更新可能是正確的,但是在集群模式下一定不正確。所以在遇到此類問題時(shí)應(yīng)優(yōu)先使用累加器。
累加器的原理實(shí)際上很簡(jiǎn)單:就是將每個(gè)副本變量的最終值傳回 Driver,由 Driver 聚合后得到最終值,并更新原始變量。
SparkContext
中定義了所有創(chuàng)建累加器的方法,需要注意的是:被中橫線劃掉的累加器方法在 Spark 2.0.0 之后被標(biāo)識(shí)為廢棄。
使用示例和執(zhí)行結(jié)果分別如下:
val data = Array(1, 2, 3, 4, 5)
// 定義累加器
val accum = sc.longAccumulator("My Accumulator")
sc.parallelize(data).foreach(x => accum.add(x))
// 獲取累加器的值
accum.value
在上面介紹中閉包的過程中我們說道每個(gè) Task 任務(wù)的閉包都會(huì)持有自由變量的副本,如果變量很大且 Task 任務(wù)很多的情況下,這必然會(huì)對(duì)網(wǎng)絡(luò) IO 造成壓力,為了解決這個(gè)情況,Spark 提供了廣播變量。
廣播變量的做法很簡(jiǎn)單:就是不把副本變量分發(fā)到每個(gè) Task 中,而是將其分發(fā)到每個(gè) Executor,Executor 中的所有 Task 共享一個(gè)副本變量。
// 把一個(gè)數(shù)組定義為一個(gè)廣播變量
val broadcastVar = sc.broadcast(Array(1, 2, 3, 4, 5))
// 之后用到該數(shù)組時(shí)應(yīng)優(yōu)先使用廣播變量,而不是原值
sc.parallelize(broadcastVar.value).map(_ * 10).collect()
RDD Programming Guide
更多大數(shù)據(jù)系列文章可以參見 GitHub 開源項(xiàng)目: 大數(shù)據(jù)入門指南
另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國(guó)服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場(chǎng)景需求。
當(dāng)前名稱:Spark系列(六)——累加器與廣播變量-創(chuàng)新互聯(lián)
當(dāng)前路徑:http://muchs.cn/article40/diehho.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站排名、網(wǎng)站改版、做網(wǎng)站、動(dòng)態(tài)網(wǎng)站、手機(jī)網(wǎng)站建設(shè)、軟件開發(fā)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
猜你還喜歡下面的內(nèi)容