Spark中的閉包是什么意思

本篇內(nèi)容介紹了“Spark中的閉包是什么意思”的有關(guān)知識,在實際案例的操作過程中,不少人都會遇到這樣的困境,接下來就讓小編帶領(lǐng)大家學(xué)習(xí)一下如何處理這些情況吧!希望大家仔細(xì)閱讀,能夠?qū)W有所成!

10年積累的成都網(wǎng)站設(shè)計、成都做網(wǎng)站、外貿(mào)網(wǎng)站建設(shè)經(jīng)驗,可以快速應(yīng)對客戶對網(wǎng)站的新想法和需求。提供各種問題對應(yīng)的解決方案。讓選擇我們的客戶得到更好、更有力的網(wǎng)絡(luò)服務(wù)。我雖然不認(rèn)識你,你也不認(rèn)識我。但先網(wǎng)站制作后付款的網(wǎng)站建設(shè)流程,更有江夏免費網(wǎng)站建設(shè)讓你可以放心的選擇與我們合作。

    在Spark的代碼里,變量及函數(shù)的作用范圍和聲明周期在spark的集群運行模式下是比較難理解的,尤其是對初學(xué)者來說。這里的閉包問題跟在RDD的算子中操作作用域外部的變量有關(guān)。

    Spark中的閉包變量一般指,在算子作用域的外部聲明,卻在算子作用域內(nèi)存操作和執(zhí)行的變量。

    下面通過一個代碼實例來幫助你更好的理解閉包問題,假如在Spark中想求一下5(1,2,3,4,5)個數(shù)的和sum(初始值為0),這里先貼下代碼:

package com.hadoop.ljs.spark220.study.closePackage;import org.apache.spark.SparkConf;import org.apache.spark.api.java.JavaRDD;import org.apache.spark.api.java.JavaSparkContext;import org.apache.spark.api.java.function.VoidFunction;import java.util.Arrays;import java.util.List;/** * @author: Created By lujisen * @company ChinaUnicom Software JiNan * @date: 2020-02-18 20:08 * @version: v1.0 * @description: com.hadoop.ljs.spark220.study.closePackage */public class SparkClosePackage {    public static void main(String[] args) {        SparkConf sparkConf = new SparkConf().setAppName("SparkClosePackage").setMaster("local[*]");        JavaSparkContext sc = new JavaSparkContext(sparkConf);        List<Integer> numList2 = Arrays.asList(1, 2, 3, 4, 5);        final int[] sum = {0};        JavaRDD<Integer> soureData =  sc.parallelize(numList2);        soureData.foreach(new VoidFunction<Integer>() {            @Override            public void call(Integer value) throws Exception {                sum[0] +=value;            }        });        System.out.println("求和結(jié)果"+sum[0]);        sc.close();    }}

程序的輸出結(jié)果:

Spark中的閉包是什么意思

    結(jié)果是不是跟你想象的是不太一樣,sum不是15  而是0。為什么呢?

這里就涉及到了RDD的作用域問題,對于RDD的各個算子來說,作用域只是算子的內(nèi)存代碼,上面的代碼卻操作了作用域外的變量sum,據(jù)不同的編程語言的語法,這種功能是可以做到的,而這種現(xiàn)象就叫做閉包,閉包簡單來說,就是操作的不屬于一個作用域范圍的變量。

    生產(chǎn)上一般我們都是提交Spark的任務(wù)到集群上執(zhí)行,無論是standalone/yarn-client本地模式還是standalone/yarn-cluster集群模式,任務(wù)都是轉(zhuǎn)化成task分批次發(fā)送到Worker節(jié)點的Executor中運行的,每一個批次的Task執(zhí)行相同的代碼,處理不同的數(shù)據(jù),閉包變量在task執(zhí)行之前,肯定是需要在driver端處理,然后被序列化成多個副本,每個副本都發(fā)送到各個executor進(jìn)程中,以便后期task使用。

 

    這里干澀的講不太容易聽明白,這里我從結(jié)合一個圖再詳細(xì)說一下:

Spark中的閉包是什么意思

    這里你輸入了數(shù)據(jù)(1,2,3,4,5),這里有變量sum=0,想通過foreach算子,求和保存到sum中,我們將工程打包,提交到集群運行,這里肯定生產(chǎn)一個driver進(jìn)行運行咱們的main函數(shù),序列化sum變量,拷貝多個序列化后的副本到兩個Executor中,當(dāng)運行到foreach這個算子的時候,分批次發(fā)送task到已分配的Executor中執(zhí)行,每個都保存了一個sum副本,這里算完以后,每個Executor會計算出自己的結(jié)果:一個是6,一個是9;最后你在driver端去打印這個sum的時候,Executor對sum的操作,driver是完全感知不到的。

    因此綜上所述,在你使用集群模式運行作業(yè)的時候,切忌不要在算子內(nèi)部,對作用域外面的閉包變量進(jìn)行改變其值的操作,因為那沒有任何意義,算子僅僅會在executor進(jìn)程中,改變變量副本的值,對于driver端的變量沒有任何影響,我們也獲取不到executor端的變量副本的值。

    如果希望在集群模式下,對某個driver端的變量,進(jìn)行分布式并行的、全局性的修改,可以使用Spark提供的全局累加器(Accumulator),后面我們會講解一個Accumulator的高級用法,自定義Accumulator,實現(xiàn)任意機制和算法的全局計算器。

“Spark中的閉包是什么意思”的內(nèi)容就介紹到這里了,感謝大家的閱讀。如果想了解更多行業(yè)相關(guān)的知識可以關(guān)注創(chuàng)新互聯(lián)網(wǎng)站,小編將為大家輸出更多高質(zhì)量的實用文章!

網(wǎng)頁標(biāo)題:Spark中的閉包是什么意思
網(wǎng)頁鏈接:http://muchs.cn/article30/gjsopo.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站收錄、電子商務(wù)靜態(tài)網(wǎng)站、網(wǎng)站策劃、定制開發(fā)微信小程序

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都網(wǎng)站建設(shè)公司