怎么分析spark中的shuffle模塊

怎么分析spark中的shuffle模塊,針對這個問題,這篇文章詳細介紹了相對應的分析和解答,希望可以幫助更多想解決這個問題的小伙伴找到更簡單易行的方法。

創(chuàng)新互聯(lián)建站從2013年成立,是專業(yè)互聯(lián)網技術服務公司,擁有項目成都網站設計、成都做網站網站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元納溪做網站,已為上家服務,為納溪各地企業(yè)和個人服務,聯(lián)系電話:18980820575

一、Basic shuffle writer實現(xiàn)解析

在Executor上執(zhí)行shuffle Map Task時,最終會調用shuffleMapTask的runTask,核心邏輯如下:

1.從sparkEnv中獲得shuffleManager;

2.從manager中獲得writer

3.調用RDD開始計算,運算結果通過writer進行持久化,持久化之前通過Aggregator來確定是否需要進行Map端聚合,然后將結果通過FileShuffleManager#forMapTask的方法寫入,寫入完成后,會將元數據信息寫入MapStatus,然后下游的Task可以通過這個MapStatus取得需要處理的數據。

這樣writer通過ShuffleDependency#partitioner來獲得下游partition的數量,下游的每個partition都會對應一個文件,文件名字的格式為:“shuffle_”+shuffledId+"_"+mapId+"_"+reduceId。

由于每個shuffle Map Task需要為每個下游的Task創(chuàng)建一個單獨的文件,因此文件的數量就是number(shuffle_map_task)*number(following_task)。這樣會導致創(chuàng)建和打開許多文件。

后來Spark又引入Shuffle Consolidate Writer,原理是core上的第一個Task創(chuàng)建一個文件,該core上的后面的Task的shuffle操作都追加寫入改文件,這樣文件數量number(core)*number(following_task)  。

關于怎么分析spark中的shuffle模塊問題的解答就分享到這里了,希望以上內容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關注創(chuàng)新互聯(lián)行業(yè)資訊頻道了解更多相關知識。

網站題目:怎么分析spark中的shuffle模塊
網頁網址:http://muchs.cn/article30/ihdopo.html

成都網站建設公司_創(chuàng)新互聯(lián),為您提供標簽優(yōu)化、品牌網站建設、虛擬主機、關鍵詞優(yōu)化、靜態(tài)網站網站設計

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

成都網站建設