大數(shù)據(jù)工具pyspark怎么用

本篇文章給大家分享的是有關(guān)大數(shù)據(jù)工具pyspark怎么用,小編覺得挺實用的,因此分享給大家學(xué)習(xí),希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

我們提供的服務(wù)有:網(wǎng)站建設(shè)、成都做網(wǎng)站、微信公眾號開發(fā)、網(wǎng)站優(yōu)化、網(wǎng)站認(rèn)證、尉犁ssl等。為成百上千家企事業(yè)單位解決了網(wǎng)站和推廣的問題。提供周到的售前咨詢和貼心的售后服務(wù),是有科學(xué)管理、有技術(shù)的尉犁網(wǎng)站制作公司

spark是目前大數(shù)據(jù)領(lǐng)域的核心技術(shù)棧,許多從事數(shù)據(jù)相關(guān)工作的小伙伴都想馴服它,變成"馴龍高手",以便能夠駕馭成百上千臺機器組成的集群之龍來馳騁于大數(shù)據(jù)之海。

但大部分小伙伴都沒能成功做到這一點。有一部分小伙伴糾結(jié)在到底是學(xué)pyspark還是spark-scala上面遲遲未能出征,還有相當(dāng)一部分倒在了開始的環(huán)境配置上,還有一些在幾十幾百個函數(shù)的用法中迷失了方向,還有少部分同學(xué)雖然掌握了一些簡單用法,但是沒有掌握性能優(yōu)化技巧,一旦遇到真正復(fù)雜的大數(shù)據(jù)就毫無辦法。

一,pyspark or spark-scala 

pyspark強于分析,spark-scala強于工程。

如果應(yīng)用場景有非常高的性能需求,應(yīng)該選擇spark-scala.

如果應(yīng)用場景有非常多的可視化和機器學(xué)習(xí)算法需求,推薦使用pyspark,可以更好地和python中的相關(guān)庫配合使用。

此外spark-scala支持spark graphx圖計算模塊,而pyspark是不支持的。

pyspark學(xué)習(xí)曲線平緩,spark-scala學(xué)習(xí)曲線陡峭。

從學(xué)習(xí)成本來說,spark-scala學(xué)習(xí)曲線陡峭,不僅因為scala是一門困難的語言,更加因為在前方的道路上會有無盡的環(huán)境配置痛苦等待著讀者。

而pyspark學(xué)習(xí)成本相對較低,環(huán)境配置相對容易。從學(xué)習(xí)成本來說,如果說pyspark的學(xué)習(xí)成本是3,那么spark-scala的學(xué)習(xí)成本大概是9。

如果讀者有較強的學(xué)習(xí)能力和充分的學(xué)習(xí)時間,建議選擇spark-scala,能夠解鎖spark的全部技能,并獲得最優(yōu)性能,這也是工業(yè)界最普遍使用spark的方式。

如果讀者學(xué)習(xí)時間有限,并對Python情有獨鐘,建議選擇pyspark。pyspark在工業(yè)界的使用目前也越來越普遍。

 

二,本書學(xué)習(xí)方案 

1,學(xué)習(xí)計劃

非常適合作為pyspark的工具手冊在工程落地時作為范例庫參考。

2,學(xué)習(xí)環(huán)境

全部源碼在jupyter中編寫測試通過,建議通過git克隆到本地,并在jupyter中交互式運行學(xué)習(xí)。

為了直接能夠在jupyter中打開markdown文件,建議安裝jupytext,將markdown轉(zhuǎn)換成ipynb文件。

按照如下2個步驟配置單機版spark3.0.1環(huán)境進行練習(xí)。

#step1: 安裝java8#jdk
#step2: 安裝pyspark,findsparkpip install -i

此外,也可以在和鯨社區(qū)的云端notebook中直接運行pyspark,沒有任何環(huán)境配置痛苦。

import findspark

#指定spark_home,指定python路徑
spark_home = "/Users/liangyun/anaconda3/lib/python3.7/site-packages/pyspark"
python_path = "/Users/liangyun/anaconda3/bin/python"
findspark.init(spark_home,python_path)

import pyspark 
from pyspark import SparkContext, SparkConf
conf = SparkConf().setAppName("test").setMaster("local[4]")
sc = SparkContext(conf=conf)

print("spark version:",pyspark.__version__)
rdd = sc.parallelize(["hello","spark"])
print(rdd.reduce(lambda x,y:x+' '+y))

以上就是大數(shù)據(jù)工具pyspark怎么用,小編相信有部分知識點可能是我們?nèi)粘9ぷ鲿姷交蛴玫降?。希望你能通過這篇文章學(xué)到更多知識。更多詳情敬請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

文章名稱:大數(shù)據(jù)工具pyspark怎么用
地址分享:http://muchs.cn/article26/iegjjg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)建站、響應(yīng)式網(wǎng)站、靜態(tài)網(wǎng)站、定制網(wǎng)站、網(wǎng)站改版手機網(wǎng)站建設(shè)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

營銷型網(wǎng)站建設(shè)