怎么用Python分析44萬條數(shù)據(jù)

本篇文章給大家分享的是有關(guān)怎么用Python分析44萬條數(shù)據(jù),小編覺得挺實用的,因此分享給大家學習,希望大家閱讀完這篇文章后可以有所收獲,話不多說,跟著小編一起來看看吧。

站在用戶的角度思考問題,與客戶深入溝通,找到鹿寨網(wǎng)站設計與鹿寨網(wǎng)站推廣的解決方案,憑借多年的經(jīng)驗,讓設計與互聯(lián)網(wǎng)技術(shù)結(jié)合,創(chuàng)造個性化、用戶體驗好的作品,建站類型包括:成都網(wǎng)站制作、網(wǎng)站建設、外貿(mào)網(wǎng)站建設、企業(yè)官網(wǎng)、英文網(wǎng)站、手機端網(wǎng)站、網(wǎng)站推廣、申請域名、雅安服務器托管、企業(yè)郵箱。業(yè)務覆蓋鹿寨地區(qū)。

有個段子講“十年文案老司機,不如網(wǎng)易評論區(qū),網(wǎng)易文豪遍地走,評論全部單身狗”,網(wǎng)易云音樂的評論區(qū)也一直都是各類文案大神的聚集地。

那么我們普通用戶到底如何成為網(wǎng)易云音樂評論里的熱評段子手?

讓我來分析一下。

獲取數(shù)據(jù)

其實邏輯并不復雜:

  1. 爬取歌單列表里的所有歌單url。

  2. 進入每篇歌單爬取所有歌曲url,去重。

  3. 進入每首歌曲首頁爬取熱評,匯總。

歌單列表是這樣的:

怎么用Python分析44萬條數(shù)據(jù)

翻頁并觀察它的url變化,注意下方動圖,每次翻頁末尾變化35。

怎么用Python分析44萬條數(shù)據(jù)

采用requests+pyquery來爬取。

在學習過程中有什么不懂得可以加我的
python學習交流扣扣qun,784758214
群里有不錯的學習視頻教程、開發(fā)工具與電子書籍。
與你分享python企業(yè)當下人才需求及怎么從零基礎學習好python,和學習什么內(nèi)容
def get_list():
    list1 = []
    for i in range(0,1295,35):
        url = 'https://music.163.com/discover/playlist/?order=hot&cat=%E5%8D%8E%E8%AF%AD&limit=35&offset='+str(i)
        print('已成功采集%i頁歌單\n' %(i/35+1))
        data = []
        html = restaurant(url)
        doc = pq(html)
        for i in range(1,36): # 一頁35個歌單
            a = doc('#m-pl-container > li:nth-child(' + str(i) +') > div > a').attr('href')
            a1 = 'https://music.163.com/api' + a.replace('?','/detail?')
            data.append(a1)
        list1.extend(data)
        time.sleep(5+random.random())
    return list1

這樣我們就可以獲得38頁每頁35篇歌單,共1300+篇歌單。

下面我們需要進入每篇歌單爬取所有歌曲url,并且要注意最后“去重”,不同歌單可能包含同一首歌曲。

點開一篇歌單,注意紅色圈出的id。

怎么用Python分析44萬條數(shù)據(jù)

觀察一下,我們要在每篇歌單下方獲取的信息也就是紅框圈出的這些,利用剛剛爬取到的歌單id和網(wǎng)易云音樂的api(下一篇文章細講)可以構(gòu)造出:

怎么用Python分析44萬條數(shù)據(jù)

不方便看的話我們解析一下json。

怎么用Python分析44萬條數(shù)據(jù)

def get_playlist(url):
    data = []
    doc = get_json(url)
    obj=json.loads(doc)
    jobs=obj['result']['tracks']
    for job in jobs:
        dic = {}
        dic['name']=jsonpath.jsonpath(job,'$..name')[0] #歌曲名稱
        dic['id']=jsonpath.jsonpath(job,'$..id')[0] #歌曲ID
        data.append(dic)
    return data

這樣我們就獲取了所有歌單下的歌曲,記得去重。

#去重
data = data.drop_duplicates(subset=None, keep='first', inplace=True)

剩下就是獲取每首歌曲的熱評了,與前面獲取歌曲類似,也是根據(jù)api構(gòu)造,很容易就找到了。

怎么用Python分析44萬條數(shù)據(jù)

def get_comments(url,k):
    data = []
    doc = get_json(url)
    obj=json.loads(doc)
    jobs=obj['hotComments']
    for job in jobs:
        dic = {}
        dic['content']=jsonpath.jsonpath(job,'$..content')[0] 
        dic['time']= stampToTime(jsonpath.jsonpath(job,'$..time')[0])
        dic['userId']=jsonpath.jsonpath(job['user'],'$..userId')[0]  #用戶ID
        dic['nickname']=jsonpath.jsonpath(job['user'],'$..nickname')[0]#用戶名
        dic['likedCount']=jsonpath.jsonpath(job,'$..likedCount')[0] 
        dic['name']= k
        data.append(dic)
    return data

匯總后就獲得了44萬條音樂熱評數(shù)據(jù)。

怎么用Python分析44萬條數(shù)據(jù)

數(shù)據(jù)分析

清洗填充一下。

def data_cleaning(data):
    cols = data.columns
    for col in cols:
        if data[col].dtype ==  'object':
            data[col].fillna('缺失數(shù)據(jù)', inplace = True)
        else:
            data[col].fillna(0, inplace = True)
    return(data)

按照點贊數(shù)排個序。

#排序
df1['likedCount'] = df1['likedCount'].astype('int')
df_2 = df1.sort_values(by="likedCount",ascending=False)
df_2.head()

怎么用Python分析44萬條數(shù)據(jù)

再看看哪些熱評是被復制粘貼搬來搬去的。

#排序
df_line = df.groupby(['content']).count().reset_index().sort_values(by="name",ascending=False)
df_line.head()

怎么用Python分析44萬條數(shù)據(jù)

第一個和第三個只是末尾有沒有句號的區(qū)別,可以歸為一類。這樣的話,重復次數(shù)最多個這句話竟然重復了412次,額~~

看看上熱評次數(shù)次數(shù)最多的是哪位大神?從他的身上我們能學到什么經(jīng)驗?

df_user = df.groupby(['userId']).count().reset_index().sort_values(by="name",ascending=False)
df_user.head()

按照 user_id 匯總一下,排序。

怎么用Python分析44萬條數(shù)據(jù)

成功“捕獲”一枚“段子手”,上熱評次數(shù)高達347,我們再看看這位大神究竟都評論些什么?

df_user_max = df.loc[(df['userId'] == 101***770)]
df_user_max.head()

怎么用Python分析44萬條數(shù)據(jù)

這位“失眠的陳先生”看來各種情話嫻熟于手啊,下面就以他舉例來看看如何成為網(wǎng)易云音樂評論里的熱評段子手吧。

數(shù)據(jù)可視化

先看看這347條評論的贊數(shù)分布。

#贊數(shù)分布圖
import matplotlib.pyplot as plt
data = df_user_max['likedCount']
#data.to_csv("df_user_max.csv", index_label="index_label",encoding='utf-8-sig')
plt.hist(data,100,normed=True,facecolor='g',alpha=0.9)
plt.show()

怎么用Python分析44萬條數(shù)據(jù)

很明顯,贊數(shù)并不多,大部分都在500贊之內(nèi),幾百贊卻能躋身熱評,這也側(cè)面說明了這些歌曲是比較小眾的,看來是經(jīng)常在新歌區(qū)廣撒網(wǎng)。

我們使用len() 求出每條評論的字符串長度,再畫個分布圖

怎么用Python分析44萬條數(shù)據(jù)

評論的字數(shù)集中在18—30字之間,這說明在留言時要注意字數(shù),保險的做法是不要太長讓人讀不下去,也不要太短以免不夠經(jīng)典。

做個詞云。

怎么用Python分析44萬條數(shù)據(jù)

可以看出他的評論風格是以一首歌使他“想起”“感覺”為開頭,賓語通常是“喜歡的女孩子”,也經(jīng)常用”她”來指代。寄托的情感是“后悔”“悲傷”,感慨的終點是“放下”。

以上就是怎么用Python分析44萬條數(shù)據(jù),小編相信有部分知識點可能是我們?nèi)粘9ぷ鲿姷交蛴玫降摹OM隳芡ㄟ^這篇文章學到更多知識。更多詳情敬請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。

網(wǎng)頁名稱:怎么用Python分析44萬條數(shù)據(jù)
網(wǎng)頁地址:http://www.muchs.cn/article48/gehshp.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供靜態(tài)網(wǎng)站、搜索引擎優(yōu)化、網(wǎng)頁設計公司、網(wǎng)站制作網(wǎng)站建設、網(wǎng)站導航

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

小程序開發(fā)