Json數(shù)據(jù)怎么利用Python爬蟲進(jìn)行爬取-創(chuàng)新互聯(lián)

Json數(shù)據(jù)怎么利用Python爬蟲進(jìn)行爬取?相信很多沒有經(jīng)驗的人對此束手無策,為此本文總結(jié)了問題出現(xiàn)的原因和解決方法,通過這篇文章希望你能解決這個問題。

創(chuàng)新互聯(lián)主營溫江網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營網(wǎng)站建設(shè)方案,app軟件開發(fā),溫江h(huán)5小程序設(shè)計搭建,溫江網(wǎng)站營銷推廣歡迎溫江等地區(qū)企業(yè)咨詢

該地址返回的響應(yīng)內(nèi)容為Json類型,其中紅框標(biāo)記的項即為AI流轉(zhuǎn)率值:


Json數(shù)據(jù)怎么利用Python爬蟲進(jìn)行爬取

實現(xiàn)代碼如下:

import requests
import json
import csv
 
# 爬蟲地址
url = 'https://databank.yushanfang.com/api/ecapi?path=/databank/crowdFullLink/flowInfo&fromCrowdId=3312&beginTheDate=201810{}&endTheDate=201810{}&toCrowdIdList[0]=3312&toCrowdIdList[1]=3313&toCrowdIdList[2]=3314&toCrowdIdList[3]=3315'
 
# 攜帶cookie進(jìn)行訪問
headers = {
'Host':'databank.yushanfang.com',
'Referer':'https://databank.yushanfang.com/',
'Connection':'keep-alive',
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.84 Safari/537.36',
'Cookie':'_tb_token_=iNkDeJLdM3MgvKjhsfdW; bs_n_lang=zh_CN; cna=aaj1EViI7x0CATo9kTKvjzgS; ck2=072de851f1c02d5c7bac555f64c5c66d; c_token=c74594b486f8de731e2608cb9526a3f2; an=5YWo5qOJ5pe25Luj5a6Y5pa55peX6Iiw5bqXOnpmeA%3D%3D; lg=true; sg=\"=19\"; lvc=sAhojs49PcqHQQ%3D%3D; isg=BPT0Md7dE_ic5Ie3Oa85RxaMxbLK3UqJMMiN6o5VjH8C-ZRDtt7aRXb3fXGEAVAP',
}
 
rows = []
for n in range(20, 31):
  row = []
  row.append(n)
  for m in range (21, 32):
    if m < n + 1:
      row.append("")
    else:
      
      # 格式化請求地址,更換請求參數(shù)
      reqUrl = url.format(n, m)
      
      # 打印本次請求地址
      print(url)
      
      # 發(fā)送請求,獲取響應(yīng)結(jié)果
      response = requests.get(url=reqUrl, headers=headers, verify=False)
      text = response.text
      
      # 打印本次請求響應(yīng)內(nèi)容
      print(text)
      
      # 將響應(yīng)內(nèi)容轉(zhuǎn)換為Json對象
      jsonobj = json.loads(text)
      
      # 從Json對象獲取想要的內(nèi)容
      toCntPercent = jsonobj['data']['interCrowdInfo'][1]['toCntPercent']
      
      # 生成行數(shù)據(jù)
      row.append(str(toCntPercent)+"%")
      
  # 保存行數(shù)據(jù)    
  rows.append(row)
  
# 生成Excel表頭
header = ['AI流轉(zhuǎn)率', '21', '22', '23', '24', '25', '26', '27', '28', '29', '30', '31']
 
# 將表頭數(shù)據(jù)和爬蟲數(shù)據(jù)導(dǎo)出到Excel文件
with open('D:\\res\\pachong\\tmall.csv', 'w', encoding='gb18030') as f :
  f_csv = csv.writer(f)
  f_csv.writerow(header)
  f_csv.writerows(rows)

分享標(biāo)題:Json數(shù)據(jù)怎么利用Python爬蟲進(jìn)行爬取-創(chuàng)新互聯(lián)
本文路徑:http://muchs.cn/article28/phscp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站導(dǎo)航外貿(mào)建站、手機(jī)網(wǎng)站建設(shè)微信公眾號、企業(yè)建站、網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

外貿(mào)網(wǎng)站制作