python爬蟲獲取多頁天涯帖子-創(chuàng)新互聯(lián)

今天練習(xí)了抓取多頁天涯帖子,重點(diǎn)復(fù)習(xí)的知識包括

創(chuàng)新互聯(lián)是一家集網(wǎng)站建設(shè),八公山企業(yè)網(wǎng)站建設(shè),八公山品牌網(wǎng)站建設(shè),網(wǎng)站定制,八公山網(wǎng)站建設(shè)報(bào)價(jià),網(wǎng)絡(luò)營銷,網(wǎng)絡(luò)優(yōu)化,八公山網(wǎng)站推廣為一體的創(chuàng)新建站企業(yè),幫助傳統(tǒng)企業(yè)提升企業(yè)形象加強(qiáng)企業(yè)競爭力??沙浞譂M足這一群體相比中小企業(yè)更為豐富、高端、多元的互聯(lián)網(wǎng)需求。同時(shí)我們時(shí)刻保持專業(yè)、時(shí)尚、前沿,時(shí)刻以成就客戶成長自我,堅(jiān)持不斷學(xué)習(xí)、思考、沉淀、凈化自己,讓我們?yōu)楦嗟钠髽I(yè)打造出實(shí)用型網(wǎng)站。
  • soup.find_all和soup.selcet兩個(gè)篩選方式對應(yīng)不同的參數(shù);
  • 希望將獲取到的多個(gè)內(nèi)容組合在一起返回的時(shí)候,要用'zip()'的代碼來實(shí)現(xiàn);
  • 兩層代碼結(jié)構(gòu)之間的關(guān)系如何構(gòu)造;

這里有一個(gè)疑問:有時(shí)候一個(gè)標(biāo)簽可以有多個(gè)屬性,不知道soup.find_all()能不能接受不止一個(gè)屬性以縮小查找的范圍。

# 引入庫和請求頭文件
import requests
from bs4 import BeautifulSoup
headers = {
  'User-Agent':'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_12_0) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'
}

# 定義主體函數(shù)。函數(shù)主體由四部分組成:
#1.請求網(wǎng)址
#2.解析網(wǎng)頁,形成可查找的html格式
#3.通過soup.select或者sopu.find_all查找需要的標(biāo)簽
#4.通過zip()代碼將多個(gè)內(nèi)容合并在一起

def get_content(url):
  res = requests.get(url,headers = headers)
  res.encoding = 'utf-8'
  soup = BeautifulSoup(res.text,'html.parser')
  contents = soup.find_all('div','bbs-content')
  authors = soup.find_all('a','js-vip-check')
  for author,content in zip(authors,contents):
    data = {
    'author':author.get_text().strip(),
    'content': content.get_text().strip()
  }
    print(data)
# 在這里構(gòu)造一個(gè)兩層鏈接結(jié)構(gòu):帖子的1、2、3、4頁和帖子的詳情頁的關(guān)系在這里實(shí)現(xiàn)
if __name__ == '__main__':
  urls = ['http://bbs.tianya.cn/post-develop-2271894-{}.shtml'.format(str(i)) for i in range (1,5)] # 要注意,這里的‘5'是不包括在范圍里的
  for url in urls:
    get_content(url)

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)scvps.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢,專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場景需求。

名稱欄目:python爬蟲獲取多頁天涯帖子-創(chuàng)新互聯(lián)
新聞來源:http://muchs.cn/article10/dcjhdo.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供面包屑導(dǎo)航、虛擬主機(jī)網(wǎng)站維護(hù)、域名注冊、標(biāo)簽優(yōu)化搜索引擎優(yōu)化

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

搜索引擎優(yōu)化