Python爬蟲入門【7】:蜂鳥網(wǎng)圖片爬取之二-創(chuàng)新互聯(lián)

蜂鳥網(wǎng)圖片--簡(jiǎn)介

今天玩點(diǎn)新鮮的,使用一個(gè)新庫 aiohttp ,利用它提高咱爬蟲的爬取速度。

成都創(chuàng)新互聯(lián)公司主要從事網(wǎng)站設(shè)計(jì)、網(wǎng)站制作、網(wǎng)頁設(shè)計(jì)、企業(yè)做網(wǎng)站、公司建網(wǎng)站等業(yè)務(wù)。立足成都服務(wù)莫力達(dá),10多年網(wǎng)站建設(shè)經(jīng)驗(yàn),價(jià)格優(yōu)惠、服務(wù)專業(yè),歡迎來電咨詢建站服務(wù):13518219792

安裝模塊常規(guī)套路

pip install aiohttp

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

運(yùn)行之后等待,安裝完畢,想要深造,那么官方文檔必備 :https://aiohttp.readthedocs.io/en/stable/

接下來就可以開始寫代碼了。

我們要爬取的頁面,這一次選取的是

http://bbs.fengniao.com/forum/forum_101_1_lastpost.html

打開頁面,我們很容易就獲取到了頁碼

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

好久沒有這么方便的看到頁碼了。

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

嘗試用 aiohttp 訪問這個(gè)頁面吧,模塊的引入,沒有什么特殊的,采用 import 即可
如果我們需要 使用Asyncio + Aiohttp異步IO 編寫爬蟲,那么需要注意,你需要異步的方法前面加上async

接下來,先嘗試去獲取一下上面那個(gè)地址的網(wǎng)頁源碼。

代碼中,先聲明一個(gè)fetch_img_url的函數(shù),同時(shí)攜帶一個(gè)參數(shù),這個(gè)參數(shù)也可以直接寫死。

with 上下文不在提示,自行搜索相關(guān)資料即可 (`?ω?′)

aiohttp.ClientSession() as session: 創(chuàng)建一個(gè)session對(duì)象,然后用該session對(duì)象去打開網(wǎng)頁。session可以進(jìn)行多項(xiàng)操作,比如post, get, put

代碼中 await response.text() 等待網(wǎng)頁數(shù)據(jù)返回

asyncio.get_event_loop創(chuàng)建線程,run_until_complete方法負(fù)責(zé)安排執(zhí)行 tasks中的任務(wù)。tasks可以為單獨(dú)的函數(shù),也可以是列表。

import aiohttp  
import asyncio 

async def fetch_img_url(num):
    url = f'http://bbs.fengniao.com/forum/forum_101_{num}_lastpost.html'  # 字符串拼接
    # 或者直接寫成 url = 'http://bbs.fengniao.com/forum/forum_101_1_lastpost.html'
    print(url)
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.6726.400 QQBrowser/10.2.2265.400',
    }

    async with aiohttp.ClientSession() as session:
        # 獲取輪播圖地址
        async with session.get(url,headers=headers) as response:
            try:
                html = await response.text()   # 獲取到網(wǎng)頁源碼
                print(html)

            except Exception as e:
                print("基本錯(cuò)誤")
                print(e)

# 這部分你可以直接臨摹
loop = asyncio.get_event_loop()
tasks = asyncio.ensure_future(fetch_img_url(1))
results = loop.run_until_complete(tasks)
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

上面代碼最后一部分也可以寫成

loop = asyncio.get_event_loop()
tasks =  [fetch_img_url(1)]
results = loop.run_until_complete(asyncio.wait(tasks))

好了,如果你已經(jīng)成果的獲取到了源碼,那么距離最終的目的就差那么一丟丟了。
修改代碼為批量獲取10頁。
只需要修改tasks即可,在此運(yùn)行,看到如下結(jié)果

tasks =  [fetch_img_url(num) for num in range(1, 10)]

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

下面的一系列操作和上一篇博客非常類似,找規(guī)律。
隨便打開一個(gè)頁面

http://bbs.fengniao.com/forum/forum_101_4_lastpost.html

點(diǎn)擊一張圖片,進(jìn)入內(nèi)頁,在點(diǎn)擊內(nèi)頁的一張圖片,進(jìn)入到一個(gè)輪播頁面

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

再次點(diǎn)擊進(jìn)入圖片播放頁面

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

最后我們?cè)趫D片播放頁面,找到源碼中發(fā)現(xiàn)了所有的圖片鏈接,那么問題出來了,如何從上面的第一個(gè)鏈接,轉(zhuǎn)變成輪播圖的鏈接???
下面的源碼是在 http://bbs.fengniao.com/forum/pic/slide_101_10408464_89383854.html 右鍵查看源碼。

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

繼續(xù)分析吧~~~~ ヾ(=?ω?=)o

http://bbs.fengniao.com/forum/forum_101_4_lastpost.html
轉(zhuǎn)變成下面的鏈接?
http://bbs.fengniao.com/forum/pic/slide_101_10408464_89383854.html

繼續(xù)看第一個(gè)鏈接,我們使用F12開發(fā)者工具,去抓取一個(gè)圖片看看。

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

圖片中標(biāo)×××框的位置,發(fā)現(xiàn)了我們想要的數(shù)字,那么好了,我們只需要通過正則表達(dá)式把他們匹配出來就好了。
代碼在下面####的位置,需要注意的是,我采用的原始的正則匹配,在編寫正則表達(dá)式的過程中,我發(fā)現(xiàn)一步竟然沒有完整匹配,只能分成兩個(gè)步驟了,你可以看一下具體的細(xì)節(jié)o(╥﹏╥)o

  1. 查找所有的圖片<div class="picList">
  2. 獲取我們想要的兩部分?jǐn)?shù)字
async def fetch_img_url(num):
    url = f'http://bbs.fengniao.com/forum/forum_101_{num}_lastpost.html'
    print(url)
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.26 Safari/537.36 Core/1.63.6726.400 QQBrowser/10.2.2265.400',
    }

    async with aiohttp.ClientSession() as session:
        # 獲取輪播圖地址
        async with session.get(url,headers=headers) as response:
            try:
                ###############################################
                url_format = "http://bbs.fengniao.com/forum/pic/slide_101_{0}_{1}.html"
                html = await response.text()   # 獲取到網(wǎng)頁源碼
                pattern = re.compile('<div class="picList">([\s\S.]*?)</div>')
                first_match = pattern.findall(html)
                href_pattern = re.compile('href="/forum/(\d+?)_p(\d+?)\.html')
                urls = [url_format.format(href_pattern.search(url).group(1), href_pattern.search(url).group(2)) for url in first_match]
                ##############################################

            except Exception as e:
                print("基本錯(cuò)誤")
                print(e)
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

代碼完成,我們已經(jīng)獲取到,我們想要的URL了,下面繼續(xù)讀取URL內(nèi)部信息,然后匹配我們想要的圖片鏈接

async def fetch_img_url(num):
    # 去抄上面的代碼
    async with aiohttp.ClientSession() as session:
        # 獲取輪播圖地址
        async with session.get(url,headers=headers) as response:
            try:
                #去抄上面的代碼去吧
                ################################################################
                for img_slider in urls:
                    try:
                        async with session.get(img_slider, headers=headers) as slider:
                            slider_html = await slider.text()   # 獲取到網(wǎng)頁源碼
                            try:
                                pic_list_pattern = re.compile('var picList = \[(.*)?\];')
                                pic_list = "[{}]".format(pic_list_pattern.search(slider_html).group(1))
                                pic_json = json.loads(pic_list)  # 圖片列表已經(jīng)拿到
                                print(pic_json)
                            except Exception as e:
                                print("代碼調(diào)試錯(cuò)誤")
                                print(pic_list)
                                print("*"*100)
                                print(e)

                    except Exception as e:
                        print("獲取圖片列表錯(cuò)誤")
                        print(img_slider)
                        print(e)
                        continue
                ################################################################

                print("{}已經(jīng)操作完畢".format(url))
            except Exception as e:
                print("基本錯(cuò)誤")
                print(e)

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

圖片最終的JSON已經(jīng)拿到,最后一步,下載圖片,當(dāng)當(dāng)當(dāng)~~~~,一頓迅猛的操作之后,圖片就拿下來了


async def fetch_img_url(num):
    # 代碼去上面找
    async with aiohttp.ClientSession() as session:
        # 獲取輪播圖地址
        async with session.get(url,headers=headers) as response:
            try:
                # 代碼去上面找
                for img_slider in urls:
                    try:
                        async with session.get(img_slider, headers=headers) as slider:
                            # 代碼去上面找
                            ##########################################################
                            for img in pic_json:
                                try:
                                    img = img["downloadPic"]
                                    async with session.get(img, headers=headers) as img_res:
                                        imgcode = await img_res.read()  # 圖片讀取
                                        with open("images/{}".format(img.split('/')[-1]), 'wb') as f:
                                            f.write(imgcode)
                                            f.close()
                                except Exception as e:
                                    print("圖片下載錯(cuò)誤")
                                    print(e)
                                    continue
                            ###############################################################

                    except Exception as e:
                        print("獲取圖片列表錯(cuò)誤")
                        print(img_slider)
                        print(e)
                        continue
                print("{}已經(jīng)操作完畢".format(url))
            except Exception as e:
                print("基本錯(cuò)誤")
                print(e)
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

圖片會(huì)在你提前寫好的images文件夾里面快速的生成

Python爬蟲入門【7】: 蜂鳥網(wǎng)圖片爬取之二

tasks最多可以開1024協(xié)程,但是建議你開100個(gè)就OK了,太多并發(fā),人家服務(wù)器吃不消。

以上操作執(zhí)行完畢,在添加一些細(xì)節(jié),比如保存到指定文件夾,就OK了。

另外有需要云服務(wù)器可以了解下創(chuàng)新互聯(lián)cdcxhl.cn,海內(nèi)外云服務(wù)器15元起步,三天無理由+7*72小時(shí)售后在線,公司持有idc許可證,提供“云服務(wù)器、裸金屬服務(wù)器、高防服務(wù)器、香港服務(wù)器、美國服務(wù)器、虛擬主機(jī)、免備案服務(wù)器”等云主機(jī)租用服務(wù)以及企業(yè)上云的綜合解決方案,具有“安全穩(wěn)定、簡(jiǎn)單易用、服務(wù)可用性高、性價(jià)比高”等特點(diǎn)與優(yōu)勢(shì),專為企業(yè)上云打造定制,能夠滿足用戶豐富、多元化的應(yīng)用場(chǎng)景需求。

當(dāng)前標(biāo)題:Python爬蟲入門【7】:蜂鳥網(wǎng)圖片爬取之二-創(chuàng)新互聯(lián)
本文路徑:http://muchs.cn/article38/pdepp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)頁設(shè)計(jì)公司、網(wǎng)站收錄靜態(tài)網(wǎng)站、自適應(yīng)網(wǎng)站企業(yè)建站、小程序開發(fā)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

營銷型網(wǎng)站建設(shè)