Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

1. 蜂鳥(niǎo)網(wǎng)圖片--簡(jiǎn)介

國(guó)慶假日結(jié)束了,新的工作又開(kāi)始了,今天我們繼續(xù)爬取一個(gè)網(wǎng)站,這個(gè)網(wǎng)站為 http://image.fengniao.com/ ,蜂鳥(niǎo)一個(gè)攝影大牛聚集的地方,本教程請(qǐng)用來(lái)學(xué)習(xí),不要用于商業(yè)目的,不出意外,蜂鳥(niǎo)是有版權(quán)保護(hù)的網(wǎng)站。

創(chuàng)新互聯(lián)是一家專(zhuān)業(yè)提供灣里企業(yè)網(wǎng)站建設(shè),專(zhuān)注與網(wǎng)站設(shè)計(jì)、成都網(wǎng)站建設(shè)html5、小程序制作等業(yè)務(wù)。10年已為灣里眾多企業(yè)、政府機(jī)構(gòu)等服務(wù)。創(chuàng)新互聯(lián)專(zhuān)業(yè)網(wǎng)絡(luò)公司優(yōu)惠進(jìn)行中。

Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

2. 蜂鳥(niǎo)網(wǎng)圖片--網(wǎng)站分析

第一步,分析要爬取的網(wǎng)站有沒(méi)有方法爬取,打開(kāi)頁(yè)面,找分頁(yè)

http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=1&not_in_id=5352384,5352410
http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=2&not_in_id=5352384,5352410
http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=3&not_in_id=5352384,5352410
http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page=4&not_in_id=5352384,5352410

上面的頁(yè)面發(fā)現(xiàn)一個(gè)關(guān)鍵的參數(shù)page=1這個(gè)就是頁(yè)碼了,但是另一個(gè)比較頭疼的問(wèn)題是,他沒(méi)有最后的頁(yè)碼,這樣我們沒(méi)有辦法確定循環(huán)次數(shù),所以后面的代碼編寫(xiě)中,只能使用while

這個(gè)地址返回的是JSON格式的數(shù)據(jù),這個(gè)對(duì)爬蟲(chóng)來(lái)說(shuō),非常友好!省的我們用正則表達(dá)式分析了。

Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

分析這個(gè)頁(yè)面的頭文件,查閱是否有反爬措施

Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

發(fā)現(xiàn)除了HOST和User-Agent以外,沒(méi)有特殊的點(diǎn),大網(wǎng)站就是任性,沒(méi)啥反爬,可能壓根不在乎這個(gè)事情。

第二步,分析圖片詳情頁(yè)面,在我們上面獲取到的JSON中,找到關(guān)鍵地址

Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

關(guān)鍵地址打開(kāi)之后,這個(gè)地方有一個(gè)比較騷的操作了,上面圖片中標(biāo)注的URL選的不好,恰好是一個(gè)文章了,我們要的是組圖,重新提供一個(gè)新鏈接 http://image.fengniao.com/slide/535/5352130_1.html#p=1

打開(kāi)頁(yè)面,你可能直接去找規(guī)律了,找到下面的一堆鏈接,但是這個(gè)操作就有點(diǎn)復(fù)雜了,我們查閱上述頁(yè)面的源碼

http://image.fengniao.com/slide/535/5352130_1.html#p=1
http://image.fengniao.com/slide/535/5352130_1.html#p=2
http://image.fengniao.com/slide/535/5352130_1.html#p=3
....
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

網(wǎng)頁(yè)源碼中發(fā)現(xiàn)了,這么一塊區(qū)域

Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

大膽的猜測(cè)一下,這個(gè)應(yīng)該是圖片的JSON,只是他打印在了HTML中,我們只需要用正則表達(dá)式進(jìn)行一下匹配就好了,匹配到之后,然后進(jìn)行下載。

第三步,開(kāi)始擼代碼。

Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

3. 蜂鳥(niǎo)網(wǎng)圖片--寫(xiě)代碼

from http_help import R  # 這個(gè)文件自己去上篇博客找,或者去github找
import threading
import time
import json
import re

img_list = []
imgs_lock = threading.Lock()  #圖片操作鎖

# 生產(chǎn)者類(lèi)
class Product(threading.Thread):

    def __init__(self):
        threading.Thread.__init__(self)

        self.__headers = {"Referer":"http://image.fengniao.com/",
                          "Host": "image.fengniao.com",
                          "X-Requested-With":"XMLHttpRequest"
                          }
        #鏈接模板
        self.__start = "http://image.fengniao.com/index.php?action=getList&class_id=192&sub_classid=0&page={}&not_in_id={}"
        self.__res = R(headers=self.__headers)

    def run(self):

        # 因?yàn)椴恢姥h(huán)次數(shù),所有采用while循環(huán)
        index = 2 #起始頁(yè)碼設(shè)置為1
        not_in = "5352384,5352410"
        while True:
            url  = self.__start.format(index,not_in)
            print("開(kāi)始操作:{}".format(url))
            index += 1

            content = self.__res.get_content(url,charset="gbk")

            if content is None:
                print("數(shù)據(jù)可能已經(jīng)沒(méi)有了====")
                continue

            time.sleep(3)  # 睡眠3秒
            json_content = json.loads(content)

            if json_content["status"] == 1:
                for item in json_content["data"]:
                    title = item["title"]
                    child_url =  item["url"]   # 獲取到鏈接之后

                    img_content = self.__res.get_content(child_url,charset="gbk")

                    pattern = re.compile('"pic_url_1920_b":"(.*?)"')
                    imgs_json = pattern.findall(img_content)
                    if len(imgs_json) > 0:

                        if imgs_lock.acquire():
                            img_list.append({"title":title,"urls":imgs_json})   # 這個(gè)地方,我用的是字典+列表的方式,主要是想后面生成文件夾用,你可以進(jìn)行改造
                            imgs_lock.release()

上面的鏈接已經(jīng)生成,下面就是下載圖片了,也非常簡(jiǎn)單

# 消費(fèi)者
class Consumer(threading.Thread):
    def __init__(self):
        threading.Thread.__init__(self)
        self.__res = R()

    def run(self):

        while True:
            if len(img_list) <= 0:
                continue  # 進(jìn)入下一次循環(huán)

            if imgs_lock.acquire():

                data = img_list[0]
                del img_list[0]  # 刪除第一項(xiàng)

                imgs_lock.release()

            urls =[url.replace("\\","") for url in data["urls"]]

            # 創(chuàng)建文件目錄
            for item_url in urls:
               try:
                   file =  self.__res.get_file(item_url)
                   # 記得在項(xiàng)目根目錄先把fengniaos文件夾創(chuàng)建完畢
                   with open("./fengniaos/{}".format(str(time.time())+".jpg"), "wb+") as f:
                       f.write(file)
               except Exception as e:
                   print(e)
Python資源分享qun 784758214 ,內(nèi)有安裝包,PDF,學(xué)習(xí)視頻,這里是Python學(xué)習(xí)者的聚集地,零基礎(chǔ),進(jìn)階,都?xì)g迎

代碼走起,結(jié)果

Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一

網(wǎng)頁(yè)題目:Python爬蟲(chóng)入門(mén)【6】:蜂鳥(niǎo)網(wǎng)圖片爬取之一
鏈接地址:http://muchs.cn/article14/gdsjge.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站營(yíng)銷(xiāo)、Google、定制開(kāi)發(fā)、網(wǎng)站內(nèi)鏈、網(wǎng)站維護(hù)全網(wǎng)營(yíng)銷(xiāo)推廣

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶(hù)投稿、用戶(hù)轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

微信小程序開(kāi)發(fā)