Python爬蟲開發(fā)的3大難題,別上了賊船才發(fā)現(xiàn),水有多深

寫爬蟲,是一個非常考驗綜合實力的活兒。有時候,你輕而易舉地就抓取到了想要的數(shù)據(jù);有時候,你費盡心思卻毫無所獲。

創(chuàng)新互聯(lián)建站專注于徽州企業(yè)網(wǎng)站建設,響應式網(wǎng)站開發(fā),商城網(wǎng)站開發(fā)。徽州網(wǎng)站建設公司,為徽州等地區(qū)提供建站服務。全流程按需求定制制作,專業(yè)設計,全程項目跟蹤,創(chuàng)新互聯(lián)建站專業(yè)和態(tài)度為您提供的服務

好多Python爬蟲的入門教程都是一行代碼就把你騙上了“賊船”,等上了賊船才發(fā)現(xiàn),水好深~
比如爬取一個網(wǎng)頁可以是很簡單的一行代碼:

r = requests.get('http://news.baidu.com')

非常的簡單,但它的作用也僅僅是 爬取一個網(wǎng)頁 ,而一個有用的爬蟲遠遠不止于 爬取一個網(wǎng)頁 。

一個有用的爬蟲,只需兩個詞來衡量:

  • 數(shù)量:能否抓全所有該類數(shù)據(jù)
  • 效率:抓完所有數(shù)據(jù)需要多久一天還是一個月

但要做到這兩個詞,卻是要下很多功夫。自己下功夫是一方面,也很重要的是你要抓全的目標網(wǎng)站給你出了多少難題。綜合起來,就寫一個爬蟲有多少難度。

網(wǎng)絡爬蟲難度一:只需爬取html網(wǎng)頁但要上規(guī)模

這里我們舉個新聞爬蟲的例子。大家都用過百度的新聞搜索吧,我就拿它的爬蟲來講講實現(xiàn)上的難度。

新聞網(wǎng)站基本上不設防,新聞內(nèi)容都在網(wǎng)頁的html代碼里了,抓全一個網(wǎng)頁基本上就是一行的事情。似乎聽上去很簡單,但對于一個搜索引擎級的爬蟲,就不那么簡單了,要把幾千幾萬家新聞網(wǎng)站的新聞都及時抓取到也不是一件容易的事情。

我們先看看新聞爬蟲的簡單流程圖:

Python爬蟲開發(fā)的3大難題,別上了賊船才發(fā)現(xiàn),水有多深

從一些種子網(wǎng)頁開始,種子網(wǎng)頁往往是一些新聞網(wǎng)站的首頁,爬蟲抓取網(wǎng)頁,從中提取網(wǎng)站URL放到網(wǎng)址池再進行抓取。這樣就從幾個網(wǎng)頁開始,不斷擴展到其它網(wǎng)頁。爬蟲抓取的網(wǎng)頁也越來越多,提取出的新網(wǎng)網(wǎng)址也會成幾何級數(shù)增長。

如何能在最短時間抓取更多網(wǎng)址?

這就是其中一個難度,這不是目標網(wǎng)址帶來的,而是對我們自身自愿的考驗:

  • 我們的帶寬夠嗎
  • 我們的服務器夠嗎,單臺不夠就要分布式

如何能及時抓取到最新的新聞?

這是效率之外的另一個難度,如何保證及時性?幾千家新聞網(wǎng)站,時刻都在發(fā)布最新新聞,爬蟲在織網(wǎng)式抓取“舊”新聞的同時,如何兼顧獲取“新”新聞呢?

如何存儲抓取到的海量新聞?

爬蟲織網(wǎng)式的爬取,會把每個網(wǎng)站幾年前幾十年前的新聞網(wǎng)頁都給翻出來,從而獲得海量的網(wǎng)頁需要存儲。就是存儲上的難度。

如何清理提取網(wǎng)內(nèi)容?

從新聞網(wǎng)頁的html里面快速、準確提取想要的信息數(shù)據(jù),比如標題、發(fā)布時間、正文內(nèi)容等,這又帶來內(nèi)容提取上的難度。

網(wǎng)絡爬蟲難度二:需要登錄才能抓到想要的數(shù)據(jù)

人是貪婪的,想要的數(shù)據(jù)無窮盡,但是很多數(shù)據(jù)不是你輕易就可以獲得的。有一大類數(shù)據(jù)就是需要賬戶登錄后才能看到,也就是說,爬蟲請求時必須是登錄狀態(tài)才能抓取數(shù)據(jù)。

如何獲取登錄狀態(tài)?

前面已經(jīng)說過了,http協(xié)議的性質(zhì)決定了登錄狀態(tài)就是一些cookies,那么如何獲得登錄狀態(tài)就是一個非常有難度的問題。
有些網(wǎng)站登錄過程很簡單,把賬戶、密碼發(fā)給服務器,服務器驗證通過返回表示已登錄的cookies。這樣的網(wǎng)站,比較容易實現(xiàn)自動登錄,爬蟲運行過程全程無需人工干預,你就有更多時間喝茶、聊天

如何處理驗證碼?

然而,網(wǎng)站們既然要求你登錄了,他們就不會這么輕易放過你,要做的更絕才能讓小猿們善罷甘休,那就是上驗證碼!
沒錯,就是變態(tài)的驗證碼??!作為見多識廣的老猿,我還是經(jīng)常識別不出驗證碼,慚愧慚愧。

據(jù)說,有人雇了一批大媽,進行人工識別驗證碼;也有,通過圖像處理技術(shù),尤其如今火熱的深度學習、人工智能的技術(shù),來自動識別驗證碼。

那么,當你寫爬蟲時遇到驗證碼該怎么辦?

網(wǎng)絡爬蟲難度三:ajax異步加載甚至JavaScript解密

前面的兩個難度,都是靠我們研究數(shù)據(jù)加載過程,然后用Python代碼可以重現(xiàn)出來,進行抓取的。

而遇到達第三個難度時,研究數(shù)據(jù)加載過程會讓你十分痛苦、近乎崩潰。異步加載流程和服務器來來回回好多次,最后得到的數(shù)據(jù)還要通過JavaScript解密才能看到,這都是壓垮爬蟲者的最后一根稻草。

網(wǎng)站題目:Python爬蟲開發(fā)的3大難題,別上了賊船才發(fā)現(xiàn),水有多深
文章源于:http://muchs.cn/article46/pdpjeg.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供ChatGPT、動態(tài)網(wǎng)站、品牌網(wǎng)站建設、服務器托管網(wǎng)站改版、虛擬主機

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

h5響應式網(wǎng)站建設