使用Scrapy框架時(shí)怎么應(yīng)對(duì)普通的反爬機(jī)制

這篇文章主要講解了“使用Scrapy框架時(shí)怎么應(yīng)對(duì)普通的反爬機(jī)制”,文中的講解內(nèi)容簡(jiǎn)單清晰,易于學(xué)習(xí)與理解,下面請(qǐng)大家跟著小編的思路慢慢深入,一起來研究和學(xué)習(xí)“使用Scrapy框架時(shí)怎么應(yīng)對(duì)普通的反爬機(jī)制”吧!

目前成都創(chuàng)新互聯(lián)公司已為1000+的企業(yè)提供了網(wǎng)站建設(shè)、域名、雅安服務(wù)器托管、網(wǎng)站托管、服務(wù)器托管、企業(yè)網(wǎng)站設(shè)計(jì)、潼南網(wǎng)站維護(hù)等服務(wù),公司將堅(jiān)持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長(zhǎng),共同發(fā)展。

header檢驗(yàn)

最簡(jiǎn)單的反爬機(jī)制,就是檢查HTTP請(qǐng)求的Headers信息,包括User-Agent, Referer、Cookies等。

User-Agent

User-Agent是檢查用戶所用客戶端的種類和版本,在Scrapy中,通常是在下載器中間件中進(jìn)行處理。比如在setting.py中建立一個(gè)包含很多瀏覽器User-Agent的列表,然后新建一個(gè)random_user_agent文件:

class RandomUserAgentMiddleware(object):     @classmethod     defprocess_request(cls, request, spider):         ua = random.choice(spider.settings['USER_AGENT_LIST'])         if ua:             request.headers.setdefault('User-Agent', ua)

這樣就可以在每次請(qǐng)求中,隨機(jī)選取一個(gè)真實(shí)瀏覽器的User-Agent。

Referer

Referer是檢查此請(qǐng)求由哪里來,通??梢宰鰣D片的盜鏈判斷。在Scrapy中,如果某個(gè)頁面url是通過之前爬取的頁面提取到,Scrapy會(huì)自動(dòng)把之前爬取的頁面url作為Referfer。也可以通過上面的方式自己定義Referfer字段。

Cookies

網(wǎng)站可能會(huì)檢測(cè)Cookie中session_id的使用次數(shù),如果超過限制,就觸發(fā)反爬策略。所以可以在Scrapy中設(shè)置 COOKIES_ENABLED =  False 讓請(qǐng)求不帶Cookies。

也有網(wǎng)站強(qiáng)制開啟Cookis,這時(shí)就要麻煩一點(diǎn)了??梢粤韺懸粋€(gè)簡(jiǎn)單的爬蟲,定時(shí)向目標(biāo)網(wǎng)站發(fā)送不帶Cookies的請(qǐng)求,提取響應(yīng)中Set-cookie字段信息并保存。爬取網(wǎng)頁時(shí),把存儲(chǔ)起來的Cookies帶入Headers中。

X-Forwarded-For

在請(qǐng)求頭中添加X-Forwarded-For字段,將自己申明為一個(gè)透明的代理服務(wù)器,一些網(wǎng)站對(duì)代理服務(wù)器會(huì)手軟一些。

X-Forwarded-For頭一般格式如下

X-Forwarded-For: client1, proxy1, proxy2

這里將client1,proxy1設(shè)置為隨機(jī)IP地址,把自己的請(qǐng)求偽裝成代理的隨機(jī)IP產(chǎn)生的請(qǐng)求。然而由于X-Forwarded-For可以隨意篡改,很多網(wǎng)站并不會(huì)信任這個(gè)值。

限制IP的請(qǐng)求數(shù)量

如果某一IP的請(qǐng)求速度過快,就觸發(fā)反爬機(jī)制。當(dāng)然可以通過放慢爬取速度繞過,這要以爬取時(shí)間大大增長(zhǎng)為代價(jià)。另一種方法就是添加代理。

很簡(jiǎn)單,在下載器中間件中添加:

request.meta['proxy'] = 'http://' + 'proxy_host' + ':' + proxy_port

然后再每次請(qǐng)求時(shí)使用不同的代理IP。然而問題是如何獲取大量的代理IP?

可以自己寫一個(gè)IP代理獲取和維護(hù)系統(tǒng),定時(shí)從各種披露免費(fèi)代理IP的網(wǎng)站爬取免費(fèi)IP代理,然后定時(shí)掃描這些IP和端口是否可用,將不可用的代理IP及時(shí)清理。這樣就有一個(gè)動(dòng)態(tài)的代理庫,每次請(qǐng)求再從庫中隨機(jī)選擇一個(gè)代理。然而這個(gè)方案的缺點(diǎn)也很明顯,開發(fā)代理獲取和維護(hù)系統(tǒng)本身就很費(fèi)時(shí)費(fèi)力,并且這種免費(fèi)代理的數(shù)量并不多,而且穩(wěn)定性都比較差。如果必須要用到代理,也可以去買一些穩(wěn)定的代理服務(wù)。這些服務(wù)大多會(huì)用到帶認(rèn)證的代理。

在requests庫中添加帶認(rèn)證的代理很簡(jiǎn)單,

proxies = {     "http": "http://user:pass@10.10.1.10:3128/", }

然而Scrapy不支持這種認(rèn)證方式,需要將認(rèn)證信息base64編碼后,加入Headers的Proxy-Authorization字段:

importbase64   # Set the location of the proxy proxy_string = choice(self._get_proxies_from_file('proxies.txt')) # user:pass@ip:port proxy_items = proxy_string.split('@') request.meta['proxy'] = "http://%s" % proxy_items[1]   # setup basic authentication for the proxy user_pass=base64.encodestring(proxy_items[0]) request.headers['Proxy-Authorization'] = 'Basic ' + user_pass

動(dòng)態(tài)加載

現(xiàn)在越來越多的網(wǎng)站使用ajax動(dòng)態(tài)加載內(nèi)容,這時(shí)候可以先截取ajax請(qǐng)求分析一下,有可能根據(jù)ajax請(qǐng)求構(gòu)造出相應(yīng)的API請(qǐng)求的URL就可以直接獲取想要的內(nèi)容,通常是json格式,反而還不用去解析HTML。

然而,很多時(shí)候ajax請(qǐng)求都會(huì)經(jīng)過后端鑒權(quán),不能直接構(gòu)造URL獲取。這時(shí)就可以通過PhantomJS+Selenium模擬瀏覽器行為,抓取經(jīng)過js渲染后的頁面。

需要注意的是,使用Selenium后,請(qǐng)求不再由Scrapy的Downloader執(zhí)行,所以之前添加的請(qǐng)求頭等信息都會(huì)失效,需要在Selenium中重新添加

headers = {...} for key, valuein headers.iteritems():     webdriver.DesiredCapabilities.PHANTOMJS['phantomjs.page.customHeaders.{}'.format(key)] = value

另外,調(diào)用PhantomJs需要指定PhantomJs的可執(zhí)行文件路徑,通常是將該路徑添加到系統(tǒng)的path路徑,讓程序執(zhí)行時(shí)自動(dòng)去path中尋找。我們的爬蟲經(jīng)常會(huì)放到crontab中定時(shí)執(zhí)行,而crontab中的環(huán)境變量和系統(tǒng)的環(huán)境變量不同,所以就加載不到PhamtonJs需要的路徑,所以***是在申明時(shí)指定路徑:

driver = webdriver.PhantomJS(executable_path='/usr/local/bin/phantomjs')

感謝各位的閱讀,以上就是“使用Scrapy框架時(shí)怎么應(yīng)對(duì)普通的反爬機(jī)制”的內(nèi)容了,經(jīng)過本文的學(xué)習(xí)后,相信大家對(duì)使用Scrapy框架時(shí)怎么應(yīng)對(duì)普通的反爬機(jī)制這一問題有了更深刻的體會(huì),具體使用情況還需要大家實(shí)踐驗(yàn)證。這里是創(chuàng)新互聯(lián),小編將為大家推送更多相關(guān)知識(shí)點(diǎn)的文章,歡迎關(guān)注!

新聞標(biāo)題:使用Scrapy框架時(shí)怎么應(yīng)對(duì)普通的反爬機(jī)制
網(wǎng)頁鏈接:http://muchs.cn/article26/ppjpjg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供服務(wù)器托管、網(wǎng)站排名、電子商務(wù)、微信小程序動(dòng)態(tài)網(wǎng)站、自適應(yīng)網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

成都app開發(fā)公司