scrapy怎么在python分布式爬蟲中構(gòu)建?-創(chuàng)新互聯(lián)

這篇文章主要介紹scrapy怎么在python分布式爬蟲中構(gòu)建?,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

創(chuàng)新互聯(lián)2013年開創(chuàng)至今,是專業(yè)互聯(lián)網(wǎng)技術(shù)服務(wù)公司,擁有項目成都網(wǎng)站設(shè)計、做網(wǎng)站網(wǎng)站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元巴南做網(wǎng)站,已為上家服務(wù),為巴南各地企業(yè)和個人服務(wù),聯(lián)系電話:18980820575

Scrapy

在Ubuntu安裝Scrapy的步驟為:打開終端 >> 在終端輸入命令:pip install scrapy >> 在終端輸入命令:scrapy version >> 成功輸出 Scrapy版本號則證明成功安裝。

scrapy怎么在python分布式爬蟲中構(gòu)建?


各模塊作用

1. items

爬蟲抓取數(shù)據(jù)的工作實際上是從非結(jié)構(gòu)化數(shù)據(jù)(網(wǎng)頁)中提取出結(jié)構(gòu)化數(shù)據(jù)。雖然Scrapy框架爬蟲可以將提取到的數(shù)據(jù)以Python字典 的形式返回,但是由于Python字典缺少結(jié)構(gòu),所以很容易發(fā)生返回數(shù)據(jù)不一致亦或者名稱拼寫的錯誤,若是Scrapy爬蟲項目中包含復 數(shù)以上的爬蟲則發(fā)生錯誤的機率將更大。因此,Scrapy框架提供了一個items模塊來定義公共的輸出格式,其中的Item對象是一個用于 收集Scrapy爬取的數(shù)據(jù)的簡單容器。

2. Downloader Middleware

Downloader Middleware是一個Scrapy能全局處理Response和Request的、微型的系統(tǒng)。Downloader Middleware中定義的Downloader Middleware設(shè)有優(yōu)先級順序,優(yōu)先級數(shù)字越低,則優(yōu)先級越高,越先執(zhí)行。在本次分布式爬蟲中,我們定義了兩個Downloader Middleware,一個用于隨機選擇爬蟲程序執(zhí)行時的User-Agent,一個用于隨機選擇爬蟲程序執(zhí)行時的IP地址。

3. settings

settings模塊用于用戶自定義Scrapy框架中Pipeline、Middleware、Spider等所有組件的所有動作,且可自定義變量或者日志動作。

以上是“scrapy怎么在python分布式爬蟲中構(gòu)建?”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

分享題目:scrapy怎么在python分布式爬蟲中構(gòu)建?-創(chuàng)新互聯(lián)
文章路徑:http://muchs.cn/article38/heepp.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站改版定制網(wǎng)站、網(wǎng)站導航、軟件開發(fā)、網(wǎng)站建設(shè)、全網(wǎng)營銷推廣

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都網(wǎng)頁設(shè)計公司