如何安裝Python3爬蟲利器Scrapy-Splash

這篇文章將為大家詳細講解有關如何安裝Python3爬蟲利器Scrapy-Splash,小編覺得挺實用的,因此分享給大家做個參考,希望大家閱讀完這篇文章后可以有所收獲。

目前成都創(chuàng)新互聯(lián)已為近千家的企業(yè)提供了網(wǎng)站建設、域名、網(wǎng)絡空間、網(wǎng)站運營、企業(yè)網(wǎng)站設計、凌河網(wǎng)站維護等服務,公司將堅持客戶導向、應用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長,共同發(fā)展。

Scrapy-Splash是一個Scrapy中支持JavaScript渲染的工具,本節(jié)來介紹它的安裝方式。

Scrapy-Splash的安裝分為兩部分。一個是Splash服務的安裝,具體是通過Docker,安裝之后,會啟動一個Splash服務,我們可以通過它的接口來實現(xiàn)JavaScript頁面的加載。另外一個是Scrapy-Splash的Python庫的安裝,安裝之后即可在Scrapy中使用Splash服務。

1. 相關鏈接

GitHub:https://github.com/scrapy-plugins/scrapy-splash

PyPI:https://pypi.python.org/pypi/scrapy-splash

使用說明:https://github.com/scrapy-plugins/scrapy-splash#configuration

Splash官方文檔:http://splash.readthedocs.io

2. 安裝Splash

Scrapy-Splash會使用Splash的HTTP API進行頁面渲染,所以我們需要安裝Splash來提供渲染服務。這里通過Docker安裝,在這之前請確保已經(jīng)正確安裝好了Docker。

安裝命令如下:

docker run -p 8050:8050 scrapinghub/splash

安裝完成之后,會有類似的輸出結果:

2017-07-03 08:53:28+0000 [-] Log opened.
2017-07-03 08:53:28.447291 [-] Splash version: 3.0
2017-07-03 08:53:28.452698 [-] Qt 5.9.1, PyQt 5.9, WebKit 602.1, sip 4.19.3, Twisted 16.1.1, Lua 5.2
2017-07-03 08:53:28.453120 [-] Python 3.5.2 (default, Nov 17 2016, 17:05:23) [GCC 5.4.0 20160609]
2017-07-03 08:53:28.453676 [-] Open files limit: 1048576
2017-07-03 08:53:28.454258 [-] Can't bump open files limit
2017-07-03 08:53:28.571306 [-] Xvfb is started: ['Xvfb', ':1599197258', '-screen', '0', '1024x768x24', '-nolisten', 
'tcp']
QStandardPaths: XDG_RUNTIME_DIR not set, defaulting to '/tmp/runtime-root'
2017-07-03 08:53:29.041973 [-] proxy profiles support is enabled, proxy profiles path: /etc/splash/proxy-profiles
2017-07-03 08:53:29.315445 [-] verbosity=1
2017-07-03 08:53:29.315629 [-] slots=50
2017-07-03 08:53:29.315712 [-] argument_cache_max_entries=500
2017-07-03 08:53:29.316564 [-] Web UI: enabled, Lua: enabled (sandbox: enabled)
2017-07-03 08:53:29.317614 [-] Site starting on 8050
2017-07-03 08:53:29.317801 [-] Starting factory <twisted.web.server.Site object at 0x7ffaa4a98cf8>

這樣就證明Splash已經(jīng)在8050端口上運行了。這時我們打開http://localhost:8050,即可看到Splash的主頁,如圖1-80所示。

如何安裝Python3爬蟲利器Scrapy-Splash

圖1-80 運行頁面

當然,Splash也可以直接安裝在遠程服務器上。我們在服務器上以守護態(tài)運行Splash即可,命令如下:

docker run -d -p 8050:8050 scrapinghub/splash

這里多了-d參數(shù),它代表將Docker容器以守護態(tài)運行,這樣在中斷遠程服務器連接后,不會終止Splash服務的運行。

3. Scrapy-Splash的安裝

成功安裝Splash之后,接下來再來安裝其Python庫,命令如下:

pip3 install scrapy-splash

命令運行完畢后,就會成功安裝好此庫,后面會詳細介紹它的用法。

關于如何安裝Python3爬蟲利器Scrapy-Splash就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學到更多知識。如果覺得文章不錯,可以把它分享出去讓更多的人看到。

網(wǎng)站欄目:如何安裝Python3爬蟲利器Scrapy-Splash
分享URL:http://muchs.cn/article40/jpggeo.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供定制網(wǎng)站、云服務器小程序開發(fā)、商城網(wǎng)站動態(tài)網(wǎng)站、App開發(fā)

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉載內(nèi)容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

搜索引擎優(yōu)化