Python3網絡爬蟲實戰(zhàn)-17、爬蟲基本原理

爬蟲,即網絡爬蟲,我們可以把互聯(lián)網就比作一張大網,而爬蟲便是在網上爬行的蜘蛛,我們可以把網的節(jié)點比做一個個網頁,爬蟲爬到這就相當于訪問了該頁面獲取了其信息,節(jié)點間的連線可以比做網頁與網頁之間的鏈接關系,這樣蜘蛛通過一個節(jié)點后可以順著節(jié)點連線繼續(xù)爬行到達下一個節(jié)點,即通過一個網頁繼續(xù)獲取后續(xù)的網頁,這樣整個網的節(jié)點便可以被蜘蛛全部爬行到,這樣網站的數據就可以被抓取下來了。

公司主營業(yè)務:做網站、網站設計、移動網站開發(fā)等業(yè)務。幫助企業(yè)客戶真正實現互聯(lián)網宣傳,提高企業(yè)的競爭能力。創(chuàng)新互聯(lián)公司是一支青春激揚、勤奮敬業(yè)、活力青春激揚、勤奮敬業(yè)、活力澎湃、和諧高效的團隊。公司秉承以“開放、自由、嚴謹、自律”為核心的企業(yè)文化,感謝他們對我們的高要求,感謝他們從不同領域給我們帶來的挑戰(zhàn),讓我們激情的團隊有機會用頭腦與智慧不斷的給客戶帶來驚喜。創(chuàng)新互聯(lián)公司推出眉山免費做網站回饋大家。

1. 爬蟲概述

可能上面的說明還是難以具體地描述爬蟲究竟是個什么,簡單來說,爬蟲就是獲取網頁并提取和保存信息的自動化程序,接下來對各個點進行說明:

獲取網頁

爬蟲首先要做的工作就是獲取網頁,在這里獲取網頁即獲取網頁的源代碼,源代碼里面必然包含了網頁的部分有用的信息,所以只要把源代碼獲取下來了,就可以從中提取我們想要的信息了。

在前面我們講到了 Request 和 Response 的概念,我們向網站的服務器發(fā)送一個 Request,返回的 Response 的 Body 便是網頁源代碼。所以最關鍵的部分就是構造一個 Request 并發(fā)送給服務器,然后接收到 Response 并將其解析出來,那這個流程可以怎樣來實現呢?總不能手工去截取網頁源碼把?

不用擔心,Python 里面提供了許多庫來幫助我們實現這個操作,如 Urllib、Requests 等,我們可以用這些庫來幫助我們實現 HTTP 請求操作,Request 和 Response 都可以用類庫提供的數據結構來表示,得到 Response 之后只需要解析數據結構中的 Body 部分即可,即得到網頁的源代碼,這樣我們可以用程序來實現獲取網頁的過程了。
提取信息

我們在第一步獲取了網頁源代碼之后,接下來的工作就是分析網頁源代碼,從中提取我們想要的數據,首先最通用的方法便是采用正則表達式提取,這是一個萬能的方法,但是在構造正則表達式的時候比較復雜且容易出錯。

另外由于網頁的結構是有一定規(guī)則的,所以還有一些根據網頁節(jié)點屬性、CSS 選擇器或 XPath 來提取網頁信息的庫,如 BeautifulSoup、PyQuery、LXML 等,使用這些庫可以高效快速地從中提取網頁信息,如節(jié)點的屬性、文本值等內容。

提取信息是爬蟲非常重要的部分,它可以使雜亂的數據變得清晰條理,以便于我們后續(xù)在對數據進行處理和分析。

保存數據

提取信息之后我們一般會將提取到的數據保存到某處以便后續(xù)數據處理使用。保存形式有多種多樣,如可以簡單保存為 TXT 文本或 Json 文本,也可以保存到數據庫,如 MySQL、MongoDB 等,也可保存至遠程服務器,如借助 Sftp 進行操作等。

自動化程序

說到自動化程序,意思即是說爬蟲可以代替人來完成這些操作。首先我們手工當然是可以提取這些信息的,但是當量特別大或者想快速獲取大量數據的話,肯定還是借助于程序。所以爬蟲就是代替我們來完成這份爬取數據的工作的自動化程序,它可以在抓取過程中進行各種異常處理、錯誤重試等操作,確保爬取持續(xù)高效地運行。

2. 能抓怎樣的數據

在網頁中我們能看到各種各樣的信息,最常見的便是常規(guī)網頁,其都對應著 HTML 代碼,而最常見的抓取便是抓取 HTML 源代碼。

另外可能有些網頁返回的不是 HTML 代碼,而是返回一個 Json 字符串,API 接口大多采用這樣的形式,方便數據的傳輸和解析,這種數據同樣可以抓取,而且數據提取更加方便。

此外我們還可以看到各種二進制數據,如圖片、視頻、音頻等等,我們可以利用爬蟲將它們的二進制數據抓取下來,然后保存成對應的文件名即可。

另外我們還可以看到各種擴展名的文件,如 CSS、JavaScript、配置文件等等,這些其實也是最普通的文件,只要在瀏覽器里面訪問到,我們就可以將其抓取下來。

以上的內容其實都對應著各自的URL,是基于 HTTP 或 HTTPS 協(xié)議的,只要是這種數據爬蟲都可以進行抓取。

3. JavaScript渲染頁面

有時候我們在用 Urllib 或 Requests 抓取網頁時,得到的源代碼實際和瀏覽器中看到的是不一樣的。

這個問題是一個非常常見的問題,現在網頁越來越多地采用 Ajax、前端模塊化工具來構建網頁,整個網頁可能都是由 JavaScript 渲染出來的,意思就是說原始的 HTML 代碼就是一個空殼,例如:

<!DOCTYPE html>
<html>
    <head>
        <meta charset="UTF-8">
        <title>This is a Demo</title>
    </head>
    <body>
        <div id="container">
        </div>
    </body>
    <script src="app.js"></script>
</html>
Python資源分享qun 784758214 ,內有安裝包,PDF,學習視頻,這里是Python學習者的聚集地,零基礎,進階,都歡迎

body 節(jié)點里面只有一個 id 為 container 的節(jié)點,但是注意到在 body 節(jié)點后引入了一個 app.js,這個便負責了整個網站的渲染。

在瀏覽器打開這個頁面時,首先會加載這個 HTML 內容,接著瀏覽器會發(fā)現其中里面引入了一個 app.js 文件,然后瀏覽器便會接著去請求這個文件,獲取到該文件之后便會執(zhí)行其中的 JavaScript 代碼,而 JavaScript 則會改變 HTML 中的節(jié)點,向內添加內容,最后得到完整的頁面。

但是在用 Urllib 或 Requests 等庫來請求當前頁面時,我們得到的只是這個 HTML 代碼,它不會幫助我們去繼續(xù)加載這個 JavaScript 文件,這樣也就看不到瀏覽器中看到的內容了。

這也解釋了為什么有時我們得到的源代碼和瀏覽器中看到的是不一樣的。

所以使用基本 HTTP 請求庫得到的結果源代碼可能跟瀏覽器中的頁面源代碼不太一樣。對于這樣的情況,我們可以分析其后臺 Ajax 接口,也可使用 Selenium、Splash 這樣的庫來實現模擬 JavaScript 渲染,這樣我們便可以爬取 JavaScript 渲染的網頁的內容了。

在后文我們會詳細介紹對于 JavaScript 渲染的網頁的采集方法。

4. 結語

本節(jié)介紹了爬蟲的一些基本原理,了解了如上內容可以幫助我們在后面編寫爬蟲的時候更加得心應手。

名稱欄目:Python3網絡爬蟲實戰(zhàn)-17、爬蟲基本原理
當前路徑:http://muchs.cn/article18/iehcgp.html

成都網站建設公司_創(chuàng)新互聯(lián),為您提供網站設計公司、服務器托管、軟件開發(fā)、外貿網站建設、微信小程序、網站排名

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

搜索引擎優(yōu)化