Python2爬蟲中Urllib庫(kù)的使用方法

這篇文章給大家分享的是有關(guān)Python2爬蟲中Urllib庫(kù)的使用方法的內(nèi)容。小編覺(jué)得挺實(shí)用的,因此分享給大家做個(gè)參考。一起跟隨小編過(guò)來(lái)看看吧。

創(chuàng)新互聯(lián)建站成都網(wǎng)站建設(shè)按需設(shè)計(jì),是成都網(wǎng)站制作公司,為垃圾桶提供網(wǎng)站建設(shè)服務(wù),有成熟的網(wǎng)站定制合作流程,提供網(wǎng)站定制設(shè)計(jì)服務(wù):原型圖制作、網(wǎng)站創(chuàng)意設(shè)計(jì)、前端HTML5制作、后臺(tái)程序開(kāi)發(fā)等。成都網(wǎng)站建設(shè)熱線:18982081108

那么接下來(lái),小伙伴們就一起和我真正邁向我們的爬蟲之路吧。

1.分分鐘扒一個(gè)網(wǎng)頁(yè)下來(lái)

怎樣扒網(wǎng)頁(yè)呢?其實(shí)就是根據(jù)URL來(lái)獲取它的網(wǎng)頁(yè)信息,雖然我們?cè)跒g覽器中看到的是一幅幅優(yōu)美的畫面,但是其實(shí)是由瀏覽器解釋才呈現(xiàn)出來(lái)的,實(shí)質(zhì)它是一段HTML代碼,加 JS、CSS,如果把網(wǎng)頁(yè)比作一個(gè)人,那么HTML便是他的骨架,JS便是他的肌肉,CSS便是它的衣服。所以最重要的部分是存在于HTML中的,下面我們就寫個(gè)例子來(lái)扒一個(gè)網(wǎng)頁(yè)下來(lái)。

import urllib2
response = urllib2.urlopen("http://www.baidu.com")
print response.read()

是的你沒(méi)看錯(cuò),真正的程序就兩行,把它保存成 demo.py,進(jìn)入該文件的目錄,執(zhí)行如下命令查看運(yùn)行結(jié)果,感受一下。

python demo.py

Python2爬蟲中Urllib庫(kù)的使用方法

看,這個(gè)網(wǎng)頁(yè)的源碼已經(jīng)被我們扒下來(lái)了,是不是很酸爽?

2.分析扒網(wǎng)頁(yè)的方法

那么我們來(lái)分析這兩行代碼,第一行

response = urllib2.urlopen("http://www.baidu.com")

首先我們調(diào)用的是urllib2庫(kù)里面的urlopen方法,傳入一個(gè)URL,這個(gè)網(wǎng)址是百度首頁(yè),協(xié)議是HTTP協(xié)議,當(dāng)然你也可以把HTTP換做FTP,FILE,HTTPS 等等,只是代表了一種訪問(wèn)控制協(xié)議,urlopen一般接受三個(gè)參數(shù),它的參數(shù)如下:

urlopen(url, data, timeout)

第一個(gè)參數(shù)url即為URL,第二個(gè)參數(shù)data是訪問(wèn)URL時(shí)要傳送的數(shù)據(jù),第三個(gè)timeout是設(shè)置超時(shí)時(shí)間。

第二三個(gè)參數(shù)是可以不傳送的,data默認(rèn)為空None,timeout默認(rèn)為 socket._GLOBAL_DEFAULT_TIMEOUT

第一個(gè)參數(shù)URL是必須要傳送的,在這個(gè)例子里面我們傳送了百度的URL,執(zhí)行urlopen方法之后,返回一個(gè)response對(duì)象,返回信息便保存在這里面。

print response.read()

response對(duì)象有一個(gè)read方法,可以返回獲取到的網(wǎng)頁(yè)內(nèi)容。

如果不加read直接打印會(huì)是什么?答案如下:

<addinfourl at 139728495260376 whose fp = <socket._fileobject object at 0x7f1513fb3ad0>>

直接打印出了該對(duì)象的描述,所以記得一定要加read方法,否則它不出來(lái)內(nèi)容可就不怪我咯!

3.構(gòu)造Request

其實(shí)上面的urlopen參數(shù)可以傳入一個(gè)request請(qǐng)求,它其實(shí)就是一個(gè)Request類的實(shí)例,構(gòu)造時(shí)需要傳入U(xiǎn)rl,Data等等的內(nèi)容。比如上面的兩行代碼,我們可以這么改寫

import urllib2
request = urllib2.Request("http://www.baidu.com")
response = urllib2.urlopen(request)
print response.read()

運(yùn)行結(jié)果是完全一樣的,只不過(guò)中間多了一個(gè)request對(duì)象,推薦大家這么寫,因?yàn)樵跇?gòu)建請(qǐng)求時(shí)還需要加入好多內(nèi)容,通過(guò)構(gòu)建一個(gè)request,服務(wù)器響應(yīng)請(qǐng)求得到應(yīng)答,這樣顯得邏輯上清晰明確。

4.POST和GET數(shù)據(jù)傳送

上面的程序演示了最基本的網(wǎng)頁(yè)抓取,不過(guò),現(xiàn)在大多數(shù)網(wǎng)站都是動(dòng)態(tài)網(wǎng)頁(yè),需要你動(dòng)態(tài)地傳遞參數(shù)給它,它做出對(duì)應(yīng)的響應(yīng)。所以,在訪問(wèn)時(shí),我們需要傳遞數(shù)據(jù)給它。最常見(jiàn)的情況是什么?對(duì)了,就是登錄注冊(cè)的時(shí)候呀。

把數(shù)據(jù)用戶名和密碼傳送到一個(gè)URL,然后你得到服務(wù)器處理之后的響應(yīng),這個(gè)該怎么辦?下面讓我來(lái)為小伙伴們揭曉吧!

數(shù)據(jù)傳送分為POST和GET兩種方式,兩種方式有什么區(qū)別呢?

最重要的區(qū)別是GET方式是直接以鏈接形式訪問(wèn),鏈接中包含了所有的參數(shù),當(dāng)然如果包含了密碼的話是一種不安全的選擇,不過(guò)你可以直觀地看到自己提交了什么內(nèi)容。POST則不會(huì)在網(wǎng)址上顯示所有的參數(shù),不過(guò)如果你想直接查看提交了什么就不太方便了,大家可以酌情選擇。

POST方式:

上面我們說(shuō)了data參數(shù)是干嘛的?對(duì)了,它就是用在這里的,我們傳送的數(shù)據(jù)就是這個(gè)參數(shù)data,下面演示一下POST方式。

import urllib
import urllib2
values = {"username":"1016903103@qq.com","password":"XXXX"}
data = urllib.urlencode(values) 
url = "https://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn"
request = urllib2.Request(url,data)
response = urllib2.urlopen(request)
print response.read()

我們引入了urllib庫(kù),現(xiàn)在我們模擬登陸CSDN,當(dāng)然上述代碼可能登陸不進(jìn)去,因?yàn)镃SDN還有個(gè)流水號(hào)的字段,沒(méi)有設(shè)置全,比較復(fù)雜在這里就不寫上去了,在此只是說(shuō)明登錄的原理。一般的登錄網(wǎng)站一般是這種寫法。

我們需要定義一個(gè)字典,名字為values,參數(shù)我設(shè)置了username和password,下面利用urllib的urlencode方法將字典編碼,命名為data,構(gòu)建request時(shí)傳入兩個(gè)參數(shù),url和data,運(yùn)行程序,返回的便是POST后呈現(xiàn)的頁(yè)面內(nèi)容。

注意上面字典的定義方式還有一種,下面的寫法是等價(jià)的

import urllib
import urllib2
values = {}
values['username'] = "1016903103@qq.com"
values['password'] = "XXXX"
data = urllib.urlencode(values) 
url = "http://passport.csdn.net/account/login?from=http://my.csdn.net/my/mycsdn"
request = urllib2.Request(url,data)
response = urllib2.urlopen(request)
print response.read()

以上方法便實(shí)現(xiàn)了POST方式的傳送

GET方式:

至于GET方式我們可以直接把參數(shù)寫到網(wǎng)址上面,直接構(gòu)建一個(gè)帶參數(shù)的URL出來(lái)即可。

import urllib
import urllib2
values={}
values['username'] = "1016903103@qq.com"
values['password']="XXXX"
data = urllib.urlencode(values) 
url = "http://passport.csdn.net/account/login"
geturl = url + "?"+data
request = urllib2.Request(geturl)
response = urllib2.urlopen(request)
print response.read()

你可以print geturl,打印輸出一下url,發(fā)現(xiàn)其實(shí)就是原來(lái)的url加?然后加編碼后的參數(shù)

http://passport.csdn.net/account/login?username=1016903103%40qq.com&password=XXXX

和我們平常GET訪問(wèn)方式一模一樣,這樣就實(shí)現(xiàn)了數(shù)據(jù)的GET方式傳送。

感謝各位的閱讀!關(guān)于Python2爬蟲中Urllib庫(kù)的使用方法就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,讓大家可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到吧!

網(wǎng)站欄目:Python2爬蟲中Urllib庫(kù)的使用方法
鏈接地址:http://muchs.cn/article20/gdehco.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供軟件開(kāi)發(fā)、App設(shè)計(jì)自適應(yīng)網(wǎng)站、微信公眾號(hào)網(wǎng)站策劃、網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來(lái)源: 創(chuàng)新互聯(lián)

網(wǎng)站托管運(yùn)營(yíng)