什么是Python中的mechanize模塊

這篇文章運(yùn)用簡單易懂的例子給大家介紹什么是Python中的mechanize模塊,代碼非常詳細(xì),感興趣的小伙伴們可以參考借鑒,希望對大家能有所幫助。

目前創(chuàng)新互聯(lián)已為成百上千家的企業(yè)提供了網(wǎng)站建設(shè)、域名、虛擬空間、網(wǎng)站托管、服務(wù)器托管、企業(yè)網(wǎng)站設(shè)計(jì)、睢陽網(wǎng)站維護(hù)等服務(wù),公司將堅(jiān)持客戶導(dǎo)向、應(yīng)用為本的策略,正道將秉承"和諧、參與、激情"的文化,與客戶和合作伙伴齊心協(xié)力一起成長,共同發(fā)展。

mechanize是對urllib2的部分功能的替換,能夠更好的模擬瀏覽器行為,在web訪問控制方面做得更全面。結(jié)合beautifulsoup和re模塊,可以有效的解析web頁面。

下面主要總結(jié)了使用mechanize模擬瀏覽器的行為和幾個(gè)例子(谷歌搜索,百度搜索和人人網(wǎng)登錄等)

1.初始化并建立一個(gè)瀏覽器對象

如果沒有mechanize需要easy_install安裝,以下代碼建立瀏覽器對象并作了一些初始化設(shè)置,實(shí)際使用過程可以按需開關(guān)。其實(shí)只用默認(rèn)的設(shè)置也可以完成基本任務(wù)。

#!/usr/bin/env python
import sys,mechanize
 
#Browser
br = mechanize.Browser()
 
#options
br.set_handle_equiv(True)
br.set_handle_gzip(True)
br.set_handle_redirect(True)
br.set_handle_referer(True)
br.set_handle_robots(False)
 
#Follows refresh 0 but not hangs on refresh > 0
br.set_handle_refresh(mechanize._http.HTTPRefreshProcessor(), max_time=1)
 
#debugging?
br.set_debug_http(True)
br.set_debug_redirects(True)
br.set_debug_responses(True)
 
#User-Agent (this is cheating, ok?)
br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')]

2.模擬瀏覽器行為

瀏覽器對象建立并初始化完畢之后即可使用了,下面給出幾個(gè)例子(代碼承接以上部分)

獲取web網(wǎng)頁:

分行打印可以逐個(gè)查看詳細(xì)信息,就不贅述

r = br.open(sys.argv[1])
html = r.read()
print html
print br.response().read()
print br.title()
print r.info()

模擬谷歌和百度查詢

打印和選擇forms,然后填寫相應(yīng)鍵值,通過post提交完成操作

for f in br.forms():
 print f
 
br.select_form(nr=0)

谷歌查詢football

br.form['q'] = 'football'
br.submit()
print br.response().read()

百度查詢football

br.form['wd'] = 'football'
br.submit()
print br.response().read()

相應(yīng)鍵值名,可以通過打印查出

回退(Back)

非常簡單的操作,打印url即可驗(yàn)證是否回退

# Back
br.back()
print br.geturl()

3.http基本認(rèn)證

br.add_password('http://xxx.com', 'username', 'password')
br.open('http://xxx.com')

4.form認(rèn)證

以登陸人人網(wǎng)為例,打印forms可以查出用戶名和密碼鍵信息

br.select_form(nr = 0)
br['email'] = username
br['password'] = password
resp = self.br.submit()

5.cookie支持

通過導(dǎo)入cookielib模塊,并設(shè)置瀏覽器cookie,可以在需要認(rèn)證的網(wǎng)絡(luò)行為之后不用重復(fù)認(rèn)證登陸。通過保存session cookie即可重新訪問,Cookie Jar完成了該功能。

#!/usr/bin/env python
import mechanize, cookielib
 
br = mechanize.Browser()
cj = cookielib.LWPCookieJar()
br.set_cookiejar()

6.proxy設(shè)置

設(shè)置http代理

#Proxy
br.set_proxies({"http":"proxy.com:8888"})
br.add_proxy_password("username", "password")
 
#Proxy and usrer/password
br.set_proxies({"http":"username:password@proxy.com:8888"})

7.關(guān)于內(nèi)存過高問題

在用mechanize寫了一個(gè)爬蟲腳本,想要去某網(wǎng)站爬取大概30萬張圖片。

整個(gè)過程是:

1、獲取目標(biāo)頁面地址

2、取得目標(biāo)地址前幾頁的所有圖片url

3、對這些url進(jìn)行下載,并把索引數(shù)據(jù)保存到MySQL數(shù)據(jù)庫。

這個(gè)腳本大概每秒鐘完成一張圖片的下載(主要是網(wǎng)絡(luò)只有200K/S左右,是瓶頸)

當(dāng)圖片下載到大約15000張左右的時(shí)候,發(fā)現(xiàn)越來越慢,最后干脆停下了。

用ps aux查看,發(fā)現(xiàn)進(jìn)程sleep。

free看一下,內(nèi)存竟然只剩下100M了(系統(tǒng)總內(nèi)存4GB)

問題發(fā)現(xiàn):mechanize默認(rèn)會(huì)保存模擬過的操作歷史,導(dǎo)致占用的內(nèi)存越來越大:

http://stackoverflow.com/questions/2393299/how-do-i-disable-history-in-python-mechanize-module

mechanize初始化Browser()的時(shí)候,如果你不給他傳一個(gè)history對象作為參數(shù),Browser()就會(huì)按照默認(rèn)的方式(允許保存操作歷史)來進(jìn)行初始化,你可以隨便傳個(gè)什么history給它即可,如自定義一個(gè)NoHistory對象:

class NoHistory(object): 
 def add(self, *a, **k): pass
 def clear(self): pass
  
b = mechanize.Browser(history=NoHistory())

關(guān)于什么是Python中的mechanize模塊就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺得文章不錯(cuò),可以把它分享出去讓更多的人看到。

文章題目:什么是Python中的mechanize模塊
標(biāo)題鏈接:http://muchs.cn/article36/ijsopg.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供外貿(mào)網(wǎng)站建設(shè)靜態(tài)網(wǎng)站、網(wǎng)站建設(shè)云服務(wù)器、全網(wǎng)營銷推廣、商城網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

成都網(wǎng)站建設(shè)公司