python爬蟲urlparse方法怎么用

這篇文章主要介紹python爬蟲urlparse方法怎么用,文中介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們一定要看完!

創(chuàng)新互聯(lián)主要從事成都做網(wǎng)站、網(wǎng)站設計、網(wǎng)頁設計、企業(yè)做網(wǎng)站、公司建網(wǎng)站等業(yè)務。立足成都服務鲅魚圈,十載網(wǎng)站建設經(jīng)驗,價格優(yōu)惠、服務專業(yè),歡迎來電咨詢建站服務:13518219792

1、可實現(xiàn)URL的識別和分段,使用urlparse()方法可拆分標準URL。

from urllib.parse import urlparse
result = urlparse('http://www.baidu.com/index.html;user?id=5#comment')
print(type(result), result)

這里我們利用urlparse()方法進行了一個URL的解析。首先,輸出了解析結(jié)果的類型,然后將結(jié)果也輸出出來。

運行結(jié)果如下:

ParseResult(scheme='http', netloc='www.baidu.com', path='/index.html', params='user', query='id=5', fragment='comment')

2、還有API用法,有三個參數(shù)。urlstring:是必填項,即待解析的URL。

scheme默認協(xié)議(如http或https)

from urllib.parse import urlparse
 
result = urlparse('www.baidu.com/index.html;user?id=5#comment', scheme='https')
print(result)

運行結(jié)果如下:

ParseResult(scheme='https', netloc='', path='www.baidu.com/index.html', params='user', query='id=5', fragment='comment')

以上是“python爬蟲urlparse方法怎么用”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!

網(wǎng)站名稱:python爬蟲urlparse方法怎么用
本文URL:http://muchs.cn/article44/jpedee.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供ChatGPT、響應式網(wǎng)站、移動網(wǎng)站建設、搜索引擎優(yōu)化品牌網(wǎng)站設計、網(wǎng)站制作

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

綿陽服務器托管