Robot.txt用法詳解及robot.txt問題匯總

2023-05-03    分類: 網(wǎng)站建設

今天小編要分享的內(nèi)容就是文件優(yōu)化。做網(wǎng)站優(yōu)化的人應該都知道Robots.txt吧,我們可以通過它直接與搜索引擎蜘蛛對話,告訴蜘蛛哪些內(nèi)容可以抓取,哪些內(nèi)容不能抓取。這和我們今天要說的文件優(yōu)化相關(guān)。

一、站內(nèi)優(yōu)化

Robot.txt用法詳解及robot.txt問題匯總

(1)為什么設置Robots.txt?

在進行SEO操作的時候,我們需要告訴搜索引擎哪些頁面重要哪些頁面不重要,重要的頁面讓蜘蛛進行抓取,不重要的頁面進行屏蔽可以減少網(wǎng)站服務器的負擔。

(2)一些常見的問題和知識點

蜘蛛在發(fā)現(xiàn)一個網(wǎng)站的時候,是抓取網(wǎng)站的Robots.txt文件(當然官方上是這么說的,有時候也會出現(xiàn)不遵守的情況);

建議所有的網(wǎng)站都要設置Robots.txt文件,如果你認為網(wǎng)站上所有內(nèi)容都是重要的,你可以建立一個空的robots.txt文件;

(3)在robots.txt文件中設置網(wǎng)站地圖

你可以在robots.txt中添加網(wǎng)站的地圖,告訴蜘蛛網(wǎng)站地圖所在的地址。

(4)Robots.txt的順序

在蜘蛛?yún)f(xié)議中,Disallow與Allow是有順序的,這是一個非常重要的問題,如果設置錯誤可能會導致抓取錯誤。

引擎蜘蛛程序會根據(jù)個匹配成功的Allow或Disallow行確定是否訪問某個URL,一個例子可以讓你更清楚明白:

User-agent:*2.Allow:/seojc/bbs3.Disallow:/seojc/這個情況下,蜘蛛/seojc/bbs目錄可以正常抓取,但/seojc/目錄的文件無法抓取。通過這種方式可以允許蜘蛛訪問特定目錄中的部分url。

我們對調(diào)下位置觀察一下。

User-agent:*2.Disallow:/根目錄下的文件夾/3.Allow:/seojc/bbs/seojc/目錄出現(xiàn)在行,禁止抓取目錄下的所有文件,那么第二行的Allow就無效,因為行中已經(jīng)禁止抓取seojc目錄下的所有文件,而bbs目錄正好位于seowhy目錄下。因此匹配不成功。

(5)Robots.txt路徑問題

在蜘蛛?yún)f(xié)議中,Allow和Disallow后面可以跟兩種路徑形式,即鏈接、相對鏈接。鏈接就是完整的URL形式,而相對鏈接只針對根目錄。這是記住。

(6)斜杠問題

Disallow:/seojc表示禁止抓取seoic這個目錄下的所有文件,如:seojc.1.html、seojc/rmjc.php都不允許抓取;

Disallow:/seojc/表示禁止抓取seojc這個目錄下的文件,即允許抓取seojc.1.html,但是不允許抓取seojc/rmjc.php。

網(wǎng)站名稱:Robot.txt用法詳解及robot.txt問題匯總
文章分享:http://www.muchs.cn/news17/257867.html

成都網(wǎng)站建設公司_創(chuàng)新互聯(lián),為您提供云服務器、網(wǎng)頁設計公司網(wǎng)站導航、電子商務、軟件開發(fā)外貿(mào)建站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

網(wǎng)站托管運營