怎樣寫好網(wǎng)站的robots.txt文件

2021-05-29    分類: 網(wǎng)站建設(shè)

做網(wǎng)站當(dāng)然希望搜索引擎抓取我們網(wǎng)站的內(nèi)容,但我們做SEO優(yōu)化SEO優(yōu)化時候并不希望所有的信息都公布于眾,比如后臺隱私,或者其它一些雜七雜八的信息。那么這時候我們就可以能過robots.txt文件來控制網(wǎng)站在搜索引擎中的展示,robots.txt是一個純文本文件,通過在這個文件中聲明該網(wǎng)站中不想被搜索引擎robots訪問的部分。


帶“*”的一種寫法:

User-agent: *

Disallow: /ad*

Allow: /ad/img/

Disallow: /*.php$

Disallow: /*.jsp$

Disallow: /*.css$


這種寫法允許所有蜘蛛訪問,但會限制以“ad”開頭的目錄及文件,并限制抓取.php文件、.jsp文件和.css文件。其中Disallow: /ad*會連同附件目錄(即你上傳的圖片、軟件等)一起限制抓取,如果想讓搜索引擎抓取img目錄中的內(nèi)容,需要將寫上第三行“Allow: /ad/img/“。


較合理的一種寫法:

User-agent: *

Disallow: /admin

Disallow: /content/plugins

Disallow: /content/themes

Disallow: /includes

Disallow: /?s

Sitemap:http://muchs.cn/


采用這種寫法允許所有搜索引擎抓取,并逐一列舉需要限制的目錄,同時限制抓取網(wǎng)站的搜索結(jié)果,最后一行代碼是你網(wǎng)站的Sitemap路徑,大多數(shù)搜索引擎都會識別它。

如果對自己寫的robots.txt不放心,建議你使用Google管理員工具中的“工具->測試robots.txt”來對你的robots.txt進(jìn)行測試,確保你的修改正確。

當(dāng)前標(biāo)題:怎樣寫好網(wǎng)站的robots.txt文件
新聞來源:http://muchs.cn/news14/115464.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站導(dǎo)航、做網(wǎng)站、移動網(wǎng)站建設(shè)、ChatGPT、虛擬主機(jī)、動態(tài)網(wǎng)站

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時需注明來源: 創(chuàng)新互聯(lián)

成都app開發(fā)公司