一区在线免费观看-一区在线免费-一区在线看-一区免费在线观看-日韩欧美网站

robots.txt寫法大全和robots.txt語法的作用(超詳細(xì))

發(fā)布時間:2023-06-28 14:21:02 作者:超級管理員 來源:admin 瀏覽量(480) 點贊(197)
摘要:robots.txt寫法大全和robots.txt語法的作用1如果允許所有搜索引擎訪問網(wǎng)站的所有部分的話 我們可以建立一個空白的文本文檔,命名為robots.txt放在網(wǎng)站的根目錄下即可。robots.txt寫法如下:User-agent:*Disallow:或者User-agent:*Allow:/2如果我們禁止所有搜索引擎訪問網(wǎng)站的所有部分的話robots.txt寫法如下:User-agent:*Disallow:/3如果我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網(wǎng)站的話robots.txt寫法如下:User-agent:BaiduspiderDisallow:/4如果我們禁止Google索引我們的網(wǎng)站的話,其實跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot即可robots.txt寫法如下:User-agent:GooglebotDisallow:/5如果我們禁止除Google外的一切搜索引擎索引我們的網(wǎng)站話robots.txt寫法如下:User-agent:GooglebotDisallow:User-agent:*Disallow:/6如果我們

robots.txt寫法大全和robots.txt語法的作用

1如果允許所有搜索引擎訪問網(wǎng)站的所有部分的話 我們可以建立一個空白的文本文檔,命名為robots.txt放在網(wǎng)站的根目錄下即可。

robots.txt寫法如下:

User-agent: *Disallow:

或者

User-agent: *Allow: /

2如果我們禁止所有搜索引擎訪問網(wǎng)站的所有部分的話

robots.txt寫法如下:

User-agent: *Disallow: /

3如果我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網(wǎng)站的話

robots.txt寫法如下:

User-agent: BaiduspiderDisallow: /

4如果我們禁止Google索引我們的網(wǎng)站的話,其實跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

即可

robots.txt寫法如下:

User-agent: GooglebotDisallow: /

5如果我們禁止除Google外的一切搜索引擎索引我們的網(wǎng)站話

robots.txt寫法如下:

User-agent: GooglebotDisallow:User-agent: *Disallow: /

6如果我們禁止除百度外的一切搜索引擎索引我們的網(wǎng)站的話

robots.txt寫法如下:

User-agent: BaiduspiderDisallow:User-agent: *Disallow: /

7如果我們需要禁止蜘蛛訪問某個目錄,比如禁止admin、css、images等目錄被索引的話

robots.txt寫法如下:

User-agent: *Disallow: /css/Disallow: /admin/Disallow: /images/

8如果我們允許蜘蛛訪問我們網(wǎng)站的某個目錄中的某些特定網(wǎng)址的話

robots.txt寫法如下:

User-agent: *Allow: /css/myAllow: /admin/htmlAllow: /images/indexDisallow: /css/Disallow: /admin/Disallow: /images/

9我們看某些網(wǎng)站的robots.txt里的Disallow或者Allow里會看很多的符號,比如問號星號什么的,如果使用“*”,主要是限制訪問某個后綴的域名,禁止訪問/html/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

robots.txt寫法如下:

User-agent: *Disallow: /html/*.htm

10如果我們使用“$”的話是僅允許訪問某目錄下某個后綴的文件

robots.txt寫法如下:

User-agent: *Allow: .asp$Disallow: /


11如果我們禁止索引網(wǎng)站中所有的動態(tài)頁面(這里限制的是有“?”的域名,例如index.asp?id=1)

robots.txt寫法如下:

User-agent: *Disallow: /*?*

有些時候,我們?yōu)榱斯?jié)省服務(wù)器資源,需要禁止各類搜索引擎來索引我們網(wǎng)站上的圖片,這里的辦法除了使用“Disallow: /images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

示例12

如果我們禁止Google搜索引擎抓取我們網(wǎng)站上的所有圖片(如果你的網(wǎng)站使用其他后綴的圖片名稱,在這里也可以直接添加)

robots.txt寫法如下:

User-agent: GooglebotDisallow: .jpg$Disallow: .jpeg$Disallow: .gif$Disallow: .png$Disallow: .bmp$

13如果我們禁止百度搜索引擎抓取我們網(wǎng)站上的所有圖片的話

robots.txt寫法如下:

User-agent: BaiduspiderDisallow: .jpg$Disallow: .jpeg$Disallow: .gif$Disallow: .png$Disallow: .bmp$

14除了百度之外和Google之外,禁止其他搜索引擎抓取你網(wǎng)站的圖片

(注意,在這里為了讓各位看的更明白,因此使用一個比較笨的辦法——對于單個搜索引擎單獨定義。)

robots.txt寫法如下:

User-agent: BaiduspiderAllow: .jpeg$Allow: .gif$Allow: .png$Allow: .bmp$User-agent: GooglebotAllow: .jpeg$Allow: .gif$Allow: .png$Allow: .bmp$User-agent: *Disallow: .jpg$Disallow: .jpeg$Disallow: .gif$Disallow: .png$Disallow: .bmp$


15僅僅允許百度抓取網(wǎng)站上的“JPG”格式文件

(其他搜索引擎的辦法也和這個一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

robots.txt寫法如下:

User-agent: BaiduspiderAllow: .jpg$Disallow: .jpeg$Disallow: .gif$Disallow: .png$Disallow: .bmp$

16僅僅禁止百度抓取網(wǎng)站上的“JPG”格式文件

robots.txt寫法如下:

User-agent: BaiduspiderDisallow: .jpg$

17如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會抓取重復(fù)的網(wǎng)頁。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁版本。在此情況下,沃恩可將與 Allow 指令配合使用。

robots.txt寫法如下:

User-agent:*Allow:/*?$Disallow:/*?Disallow:/ *?

一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網(wǎng)址)。Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網(wǎng)址)。 


18如果我們想禁止搜索引擎對一些目錄或者某些URL訪問的話,可以截取部分的名字

robots.txt寫法如下:

User-agent:*Disallow: /plus/feedback.php?

以上內(nèi)容供大家參考下即可。


二維碼

掃一掃,關(guān)注我們

打賞

取消

感謝您的支持,我會繼續(xù)努力的!

掃碼支持
掃碼打賞,你說多少就多少

打開支付寶掃一掃,即可進(jìn)行掃碼打賞哦

我有話說:

評論記錄:

快來搶沙發(fā)~

感興趣嗎?

歡迎聯(lián)系我們,我們愿意為您解答任何有關(guān)網(wǎng)站疑難問題!