當(dāng)前位置:首頁 >  站長 >  搜索優(yōu)化 >  正文

robots.txt寫法大全和robots.txt語法的作用

 2015-03-16 16:11  來源: 百度文庫   我來投稿 撤稿糾錯

  域名預(yù)訂/競價,好“米”不錯過

1如果允許所有搜索引擎訪問網(wǎng)站的所有部分的話 我們可以建立一個空白的文本文檔,命名為robots.txt放在網(wǎng)站的根目錄下即可。

robots.txt寫法如下:

User-agent: *

Disallow:

或者

User-agent: *

Allow: /

2如果我們禁止所有搜索引擎訪問網(wǎng)站的所有部分的話

robots.txt寫法如下:

User-agent: *

Disallow: /

3如果我們需要某一個搜索引擎的抓取的話,比如百度,禁止百度索引我們的網(wǎng)站的話

robots.txt寫法如下:

User-agent: Baiduspider

Disallow: /

4如果我們禁止Google索引我們的網(wǎng)站的話,其實(shí)跟示例3一樣,就是User-agent:頭文件的蜘蛛名字改成谷歌的Googlebot

即可

robots.txt寫法如下:

User-agent: Googlebot

Disallow: /

5如果我們禁止除Google外的一切搜索引擎索引我們的網(wǎng)站話

robots.txt寫法如下:

User-agent: Googlebot

Disallow:

User-agent: *

Disallow: /

6如果我們禁止除百度外的一切搜索引擎索引我們的網(wǎng)站的話

robots.txt寫法如下:

User-agent: Baiduspider

Disallow:

User-agent: *

Disallow: /

7如果我們需要禁止蜘蛛訪問某個目錄,比如禁止admin、css、images等目錄被索引的話

robots.txt寫法如下:

User-agent: *

Disallow: /css/

Disallow: /admin/

Disallow: /images/

8如果我們允許蜘蛛訪問我們網(wǎng)站的某個目錄中的某些特定網(wǎng)址的話

robots.txt寫法如下:

User-agent: *

Allow: /css/my

Allow: /admin/html

Allow: /images/index

Disallow: /css/

Disallow: /admin/

Disallow: /images/

9我們看某些網(wǎng)站的robots.txt里的Disallow或者Allow里會看很多的符號,比如問號星號什么的,如果使用“*”,主要是限制訪問某個后綴的域名,禁止訪問/html/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

robots.txt寫法如下:

User-agent: *

Disallow: /html/*.htm

10如果我們使用“$”的話是僅允許訪問某目錄下某個后綴的文件

robots.txt寫法如下:

User-agent: *

Allow: .asp$

Disallow: /

11如果我們禁止索引網(wǎng)站中所有的動態(tài)頁面(這里限制的是有“?”的域名,例如index.asp?id=1)

robots.txt寫法如下:

User-agent: *

Disallow: /*?*

有些時候,我們?yōu)榱斯?jié)省服務(wù)器資源,需要禁止各類搜索引擎來索引我們網(wǎng)站上的圖片,這里的辦法除了使用“Disallow: /images/”這樣的直接屏蔽文件夾的方式之外,還可以采取直接屏蔽圖片后綴名的方式。

示例12

如果我們禁止Google搜索引擎抓取我們網(wǎng)站上的所有圖片(如果你的網(wǎng)站使用其他后綴的圖片名稱,在這里也可以直接添加)

robots.txt寫法如下:

User-agent: Googlebot

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

13如果我們禁止百度搜索引擎抓取我們網(wǎng)站上的所有圖片的話

robots.txt寫法如下:

User-agent: Baiduspider

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

14除了百度之外和Google之外,禁止其他搜索引擎抓取你網(wǎng)站的圖片

(注意,在這里為了讓各位看的更明白,因此使用一個比較笨的辦法——對于單個搜索引擎單獨(dú)定義。)

robots.txt寫法如下:

User-agent: Baiduspider

Allow: .jpeg$

Allow: .gif$

Allow: .png$

Allow: .bmp$

User-agent: Googlebot

Allow: .jpeg$

Allow: .gif$

Allow: .png$

Allow: .bmp$

User-agent: *

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

15僅僅允許百度抓取網(wǎng)站上的“JPG”格式文件

(其他搜索引擎的辦法也和這個一樣,只是修改一下搜索引擎的蜘蛛名稱即可)

robots.txt寫法如下:

User-agent: Baiduspider

Allow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

16僅僅禁止百度抓取網(wǎng)站上的“JPG”格式文件

robots.txt寫法如下:

User-agent: Baiduspider

Disallow: .jpg$

17如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網(wǎng)址,確保 Googlebot 不會抓取重復(fù)的網(wǎng)頁。但是,以 ? 結(jié)尾的網(wǎng)址可能是您要包含的網(wǎng)頁版本。在此情況下,沃恩可將與 Allow 指令配合使用。

robots.txt寫法如下:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/ *?

一行將攔截包含 ? 的網(wǎng)址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網(wǎng)址)。Allow: /*?$ 一行將允許包含任何以 ? 結(jié)尾的網(wǎng)址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網(wǎng)址)。

18如果我們想禁止搜索引擎對一些目錄或者某些URL訪問的話,可以截取部分的名字

robots.txt寫法如下:

User-agent:*

Disallow: /plus/feedback.php?

以上內(nèi)容供大家參考下即可。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點(diǎn)子。點(diǎn)擊此處,共同探討創(chuàng)業(yè)新機(jī)遇!

相關(guān)標(biāo)簽
robots.txt標(biāo)簽

相關(guān)文章

  • 看完秒懂robots.txt寫法和注意事項

    robots.txt直接放在網(wǎng)站根目錄下,是蜘蛛訪問網(wǎng)站時,第一個抓取的文件。robots.txt是告訴蜘蛛網(wǎng)站的哪些文件允許抓取,哪些文件不允許抓取,甚至可以指定特定的蜘蛛能不能抓取特定的文件。沒有抓取就沒有收錄,沒有收錄就沒有排名。所以作為第一蜘蛛訪問的文件,寫好robots.txt是很重要的。

  • 了解robots文件,主動告訴搜索引擎該抓取什么內(nèi)容

    導(dǎo)讀:首先我們要了解什么是robots文件,比如,在安徽人才庫的首頁網(wǎng)址后面加入“/robots.txt”,即可打開該網(wǎng)站的robots文件,如圖所示,文件里顯示的內(nèi)容是要告訴搜索引擎哪些網(wǎng)頁希望被抓取,哪些不希望被抓取。因?yàn)榫W(wǎng)站中有一些無關(guān)緊要的網(wǎng)頁,如“給我留言”或“聯(lián)系方式”等網(wǎng)頁,他們并不參

  • robots.txt禁止搜索引擎收錄的方法

    什么是robots.txt文件?搜索引擎使用spider程序自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。spider在訪問一個網(wǎng)站時,會首先會檢查該網(wǎng)站的根域下是否有一個叫做robots.txt的純文本文件,這個文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個robots.txt,

  • 如何利用robots.txt對wordpress博客進(jìn)行優(yōu)化

    筆者在百度站長平臺檢測自己的博客時,出于優(yōu)化的慣性,對博客的Rbots進(jìn)行了檢測,進(jìn)而在百度搜索了wordpress博客robots的寫法設(shè)置問題,看了很多wordpress高手對robots優(yōu)化設(shè)置后,終于有所領(lǐng)悟,在此也分享給一些wordpress新手看看如何去善用robots.txt對word

    標(biāo)簽:
    robots.txt標(biāo)簽
  • 利用robots.txt找敏感文件教程

    robots.txt是一個協(xié)議,而不是一個命令。robots.txt是搜索引擎中訪問網(wǎng)站的時候要查看的第一個文件。robots.txt文件告訴蜘蛛程序在服務(wù)器上什么文件是可以被查看的。當(dāng)一個搜索蜘蛛訪問一個站點(diǎn)時,它會首先檢查該站點(diǎn)根目錄下是否存在robots.txt,如果存在,搜索機(jī)器人就會按照該

    標(biāo)簽:
    robots.txt標(biāo)簽

熱門排行

信息推薦