在國內(nèi),,網(wǎng)站管理者似乎對robots.txt并沒有引起多大重視,應(yīng)一些朋友之請求,,今天想通過這篇文章來簡單談一下robots.txt的寫作,。 robots.txt基本介紹 robots.txt是一個純文本文件,在這個文件中網(wǎng)站管理者可以聲明該網(wǎng)站中不想被robots訪問的部分,,或者指定搜索引擎只收錄指定的內(nèi)容,。 當(dāng)一個搜索機(jī)器人(有的叫搜索蜘蛛)訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,,如果存在,,搜索機(jī)器人就會按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,,那么搜索機(jī)器人就沿著鏈接抓取,。 另外,robots.txt必須放置在一個站點的根目錄下,,而且文件名必須全部小寫,。 robots.txt寫作語法 首先,我們來看一個robots.txt范例:http://www./robots.txt 訪問以上具體地址,,我們可以看到robots.txt的具體內(nèi)容如下: # Robots.txt file from http://www. User-agent: * 以上文本表達(dá)的意思是允許所有的搜索機(jī)器人訪問www.站點下的所有文件,。 具體語法分析:其中#后面文字為說明信息;User-agent:后面為搜索機(jī)器人的名稱,,后面如果是*,,則泛指所有的搜索機(jī)器人;Disallow:后面為不允許訪問的文件目錄,。 下面,,我將列舉一些robots.txt的具體用法: 允許所有的robot訪問 User-agent: * 或者也可以建一個空文件 “/robots.txt” file 禁止所有搜索引擎訪問網(wǎng)站的任何部分 User-agent: * 禁止所有搜索引擎訪問網(wǎng)站的幾個部分(下例中的01、02,、03目錄) User-agent: * 禁止某個搜索引擎的訪問(下例中的BadBot) User-agent: BadBot 只允許某個搜索引擎的訪問(下例中的Crawler) User-agent: Crawler User-agent: * 另外,,我覺得有必要進(jìn)行拓展說明,對robots meta進(jìn)行一些介紹: Robots META標(biāo)簽則主要是針對一個個具體的頁面,。和其他的META標(biāo)簽(如使用的語言,、頁面的描述、關(guān)鍵詞等)一樣,,Robots META標(biāo)簽也是放在頁面的<head></head>中,,專門用來告訴搜索引擎ROBOTS如何抓取該頁的內(nèi)容。 Robots META標(biāo)簽的寫法: Robots META標(biāo)簽中沒有大小寫之分,,name=”Robots”表示所有的搜索引擎,,可以針對某個具體搜索引擎寫為name=”BaiduSpider”。 content部分有四個指令選項:index、noindex,、follow,、nofollow,指令間以“,”分隔,。 INDEX 指令告訴搜索機(jī)器人抓取該頁面,; FOLLOW 指令表示搜索機(jī)器人可以沿著該頁面上的鏈接繼續(xù)抓取下去; Robots Meta標(biāo)簽的缺省值是INDEX和FOLLOW,,只有inktomi除外,,對于它,缺省值是INDEX,NOFOLLOW,。 這樣,,一共有四種組合: <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”> 其中 <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以寫成<META NAME=”ROBOTS” CONTENT=”ALL”>; <META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以寫成<META NAME=”ROBOTS” CONTENT=”NONE”> 目前看來,,絕大多數(shù)的搜索引擎機(jī)器人都遵守robots.txt的規(guī)則,,而對于Robots META標(biāo)簽,目前支持的并不多,,但是正在逐漸增加,,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令“archive”,,可以限制GOOGLE是否保留網(wǎng)頁快照,。例如: <META NAME=”googlebot” CONTENT=”index,follow,noarchive”> 表示抓取該站點中頁面并沿著頁面中鏈接抓取,但是不在GOOLGE上保留該頁面的網(wǎng)頁快照,。 特別說明,,本文章的寫作參考了一些網(wǎng)絡(luò)信息,robin只是按照自己的思路對信息進(jìn)行整理 |
|