一.什么是robots.txt文件?
搜索引擎通過(guò)一種程序robot(又稱spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。
您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。
二. robots.txt文件放在哪里?
robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。舉例來(lái)說(shuō),當(dāng)robots訪問(wèn)一個(gè)網(wǎng)站(比如http://www.abc.com)時(shí),首先會(huì)檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個(gè)文件,如果機(jī)器人找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來(lái)確定它訪問(wèn)權(quán)限的范圍。
| 網(wǎng)站 URL | 相應(yīng)的 robots.txt的 URL |
| http://www.w3.org/ | http://www.w3.org/robots.txt |
| http://www.w3.org:80/ | http://www.w3.org:80/robots.txt |
| http://www.w3.org:1234/ | http://www.w3.org:1234/robots.txt |
| http://w3.org/ | http://w3.org/robots.txt |
三. robots.txt文件的格式
“robots.txt”文件包含一條或更多的記錄,這些記錄通過(guò)空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:
”<field>:<optionalspace><value><optionalspace>“。
在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細(xì)情況如下:
User-agent:
該項(xiàng)的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受到該協(xié)議的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對(duì)任何機(jī)器人均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。Disallow :
該項(xiàng)的值用于描述不希望被訪問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow 開頭的URL均不會(huì)被robot訪問(wèn)到。例如”Disallow: /help”對(duì)/help.html 和/help/index.html都不允許搜索引擎訪問(wèn),而”Disallow: /help/”則允許robot訪問(wèn)/help.html,而不能訪問(wèn)/help/index.html。
任何一條Disallow記錄為空,說(shuō)明該網(wǎng)站的所有部分都允許被訪問(wèn),在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”是一個(gè)空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開放的。
四. robots.txt文件用法舉例
| 例1. 禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分 下載該robots.txt文件 | User-agent: * |
例2. 允許所有的robot訪問(wèn) (或者也可以建一個(gè)空文件 “/robots.txt” file) | ? User-agent: * ? |
例3. 禁止某個(gè)搜索引擎的訪問(wèn) | User-agent: BadBot |
| 例4. 允許某個(gè)搜索引擎的訪問(wèn) | User-agent: baiduspider User-agent: * |
例5. 一個(gè)簡(jiǎn)單例子 | User-agent: * |
五. robots.txt文件參考資料
robots.txt文件的更具體設(shè)置,請(qǐng)參看以下鏈接:
? Web Server Administrator’s Guide to the Robots Exclusion Protocol
? HTML Author’s Guide to the Robots Exclusion Protocol
? The original 1994 protocol description, as currently deployed
? The revised Internet-Draft specification, which is not yet completed or implemented
總結(jié):
看這么多也許有些朋友會(huì)很不耐心,簡(jiǎn)單地說(shuō),robots.txt是這樣一個(gè)文件,他可以將爬蟲關(guān)到門外,使得不索引某個(gè)頁(yè)面,具體的用法就是將不想被搜索引擎機(jī)器人爬行的網(wǎng)頁(yè)目錄下的文件所在的目錄防至robots.txt,在前面加上Disallow:/(表示不允許)后面在跟上該目錄,就會(huì)給搜索引擎這樣一個(gè)信號(hào),這個(gè)目錄下所有的網(wǎng)頁(yè)不要被訪問(wèn)了,如果在目錄后面再加“/”則表示不要爬行該目錄下面的默認(rèn)主頁(yè),一般默認(rèn)主頁(yè)為index.html,index.htm之類。
