秋霞在线观看秋,一本大道色婷婷在线,久久婷婷五月综合尤物色国产 http://www.mxio.cn 傳播先進設計理念 推動原創設計發展 Sun, 29 Jul 2007 10:22:00 +0000 zh-Hans hourly 1 https://wordpress.org/?v=6.9.1 禁止搜索引擎收錄:robots.txt文件詳解 http://www.mxio.cn/11919.html http://www.mxio.cn/11919.html#respond Sun, 29 Jul 2007 10:22:00 +0000

一.什么是robots.txt文件?

  搜索引擎通過一種程序robot(又稱spider),自動訪問互聯網上的網頁并獲取網頁信息。

  您可以在您的網站中創建一個純文本文件robots.txt,在這個文件中聲明該網站中不想被robot訪問的部分,這樣,該網站的部分或全部內容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內容。

二. robots.txt文件放在哪里?

  robots.txt文件應該放在網站根目錄下。舉例來說,當robots訪問一個網站(比如http://www.abc.com)時,首先會檢查該網站中是否存在http://www.abc.com/robots.txt這個文件,如果機器人找到這個文件,它就會根據這個文件的內容,來確定它訪問權限的范圍。

網站 URL相應的 robots.txt的 URL
http://www.w3.org/http://www.w3.org/robots.txt
http://www.w3.org:80/http://www.w3.org:80/robots.txt
http://www.w3.org:1234/http://www.w3.org:1234/robots.txt
http://w3.org/ http://w3.org/robots.txt

三. robots.txt文件的格式

“robots.txt”文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結束符),每一條記錄的格式如下所示:

    ”<field>:<optionalspace><value><optionalspace>“。

  在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細情況如下:

User-agent:
  該項的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多條User-agent記錄說明有多個robot會受到該協議的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則該協議對任何機器人均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。

Disallow :
  該項的值用于描述不希望被訪問到的一個URL,這個URL可以是一條完整的路徑,也可以是部分的,任何以Disallow 開頭的URL均不會被robot訪問到。例如”Disallow: /help”對/help.html 和/help/index.html都不允許搜索引擎訪問,而”Disallow: /help/”則允許robot訪問/help.html,而不能訪問/help/index.html。
任何一條Disallow記錄為空,說明該網站的所有部分都允許被訪問,在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”是一個空文件,則對于所有的搜索引擎robot,該網站都是開放的。

四. robots.txt文件用法舉例

例1. 禁止所有搜索引擎訪問網站的任何部分

   
下載該robots.txt文件

User-agent: *
Disallow: /

例2. 允許所有的robot訪問

(或者也可以建一個空文件 “/robots.txt” file)

 

User-agent: *
Disallow:

 

例3. 禁止某個搜索引擎的訪問

User-agent: BadBot
Disallow: /

例4. 允許某個搜索引擎的訪問

User-agent: baiduspider
Disallow:

User-agent: *
Disallow: /

例5. 一個簡單例子

  在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄。
  需要注意的是對每一個目錄必須分開聲明,而不要寫成 “Disallow: /cgi-bin/ /tmp/”。
  User-agent:后的* 具有特殊的含義,代表”any robot”,所以在該文件中不能有”Disallow: /tmp/*” or “Disallow: *.gif”這樣的記錄出現.

User-agent: *
Disallow: /cgi-bin/
Disallow: /tmp/
Disallow: /~joe/

五. robots.txt文件參考資料

robots.txt文件的更具體設置,請參看以下鏈接:

? Web Server Administrator’s Guide to the Robots Exclusion Protocol
? HTML Author’s Guide to the Robots Exclusion Protocol
? The original 1994 protocol description, as currently deployed
? The revised Internet-Draft specification, which is not yet completed or implemented

總結:

看這么多也許有些朋友會很不耐心,簡單地說,robots.txt是這樣一個文件,他可以將爬蟲關到門外,使得不索引某個頁面,具體的用法就是將不想被搜索引擎機器人爬行的網頁目錄下的文件所在的目錄防至robots.txt,在前面加上Disallow:/(表示不允許)后面在跟上該目錄,就會給搜索引擎這樣一個信號,這個目錄下所有的網頁不要被訪問了,如果在目錄后面再加“/”則表示不要爬行該目錄下面的默認主頁,一般默認主頁為index.html,index.htm之類。

]]>
http://www.mxio.cn/11919.html/feed 0
主站蜘蛛池模板: 日韩欧洲在线高清一区| 亚洲精品无码永久在线观看| 无码中出人妻中文字幕av| 亚洲午夜天堂| 精品久久久久久无码专区不卡| 亚洲跨种族黑人xxxxx| 国产一区二区四区不卡| 少妇高潮喷水久久久久久久久久| 麻豆国产96在线日韩麻豆| 天堂影院一区二区三区四区| av中文一区二区三区| 亚洲天天做日日做天天欢毛片| 日本亚洲一区二区精品| 色欲av伊人久久大香线蕉影院| 在线涩涩免费观看国产精品 | 人妻妺妺窝人体色www聚色窝| 国产成人人综合亚洲欧美丁香花| 中文字幕在线精品人妻| 大桥久未无码吹潮在线观看| 久久人人爽人人爽av片| 黄色网站免费在线观看| 无码人妻aⅴ一区二区三区日本| 99久久免费国产精精品| 成人三级视频在线观看一区二区| 欧美成人午夜精品免费福利| 国产日产欧产精品精品首页| 欧美成人精品三级网站视频| jizz国产免费观看| 国产凸凹视频一区二区| 无码精品人妻 中文字幕| 小嫩模无套内谢第一次| 精品丝袜人妻久久久久久| 亚洲精品nv久久久久久久久久| 人妻饥渴偷公乱中文字幕| 黑人巨大videosjapan| 两口子交换真实刺激高潮| 国精品午夜福利视频导航| 91中文字幕在线一区| 国产欠欠欠18一区二区| 曰韩精品无码一区二区三区| 亚洲精品韩国一区二区|