欧美黑人激情性久久,一本色道久久综合无码人妻,欧美另类人妻制服丝袜,日韩精品一卡2卡3卡4卡新区乱码,欧洲熟妇性色黄在线观看免费,97夜夜澡人人爽人人喊中国片,77se77亚洲欧美在线,久久精品一区二区免费播放

                    禁止搜索引擎收錄:robots.txt文件詳解

                    一.什么是robots.txt文件? 搜索引擎通過(guò)一種程序robot(又稱spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。 您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被

                    一.什么是robots.txt文件?

                      搜索引擎通過(guò)一種程序robot(又稱spider),自動(dòng)訪問(wèn)互聯(lián)網(wǎng)上的網(wǎng)頁(yè)并獲取網(wǎng)頁(yè)信息。

                      您可以在您的網(wǎng)站中創(chuàng)建一個(gè)純文本文件robots.txt,在這個(gè)文件中聲明該網(wǎng)站中不想被robot訪問(wèn)的部分,這樣,該網(wǎng)站的部分或全部?jī)?nèi)容就可以不被搜索引擎收錄了,或者指定搜索引擎只收錄指定的內(nèi)容。

                    二. robots.txt文件放在哪里?

                      robots.txt文件應(yīng)該放在網(wǎng)站根目錄下。舉例來(lái)說(shuō),當(dāng)robots訪問(wèn)一個(gè)網(wǎng)站(比如http://www.abc.com)時(shí),首先會(huì)檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個(gè)文件,如果機(jī)器人找到這個(gè)文件,它就會(huì)根據(jù)這個(gè)文件的內(nèi)容,來(lái)確定它訪問(wèn)權(quán)限的范圍。

                    網(wǎng)站 URL相應(yīng)的 robots.txt的 URL
                    http://www.w3.org/http://www.w3.org/robots.txt
                    http://www.w3.org:80/http://www.w3.org:80/robots.txt
                    http://www.w3.org:1234/http://www.w3.org:1234/robots.txt
                    http://w3.org/ http://w3.org/robots.txt

                    三. robots.txt文件的格式

                    “robots.txt”文件包含一條或更多的記錄,這些記錄通過(guò)空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

                        ”<field>:<optionalspace><value><optionalspace>“。

                      在該文件中可以使用#進(jìn)行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow行,詳細(xì)情況如下:

                    User-agent:
                      該項(xiàng)的值用于描述搜索引擎robot的名字,在”robots.txt”文件中,如果有多條User-agent記錄說(shuō)明有多個(gè)robot會(huì)受到該協(xié)議的限制,對(duì)該文件來(lái)說(shuō),至少要有一條User-agent記錄。如果該項(xiàng)的值設(shè)為*,則該協(xié)議對(duì)任何機(jī)器人均有效,在”robots.txt”文件中,”User-agent:*”這樣的記錄只能有一條。

                    Disallow :
                      該項(xiàng)的值用于描述不希望被訪問(wèn)到的一個(gè)URL,這個(gè)URL可以是一條完整的路徑,也可以是部分的,任何以Disallow 開頭的URL均不會(huì)被robot訪問(wèn)到。例如”Disallow: /help”對(duì)/help.html 和/help/index.html都不允許搜索引擎訪問(wèn),而”Disallow: /help/”則允許robot訪問(wèn)/help.html,而不能訪問(wèn)/help/index.html。
                    任何一條Disallow記錄為空,說(shuō)明該網(wǎng)站的所有部分都允許被訪問(wèn),在”/robots.txt”文件中,至少要有一條Disallow記錄。如果”/robots.txt”是一個(gè)空文件,則對(duì)于所有的搜索引擎robot,該網(wǎng)站都是開放的。

                    四. robots.txt文件用法舉例

                    例1. 禁止所有搜索引擎訪問(wèn)網(wǎng)站的任何部分

                       
                    下載該robots.txt文件

                    User-agent: *
                    Disallow: /

                    例2. 允許所有的robot訪問(wèn)

                    (或者也可以建一個(gè)空文件 “/robots.txt” file)

                    ?

                    User-agent: *
                    Disallow:

                    ?

                    例3. 禁止某個(gè)搜索引擎的訪問(wèn)

                    User-agent: BadBot
                    Disallow: /

                    例4. 允許某個(gè)搜索引擎的訪問(wèn)

                    User-agent: baiduspider
                    Disallow:

                    User-agent: *
                    Disallow: /

                    例5. 一個(gè)簡(jiǎn)單例子

                      在這個(gè)例子中,該網(wǎng)站有三個(gè)目錄對(duì)搜索引擎的訪問(wèn)做了限制,即搜索引擎不會(huì)訪問(wèn)這三個(gè)目錄。
                      需要注意的是對(duì)每一個(gè)目錄必須分開聲明,而不要寫成 “Disallow: /cgi-bin/ /tmp/”。
                      User-agent:后的* 具有特殊的含義,代表”any robot”,所以在該文件中不能有”Disallow: /tmp/*” or “Disallow: *.gif”這樣的記錄出現(xiàn).

                    User-agent: *
                    Disallow: /cgi-bin/
                    Disallow: /tmp/
                    Disallow: /~joe/

                    五. robots.txt文件參考資料

                    robots.txt文件的更具體設(shè)置,請(qǐng)參看以下鏈接:

                    ? Web Server Administrator’s Guide to the Robots Exclusion Protocol
                    ? HTML Author’s Guide to the Robots Exclusion Protocol
                    ? The original 1994 protocol description, as currently deployed
                    ? The revised Internet-Draft specification, which is not yet completed or implemented

                    總結(jié):

                    看這么多也許有些朋友會(huì)很不耐心,簡(jiǎn)單地說(shuō),robots.txt是這樣一個(gè)文件,他可以將爬蟲關(guān)到門外,使得不索引某個(gè)頁(yè)面,具體的用法就是將不想被搜索引擎機(jī)器人爬行的網(wǎng)頁(yè)目錄下的文件所在的目錄防至robots.txt,在前面加上Disallow:/(表示不允許)后面在跟上該目錄,就會(huì)給搜索引擎這樣一個(gè)信號(hào),這個(gè)目錄下所有的網(wǎng)頁(yè)不要被訪問(wèn)了,如果在目錄后面再加“/”則表示不要爬行該目錄下面的默認(rèn)主頁(yè),一般默認(rèn)主頁(yè)為index.html,index.htm之類。

                    給TA打賞
                    共{{data.count}}人
                    人已打賞
                    網(wǎng)站推廣

                    網(wǎng)站推廣:搜索引擎登記技巧

                    2007-7-29 10:20:00

                    網(wǎng)站推廣

                    用Javascript評(píng)估用戶輸入密碼的強(qiáng)度

                    2007-7-29 10:41:00

                    0 條回復(fù) A文章作者 M管理員
                      暫無(wú)討論,說(shuō)說(shuō)你的看法吧
                    ?
                    個(gè)人中心
                    購(gòu)物車
                    優(yōu)惠劵
                    有新私信 私信列表
                    搜索
                    主站蜘蛛池模板: 欧美成人免费观看全部| 亚洲综合国产激情另类一区 | 老太脱裤子让老头玩xxxxx| 色先锋av资源中文字幕| 国产70老熟女重口小伙子| 日韩人妻少妇一区二区三区| 欲妇荡岳丰满少妇岳| 国产成人无码3000部| 亚洲免费不卡av网站| 波多野结无码高清中文| 91区国产福利在线观看午夜| 草莓视频成人| 国产清纯美女遭强到高潮| 国产成人8x视频一区二区| 韩国乱码片免费看| 小辣椒av福利在线网站| 最新国产精品拍自在线观看| 无码不卡av东京热毛片| 免费无码又爽又刺激高潮的动漫| 午夜男女爽爽影院免费视频下载| 国产高清毛片| 色噜噜狠狠爱综合视频| 亚洲中文字幕无码久久精品1| 无遮挡高潮国产免费观看| 国产亚洲精品久久久久久入口| 久久婷婷综合色一区二区| 亚洲欧美丝袜精品久久| 男女下面进入的视频| 亚洲午夜精品a片久久www解说 | 老熟妇老熟女老女人天堂| 国产96在线 | 欧美| 国产熟妇搡bbbb搡bb七区 | 国产精品无码免费专区午夜| 黑人与中国少妇xxxx视频| 欧美视频免费一区二区三区| 国产不卡视频一区二区三区| 精品国产福利视频在线观看| 天美传媒mv免费观看完整| 国产精品丝袜久久久久久不卡 | 最近2019中文字幕大全第二页| 玩两个丰满老熟女|