欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

[轉載]ROBOTS.TXT指南

2015-02-12    分類: 網站建設

當搜索引擎訪問一個網站時,它首先會檢查該網站的根域下是否有一個叫做robots.txt的純文本文件。Robots.txt文件用于限定搜索引擎對其網站的訪問范圍,即告訴搜索引擎網站中哪些文件是允許它進行檢索(下載)的。這就是大家在網絡上??吹降摹熬芙^Robots訪問標準”(Robots Exclusion Standard)。下面我們簡稱RES。 Robots.txt文件的格式:Robots.txt文件的格式比較特殊,它由記錄組成。這些記錄通過空行分開。其中每條記錄均由兩個域組成: 1) 一個User-Agent(用戶代理)字符串行; 2) 若干Disallow字符串行。 記錄格式為: ":" 下面我們分別對這兩個域做進一步說明。 User-agent(用戶代理): User-agent行(用戶代理行) 用于指定搜索引擎robot的名字,以Google的檢索程序Googlebot為例,有:User-agent: Googlebot 一個robots.txt中至少要有一條User-agent記錄。如果有多條User-agent記錄,則說明有多個robot會受到RES標準的限制。當然了,如果要指定所有的robot,只需用一個通配符"*"就搞定了,即:User-agent: * Disallow(拒絕訪問聲明): 在Robots.txt文件中,每條記錄的第二個域是Disallow:指令行。這些Disallow行聲明了該網站中不希望被訪問的文件和(或)目錄。例如"Disallow: email.htm"對文件的訪問進行了聲明,禁止Spiders下載網站上的email.htm文件。而"Disallow: /cgi-bin/"則對cgi-bin目錄的訪問進行了聲明,拒絕Spiders進入該目錄及其子目錄。Disallow聲明行還具有通配符功能。例如上例中"Disallow: /cgi-bin/"聲明了拒絕搜索引擎對cgi-bin目錄及其子目錄的訪問,而"Disallow:/bob"則拒絕搜索引擎對/bob.html和/bob/indes.html的訪問(即無論是名為bob的文件還是名為bob的目錄下的文件都不允許搜索引擎訪問)。Disallow記錄如果留空,則說明該網站的所有部分都向搜索引擎開放。 空格 & 注釋 在robots.txt文件中,凡以"#"開頭的行,均被視為注解內容,這和UNIX中的慣例是一樣的。但大家需要注意兩個問題: 1) RES標準允許將注解內容放在指示行的末尾,但這種格式并不是所有的Spiders都能夠支持。譬如,并不是所有的Spiders都能夠正確理解"Disallow: bob #comment"這樣一條指令。有的Spiders就會誤解為Disallow的是"bob#comment"。最好的辦法是使注解自成一行。 2) RES標準允許在一個指令行的開頭存在空格,象"Disallow: bob #comment",但我們也并不建議大家這么做。 Robots.txt文件的創(chuàng)建: 需要注意的是,應當在UNIX命令行終端模式下創(chuàng)建Robots.txt純文本文件。好的文本編輯器一般都能夠提供UNIX模式功能,或者你的FTP客戶端軟件也“應該”能夠替你轉換過來。如果你試圖用一個沒有提供文本編輯模式的HTML編輯器來生成你的robots.txt純文本文件,那你可就是瞎子打蚊子——白費力氣了。 對RES標準的擴展: 盡管已經提出了一些擴展標準,如Allow行或Robot版本控制(例如應該忽略大小寫和版本號),但尚未得到RES工作組的正式批準認可。 附錄I. Robots.txt用法舉例: 使用通配符"*",可設置對所有robot的訪問權限。 User-agent: * Disallow: 表明:允許所有搜索引擎訪問網站下的所有內容。 User-agent: * Disallow: / 表明:禁止所有搜索引擎對網站下所有網頁的訪問。 User-agent: * Disallow: /cgi-bin/Disallow: /images/ 表明:禁止所有搜索引擎進入網站的cgi-bin和images目錄及其下所有子目錄。需要注意的是對每一個目錄必須分開聲明。 User-agent: Roverdog Disallow: / 表明:禁止Roverdog訪問網站上的任何文件。 User-agent: Googlebot Disallow: cheese.htm 表明:禁止Google的Googlebot訪問其網站下的cheese.htm文件。 上面介紹了一些簡單的設置,對于比較復雜的設置,可參看一些大型站點如CNN或Looksmart的robots.txt文件(www.cnn.com/robots.txt, www.looksmart.com/robots.txt ) 附錄II. 相關robots.txt文章參考: 1. Robots.txt常見問題解析 2. Robots Meta Tag的使用 3. Robots.txt檢測程序

分享名稱:[轉載]ROBOTS.TXT指南
鏈接分享:http://aaarwkj.com/news1/33551.html

成都網站建設公司_創(chuàng)新互聯(lián),為您提供ChatGPT定制開發(fā)、商城網站、用戶體驗、營銷型網站建設外貿網站建設

廣告

聲明:本網站發(fā)布的內容(圖片、視頻和文字)以用戶投稿、用戶轉載內容為主,如果涉及侵權請盡快告知,我們將會在第一時間刪除。文章觀點不代表本網站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內容未經允許不得轉載,或轉載時需注明來源: 創(chuàng)新互聯(lián)

綿陽服務器托管
五月婷婷六月丁香在线观看| 亚洲欧洲精品真人av蜜臀| 年轻的少妇一区二区三区| 中文字幕日本精品人妻在线| 五月婷婷色丁香综合激情| 日本不卡不码高清免费| 亚洲av一区二区三区网站| 蜜臀综合亚洲国产精品| 男人天堂av东京热伊人| 朋友的尤物人妻中文字幕| 97成人在线免费视频| av在线高清免费观看| 人妻日韩字幕一区二区| 国产熟女一区二区精品视频 | 亭亭丁香激情五月涩久久| 中文字幕在线五月婷婷| 欧美黄片高清免费播放| 国产大片在线观看一区二区 | 日韩欧美一区二区三区| av一级免费在线观看| 亚洲欧洲av男人的天堂| 欧美一区二区黑人巨大| 韩国一级av免费在线| 丁香婷婷综合激情五月| 未满十八禁止观看免费| 一区二区亚洲欧美精品| 亚洲国产成人欧美日韩另类| 日韩成人一级片在线观看| 精品亚洲国产一区二区三区| 最新免费观看男女啪啪视频 | 国产高清不卡午夜福利| 亚洲女同另类在线播放视频 | 国产三级精品大乳人妇| 日本高清不卡在线观看| 国产99热这里只有精品| 亚洲天堂av日韩在线| 一区二区三区高清av在线| 97免费观看在线观看| 国产激情片午夜福利| 色哟哟国产精品一区自拍| 深夜视频在线观看成人|