欧美一级特黄大片做受成人-亚洲成人一区二区电影-激情熟女一区二区三区-日韩专区欧美专区国产专区

最詳細(xì)的robots文件的寫法解析(符合搜索需求)

2020-11-12    分類: 網(wǎng)站建設(shè)

做SEO的朋友基本都了解點(diǎn)robots,但是在實(shí)際SEO網(wǎng)站優(yōu)化中robots.txt文件具體應(yīng)該如何編寫恐怕是一堆SEO的困擾,瞎寫,亂寫robots規(guī)則直接影響網(wǎng)站優(yōu)化的成果。robots.txt文件具體要怎么寫?今天創(chuàng)新互聯(lián)把最詳細(xì)的robots文件的寫法告知大家。
robots.txt是什么

一、robots.txt文件它的作用是什么,為什么要寫?


robots.txt是用來告訴搜索引擎網(wǎng)站上哪些內(nèi)容可以被訪問、哪些不能被訪問。當(dāng)搜索引擎訪問一個(gè)網(wǎng)站的時(shí)候,它首先會檢查網(wǎng)站是否存在robots.txt,如果有則會根據(jù)文件命令訪問有權(quán)限的文件。
每個(gè)網(wǎng)站需要根據(jù)自身的要求寫好robots.txt文件,robots.txt文件長什么樣子?我們可以看看幾個(gè)網(wǎng)站的robots.txt文件。
淘寶robots.txt文件

淘寶robots.txt文件

百度robots.txt文件

百度robots.txt文件

而一個(gè)網(wǎng)站為什么要寫robots.txt,主要有四點(diǎn):

1、保護(hù)網(wǎng)站安全

2、節(jié)省流量

3、禁止搜索引擎收錄部分頁面

4、引導(dǎo)蜘蛛爬網(wǎng)站地圖

二、robots.txt的寫法與步驟

1、定義搜索引擎

用User-agent:來定義搜索引擎,其中*表示所有,Baiduspider表示百度蜘蛛,Googlebot表示谷歌蜘蛛。

也就是說User-agent:*表示定義所有蜘蛛,User-agent:Baiduspider表示定義百度蜘蛛。
常用搜索蜘蛛規(guī)則分解如下:
User-agent: Baiduspider
User-agent: Baiduspider-image
User-Agent: Googlebot
User-agent: Bingbot
User-Agent: 360Spider
User-Agent: Yisouspider
User-Agent: Sogouspider
User-agent: Sogou web spider
User-agent: Sogou inst spider
User-agent: Sogou spider2
User-agent: Sogou blog
User-agent: Sogou News Spider
User-agent: Sogou Orion spider
User-agent: ChinasoSpider
User-agent: Sosospider
User-Agent: Yahoo! Slurp
User-agent: MSNBot
User-agent: YoudaoBot
User-agent: EasouSpider

2、禁止與允許訪問

Disallow: /表示禁止訪問,Allow: /表示允許訪問。

在寫robots.txt時(shí)需特別注意的是,/前面有一個(gè)英文狀態(tài)下的空格(必須是英文狀態(tài)下的空格)。

3、禁止搜索引擎訪問網(wǎng)站中的某幾個(gè)文件夾,以a、b、c為例,寫法分別如下:

Disallow: /a/

Disallow: /b/

Disallow: /c/

4、禁止搜索引擎訪問文件夾中的某一類文件,以a文件夾中的js文件為例,寫法如下:

Disallow: /a/*.js

5、只允許某個(gè)搜索引擎訪問,以Baiduspider為例,寫法如下:

User-agent: Baiduspider

Disallow:

6、禁止訪問網(wǎng)站中的動(dòng)態(tài)頁面

User-agent: *

Disallow: /*?*

7、只允許搜索引擎訪問某類文件,以htm為例,寫法如下:

User-agent: *

Allow: .htm$

Disallow: /

8、禁止某個(gè)搜索引擎抓取網(wǎng)站上的所有圖片,以Baiduspider為例,寫法如下:

User-agent: F

Disallow: .jpg$

Disallow: .jpeg$

Disallow: .gif$

Disallow: .png$

Disallow: .bmp$

三、robots.txt文件存放位置

robots.txt文件存放在網(wǎng)站根目錄下,并且文件名所有字母都必須小寫。

四、特別注意事項(xiàng)

在寫robots.txt文件時(shí)語法一定要用對,User-agent、Disallow、Allow、Sitemap這些詞都必須是個(gè)字母大寫,后面的字母小寫,而且在:后面必須帶一個(gè)英文字符下的空格。

網(wǎng)站上線之前切記寫robots.txt文件禁止蜘蛛訪問網(wǎng)站,如果不會寫就先了解清楚寫法之后再寫,以免給網(wǎng)站收錄帶來不必要的麻煩。

robots.txt文件生效時(shí)間在幾天至一個(gè)月之間,站長自身無法控制。但是,站長可以在百度統(tǒng)計(jì)中查看網(wǎng)站robots.txt文件是否生效。

本文標(biāo)題:最詳細(xì)的robots文件的寫法解析(符合搜索需求)
當(dāng)前路徑:http://aaarwkj.com/news45/89595.html

成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站制作、搜索引擎優(yōu)化、網(wǎng)站改版、小程序開發(fā)靜態(tài)網(wǎng)站、全網(wǎng)營銷推廣

廣告

聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)

猜你還喜歡下面的內(nèi)容

營銷型網(wǎng)站建設(shè)

網(wǎng)站建設(shè)知識

各行業(yè)網(wǎng)站

国产精品一区二在线观看| 国产传媒剧情剧资源网站| 蜜臀一区二区三区精品免费| 国产美女直播亚洲一区色| 日本熟女俱乐部一区二区| 裸体性做爰免费视频网站| 色噜噜噜欧美人妻色综合| 成人免费毛片内射视频| 亚洲ve中文字幕久久一区二区| 亚洲欧美日韩颜射极品| 91精品久久久久久| 久久亚洲天堂色图不卡| 亚洲在线免费播放视频| 国产乱码精品一区二区三区爽爽爽| 久久99国产精品成人免费| 久久久久久精品国产av| 国产精品免费看片网站| 国产男女视频免费观看| 国产区精品福利在线熟女| 久久久久精品激情三级| 亚洲激情欧美日韩精品| 亚洲av香蕉一区二区| 欧美亚洲精品二区久久久| 日韩精品一区高清视频| 蜜臀av一区二区三区人妻| 日韩人妻熟妇中文字幕| av天堂精品一区二区三区| 亚洲日本中文字幕免费观看| 国产精品一区二区污网站| 97在线观看视频视频| 日本熟女午夜福利视频| 日本精品不卡一二三区| 欧美男女精品一区二区三区| 亚洲av毛片在线免费| 国产午夜视频成人无遮挡| 欧美香蕉在线观看视频| 偷拍福利视频一区二区三区| 欧美黄色成人免费网站| 一区二区三区亚洲精品在线| 情侣自拍偷拍亚洲天堂区| 日韩国产精品视频二区|