欧美一区二区三区四区视频|久久久久久88色偷偷|国产精品视频一区二区三区w|国产综合色在线视频|久久久久久综合七次郎|好硬好紧好湿进去了好爽

合肥做網(wǎng)站,選擇瘋狗科技,專(zhuān)業(yè)、敬業(yè)的合肥網(wǎng)絡(luò )公司
首頁(yè) > 網(wǎng)站SEO優(yōu)化 > 詳情

SEO教你玩轉robots協(xié)議

2018-03-17 10:11:35   來(lái)源:互聯(lián)網(wǎng)   瀏覽:  次
robots爬蟲(chóng)協(xié)議,相信很多SEOer或個(gè)人站長(cháng)都不會(huì )感到陌生,即使剛入行的SEO小白也略有耳聞。對于SEO小白來(lái)說(shuō),只是聽(tīng)過(guò)robots爬蟲(chóng)協(xié)議并不了解robots協(xié)議真正意義和用法。

robots爬蟲(chóng)協(xié)議,相信很多SEOer或個(gè)人站長(cháng)都不會(huì )感到陌生,即使剛入行的SEO小白也略有耳聞。對于SEO小白來(lái)說(shuō),只是聽(tīng)過(guò)robots爬蟲(chóng)協(xié)議并不了解robots協(xié)議真正意義和用法。今天小編就來(lái)帶大家一探究竟,并教你玩轉robots協(xié)議。

什么是robots協(xié)議

robots(中文翻譯為機器人),robots協(xié)議即搜索引擎爬蟲(chóng)協(xié)議,它是搜索引擎爬蟲(chóng)與網(wǎng)站站點(diǎn)溝通的“橋梁”。網(wǎng)站站點(diǎn)通過(guò)robots文件中的聲明規則明確告知搜索引擎爬蟲(chóng)哪些文件/目錄可以抓取,哪些文件/目錄不可以抓取。

注意:如果網(wǎng)站站點(diǎn)存在不希望搜索引擎爬蟲(chóng)抓取收錄的內容是,才有必要創(chuàng )建robots.txt文件;如果您希望搜索引擎收錄網(wǎng)站上所有內容,則無(wú)需建立robots.txt文件。

robots.txt文件的存放位置

通常,網(wǎng)站的robots.txt文件放置在網(wǎng)站根目錄下,便于搜索引擎爬蟲(chóng)第一時(shí)間抓取該文件。

robots.txt文件格式

1、robots文件通常包含以一條或多條User-agent開(kāi)始,后面加上若干條Disallow或Allow。

2、User-agent:用來(lái)描述搜索引擎robot的名字。

3、如果存在多條User-agent記錄說(shuō)明有多個(gè)robot會(huì )受到“robots.txt”的限制,至少要有一條User-agent記錄。

4、如果User-agent的值設為*,則對任何robot均有效,且“User-agent:*”這樣的記錄只能有一條。

5、如果有“User-agent:SomeBot”和若干Disallow、Allow行,那么搜索引擎爬蟲(chóng)名為“SomeBot”只受到“User-agent:SomeBot”后面的 Disallow和Allow行的限制。

6、Disallow:用來(lái)描述不希望被訪(fǎng)問(wèn)的一組URL。

7、這個(gè)值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開(kāi)頭的URL不會(huì )被 robot訪(fǎng)問(wèn)。

8、比如:“Disallow:/help”這條規則表示的是禁止robot訪(fǎng)問(wèn)/help.html、/helpabc.html、/help/index.html等。

9、比如:“Disallow:/help/”這條規則表示的是允許robot訪(fǎng)問(wèn)/help.html、/helpabc.html,不能訪(fǎng)問(wèn)/help/index.html。

10、“Disallow:”說(shuō)明允許robot訪(fǎng)問(wèn)該網(wǎng)站的所有url,robots.txt文件中,至少要有一條Disallow記錄。

11、如果網(wǎng)站根目錄下robots.txt不存在或者為空文件,則對于所有的搜索引擎爬蟲(chóng)來(lái)說(shuō),該網(wǎng)站都是開(kāi)放的。

12、Allow:用來(lái)描述希望被訪(fǎng)問(wèn)的一組URL。

13、與Disallow項相似,這個(gè)值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開(kāi)頭的URL 是允許robot訪(fǎng)問(wèn)的。

14、比如:“Allow:/hibaidu”這條規則表示的是允許robot訪(fǎng)問(wèn)/hibaidu.htm、/hibaiducom.html、/hibaidu/com.html。一個(gè)網(wǎng)站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實(shí)現允許訪(fǎng)問(wèn)一部分網(wǎng)頁(yè)同時(shí)禁止訪(fǎng)問(wèn)其它所有URL的功能。

15、使用“*”and“$”:Baiduspider支持使用通配符“*”和“$”來(lái)模糊匹配url(“*” 匹配0或多個(gè)任意字符,“$” 匹配行結束符)。

如何玩轉robots協(xié)議

1、禁止所有搜索引擎爬蟲(chóng)訪(fǎng)問(wèn)網(wǎng)站的任何內容

User-agent: *

Disallow: /

2、允許所有搜索引擎爬蟲(chóng)訪(fǎng)問(wèn)網(wǎng)站的任何內容

User-agent: *

Allow: /

3、僅禁止baidu搜索引擎爬蟲(chóng)訪(fǎng)問(wèn)網(wǎng)站的任何內容

User-agent: Baiduspider

Disallow: /

User-agent: *

Allow: /

4、僅允許baidu搜索引擎爬蟲(chóng)訪(fǎng)問(wèn)網(wǎng)站的任何內容

User-agent: Baiduspider

Allow: /

User-agent: *

Disallow: /

5、僅允許baidu及google爬蟲(chóng)訪(fǎng)問(wèn)網(wǎng)站的任何內容

User-agent: Baiduspider

Allow: /

User-agent: Googlebot

Allow: /

User-agent: *

Disallow: /

6、僅允許baidu及360搜索引擎爬蟲(chóng)訪(fǎng)問(wèn)網(wǎng)站內容,并且禁止抓取所有圖片和php網(wǎng)頁(yè)內容

User-agent: Baiduspider

Allow: /

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.png$

Disallow: /*.gif$

Disallow: /*.bmp$

Disallow: /*.php$

User-agent: 360Spider

Allow: /

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.png$

Disallow: /*.gif$

Disallow: /*.bmp$

Disallow: /*.php$

User-agent: *

Disallow: /

其他的robots爬蟲(chóng)協(xié)議規則,小編就不在這里給大家一一舉例了。大家可以自己去練習并理解,robots爬蟲(chóng)協(xié)議也是很重要的。

欧美一区二区三区四区视频|久久久久久88色偷偷|国产精品视频一区二区三区w|国产综合色在线视频|久久久久久综合七次郎|好硬好紧好湿进去了好爽