日本在线观看,国产激情视频一区二区在线观看 ,а√天堂资源官网在线资源,性网站在线看,久久99影视,国产精品嫩草影院av蜜臀,精品久久久香蕉免费精品视频,欧美日韩国产一区二区三区地区,国产性做久久久久久,在线看成人短视频

Categories


Tags


禁止搜索引擎收錄的方法

1. 什么是robots.txt文件?

搜索引擎使用spider程序自動訪問互聯(lián)網(wǎng)上的網(wǎng)頁并獲取網(wǎng)頁信息。spider在訪問一個網(wǎng)站時,會首先會檢查該網(wǎng)站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網(wǎng)站上的抓取范圍。您可以在您的網(wǎng)站中創(chuàng)建一個robots.txt,在文件中聲明 該網(wǎng)站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。

請注意,僅當您的網(wǎng)站包含不希望被搜索引擎收錄的內(nèi)容時,才需要使用robots.txt文件。如果您希望搜索引擎收錄網(wǎng)站上所有內(nèi)容,請勿建立robots.txt文件。

2. robots.txt文件放在哪里?

robots.txt文件應該放置在網(wǎng)站根目錄下。舉例來說,當spider訪問一個網(wǎng)站(比如 http://www.abc.com)時,首先會檢查該網(wǎng)站中是否存在http://www.abc.com/robots.txt這個文件,如果 Spider找到這個文件,它就會根據(jù)這個文件的內(nèi)容,來確定它訪問權(quán)限的范圍。

網(wǎng)站 URL

相應的 robots.txt的 URL

http://www.w3.org/

http://www.w3.org/robots.txt

http://www.w3.org:80/

http://www.w3.org:80/robots.txt

http://www.w3.org:1234/

http://www.w3.org:1234/robots.txt

http://w3.org/

http://w3.org/robots.txt

3. 我在robots.txt中設置了禁止百度收錄我網(wǎng)站的內(nèi)容,為何還出現(xiàn)在百度搜索結(jié)果中?

如果其他網(wǎng)站鏈接了您robots.txt文件中設置的禁止收錄的網(wǎng)頁,那么這些網(wǎng)頁仍然可能會出現(xiàn)在百度的搜索結(jié)果中,但您的網(wǎng)頁上的內(nèi)容不會被抓取、建入索引和顯示,百度搜索結(jié)果中展示的僅是其他網(wǎng)站對您相關(guān)網(wǎng)頁的描述。

4. 禁止搜索引擎跟蹤網(wǎng)頁的鏈接,而只對網(wǎng)頁建索引

如果您不想搜索引擎追蹤此網(wǎng)頁上的鏈接,且不傳遞鏈接的權(quán)重,請將此元標記置入網(wǎng)頁的 部分:

<meta name="robots" content="nofollow">

如果您不想百度追蹤某一條特定鏈接,百度還支持更精確的控制,請將此標記直接寫在某條鏈接上:

<a href="signin.php" rel="nofollow">sign in</a>

要允許其他搜索引擎跟蹤,但僅防止百度跟蹤您網(wǎng)頁的鏈接,請將此元標記置入網(wǎng)頁的部分:

<meta name="Baiduspider" content="nofollow">

5. 禁止搜索引擎在搜索結(jié)果中顯示網(wǎng)頁快照,而只對網(wǎng)頁建索引

要防止所有搜索引擎顯示您網(wǎng)站的快照,請將此元標記置入網(wǎng)頁的部分:

<meta name="robots" content="noarchive">

要允許其他搜索引擎顯示快照,但僅防止百度顯示,請使用以下標記:

<meta name="Baiduspider" content="noarchive">

注:此標記只是禁止百度顯示該網(wǎng)頁的快照,百度會繼續(xù)為網(wǎng)頁建索引,并在搜索結(jié)果中顯示網(wǎng)頁摘要。

6. 我想禁止百度圖片搜索收錄某些圖片,該如何設置?

禁止Baiduspider抓取網(wǎng)站上所有圖片、禁止或允許Baiduspider抓取網(wǎng)站上的某種特定格式的圖片文件可以通過設置robots實現(xiàn),請參考“robots.txt文件用法舉例”中的例10、11、12。

7. robots.txt文件的格式

"robots.txt"文件包含一條或更多的記錄,這些記錄通過空行分開(以CR,CR/NL, or NL作為結(jié)束符),每一條記錄的格式如下所示:

<field>:<optional space><value><optional space>

在該文件中可以使用#進行注解,具體使用方法和UNIX中的慣例一樣。該文件中的記錄通常以一行或多行User-agent開始,后面加上若干Disallow和Allow行,詳細情況如下:

User-agent:

該項的值用于描述搜索引擎robot的名字。在"robots.txt"文件中,如果有多條User-agent記錄說明有多個robot會受 到"robots.txt"的限制,對該文件來說,至少要有一條User-agent記錄。如果該項的值設為*,則對任何robot均有效, 在"robots.txt"文件中,"User-agent:*"這樣的記錄只能有一條。如果在"robots.txt"文件中,加入"User- agent:SomeBot"和若干Disallow、Allow行,那么名為"SomeBot"只受到"User-agent:SomeBot"后面的 Disallow和Allow行的限制。

Disallow:

該項的值用于描述不希望被訪問的一組URL,這個值可以是一條完整的路徑,也可以是路徑的非空前綴,以Disallow項的值開頭的URL不會被 robot訪問。例如"Disallow:/help"禁止robot訪問/help.html、/helpabc.html、/help /index.html,而"Disallow:/help/"則允許robot訪問/help.html、/helpabc.html,不能訪問 /help/index.html。"Disallow:"說明允許robot訪問該網(wǎng)站的所有url,在"/robots.txt"文件中,至少要有一條Disallow記錄。如果"/robots.txt"不存在或者為空文件,則對于所有的搜索引擎robot,該網(wǎng)站都是開放的。

Allow:

該項的值用于描述希望被訪問的一組URL,與Disallow項相似,這個值可以是一條完整的路徑,也可以是路徑的前綴,以Allow項的值開頭 的URL 是允許robot訪問的。例如"Allow:/hibaidu"允許robot訪問/hibaidu.htm、/hibaiducom.html、 /hibaidu/com.html。一個網(wǎng)站的所有URL默認是Allow的,所以Allow通常與Disallow搭配使用,實現(xiàn)允許訪問一部分網(wǎng)頁同時禁止訪問其它所有URL的功能。

需要特別注意的是Disallow與Allow行的順序是有意義的,robot會根據(jù)第一個匹配成功的Allow或Disallow行確定是否訪問某個URL。

使用"*"and"$":

Baiduspider支持使用通配符"*"和"$"來模糊匹配url。

"$" 匹配行結(jié)束符。

"*" 匹配0或多個任意字符。

注:我們會嚴格遵守robots的相關(guān)協(xié)議,請注意區(qū)分您不想被抓取或收錄的目錄的大小寫,我們會對robots中所寫的文件和您不想被抓取和收錄的目錄做精確匹配,否則robots協(xié)議無法生效。

8. URL匹配舉例

Allow或Disallow的值

URL

匹配結(jié)果

/tmp

/tmp

yes

/tmp

/tmp.html

yes

/tmp

/tmp/a.html

yes

/tmp

/tmphoho

no

/Hello*

/Hello.html

yes

/He*lo

/Hello,lolo

yes

/Heap*lo

/Hello,lolo

no

html$

/tmpa.html

yes

/a.html$

/a.html

yes

htm$

/a.html

no

9. robots.txt文件用法舉例

例1. 禁止所有搜索引擎訪問網(wǎng)站的任何部分

下載該robots.txt文件

User-agent: *

Disallow: /

例2. 允許所有的robot訪問

(或者也可以建一個空文件 "/robots.txt")

User-agent: *

Allow: /

例3. 僅禁止Baiduspider訪問您的網(wǎng)站

User-agent: Baiduspider

Disallow: /

例4. 僅允許Baiduspider訪問您的網(wǎng)站

User-agent: Baiduspider

Allow: /

User-agent: *

Disallow: /

例5. 僅允許Baiduspider以及Googlebot訪問

User-agent: Baiduspider

Allow: /

User-agent: Googlebot

Allow: /

User-agent: *

Disallow: /

例6. 禁止spider訪問特定目錄

在這個例子中,該網(wǎng)站有三個目錄對搜索引擎的訪問做了限制,即robot不會訪問這三個目錄。需要注意的是對每一個目錄必須分開聲明,而不能寫成 "Disallow: /cgi-bin/ /tmp/"。

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

例7. 允許訪問特定目錄中的部分url

User-agent: *

Allow: /cgi-bin/see

Allow: /tmp/hi

Allow: /~joe/look

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

例8. 使用"*"限制訪問url

禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

User-agent: *

Disallow: /cgi-bin/*.htm

例9. 使用"$"限制訪問url

僅允許訪問以".htm"為后綴的URL。

User-agent: *

Allow: /*.htm$

Disallow: /

例10. 禁止訪問網(wǎng)站中所有的動態(tài)頁面

User-agent: *

Disallow: /*?*

例11. 禁止Baiduspider抓取網(wǎng)站上所有圖片

僅允許抓取網(wǎng)頁,禁止抓取任何圖片。

User-agent: Baiduspider

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.gif$

Disallow: /*.png$

Disallow: /*.bmp$

例12. 僅允許Baiduspider抓取網(wǎng)頁和.gif格式圖片

允許抓取網(wǎng)頁和gif格式圖片,不允許抓取其他格式圖片

User-agent: Baiduspider

Allow: /*.gif$

Disallow: /*.jpg$

Disallow: /*.jpeg$

Disallow: /*.png$

Disallow: /*.bmp$

例13. 僅禁止Baiduspider抓取.jpg格式圖片

User-agent: Baiduspider

Disallow: /*.jpg$

10. robots.txt文件參考資料

robots.txt文件的更具體設置,請參看以下鏈接:

Web Server Administrator's Guide to the Robots Exclusion Protocol

HTML Author's Guide to the Robots Exclusion Protocol

The original 1994 protocol description, as currently deployed

The revised Internet-Draft specification, which is not yet completed or implemented

來源:百度搜索資源平臺 百度搜索學堂


Public @ 2015-10-28 16:08:55

巧用Robots避免蜘蛛黑洞

對于百度搜索引擎來說,蜘蛛黑洞特指網(wǎng)站通過極低的成本制造出大量參數(shù)過多,及內(nèi)容雷同但具體參數(shù)不同的動態(tài)URL ,就像一個無限循環(huán)的“黑洞”將spider困住,Baiduspider浪費了大量資源抓取的卻是無效網(wǎng)頁。比如很多網(wǎng)站都有篩選功能,通過篩選功能產(chǎn)生的網(wǎng)頁經(jīng)常會被搜索引擎大量抓取,而這其中很大一部分檢索價值不高,如“500-1000之間價格的租房”,首先網(wǎng)站(包括現(xiàn)實中)上基本沒有相關(guān)資源,

Public @ 2020-05-11 16:08:55

robots.txt文件有什么必要?

robots.txt文件是一個文本文件,用于向搜索引擎和其他機器人網(wǎng)站爬蟲指定哪些頁面或內(nèi)容可以被爬取,哪些頁面或內(nèi)容不能被爬取。它的主要作用是為了控制搜索引擎和其他機器人網(wǎng)站爬蟲訪問和抓取網(wǎng)站內(nèi)容,保護網(wǎng)站的隱私和安全。如果一個網(wǎng)站不想被某些搜索引擎或爬蟲訪問、爬取和索引,就可以通過robots.txt文件來禁止它們。另外,robots.txt文件還可以防止一些機器人抓取出現(xiàn)線上攻擊或濫用等安全

Public @ 2023-06-12 20:00:21

百度robots中的user-agent

百度各個產(chǎn)品使用不同的user-agent:無線搜索Baiduspider-mobile圖片搜索Baiduspider-image視頻搜索Baiduspider-video新聞搜索Baiduspider-news百度搜藏Baiduspider-favo百度聯(lián)盟Baiduspider-cpro商務搜索Baiduspider-ads網(wǎng)頁以及其他搜索Baiduspider來源:360站長平臺

Public @ 2022-11-11 16:09:02

robots使用技巧

以下是一些使用robots.txt文件的技巧和最好的做法: 1. 不要放棄robots.txt - 一些網(wǎng)站管理員沒有robots.txt文件,因為他們認為這是保護網(wǎng)站的安全措施,但事實上它可能會影響搜索引擎爬取。 2. 維護一個更新的robots.txt文件 - 確保您的robots.txt文件不是過時的。如果您從網(wǎng)站上刪除了某些頁面或文件夾,請務必更新文件以反映更改。 3. 不要使用ro

Public @ 2023-05-28 16:00:31

更多您感興趣的搜索

0.512947s
一本色道亚洲精品aⅴ| 99国产精品| 国产香蕉97碰碰久久人人| 99精品视频免费观看| 91精品国产福利| 特级毛片在线观看| 色综合色综合色综合| 精品一区av| 狠狠操在线视频| 亚洲午夜免费视频| www.91精品| 色综合久综合久久综合久鬼88 | 精品国产一区二区三区四区 | 国产尤物久久久| 有码av在线| 91精品国产色综合久久不卡电影 | 日本免费久久高清视频| 97精品超碰一区二区三区| 亚洲区欧洲区| 疯狂做受xxxx欧美肥白少妇| 亚洲免费观看高清在线观看| h片在线播放| 亚洲人成在线观看| 奇米色777欧美一区二区| 偷拍中文亚洲欧美动漫| 久久国产精品视频| 国产亚洲欧美日韩俺去了| 日韩欧美2区| 日本不卡影院| 99热国产在线| 狂野欧美性猛交xxxx巴西| 精品国产丝袜高跟鞋| 欧美成人伊人久久综合网| 亚洲欧美日韩成人| 麻豆精品视频在线观看免费| 日韩成人一级| 成人a在线视频| 免费电影一区二区三区| 国产精品羞羞答答| 国产97在线亚洲| 色综合伊人色综合网| 91社区在线| 欧美激情网友自拍| 欧美美女激情18p| 亚洲欧洲日韩综合一区二区| 日韩电影在线观看电影| 精品三级在线观看视频| 日韩在线观看www| 亚洲欧美精品suv| 在线一区二区日韩| 日韩在线小视频| 欧美在线观看视频在线| 国产欧美一区二区三区鸳鸯浴 | 国产精品久久久久久久久免费相片 | 久久综合影视| 国产精久久久| 免费观看亚洲视频大全| 97香蕉久久夜色精品国产| 精品国产凹凸成av人导航| 亚洲一区二区三区四区在线免费观看| 久久er精品视频| 欧美精品三区| 99福利在线| 色综合久久久久久久久久久| 国产精品三级av在线播放| 欧美中文字幕| 久久亚洲精精品中文字幕| 四虎影视精品成人| 中文字幕久久久| 亚洲综合免费观看高清完整版在线| 一区二区日韩免费看| 成人ww免费完整版在线观看| 一级日本免费的| 成人免费毛片片v| 天天躁日日躁狠狠躁欧美| av免费在线网站| 在线观看av资源| 欧美精品一区二区三| 亚洲午夜精品久久久久久性色| 色网站国产精品| 亚洲一二三区视频在线观看| 精品久久久久一区| 伊人性伊人情综合网| 粉嫩aⅴ一区二区三区四区| 亚洲清纯自拍| 欧美日韩激情| 亚洲免费在线| 国产高清精品网站| 一本大道久久a久久综合婷婷| 国产酒店精品激情| 成人av影音| 国产精品久久久久久影院8一贰佰| 性欧美69xoxoxoxo| 亚洲国产综合在线看不卡| 欧美精品91| 亚洲午夜精品网| 欧美日韩国产精选| 亚洲精品国产suv| 亚洲成人网在线观看| 91精品国产欧美日韩| 欧美日本一区二区三区四区| 嫩草一区二区三区| 日本电影一区二区| 国产亚洲精品美女久久久久久久久久| 日韩欧美二区| 国产精品主播直播| 一二三四区精品视频| 8v天堂国产在线一区二区| 亚洲精品suv精品一区二区| 嫩草影院网站在线| 全球av集中精品导航福利| 国产精品一品视频| 精品久久久久久久久久国产| 色综合天天综合给合国产| 成人精品视频在线| 网红女主播少妇精品视频| 亚洲国产免费看| 国产精品麻豆久久久| 精品国产三级电影在线观看| 国产综合在线看| 日本亚洲欧洲无免费码在线| 国产成人欧美日韩在线电影| 精品播放一区二区| 国产精品中文字幕久久久| 日本大胆在线观看| 喷白浆一区二区| 懂色av一区二区三区| 国产成人极品视频| 成人自拍在线| 成人三级伦理片| 亚洲精品一区二区三区99| 日本电影免费看| 日韩中文在线| 人人精品人人爱| 亚洲毛片视频| 欧美在线综合| 日韩在线www| 狠狠操一区二区三区| 麻豆视频一区二区| 欧美又大又粗又长| 亚洲三级免费| 国产国语videosex另类| 国产videos久久| 少妇av一区二区三区| 香蕉视频官网在线观看日本一区二区| 免费观看v片在线观看| 永久免费看mv网站入口亚洲| 日韩激情电影免费看| 中文字幕欧美日韩一区| 色就是色亚洲色图| 亚洲综合精品自拍| 精品亚洲aⅴ在线观看| 26uuu亚洲综合色欧美| 亚洲h在线观看| 日韩色视频在线观看| 91精品久久久久久久久久入口 | 久久野战av| 99re8这里有精品热视频免费| 精品久久久久久久| 91精品国产欧美日韩| 亚洲成人久久网| 国产在线高清精品| 欧美午夜国产| 91干在线观看| 久久精品国产色蜜蜜麻豆| 成人免费网站在线| 国产亚洲在线| 精品成人一区二区三区| 国产精品av一区二区三区| 日本一区二区免费在线观看视频| 国产一二三视频| www..com久久爱| 久热久精久品这里在线观看 | 欧美韩日一区二区| 美国三级日本三级久久99| 视频在线观看你懂的| 日本伊人色综合网| 成人高清在线| 精品国产乱码久久久久久蜜臀| av亚洲在线观看| 中文字幕最新精品| 成人免费黄色在线| 天堂在线视频中文网| 国产女人aaa级久久久级| 午夜激情影院| 亚洲素人一区二区| 综合中文字幕| 日日躁夜夜躁人人揉av五月天| 99re这里只有精品首页| 日本视频在线| 天天色 色综合| 欧美午夜在线播放| 亚洲欧美激情在线视频| 最新亚洲视频| www视频在线看| 精品久久久网站| 91美女片黄在线| 国产影视一区| 久艹在线视频| 欧美午夜精品伦理|