日本在线观看,国产激情视频一区二区在线观看 ,а√天堂资源官网在线资源,性网站在线看,久久99影视,国产精品嫩草影院av蜜臀,精品久久久香蕉免费精品视频,欧美日韩国产一区二区三区地区,国产性做久久久久久,在线看成人短视频

Categories


Tags


robot.txt在SEO中的作用

在進行網站優化的時候,經常會使用robots文件把一些內容不想讓蜘蛛抓取,以前寫過一篇網站優化robots.txt文件的運用 現在寫這篇文章在補充一點點知識!什么是robots.txt文件

搜索引擎通過一種爬蟲spider程序(又稱搜索蜘蛛、robot、搜索機器人等),自動搜集互聯網上的網頁并獲取相關信息。

鑒于網絡安全與隱私的考慮,搜索引擎遵循robots.txt協議。通過根目錄中創建的純文本文件robots.txt,網站可以聲明不想被robots訪問的部分。每個網站都可以自主控制網站是否愿意被搜索引擎收錄,或者指定搜索引擎只收錄指定的內容。當一個搜索引擎的爬蟲訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果該文件不存在,那么爬蟲就沿著鏈接抓取,如果存在,爬蟲就會按照該文件中的內容來確定訪問的范圍。

robots.txt必須放置在一個站點的根目錄下,而且文件名必須全部小寫。robots.txt文件的格式

User-agent: 定義搜索引擎的類型

Disallow: 定義禁止搜索引擎收錄的地址

Allow: 定義允許搜索引擎收錄的地址

我們常用的搜索引擎類型有:

google蜘蛛:googlebot

百度蜘蛛:baiduspider

yahoo蜘蛛:slurp

alexa蜘蛛:ia_archiver

msn蜘蛛:msnbot

altavista蜘蛛:scooter

lycos蜘蛛:lycos_spider_(t-rex)

alltheweb蜘蛛:fast-webcrawler

inktomi蜘蛛: slurprobots.txt文件的寫法

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Disallow: /admin/ 這里定義是禁止爬尋admin目錄下面的目錄

Disallow: /require/ 這里定義是禁止爬尋require目錄下面的目錄

Disallow: /ABC 這里定義是禁止爬尋ABC整個目錄

Disallow: /cgi-bin/*.htm 禁止訪問/cgi-bin/目錄下的所有以".htm"為后綴的URL(包含子目錄)。

Disallow: /*?* 禁止訪問網站中所有的動態頁面

Disallow: .jpg$ 禁止抓取網頁所有的.jpg格式的圖片

Disallow:/ab/adc.html 禁止爬去ab文件夾下面的adc.html所有文件

User-agent: * 這里的*代表的所有的搜索引擎種類,*是一個通配符

Allow: /cgi-bin/ 這里定義是允許爬尋cgi-bin目錄下面的目錄

Allow: /tmp 這里定義是允許爬尋tmp的整個目錄

Allow: .htm$ 僅允許訪問以".htm"為后綴的URL。

Allow: .gif$ 允許抓取網頁和gif格式圖片robots.txt文件用法舉例

例1. 禁止所有搜索引擎訪問網站的任何部分

User-agent: *

Disallow: /

實例分析:淘寶網的 Robots.txt文件

User-agent: Baiduspider

Disallow: /

很顯然淘寶不允許百度的機器人訪問其網站下其所有的目錄。

例2. 允許所有的robot訪問 (或者也可以建一個空文件 "/robots.txt" file)

User-agent: *

Disallow:

例3. 禁止某個搜索引擎的訪問

User-agent: BadBot

Disallow: /

例4. 允許某個搜索引擎的訪問

User-agent: baiduspider

Disallow: User-agent: *Disallow: /

例5.一個簡單例子

在這個例子中,該網站有三個目錄對搜索引擎的訪問做了限制,即搜索引擎不會訪問這三個目錄。

需要注意的是對每一個目錄必須分開聲明,而不要寫成 "Disallow: /cgi-bin/ /tmp/"。

User-agent:后的*具有特殊的含義,代表"any robot",所以在該文件中不能有"Disallow: /tmp/*" or "Disallow:*.gif"這樣的記錄出現。

User-agent: *

Disallow: /cgi-bin/

Disallow: /tmp/

Disallow: /~joe/

Robot特殊參數:

允許 Googlebot:

如果您要攔截除 Googlebot 以外的所有漫游器訪問您的網頁,可以使用下列語法:

User-agent:

Disallow:/

User-agent:Googlebot

Disallow:

Googlebot 跟隨指向它自己的行,而不是指向所有漫游器的行。

"Allow"擴展名:

Googlebot 可識別稱為"Allow"的 robots.txt 標準擴展名。其他搜索引擎的漫游器可能無法識別此擴展名,因此請使用您感興趣的其他搜索引擎進行查找。"Allow"行的作用原理完全與"Disallow"行一樣。只需列出您要允許的目錄或頁面即可。

您也可以同時使用"Disallow"和"Allow"。例如,要攔截子目錄中某個頁面之外的其他所有頁面,可以使用下列條目:

User-Agent:Googlebot

Disallow:/folder1/

Allow:/folder1/myfile.html

這些條目將攔截 folder1 目錄內除 myfile.html 之外的所有頁面。

如果您要攔截 Googlebot 并允許 Google 的另一個漫游器(如 Googlebot-Mobile),可使用"Allow"規則允許該漫游器的訪問。例如:

User-agent:Googlebot

Disallow:/

User-agent:Googlebot-Mobile

Allow:

使用 * 號匹配字符序列:

您可使用星號 (*) 來匹配字符序列。例如,要攔截對所有以 private 開頭的子目錄的訪問,可使用下列條目:

User-Agent:Googlebot

Disallow:/private*/

要攔截對所有包含問號 (?) 的網址的訪問,可使用下列條目:

User-agent:*

Disallow:/*?*

使用 $ 匹配網址的結束字符

您可使用 $ 字符指定與網址的結束字符進行匹配。例如,要攔截以 .asp 結尾的網址,可使用下列條目:

User-Agent:Googlebot

Disallow:/*.asp$

您可將此模式匹配與 Allow 指令配合使用。例如,如果 ? 表示一個會話 ID,您可排除所有包含該 ID 的網址,確保 Googlebot 不會抓取重復的網頁。但是,以 ? 結尾的網址可能是您要包含的網頁版本。在此情況下,可對 robots.txt 文件進行如下設置:

User-agent:*

Allow:/*?$

Disallow:/*?

Disallow:/ *?

一行將攔截包含 ? 的網址(具體而言,它將攔截所有以您的域名開頭、后接任意字符串,然后是問號 (?),而后又是任意字符串的網址)。

Allow: /*?$ 一行將允許包含任何以 ? 結尾的網址(具體而言,它將允許包含所有以您的域名開頭、后接任意字符串,然后是問號 (?),問號之后沒有任何字符的網址)。Robots Meta標簽

Robots.txt文件主要是限制整個站點或者目錄的搜索引擎訪問情況,而Robots Meta標簽則主要是針對一個個具體的頁面。和其他的META標簽(如使用的語言、頁面的描述、關鍵詞等)一樣,Robots Meta標簽也是放在頁面的中,專門用來告訴搜索引擎ROBOTS如何抓取該頁的內容。

Robots Meta標簽中沒有大小寫之分,name="Robots"表示所有的搜索引擎,可以針對某個具體搜索引擎寫為name="BaiduSpider"。content部分有四個指令選項:index、noindex、follow、nofollow,指令間以","分隔。

index指令告訴搜索機器人抓取該頁面;

follow指令表示搜索機器人可以沿著該頁面上的鏈接繼續抓取下去;

Robots Meta標簽的缺省值是index和follow,只有inktomi除外,對于它,缺省值是index、nofollow。

需要注意的是:上述的robots.txt和Robots Meta標簽限制搜索引擎機器人(ROBOTS)抓取站點內容的辦法只是一種規則,需要搜索引擎機器人的配合才行,并不是每個ROBOTS都遵守的。

目前看來,絕大多數的搜索引擎機器人都遵守robots.txt的規則,而對于RobotsMETA標簽,目前支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令"archive",可以限制GOOGLE是否保留網頁快照。

來源:360站長平臺


Public @ 2020-01-26 16:09:04

URL如何優化?網站url鏈接形式這樣去做,利于優化

URL該如何優化?方法如下:1、URL越短越好對于搜索引擎來說,只要URL不超過1000個字母,收錄都沒有問題。不過真地使用幾百個字母的URL,用戶看著費事。另外短的URL也利于傳播,做鏈接時短的URL復制沒有什么問題,長的復制也費勁,有時不能完整復制下來,容易出現404錯誤。2、避免太多參數盡可能地使用靜態URL。如果技術上不能實現靜態URL,那動態的URL必須減少參數。一般建議2~3個參數之內

Public @ 2016-11-17 16:12:00

搜索引擎自己應該是可以檢測協議死鏈(404、403等)的,為什么還需要站長提交?

搜索引擎可以通過爬取網頁來檢測協議死鏈,但是這個過程是需要時間和資源的。站長提交可以加快搜索引擎檢測協議死鏈的速度,同時也可以為搜索引擎提供更加準確的信息,因為站長提交的信息可能會包括更多的細節和背景信息,這對搜索引擎來說非常有幫助。此外,站長提交還可以讓搜索引擎更加及時地了解到網站的變化,從而更加準確地更新索引。

Public @ 2023-04-29 22:00:07

哪些網站的目錄需求運用robots.txt文件制止抓取

1. 銀行和金融機構的網站,因為這些網站可能包含敏感信息,例如客戶的個人和財務信息。 2. 醫療保健機構的網站,因為這些網站可能包含個人醫療信息。 3. 藝術、音樂和影片網站,因為這些網站可能包含受版權法保護的內容。 4. 政府網站,特別是警察局和情報機構的網站,因為這些機構的網站可能包含安全敏感信息。 5. 搜索引擎的漏洞報告網站,因為這些網站可能敏感地顯示諸如數據庫配置、文件位置等敏感

Public @ 2023-06-15 06:00:13

禁止搜索引擎收錄的方法

1. 什么是robots.txt文件?搜索引擎使用spider程序自動訪問互聯網上的網頁并獲取網頁信息。spider在訪問一個網站時,會首先會檢查該網站的根域下是否有一個叫做 robots.txt的純文本文件,這個文件用于指定spider在您網站上的抓取范圍。您可以在您的網站中創建一個robots.txt,在文件中聲明 該網站中不想被搜索引擎收錄的部分或者指定搜索引擎只收錄特定的部分。請注意,僅當

Public @ 2015-10-28 16:08:55

更多您感興趣的搜索

0.491270s
日韩美女视频免费看| 女人色偷偷aa久久天堂| 九色porny在线| 男男激情在线| 区一区二日本| 欧美写真视频一区| 性感美女激情视频在线观看| 四虎永久在线| 免费一级毛片在线观看| 国产亚洲依依| 欧美成人hd| brazzers在线观看| 日本精品不卡| 色综合视频一区二区三区日韩 | 中文字幕精品影院| 成人羞羞网站入口免费| 亚洲福利精品| 国内精品久久久久影院一蜜桃| 国产成人精品www牛牛影视| 99精品视频在线观看| 国产精品久久久久影院色老大| 中文字幕一区在线观看| 精品毛片网大全| 欧美一区二区福利在线| 色偷偷噜噜噜亚洲男人的天堂| 久久久欧美一区二区| 国产精品爽爽ⅴa在线观看| 精东传媒在线观看| 日本在线视频中文有码| 激情视频亚洲| 欧美黄色大片网站| 国产在线播放一区二区三区 | 国产a级毛片一区| 亚洲国产高清不卡| 欧美探花视频资源| 国产一区二区三区日韩欧美| 97成人超碰免| 日韩av成人| 一呦二呦三呦精品国产| 国产影视一区| 国产综合久久久久久鬼色| 亚洲女性喷水在线观看一区| 日韩亚洲欧美在线| 欧美激情a∨在线视频播放| 日日噜噜夜夜狠狠视频| 牛牛电影国产一区二区| 亚洲涩涩av| 国模无码大尺度一区二区三区| 最新中文字幕一区二区三区| 欧美另类z0zxhd电影| 日韩在线中文字幕| 女同互忝互慰dv毛片观看| 操喷在线视频| av中文一区| 风流少妇一区二区| 色综合天天综合网天天看片| 一区二区三区黄色| 交换国产精品视频一区| 欧美a级在线观看| 999成人网| 久久久国产一区二区三区四区小说 | 91视频91自| 欧美人体做爰大胆视频| 欧美激情亚洲精品| аⅴ资源新版在线天堂| theporn国产在线精品| 蜜臀久久99精品久久久久宅男| 亚洲国产综合91精品麻豆| 日韩在线视频免费观看| 男女视频在线观看免费| 红杏aⅴ成人免费视频| 国产一区二区三区日韩| 欧美日韩一区视频| 国产精品va在线| 在线天堂中文资源最新版| 合欧美一区二区三区| 最新国产成人在线观看| 色婷婷av一区二区三区久久| 国产youjizz在线| 亚洲素人在线| 国产欧美一区视频| 一区二区三区动漫| 蜜桃视频在线观看www社区| 欧洲杯什么时候开赛| 成人黄色在线看| 亚洲福利精品在线| 香蕉视频在线网站| www.国产精品一区| 成人av免费在线播放| 日韩视频在线观看一区二区| 97影院在线观看| 啪啪激情综合网| 国产嫩草影院久久久久| 色av成人天堂桃色av| 国产精品久久久久久久久晋中 | 久久精品国亚洲| 偷偷要色偷偷| 精品免费在线| 日本韩国欧美国产| 久久久999成人| 国产欧美一区二区白浆黑人| av电影免费在线观看| 99精品国产一区二区青青牛奶| 国产激情一区二区三区桃花岛亚洲| 狠狠色丁香久久婷婷综| 精品av在线播放| 欧美亚洲在线观看| 亚洲伊人观看| 国产一区二区日韩| 欧美精品a∨在线观看不卡| 懂色av噜噜一区二区三区av | 天天影视涩香欲综合网| 一级毛片在线看| 久久综合99| 欧美午夜激情视频| 91精品国产综合久久精品app| 欧美日韩在线中文字幕| 99国内精品| 在线看国产视频| 美女av一区| 一区二区三区四区在线免费观看| 欧美精品video| 精品成人av| 2020国产精品| 4438全国成人免费| 精品精品国产毛片在线看| 中文字幕中文字幕在线一区| 911国产网站尤物在线观看| 91精品一久久香蕉国产线看观看| 91免费在线看| 97精品视频在线播放| 免费看一区二区三区| 国产精品国产三级国产aⅴ中文| 欧美自拍视频在线观看| 亚洲人成网77777色在线播放| 亚洲成人动漫一区| 中文字幕高清在线观看| 99精品福利视频| 亚洲欧美国产一本综合首页| 免费观看亚洲| 1000部国产精品成人观看| 嫩草影院官网| 久久一二三四| 久久精品中文字幕一区| a级日韩大片| 色婷婷精品久久二区二区蜜臂av| 国产日本在线视频| 国产一区视频网站| 7777免费精品视频| 色综合狠狠操| 精品久久国产97色综合| 天堂中文最新版在线中文| 国产精品久久久久三级| 天堂中文av| 麻豆精品视频在线观看| 欧美精品少妇videofree| 免费av一区二区三区四区| 91精品一区二区三区久久久久久 | 高清成人在线| 亚洲日韩欧美一区二区在线| 曰本人一级毛片免费完整视频| 91久久亚洲| 在线播放国产精品| 欧美午夜寂寞| 亚洲精品大尺度| 亚洲一区二区三区日本久久九| 在线影视一区二区三区| 草草影院在线| 亚洲一区二区在线播放相泽| аⅴ资源新版在线天堂| 久久精品网站免费观看| 青青国产在线| 久久精品夜色噜噜亚洲aⅴ| 日本v片在线免费观看| 99精品黄色片免费大全| 中国在线观看免费国语版电影 | 欧美tickling网站挠脚心| 国产成人精品一区二区三区免费| 午夜国产精品一区| av中文字幕在线看| 亚洲成人免费av| 国产美女一区视频| 无码av免费一区二区三区试看| www在线观看黄色| 91久久精品一区二区三区| 国产三级一区| 日韩三级在线免费观看| 国产精品网站在线看| 色爱综合区网| 亚洲国产激情av| av中文字幕一区二区三区| 国产精品丝袜久久久久久app| 1区2区3区在线观看| 国产精品激情偷乱一区二区∴| 在线国产91| 午夜电影网亚洲视频| 国产美女久久| 日韩久久免费电影| 欧美激情aⅴ一区二区三区| 海角国产乱辈乱精品视频|