日本在线观看,国产激情视频一区二区在线观看 ,а√天堂资源官网在线资源,性网站在线看,久久99影视,国产精品嫩草影院av蜜臀,精品久久久香蕉免费精品视频,欧美日韩国产一区二区三区地区,国产性做久久久久久,在线看成人短视频

Categories


Tags


玩轉(zhuǎn)robots協(xié)議

2013年2月8日北京市第一中級(jí)人民法院正式受理了百度訴奇虎360違反“Robots協(xié)議”抓取、復(fù)制其網(wǎng)站內(nèi)容的不正當(dāng)競(jìng)爭(zhēng)行為一案,索賠金額高達(dá)一億元,這可以看做2012年下半年“3B大戰(zhàn)”的繼續(xù)。在此次索賠案件中,百度稱自己的Robots文本中已設(shè)定不允許360爬蟲(chóng)進(jìn)入,而360的爬蟲(chóng)依然對(duì)“百度知道”、“百度百科”等百度網(wǎng)站內(nèi)容進(jìn)行抓取。

其實(shí)早在2012年11月初,針對(duì)雙方摩擦加劇的情況,在中國(guó)互聯(lián)網(wǎng)協(xié)會(huì)的牽頭下,包括百度、新浪、奇虎360在內(nèi)的12家互聯(lián)網(wǎng)公司已共同簽署了《互聯(lián)網(wǎng)搜索引擎服務(wù)自律公約》,在公約第七條承諾“遵循國(guó)際通行的行業(yè)慣例與商業(yè)規(guī)則,遵守機(jī)器人協(xié)議(robots協(xié)議)。

玩轉(zhuǎn)robots協(xié)議 網(wǎng)站優(yōu)化 搜索引擎 經(jīng)驗(yàn)心得 第1張

今天就找個(gè)機(jī)會(huì)聊聊一夜成名的robots協(xié)議。

初識(shí)robots協(xié)議

什么是robots

要了解robots協(xié)議首先要了解robots,本文說(shuō)的robots不是《I,robot》里的威爾·史密斯,不是《機(jī)器人總動(dòng)員》里的瓦力和伊娃,不是《終結(jié)者》系列中的施瓦辛格。什么?這些經(jīng)典電影你都不知道?好吧,算我想多了。本文的robots特指搜索引擎領(lǐng)域的web robots,這個(gè)名字可能很多人不熟悉,但是提到Web Wanderers,Crawlers和Spiders很多人可能就恍然大悟了,在中文里我們統(tǒng)稱為爬蟲(chóng)或者網(wǎng)絡(luò)爬蟲(chóng),也就是搜索引擎抓取互聯(lián)網(wǎng)網(wǎng)頁(yè)的程序。

同學(xué)們都知道網(wǎng)頁(yè)是通過(guò)超級(jí)鏈接互相關(guān)聯(lián)起來(lái)的,從而形成了網(wǎng)頁(yè)的網(wǎng)狀結(jié)構(gòu)。爬蟲(chóng)的工作方式就像蜘蛛在網(wǎng)上沿著鏈接爬來(lái)爬去,最基本的流程可以簡(jiǎn)化如下:

1.喂給爬蟲(chóng)一堆url,我們稱之為種子(seeds)

2.爬蟲(chóng)抓取seeds,解析html網(wǎng)頁(yè),抽取其中的超級(jí)鏈接

3.爬蟲(chóng)接著抓取這些新發(fā)現(xiàn)的鏈接指向的網(wǎng)頁(yè)

2,3循環(huán)往復(fù)

什么是robots協(xié)議

了解了上面的流程就能看到對(duì)爬蟲(chóng)來(lái)說(shuō)網(wǎng)站非常被動(dòng),只有老老實(shí)實(shí)被抓取的份。存在這樣的需求:

1.某些路徑下是個(gè)人隱私或者網(wǎng)站管理使用,不想被搜索引擎抓取,比如說(shuō)日本愛(ài)情動(dòng)作片

2.不喜歡某個(gè)搜索引擎,不愿意被他抓取,最有名的就是之前淘寶不希望被百度抓取

3.小網(wǎng)站使用的是公用的虛擬主機(jī),流量有限或者需要付費(fèi),希望搜索引擎抓的溫柔點(diǎn)

4.某些網(wǎng)頁(yè)是動(dòng)態(tài)生成的,沒(méi)有直接的鏈接指向,但是希望內(nèi)容被搜索引擎抓取和索引

網(wǎng)站內(nèi)容的所有者是網(wǎng)站管理員,搜索引擎應(yīng)該尊重所有者的意愿,為了滿足以上等等,就需要提供一種網(wǎng)站和爬蟲(chóng)進(jìn)行溝通的途徑,給網(wǎng)站管理員表達(dá)自己意愿的機(jī)會(huì)。有需求就有供應(yīng),robots協(xié)議就此誕生。Robots協(xié)議,學(xué)名叫:The Robots Exclusion Protocol,就搜索引擎抓取網(wǎng)站內(nèi)容的范圍作了約定,包括網(wǎng)站是否希望被搜索引擎抓取,哪些內(nèi)容不允許被抓取,把這些內(nèi)容放到一個(gè)純文本文件robots.txt里,然后放到站點(diǎn)的根目錄下。爬蟲(chóng)抓取網(wǎng)站內(nèi)容前會(huì)先抓取robots.txt,據(jù)此“自覺(jué)地”抓取或者不抓取該網(wǎng)頁(yè)內(nèi)容,其目的是保護(hù)網(wǎng)站數(shù)據(jù)和敏感信息、確保用戶個(gè)人信息和隱私不被侵犯。

需要注意的是robots協(xié)議并非是規(guī)范,只是行業(yè)內(nèi)一個(gè)約定俗成的協(xié)議。什么意思呢?Robots協(xié)議不是什么技術(shù)壁壘,而只是一種互相尊重的協(xié)議,好比私家花園的門(mén)口掛著“閑人免進(jìn)”,尊重者繞道而行,不尊重者依然可以推門(mén)而入,比如說(shuō)360。

說(shuō)了這么多,看幾個(gè)有名的例子感覺(jué)一下先:

例子1:淘寶

User-agent: Baiduspider

Disallow: /

User-agent: baiduspider

Disallow: /

程序猿,你懂的。這不就是淘寶不想讓百度抓取嘛

例子2:京東

User-agent: *

Disallow: /?*

Disallow: /pop/*.html

User-agent: EtaoSpider

Disallow: /

這個(gè)也不復(fù)雜,京東有2個(gè)目錄不希望所有搜索引擎來(lái)抓。同時(shí),對(duì)etao完全屏蔽。

基本玩法

robots.txt的位置

說(shuō)簡(jiǎn)單也簡(jiǎn)單,robots.txt放到一個(gè)站點(diǎn)的根目錄下即可。說(shuō)復(fù)雜也有點(diǎn)小復(fù)雜,一個(gè)robots.txt只能控制相同協(xié)議,相同端口,相同站點(diǎn)的網(wǎng)頁(yè)抓取策略。什么意思呢?看個(gè)例子最清楚:

百度網(wǎng)頁(yè)搜索

百度知道

這兩個(gè)robots.txt的內(nèi)容是不同的,也就是說(shuō)百度網(wǎng)頁(yè)搜索和百度知道的抓取策略可以由自己獨(dú)立的robots.txt來(lái)控制,井水不犯河水。

robots.txt的內(nèi)容

最簡(jiǎn)單的robots.txt只有兩條規(guī)則:

1.User-agent:指定對(duì)哪些爬蟲(chóng)生效

2.Disallow:指定要屏蔽的網(wǎng)址

整個(gè)文件分為x節(jié),一節(jié)由y個(gè)User-agent行和z個(gè)Disallow行組成。一節(jié)就表示對(duì)User-agent行指定的y個(gè)爬蟲(chóng)屏蔽z個(gè)網(wǎng)址。這里x>=0,y>0,z>0。x=0時(shí)即表示空文件,空文件等同于沒(méi)有robots.txt。

下面詳細(xì)介紹這兩條規(guī)則:

User-agent

爬蟲(chóng)抓取時(shí)會(huì)聲明自己的身份,這就是User-agent,沒(méi)錯(cuò),就是http協(xié)議里的User-agent。robots.txt利用User-agent來(lái)區(qū)分各個(gè)引擎的爬蟲(chóng)。

舉例說(shuō)明:Google網(wǎng)頁(yè)搜索爬蟲(chóng)的User-agent為Googlebot,下面這行就指定google的爬蟲(chóng)。

User-agent:Googlebot

如果想指定所有的爬蟲(chóng)怎么辦?不可能窮舉啊,可以用下面這一行:

User-agent: *

可能有的同學(xué)要問(wèn)了,我怎么知道爬蟲(chóng)的User-agent是什么?這里提供了一個(gè)簡(jiǎn)單的列表:爬蟲(chóng)列表

當(dāng)然,你還可以查相關(guān)搜索引擎的資料得到官方的數(shù)據(jù),比如說(shuō)google爬蟲(chóng)列表,百度爬蟲(chóng)列表

Disallow

Disallow 行列出的是要攔截的網(wǎng)頁(yè),以正斜線 (/) 開(kāi)頭,可以列出特定的網(wǎng)址或模式。

要屏蔽整個(gè)網(wǎng)站,使用正斜線即可:

Disallow: /

要屏蔽某一目錄以及其中的所有內(nèi)容,在目錄名后添加正斜線:

Disallow: /無(wú)用目錄名/

要屏蔽某個(gè)具體的網(wǎng)頁(yè),就指出這個(gè)網(wǎng)頁(yè)。

Disallow: /網(wǎng)頁(yè).html

Disallow還可以使用前綴和通配符。

要屏蔽目錄a1-a100,可以使用上面的方式寫(xiě)100行,或者

Disallow:/a

但是需要注意,這樣會(huì)把任何以a開(kāi)頭的目錄和文件也屏蔽,慎用。如果需要屏蔽a1-a100,但是不屏蔽a50,怎么辦?同學(xué)們可以思考一下,這個(gè)問(wèn)題我們留到下一節(jié)。

要阻止特定類型的文件(如 .gif),請(qǐng)使用以下內(nèi)容:

Disallow: /*.gif$

*匹配任意個(gè)字符,$匹配url結(jié)束,具體就不解釋了吧,不了解的同學(xué)去自學(xué)一下通配符。

提示一下,Disallow的內(nèi)容區(qū)分大小寫(xiě)。例如,Disallow: /junkfile.asp 會(huì)屏蔽 junkfile.asp,卻會(huì)允許Junk_file.asp。

最最后,通配符不是所有搜索引擎都支持,使用要小心。沒(méi)辦法,誰(shuí)讓robots.txt沒(méi)有一個(gè)大家都承認(rèn)的標(biāo)準(zhǔn)呢。

實(shí)例 ###

百度網(wǎng)頁(yè)搜索

User-agent: Baiduspider

Disallow: /baidu

Disallow: /s?

User-agent: Googlebot

Disallow: /baidu

Disallow: /s?

Disallow: /shifen/

Disallow: /homepage/

Disallow: /cpro

User-agent: MSNBot

Disallow: /baidu

Disallow: /s?

Disallow: /shifen/

Disallow: /homepage/

Disallow: /cpro

...

現(xiàn)在讀懂這個(gè)應(yīng)該毫無(wú)壓力了吧,順便說(shuō)一句百度的robots.txt比較啰嗦,有興趣的同學(xué)可以簡(jiǎn)化一下。

高階玩法

首先聲明:高級(jí)玩法不是所有引擎的爬蟲(chóng)都支持,一般來(lái)說(shuō),作為搜索引擎技術(shù)領(lǐng)導(dǎo)者的谷歌支持的最好。

例子:google robots.txt

allow

還記得上面的問(wèn)題嗎?如果需要屏蔽a1-a100,但是不屏蔽a50,怎么辦?

方案1:

Disallow:/a1/

Disallow:/a2/

...

Disallow:/a49/

Disallow:/a51/

...

Disallow:/a100/

方案2:

Disallow:/a

Allow:/a50/

ok,allow大家會(huì)用了吧。

順便說(shuō)一句,如果想屏蔽a50下面的文件private.html,咋整?

Disallow:/a

Allow:/a50/

Disallow:/a50/private.html

聰明的你一定能發(fā)現(xiàn)其中的規(guī)律,對(duì)吧?誰(shuí)管的越細(xì)就聽(tīng)誰(shuí)的。

sitemap

前面說(shuō)過(guò)爬蟲(chóng)會(huì)通過(guò)網(wǎng)頁(yè)內(nèi)部的鏈接發(fā)現(xiàn)新的網(wǎng)頁(yè)。但是如果沒(méi)有連接指向的網(wǎng)頁(yè)怎么辦?或者用戶輸入條件生成的動(dòng)態(tài)網(wǎng)頁(yè)怎么辦?能否讓網(wǎng)站管理員通知搜索引擎他們網(wǎng)站上有哪些可供抓取的網(wǎng)頁(yè)?這就是sitemap,最簡(jiǎn)單的 Sitepmap 形式就是 XML 文件,在其中列出網(wǎng)站中的網(wǎng)址以及關(guān)于每個(gè)網(wǎng)址的其他數(shù)據(jù)(上次更新的時(shí)間、更改的頻率以及相對(duì)于網(wǎng)站上其他網(wǎng)址的重要程度等等),利用這些信息搜索引擎可以更加智能地抓取網(wǎng)站內(nèi)容。

sitemap是另一個(gè)話題,足夠開(kāi)一篇新的文章聊的,這里就不展開(kāi)了,有興趣的同學(xué)可以參考sitemap

新的問(wèn)題來(lái)了,爬蟲(chóng)怎么知道這個(gè)網(wǎng)站有沒(méi)有提供sitemap文件,或者說(shuō)網(wǎng)站管理員生成了sitemap,(可能是多個(gè)文件),爬蟲(chóng)怎么知道放在哪里呢?

由于robots.txt的位置是固定的,于是大家就想到了把sitemap的位置信息放在robots.txt里。這就成為robots.txt里的新成員了。

節(jié)選一段google robots.txt:

Sitemap: http://www.gstatic.com/culturalinstitute/sitemaps/www_google_com_culturalinstitute/sitemap-index.xml

Sitemap: http://www.google.com/hostednews/sitemap_index.xml

插一句,考慮到一個(gè)網(wǎng)站的網(wǎng)頁(yè)眾多,sitemap人工維護(hù)不太靠譜,google提供了工具可以自動(dòng)生成sitemap。

meta tag

其實(shí)嚴(yán)格來(lái)說(shuō)這部分內(nèi)容不屬于robots.txt,不過(guò)也算非常相關(guān),我也不知道放哪里合適,暫且放到這里吧。

robots.txt的初衷是為了讓網(wǎng)站管理員管理可以出現(xiàn)在搜索引擎里的網(wǎng)站內(nèi)容。但是,即使使用 robots.txt 文件讓爬蟲(chóng)無(wú)法抓取這些內(nèi)容,搜索引擎也可以通過(guò)其他方式找到這些網(wǎng)頁(yè)并將它添加到索引中。例如,其他網(wǎng)站仍可能鏈接到該網(wǎng)站。因此,網(wǎng)頁(yè)網(wǎng)址及其他公開(kāi)的信息(如指向相關(guān)網(wǎng)站的鏈接中的定位文字或開(kāi)放式目錄管理系統(tǒng)中的標(biāo)題)有可能會(huì)出現(xiàn)在引擎的搜索結(jié)果中。如果想徹底對(duì)搜索引擎隱身那咋整呢?答案是:元標(biāo)記,即meta tag。

比如要完全阻止一個(gè)網(wǎng)頁(yè)的內(nèi)容列在搜索引擎索引中(即使有其他網(wǎng)站鏈接到此網(wǎng)頁(yè)),可使用 noindex 元標(biāo)記。只要搜索引擎查看該網(wǎng)頁(yè),便會(huì)看到 noindex 元標(biāo)記并阻止該網(wǎng)頁(yè)顯示在索引中,這里注意noindex元標(biāo)記提供的是一種逐頁(yè)控制對(duì)網(wǎng)站的訪問(wèn)的方式。

舉例:

要防止所有搜索引擎將網(wǎng)站中的網(wǎng)頁(yè)編入索引,在網(wǎng)頁(yè)的

部分添加:

<meta name="robots" content="noindex">

這里的name取值可以設(shè)置為某個(gè)搜索引擎的User-agent從而指定屏蔽某一個(gè)搜索引擎。

除了noindex外,還有其他元標(biāo)記,比如說(shuō)nofollow,禁止爬蟲(chóng)從此頁(yè)面中跟蹤鏈接。詳細(xì)信息可以參考Google支持的元標(biāo)記,這里提一句:noindex和nofollow在HTML 4.01規(guī)范里有描述,但是其他tag的在不同引擎支持到什么程度各不相同,還請(qǐng)讀者自行查閱各個(gè)引擎的說(shuō)明文檔。

Crawl-delay

除了控制哪些可以抓哪些不能抓之外,robots.txt還可以用來(lái)控制爬蟲(chóng)抓取的速率。如何做到的呢?通過(guò)設(shè)置爬蟲(chóng)在兩次抓取之間等待的秒數(shù)。

Crawl-delay:5

表示本次抓取后下一次抓取前需要等待5秒。

注意:google已經(jīng)不支持這種方式了,在webmaster tools里提供了一個(gè)功能可以更直觀的控制抓取速率。

這里插一句題外話,幾年前我記得曾經(jīng)有一段時(shí)間robots.txt還支持復(fù)雜的參數(shù):Visit-time,只有在visit-time指定的時(shí)間段里,爬蟲(chóng)才可以訪問(wèn);Request-rate: 用來(lái)限制URL的讀取頻率,用于控制不同的時(shí)間段采用不同的抓取速率。后來(lái)估計(jì)支持的人太少,就漸漸的廢掉了,有興趣的同學(xué)可以自行g(shù)oogle。我了解到的是目前google和baidu都已經(jīng)不支持這個(gè)規(guī)則了,其他小的引擎公司貌似從來(lái)都沒(méi)有支持過(guò)。如果確有支持那是我孤陋寡聞了,歡迎留言告知。

真的有用?

好吧,到此為止robots.txt相關(guān)的東東介紹的也七七八八了,能堅(jiān)持看到這里的同學(xué)估計(jì)都躍躍欲試了,可惜,我要潑盆冷水,能完全指望robots.txt保護(hù)我們網(wǎng)站的內(nèi)容嗎?不一定。否則百度和360就不用打官司了。

協(xié)議一致性

第一個(gè)問(wèn)題是robots.txt沒(méi)有一個(gè)正式的標(biāo)準(zhǔn),各個(gè)搜索引擎都在不斷的擴(kuò)充robots.txt功能,這就導(dǎo)致每個(gè)引擎對(duì)robots.txt的支持程度各有不同,更不用說(shuō)在某個(gè)功能上的具體實(shí)現(xiàn)的不同了。

緩存

第二個(gè)問(wèn)題是robots.txt本身也是需要抓取的,出于效率考慮,一般爬蟲(chóng)不會(huì)每次抓取網(wǎng)站網(wǎng)頁(yè)前都抓一下robots.txt,加上robots.txt更新不頻繁,內(nèi)容需要解析。通常爬蟲(chóng)的做法是先抓取一次,解析后緩存下來(lái),而且是相當(dāng)長(zhǎng)的時(shí)間。假設(shè)網(wǎng)站管理員更新了robots.txt,修改了某些規(guī)則,但是對(duì)爬蟲(chóng)來(lái)說(shuō)并不會(huì)立刻生效,只有當(dāng)爬蟲(chóng)下次抓取robots.txt之后才能看到最新的內(nèi)容。尷尬的是,爬蟲(chóng)下次抓取robots.txt的時(shí)間并不是由網(wǎng)站管理員控制的。當(dāng)然,有些搜索引擎提供了web 工具可以讓網(wǎng)站管理員通知搜索引擎那個(gè)url發(fā)生了變化,建議重新抓取。注意,此處是建議,即使你通知了搜索引擎,搜索引擎何時(shí)抓取仍然是不確定的,只是比完全不通知要好點(diǎn)。至于好多少,那就看搜索引擎的良心和技術(shù)能力了。

ignore

第三個(gè)問(wèn)題,不知是無(wú)意還是有意,反正有些爬蟲(chóng)不太遵守或者完全忽略robots.txt,不排除開(kāi)發(fā)人員能力的問(wèn)題,比如說(shuō)根本不知道robots.txt。另外,本身robots.txt不是一種強(qiáng)制措施,如果網(wǎng)站有數(shù)據(jù)需要保密,必需采取技術(shù)措施,比如說(shuō):用戶驗(yàn)證,加密,ip攔截,訪問(wèn)頻率控制等。

偷偷的抓

第四個(gè)問(wèn)題,即使采用了種種限制,仍然存在某些惡意的抓取行為能突破這些限制,比如一些利用肉雞進(jìn)行的抓取。悲觀的說(shuō),只要普通用戶可以訪問(wèn),就不能完全杜絕這種惡意抓取的行為。但是,可以通過(guò)種種手段使抓取的代價(jià)增大到讓對(duì)方無(wú)法接受。比如說(shuō):Captcha, Ajax用戶行為驅(qū)動(dòng)的異步加載等等。這個(gè)就不屬于本文討論的范疇了。

泄密

最后,robots.txt本身還存在泄密的風(fēng)險(xiǎn)。舉例,如果某一個(gè)網(wǎng)站的robots.txt里突然新增了一條:Disallow /map/,你想到了什么?是不是要推出地圖服務(wù)了?于是有好奇心的同學(xué)就會(huì)開(kāi)始嘗試各種文件名去訪問(wèn)該路徑下的文件,希望能看到驚喜。貌似當(dāng)初google的地圖就是這么被提前爆出來(lái)的,關(guān)于這點(diǎn)我不太確定,大家就當(dāng)八卦聽(tīng)聽(tīng)好了。

工具

google webmaster tools

robots.txt生成工具

Perl robots.txt解析器

Python robots.txt解析器

參考資料

robotstxt.org

google robots.txt規(guī)范

robots.txt wikipedia

Internet robot wikipedia

Web Crawler wikipedia

sitemap

文章來(lái)源:淘寶搜索技術(shù)博客 作者:桂南

來(lái)源:盧松松博客


Public @ 2019-05-13 16:09:21

新手如何掌握制作和提交網(wǎng)站地圖?

如果你是一個(gè)新手,以下是建議: 1. 了解什么是網(wǎng)站地圖(Sitemap) 網(wǎng)站地圖(Sitemap)是指一份關(guān)于網(wǎng)站上頁(yè)面、內(nèi)容和其他重要信息的清單。它可以幫助搜索引擎更好地了解并索引您的網(wǎng)站。 2. 確定您的網(wǎng)站地圖的結(jié)構(gòu) 通過(guò)選擇您的網(wǎng)站地圖結(jié)構(gòu),您可以確定哪些頁(yè)面是最重要的,并確定它們的層次結(jié)構(gòu)。一旦你確定了這個(gè)結(jié)構(gòu),你可以依次列出所有這些頁(yè)面。 3. 制作網(wǎng)站地圖 一旦你確定

Public @ 2023-04-20 17:50:29

robots使用誤區(qū)

1. 不需要在每個(gè)頁(yè)面都添加robots.txt文件:robots.txt文件只是一份給搜索引擎看的指令,如果不希望搜索引擎從該頁(yè)面抓取數(shù)據(jù),那么每一頁(yè)都是可以不用添加robots.txt文件的。 2. 不能用于移動(dòng)設(shè)備:robots.txt文件可用于搜索引擎爬蟲(chóng),但也可以在部分機(jī)型的移動(dòng)設(shè)備上進(jìn)行yu處理,可以用于控制移動(dòng)設(shè)備的蜘蛛爬行進(jìn)行內(nèi)容抓取。 3. 不應(yīng)該將robots保存到公用

Public @ 2023-03-03 14:00:19

Robots META標(biāo)簽的寫(xiě)法

如果您想讓搜索引擎忽略某些網(wǎng)頁(yè),可以使用"robots" META標(biāo)簽。以下是這種標(biāo)簽的寫(xiě)法: ```html ``` 上述標(biāo)簽將告訴搜索引擎不要索引或跟蹤該網(wǎng)頁(yè)。下面是一些其他常見(jiàn)的指令: - "index" 將指令搜索引擎索引該頁(yè)面。 - "follow" 將指令搜索引擎跟蹤此頁(yè)面上的鏈接。 - "noindex" 將指令搜索引擎不要索引此頁(yè)面。 - "nofollow" 將指令搜索引擎

Public @ 2023-04-08 21:50:38

更多您感興趣的搜索

0.449137s
国产一区视频在线看| 亚洲激情小视频| www.亚洲激情.com| 国产伦精一区二区三区| 蜜臀av一区二区在线观看| 蜜桃久久av| 久久成人麻豆午夜电影| 国产综合色精品一区二区三区| 久久五月激情| 激情久久久久久久久久久久久久久久| 精品一区二区三区免费毛片爱| 国产在线精品一区二区| 成人激情视频网站| 国产日产精品1区| 亚洲伦理在线精品| 色综合色狠狠综合色| 555www色欧美视频| 日韩国产精品视频| 草民午夜欧美限制a级福利片| 欧美激情性做爰免费视频| 热久久免费视频精品| 国产在线拍揄自揄视频不卡99| 交换国产精品视频一区| 国产视频三区| 触手亚洲一区二区三区| av电影免费在线看| 高清不卡一区| 精品一区二区三| 国产精品久久777777毛茸茸| 韩国v欧美v日本v亚洲v| 国产女主播视频一区二区| 亚洲成av人片一区二区| 在线综合视频播放| 麻豆成人在线看| 国产精品女人久久久久久| 成年午夜在线| 国产精品黄色片| 国产精品88久久久久久| 免费久久精品视频| 国产精品国产自产拍在线| 91久久久免费一区二区| 亚洲欧美日韩天堂| 国产高清视频一区三区| www.成人.com| www欧美在线观看| 999精品一区| 国产揄拍国内精品对白| 亚洲综合在线观看视频| 精品国产伦一区二区三区免费 | 黑人狂躁日本妞一区二区三区| 宅男在线国产精品| 欧美激情在线播放| 一本大道香蕉久在线播放29| 在线手机中文字幕| 国产精品久久久乱弄| 国产91精品一区二区麻豆网站| 天天色天天爱天天射综合| 亚洲国产欧美精品| 成人免费在线视频网站| 97蜜桃久久| 999久久久免费精品国产| 成人免费高清在线观看| 欧美中文字幕不卡| 久久久免费观看视频| 国产在线你懂得| av男人一区| 韩日av一区二区| 日本丰满少妇一区二区三区| 另类图片亚洲另类| av在线三区| 欧美激情极品| 粉嫩一区二区三区性色av| 欧美日韩精品欧美日韩精品| 欧美在线一级va免费观看| 七七成人影院| 精品99视频| 亚洲1区2区3区视频| 欧美二区在线播放| caoporn97在线视频| 日韩伦理一区| 国产精品久久久久一区| 国产亚洲精品久久久久久牛牛| 蜜桃tv在线播放| 国偷自产视频一区二区久| 久久99九九99精品| 欧美写真视频网站| 国产日产欧美精品| 黄页免费欧美| 国产一区二区在线免费观看| 欧美丰满美乳xxx高潮www| 国产精品免费视频xxxx| 国产成人精品一区二区三区在线| 黄色亚洲精品| 精品久久久一区| 国产精品999| 国产精品欧美一区喷水| 成人高清免费观看| 亚洲东热激情| 国产欧美自拍一区| 岛国在线大片| 欧美国产视频日韩| 亚洲视频精选| 成人av电影在线播放| 亚洲级视频在线观看免费1级| 中文字幕在线网| 欧美色图五月天| 亚洲国产精品99久久久久久久久| 久久天天躁狠狠躁夜夜爽蜜月| www.九色在线| 久久国产精品露脸对白| 亚洲国产美女精品久久久久∴| av网站在线播放| 国产日韩精品视频一区二区三区| 欧美精品乱人伦久久久久久| 色综合久久网女同蕾丝边| 97视频热人人精品免费| 午夜影院久久久| 电影天堂久久| 日韩毛片视频| 91久久精品一区二区三| 中文字幕在线影院| 亚洲精品91| 91精品欧美综合在线观看最新| 欧美3p视频在线观看| 亚洲欧洲日本一区二区三区| 日韩一区二区三区高清免费看看| 成黄免费在线| 蜜桃精品在线观看| 综合久久五月天| 羞羞视频在线观看一区二区| 国产精品不卡在线| 日本欧美亚洲| 日韩亚洲在线| 一本久久综合亚洲鲁鲁| 欧美一级鲁丝片| 久久久久久久一区| 国产精品男人爽免费视频1| 欧美独立站高清久久| 69av一区二区三区| 国产网红女主播精品视频| 粉嫩13p一区二区三区| 午夜精品久久久久久久久久久久久| jizz性欧美23| 岛国精品视频在线播放| 日产精品久久久久久久性色| 日韩电影在线一区二区三区| 久久精品视频在线| 色愁久久久久久| 欧美精选一区二区| 僵尸再翻生在线观看| 国产精品麻豆99久久久久久| 蜜臀一区二区三区| 奇米影视在线99精品| 色在人av网站天堂精品| 最新亚洲精品| 精品成人a区在线观看| 国产精品久久久久久久久久齐齐| 亚洲精品国产无天堂网2021| 激情在线视频| 91免费看`日韩一区二区| www.三区| 韩国毛片一区二区三区| 国产精品va在线播放我和闺蜜| 欧美日韩爆操| 欧美理论片在线观看| 999国产精品永久免费视频app| 国产福利片在线观看| 亚洲天堂黄色| 欧美精品久久久久久久久| 国产精品一区三区| 欧美14一18处毛片| 欧美高清一级片在线| 神马电影久久| 91人成在线| 精品无码三级在线观看视频| 成人短视频在线观看| 日韩久久午夜影院| 欧美精品一卡| www.久久撸.com| 成人bbav| 亚洲精品免费在线| 久久香蕉一区| 亚洲自拍偷拍图区| 国产精品天天狠天天看| 丝袜av一区| 亚洲综合一二三区| 亚洲第一区视频| 亚洲综合不卡| 亚洲香肠在线观看| 第一av在线| 一区二区三区欧美激情| 国产黄a三级三级三级av在线看| 国产人妖乱国产精品人妖| 免费在线观看污视频| 欧美激情资源网| 国产黄网站在线观看| 一卡二卡三卡日韩欧美| 精精国产xxx在线视频app| 在线视频观看一区| 亚洲一区二区免费在线观看|