卖逼视频免费看片|狼人就干网中文字慕|成人av影院导航|人妻少妇精品无码专区二区妖婧|亚洲丝袜视频玖玖|一区二区免费中文|日本高清无码一区|国产91无码小说|国产黄片子视频91sese日韩|免费高清无码成人网站入口

spider抓取過程中的策略

spider 抓取過程中的策略spider 在抓取過程中面對著復雜的網絡環(huán)境,為了使系統(tǒng)可以抓取到盡可能多的有價值資源并保持系統(tǒng)及實際環(huán)境中頁面的一致性同時不給網站體驗造成壓力,會設計多種復雜的抓取策

spider 抓取過程中的策略

spider 在抓取過程中面對著復雜的網絡環(huán)境,為了使系統(tǒng)可以抓取到盡可能多的有價值資源并保持系統(tǒng)及實際環(huán)境中頁面的一致性同時不給網站體驗造成壓力,會設計多種復雜的抓取策略。以下簡單介紹一下抓取過程中涉及到的主要策略類型:

1、抓取友好性:抓取壓力調配降低對網站的訪問壓力

2、常用抓取返回碼示意

3、多種url 重定向的識別

4、抓取優(yōu)先級調配

5、重復url 的過濾

6、暗網數(shù)據(jù)的獲取

7、抓取反作弊

8、提高抓取效率,高效利用帶寬

1、抓取友好性

互聯(lián)網資源龐大的數(shù)量級,這就要求抓取系統(tǒng)盡可能的高效利用帶寬,在有限的硬件和帶寬資源下盡可能多的抓取到有價值資源。這就造成了另一個問題,耗費被抓網站的帶寬造成訪問壓力,如果程度過大將直接影響被抓網站的正常用戶訪問行為。因此,在抓取過程中就要進行一定的抓取壓力控制,達到既不影響網站的正常用戶訪問又能盡量多的抓取到有價值資源的目的。

通常情況下,最基本的是基于ip 的壓力控制。這是因為如果基于域名,可能存在一個域名對多個ip (很多大網站)或多個域名對應同一個ip (小網站共享ip )的問題。實際中,往往根據(jù)ip 及域名的多種條件進行壓力調配控制。同時,站長平臺也推出了壓力反饋工具,站長可以人工調配對自己網站的抓取壓力,這時百度spider 將優(yōu)先按照站長的要求進行抓取壓力控制。

對同一個站點的抓取速度控制一般分為兩類:其一,一段時間內的抓取頻率;其二,一段時間內的抓取流量。同一站點不同的時間抓取速度也會不同,例如夜深人靜月黑風高時候抓取的可能就會快一些,也視具體站點類型而定,主要思想是錯開正常用戶訪問高峰,不斷的調整。對于不同站點,也需要不同的抓取速度。

2、常用抓取返回碼示意

簡單介紹幾種百度支持的返回碼:

,

1) 最常見的404代表“NOT FOUND ”,認為網頁已經失效,通常將在庫中刪除,同時短期內如果spider 再次發(fā)現(xiàn)這條url 也不會抓取;

2) 503代表“Service Unavailable ”,認為網頁臨時不可訪問,通常網站臨時關閉,帶寬有限等會產生這種情況。對于網頁返回503狀態(tài)碼,百度spider 不會把這條url 直接刪除,同時短期內將會反復訪問幾次,如果網頁已恢復,則正常抓?。蝗绻^續(xù)返回503,那么這條url 仍會被認為是失效鏈接,從庫中刪除。

3) 403代表“Forbidden ”,認為網頁目前禁止訪問。如果是新url ,spider 暫時不抓取,短期內同樣會反復訪問幾次;如果是已收錄url ,不會直接刪除,短期內同樣反復訪問幾次。如果網頁正常訪問,則正常抓??;如果仍然禁止訪問,那么這條url 也會被認為是失效鏈接,從庫中刪除。baike.techan.com

4)301 代表是“Moved Permanently”,認為網頁重定向至新url 。當遇到站點遷移、域名更換、站點改版的情況時,我們推薦使用301返回碼,同時使用站長平臺網站改版工具,以減少改版對網站流量造成的損失。

3、多種url 重定向的識別

互聯(lián)網中一部分網頁因為各種各樣的原因存在url 重定向狀態(tài),為了對這部分資源正常抓取,就要求spider 對url 重定向進行識別判斷,同時防止作弊行為。重定向可分為三類:http 30x重定向、meta refresh重定向和js 重定向。另外,百度也支持Canonical 標簽,在效果上可以認為也是一種間接的重定向。

4、抓取優(yōu)先級調配

由于互聯(lián)網資源規(guī)模的巨大以及迅速的變化,對于搜索引擎來說全部抓取到并合理的更新保持一致性幾乎是不可能的事情,因此這就要求抓取系統(tǒng)設計一套合理的抓取優(yōu)先級調配策略。主要包括:深度優(yōu)先遍歷策略、寬度優(yōu)先遍歷策略、pr 優(yōu)先策略、反鏈策略、社會化分享指導策略等等。每個策略各有優(yōu)劣,在實際情況中往往是多種策略結合使用以達到最優(yōu)的抓取效果。

5、重復url 的過濾

spider 在抓取過程中需要判斷一個頁面是否已經抓取過了,如果還沒有抓取再進行抓取網頁的行為并放在已抓取網址集合中。判斷是否已經抓取其中涉及到最核心的是快速查找并對比,同時涉及到url 歸一化識別,例如一個url 中包含大量無效參數(shù)而實際是同一個頁面,這將視為同一個url 來對待。

6、暗網數(shù)據(jù)的獲取

互聯(lián)網中存在著大量的搜索引擎暫時無法抓取到的數(shù)據(jù),被稱為暗網數(shù)據(jù)。一方面,很多網站的大量數(shù)據(jù)是存在于網絡數(shù)據(jù)庫中,spider 難以采用抓取網頁的方式獲得完整內容;另一

,

方面,由于網絡環(huán)境、網站本身不符合規(guī)范、孤島等等問題,也會造成搜索引擎無法抓取。目前來說,對于暗網數(shù)據(jù)的獲取主要思路仍然是通過開放平臺采用數(shù)據(jù)提交的方式來解決,例如“百度站長平臺”“百度開放平臺”等等。

7、抓取反作弊

spider 在抓取過程中往往會遇到所謂抓取黑洞或者面臨大量低質量頁面的困擾,這就要求抓取系統(tǒng)中同樣需要設計一套完善的抓取反作弊系統(tǒng)。例如分析url 特征、分析頁面大小及內容、分析站點規(guī)模對應抓取規(guī)模等等。

標簽: