網(wǎng)絡(luò)爬蟲(chóng)技術(shù)的概述與研究[蒼松教學(xué)]_第1頁(yè)
網(wǎng)絡(luò)爬蟲(chóng)技術(shù)的概述與研究[蒼松教學(xué)]_第2頁(yè)
網(wǎng)絡(luò)爬蟲(chóng)技術(shù)的概述與研究[蒼松教學(xué)]_第3頁(yè)
已閱讀5頁(yè),還剩2頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、網(wǎng)絡(luò)爬蟲(chóng)技術(shù)的概述與研究摘要 網(wǎng)絡(luò)爬蟲(chóng),又被稱(chēng)為網(wǎng)頁(yè)蜘蛛,網(wǎng)絡(luò)機(jī)器人,隨著網(wǎng)絡(luò)的迅速發(fā)展,萬(wàn)維網(wǎng)成為大量信息的載體,如何有效地提取并利用這些信息成為一個(gè)巨大的挑戰(zhàn)。搜索引擎 (Search Engine),例如傳統(tǒng)的通用搜索引擎AltaVista,Yahoo!和Google等,作為一個(gè)輔助人們檢索信息的工具成為用戶(hù)訪(fǎng)問(wèn)web的入口和指南。但是,這些通用性搜索引擎也存在著一定的局限性。為了解決上述問(wèn)題,定向抓取相關(guān)網(wǎng)頁(yè)資源的聚焦爬蟲(chóng)應(yīng)運(yùn)而生。聚焦爬蟲(chóng)是一個(gè)自動(dòng)下載網(wǎng)頁(yè)的程序,它根據(jù)既定的抓取目標(biāo),有選擇的訪(fǎng)問(wèn)萬(wàn)維網(wǎng)上的網(wǎng)頁(yè)與相關(guān)的鏈接,獲取所需要的信息。本文將對(duì)網(wǎng)絡(luò)爬蟲(chóng)技術(shù)及其原理進(jìn)行簡(jiǎn)單的介紹

2、,并且給出實(shí)例。關(guān)鍵詞網(wǎng)絡(luò)爬蟲(chóng) 聚焦爬蟲(chóng) 網(wǎng)頁(yè)抓取 搜索策略 URL一、網(wǎng)絡(luò)爬蟲(chóng)的簡(jiǎn)介1、URL在介紹網(wǎng)絡(luò)爬蟲(chóng)之前,先引入U(xiǎn)RL的相關(guān)知識(shí)。URL是URI的一個(gè)子集。它是Uniform Resource Locator的縮寫(xiě),譯為“統(tǒng)一資源定位符”。通俗地說(shuō),URL是Internet上描述信息資源的字符串,主要用在各種WWW客戶(hù)程序和服務(wù)器程序上,特別是著名的Mosaic。采用URL可以用一種統(tǒng)一的格式來(lái)描述各種信息資源,包括文件、服務(wù)器的地址和目錄等。URL的格式由三部分組成:第一部分是協(xié)議(或稱(chēng)為服務(wù)方式)。第二部分是存有該資源的主機(jī)IP地址(有時(shí)也包括端口號(hào))。第三部分是主機(jī)資源的具體地

3、址,如目錄和文件名等。第一部分和第二部分用“:/”符號(hào)隔開(kāi),第二部分和第三部分用“/”符號(hào)隔開(kāi)。第一部分和第二部分是不可缺少的,第三部分有時(shí)可以省略。 用URL表示文件時(shí),服務(wù)器方式用file表示,后面要有主機(jī)IP地址、文件的存取路徑(即目錄)和文件名等信息。有時(shí)可以省略目錄和文件名,但“/”符號(hào)不能省略。例如file://pub/files/foobar.txt 爬蟲(chóng)最主要的處理對(duì)象就是URL,它根據(jù)URL地址取得所需要的文件內(nèi)容,然后對(duì)它進(jìn)行進(jìn)一步的處理。2、傳統(tǒng)爬蟲(chóng)與聚焦爬蟲(chóng)網(wǎng)絡(luò)爬蟲(chóng)是一個(gè)自動(dòng)提取網(wǎng)頁(yè)的程序,它為搜索引擎從web上下載網(wǎng)頁(yè),是搜索引擎的重要

4、組成。 傳統(tǒng)爬蟲(chóng)從一個(gè)或若干初始網(wǎng)頁(yè)的URL開(kāi)始,獲得初始網(wǎng)頁(yè)上的URL,在抓取網(wǎng)頁(yè)的過(guò)程中,不斷從當(dāng)前頁(yè)面上抽取新的URL放入隊(duì)列,直到滿(mǎn)足系統(tǒng)的一定停止條件。搜索引擎是基于傳統(tǒng)爬蟲(chóng)技術(shù)建立的,但其存在著一定的局限性,例如:(1) 不同領(lǐng)域、不同背景的用戶(hù)往往具有不同的檢索目的和需求,通用搜索引擎所返回的結(jié)果包含大量用戶(hù)不關(guān)心的網(wǎng)頁(yè)。(2)通用搜索引擎的目標(biāo)是盡可能大的網(wǎng)絡(luò)覆蓋率,有限的搜索引擎服務(wù)器資源與無(wú)限的網(wǎng)絡(luò)數(shù)據(jù)資源之間的矛盾將進(jìn)一步加深。(3)萬(wàn)維網(wǎng)數(shù)據(jù)形式的豐富和網(wǎng)絡(luò)技術(shù)的不斷發(fā)展,圖片、數(shù)據(jù)庫(kù)、音頻、視頻多媒體等不同數(shù)據(jù)大量出現(xiàn),通用搜索引擎往往對(duì)這些信息含量密集且具有一定結(jié)構(gòu)

5、的數(shù)據(jù)無(wú)能為力,不能很好地發(fā)現(xiàn)和獲取。(4)通用搜索引擎大多提供基于關(guān)鍵字的檢索,難以支持根據(jù)語(yǔ)義信息提出的查詢(xún)。為了解決以上問(wèn)題,定向抓取網(wǎng)頁(yè)的聚焦爬蟲(chóng)應(yīng)運(yùn)而生。 聚焦爬蟲(chóng)的工作流程較為復(fù)雜,需要根據(jù)一定的網(wǎng)頁(yè)分析算法過(guò)濾與主題無(wú)關(guān)的鏈接,保留有用的鏈接并將其放入等待抓取URL的隊(duì)列。然后,它將根據(jù)一定的搜索策略從隊(duì)列中選擇下一步要抓取的網(wǎng)頁(yè)URL,并重復(fù)上述過(guò)程,直到達(dá)到系統(tǒng)的某一條件時(shí)停止。二、網(wǎng)絡(luò)爬蟲(chóng)的工作原理 在網(wǎng)絡(luò)爬蟲(chóng)的系統(tǒng)框架中,主過(guò)程由控制器,解析器,資源庫(kù)三部分組成??刂破鞯闹饕ぷ魇秦?fù)責(zé)給多線(xiàn)程中的各個(gè)爬蟲(chóng)線(xiàn)程分配工作任務(wù)。解析器的主要工作是下載網(wǎng)頁(yè),進(jìn)行頁(yè)面的處理,主要是

6、將一些JS腳本標(biāo)簽、CSS代碼內(nèi)容、空格字符、HTML標(biāo)簽等內(nèi)容處理掉,爬蟲(chóng)的基本工作是由解析器完成。資源庫(kù)是用來(lái)存放下載到的網(wǎng)頁(yè)資源,一般都采用大型的數(shù)據(jù)庫(kù)存儲(chǔ),如Oracle數(shù)據(jù)庫(kù),并對(duì)其建立索引。相對(duì)于通用網(wǎng)絡(luò)爬蟲(chóng),聚焦爬蟲(chóng)還需要解決三個(gè)主要問(wèn)題: (1) 對(duì)抓取目標(biāo)的描述或定義; (2) 對(duì)網(wǎng)頁(yè)或數(shù)據(jù)的分析與過(guò)濾; (3) 對(duì)URL的搜索策略。 抓取目標(biāo)的描述和定義是決定網(wǎng)頁(yè)分析算法與URL搜索策略如何制訂的基礎(chǔ)。而網(wǎng)頁(yè)分析算法和候選URL排序算法是決定搜索引擎所提供的服務(wù)形式和爬蟲(chóng)網(wǎng)頁(yè)抓取行為的關(guān)鍵所在。這兩個(gè)部分的算法又是緊密相關(guān)的。1、抓取目標(biāo)描述現(xiàn)有聚焦爬蟲(chóng)對(duì)抓取目標(biāo)的描述可分

7、為基于目標(biāo)網(wǎng)頁(yè)特征、基于目標(biāo)數(shù)據(jù)模式和基于領(lǐng)域概念3種。 基于目標(biāo)網(wǎng)頁(yè)特征的爬蟲(chóng)所抓取、存儲(chǔ)并索引的對(duì)象一般為網(wǎng)站或網(wǎng)頁(yè)。根據(jù)種子樣本獲取方式可分為: (1) 預(yù)先給定的初始抓取種子樣本; (2) 預(yù)先給定的網(wǎng)頁(yè)分類(lèi)目錄和與分類(lèi)目錄對(duì)應(yīng)的種子樣本,如Yahoo!分類(lèi)結(jié)構(gòu)等; (3) 通過(guò)用戶(hù)行為確定的抓取目標(biāo)樣例,分為: a) 用戶(hù)瀏覽過(guò)程中顯示標(biāo)注的抓取樣本; b) 通過(guò)用戶(hù)日志挖掘得到訪(fǎng)問(wèn)模式及相關(guān)樣本。 其中,網(wǎng)頁(yè)特征可以是網(wǎng)頁(yè)的內(nèi)容特征,也可以是網(wǎng)頁(yè)的鏈接結(jié)構(gòu)特征,等等。2、網(wǎng)頁(yè)搜索策略 網(wǎng)頁(yè)的抓取策略可以分為深度優(yōu)先、廣度優(yōu)先和最佳優(yōu)先三種。深度優(yōu)先在很多情況下會(huì)導(dǎo)致爬蟲(chóng)的陷入(tr

8、apped)問(wèn)題,目前常見(jiàn)的是廣度優(yōu)先和最佳優(yōu)先方法。1)廣度優(yōu)先搜索策略 廣度優(yōu)先搜索策略是指在抓取過(guò)程中,在完成當(dāng)前層次的搜索后,才進(jìn)行下一層次的搜索。該算法的設(shè)計(jì)和實(shí)現(xiàn)相對(duì)簡(jiǎn)單。在目前為覆蓋盡可能多的網(wǎng)頁(yè),一般使用廣度優(yōu)先搜索方法。也有很多研究將廣度優(yōu)先搜索策略應(yīng)用于聚焦爬蟲(chóng)中。其基本思想是認(rèn)為與初始URL在一定鏈接距離內(nèi)的網(wǎng)頁(yè)具有主題相關(guān)性的概率很大。另外一種方法是將廣度優(yōu)先搜索與網(wǎng)頁(yè)過(guò)濾技術(shù)結(jié)合使用,先用廣度優(yōu)先策略抓取網(wǎng)頁(yè),再將其中無(wú)關(guān)的網(wǎng)頁(yè)過(guò)濾掉。這些方法的缺點(diǎn)在于,隨著抓取網(wǎng)頁(yè)的增多,大量的無(wú)關(guān)網(wǎng)頁(yè)將被下載并過(guò)濾,算法的效率將變低。2)最佳優(yōu)先搜索策略 最佳優(yōu)先搜索策略按照一定

9、的網(wǎng)頁(yè)分析算法,預(yù)測(cè)候選URL與目標(biāo)網(wǎng)頁(yè)的相似度,或與主題的相關(guān)性,并選取評(píng)價(jià)最好的一個(gè)或幾個(gè)URL進(jìn)行抓取。它只訪(fǎng)問(wèn)經(jīng)過(guò)網(wǎng)頁(yè)分析算法預(yù)測(cè)為“有用”的網(wǎng)頁(yè)。存在的一個(gè)問(wèn)題是,在爬蟲(chóng)抓取路徑上的很多相關(guān)網(wǎng)頁(yè)可能被忽略,因?yàn)樽罴褍?yōu)先策略是一種局部最優(yōu)搜索算法。因此需要將最佳優(yōu)先結(jié)合具體的應(yīng)用進(jìn)行改進(jìn),以跳出局部最優(yōu)點(diǎn)。將在第4節(jié)中結(jié)合網(wǎng)頁(yè)分析算法作具體的討論。研究表明,這樣的閉環(huán)調(diào)整可以將無(wú)關(guān)網(wǎng)頁(yè)數(shù)量降低30%90%。3)深度優(yōu)先搜索策略 深度優(yōu)先搜索策略從起始網(wǎng)頁(yè)開(kāi)始,選擇一個(gè)URL進(jìn)入,分析這個(gè)網(wǎng)頁(yè)中的URL,選擇一個(gè)再進(jìn)入。如此一個(gè)鏈接一個(gè)鏈接地抓取下去,直到處理完一條路線(xiàn)之后再處理下一條路

10、線(xiàn)。深度優(yōu)先策略設(shè)計(jì)較為簡(jiǎn)單。然而門(mén)戶(hù)網(wǎng)站提供的鏈接往往最具價(jià)值,PageRank也很高,但每深入一層,網(wǎng)頁(yè)價(jià)值和PageRank都會(huì)相應(yīng)地有所下降。這暗示了重要網(wǎng)頁(yè)通常距離種子較近,而過(guò)度深入抓取到的網(wǎng)頁(yè)卻價(jià)值很低。同時(shí),這種策略抓取深度直接影響著抓取命中率以及抓取效率,對(duì)抓取深度是該種策略的關(guān)鍵。相對(duì)于其他兩種策略而言。此種策略很少被使用。3、網(wǎng)頁(yè)分析算法 網(wǎng)頁(yè)分析算法可以歸納為基于網(wǎng)絡(luò)拓?fù)?、基于網(wǎng)頁(yè)內(nèi)容和基于用戶(hù)訪(fǎng)問(wèn)行為三種類(lèi)型。 1)基于網(wǎng)絡(luò)拓?fù)涞姆治鏊惴?基于網(wǎng)頁(yè)之間的鏈接,通過(guò)已知的網(wǎng)頁(yè)或數(shù)據(jù),來(lái)對(duì)與其有直接或間接鏈接關(guān)系的對(duì)象(可以是網(wǎng)頁(yè)或網(wǎng)站等)作出評(píng)價(jià)的算法。又分為網(wǎng)頁(yè)粒度、

11、網(wǎng)站粒度和網(wǎng)頁(yè)塊粒度這三種。 a、網(wǎng)頁(yè)(Webpage)粒度的分析算法 PageRank和HITS算法是最常見(jiàn)的鏈接分析算法,兩者都是通過(guò)對(duì)網(wǎng)頁(yè)間鏈接度的遞歸和規(guī)范化計(jì)算,得到每個(gè)網(wǎng)頁(yè)的重要度評(píng)價(jià)。 PageRank算法雖然考慮了用戶(hù)訪(fǎng)問(wèn)行為的隨機(jī)性和Sink網(wǎng)頁(yè)的存在,但忽略了絕大多數(shù)用戶(hù)訪(fǎng)問(wèn)時(shí)帶有目的性,即網(wǎng)頁(yè)和鏈接與查詢(xún)主題的相關(guān)性。針 對(duì)這個(gè)問(wèn)題,HITS算法提出了兩個(gè)關(guān)鍵的概念:權(quán)威型網(wǎng)頁(yè)(authority)和中心型網(wǎng)頁(yè)(hub)。 基于鏈接的抓取的問(wèn)題是相關(guān)頁(yè)面主題團(tuán)之間的隧道現(xiàn)象,即很多在抓取路徑上偏離主題的網(wǎng)頁(yè)也指向目標(biāo)網(wǎng)頁(yè),局部評(píng)價(jià)策略中斷了在當(dāng)前路徑上的抓取 行為。文獻(xiàn)2

12、1提出了一種基于反向鏈接(BackLink)的分層式上下文模型(Context Model),用于描述指向目標(biāo)網(wǎng)頁(yè)一定物理跳數(shù)半徑內(nèi)的網(wǎng)頁(yè)拓?fù)鋱D的中心Layer0為目標(biāo)網(wǎng)頁(yè),將網(wǎng)頁(yè)依據(jù)指向目標(biāo)網(wǎng)頁(yè)的物理跳數(shù)進(jìn)行層次劃分,從外 層網(wǎng)頁(yè)指向內(nèi)層網(wǎng)頁(yè)的鏈接稱(chēng)為反向鏈接。 b、網(wǎng)站粒度的分析算法 網(wǎng)站粒度的資源發(fā)現(xiàn)和管理策略也比網(wǎng)頁(yè)粒度的更簡(jiǎn)單有效。網(wǎng)站粒度的爬蟲(chóng)抓取的關(guān)鍵之處在于站點(diǎn)的劃分和站點(diǎn)等級(jí)(SiteRank)的計(jì)算。 SiteRank的計(jì)算方法與PageRank類(lèi)似,但是需要對(duì)網(wǎng)站之間的鏈接作一定程度抽象,并在一定的模型下計(jì)算鏈接的權(quán)重。 網(wǎng)站劃分情況分為按域名劃分和按IP地址劃分兩種。文

13、獻(xiàn)18討論了在分布式情況下,通過(guò)對(duì)同一個(gè)域名下不同主機(jī)、服務(wù)器的IP地址進(jìn)行站 點(diǎn)劃分,構(gòu)造站點(diǎn)圖,利用類(lèi)似PageRank的方法評(píng)價(jià)SiteRank。同時(shí),根據(jù)不同文件在各個(gè)站點(diǎn)上的分布情況,構(gòu)造文檔圖,結(jié)合 SiteRank分布式計(jì)算得到DocRank。文獻(xiàn)18證明,利用分布式的SiteRank計(jì)算,不僅大大降低了單機(jī)站點(diǎn)的算法代價(jià),而且克服了單 獨(dú)站點(diǎn)對(duì)整個(gè)網(wǎng)絡(luò)覆蓋率有限的缺點(diǎn)。附帶的一個(gè)優(yōu)點(diǎn)是,常見(jiàn)PageRank 造假難以對(duì)SiteRank進(jìn)行欺騙。 c、網(wǎng)頁(yè)塊粒度的分析算法 在一個(gè)頁(yè)面中,往往含有多個(gè)指向其他頁(yè)面的鏈接,這些鏈接中只有一部分是指向主題相關(guān)網(wǎng)頁(yè)的,或根據(jù)網(wǎng)頁(yè)的鏈接錨文

14、本表明其具有較高重要性。但 是,在PageRank和HITS算法中,沒(méi)有對(duì)這些鏈接作區(qū)分,因此常常給網(wǎng)頁(yè)分析帶來(lái)廣告等噪聲鏈接的干擾。在網(wǎng)頁(yè)塊級(jí)別(Block level) 進(jìn)行鏈接分析的算法的基本思想是通過(guò)VIPS網(wǎng)頁(yè)分割算法將網(wǎng)頁(yè)分為不同的網(wǎng)頁(yè)塊(page block),然后對(duì)這些網(wǎng)頁(yè)塊建立page to block和block to page的鏈接矩陣, 分別記為Z和X。于是,在 page to page圖上的網(wǎng)頁(yè)塊級(jí)別的PageRank為 W p=XZ; 在block to block圖上的BlockRank為 W b=ZX。 已經(jīng)有人實(shí)現(xiàn)了塊級(jí)別的PageRank和HITS算法,并通

15、過(guò)實(shí)驗(yàn)證明,效率和準(zhǔn)確率都比傳統(tǒng)的對(duì)應(yīng)算法要好。 2)基于網(wǎng)頁(yè)內(nèi)容的網(wǎng)頁(yè)分析算法 基于網(wǎng)頁(yè)內(nèi)容的分析算法指的是利用網(wǎng)頁(yè)內(nèi)容(文本、數(shù)據(jù)等資源)特征進(jìn)行的網(wǎng)頁(yè)評(píng)價(jià)。網(wǎng)頁(yè)的內(nèi)容從原來(lái)的以超文本為主,發(fā)展到后來(lái)動(dòng)態(tài)頁(yè)面(或稱(chēng) 為Hidden Web)數(shù)據(jù)為主,后者的數(shù)據(jù)量約為直接可見(jiàn)頁(yè)面數(shù)據(jù)(PIW,Publicly Indexable Web)的400500倍。另一方面,多媒體數(shù)據(jù)、Web Service等各種網(wǎng)絡(luò)資源形式也日益豐富。因此,基于網(wǎng)頁(yè)內(nèi)容的分析算法也從原來(lái)的較為單純的文本檢索方法,發(fā)展為涵蓋網(wǎng)頁(yè)數(shù)據(jù)抽取、機(jī)器學(xué)習(xí)、數(shù)據(jù) 挖掘、語(yǔ)義理解等多種方法的綜合應(yīng)用。本節(jié)根據(jù)網(wǎng)頁(yè)數(shù)據(jù)形式的不同,

16、將基于網(wǎng)頁(yè)內(nèi)容的分析算法,歸納以下三類(lèi):第一種針對(duì)以文本和超鏈接為主的無(wú)結(jié)構(gòu)或結(jié) 構(gòu)很簡(jiǎn)單的網(wǎng)頁(yè);第二種針對(duì)從結(jié)構(gòu)化的數(shù)據(jù)源(如RDBMS)動(dòng)態(tài)生成的頁(yè)面,其數(shù)據(jù)不能直接批量訪(fǎng)問(wèn);第三種針對(duì)的數(shù)據(jù)界于第一和第二類(lèi)數(shù)據(jù)之間,具有 較好的結(jié)構(gòu),顯示遵循一定模式或風(fēng)格,且可以直接訪(fǎng)問(wèn)。三、小結(jié)1、網(wǎng)絡(luò)爬蟲(chóng)安全性問(wèn)題網(wǎng)絡(luò)爬蟲(chóng)會(huì)占用網(wǎng)絡(luò)帶寬并增加Web服務(wù)器的處理開(kāi)銷(xiāo),惡意用戶(hù)甚至?xí)门老x(chóng)程序?qū)Ψ?wù)器發(fā)動(dòng)Dos攻擊。惡意用戶(hù)還可能通過(guò)網(wǎng)絡(luò)爬蟲(chóng)抓取各種敏感資料,主要表現(xiàn)在以下幾個(gè)方面: 1)搜索目錄列表:互聯(lián)網(wǎng)中的許多Web服務(wù)器在客戶(hù)端請(qǐng)求站點(diǎn)中某個(gè)沒(méi)有默認(rèn)頁(yè)面的目錄時(shí),會(huì)返回一個(gè)目錄列表。該目錄列表

17、通常包括一個(gè)描述當(dāng)前目錄的標(biāo)題,可供用戶(hù)點(diǎn)擊的目錄和文件鏈接,及一個(gè)腳注。因而通過(guò)抓取目錄列表,惡意用戶(hù)往往可獲取大量有用的資料,包括站點(diǎn)的目錄結(jié)構(gòu)、敏感文件以及Web 服務(wù)器配置信息等等。 2)搜索測(cè)試頁(yè)面、聯(lián)機(jī)手冊(cè)與樣本程序:大多數(shù)Web 服務(wù)器軟件附帶了測(cè)試頁(yè)面、聯(lián)機(jī)手冊(cè)與樣本程序。這些文件往往會(huì)泄漏大量的系統(tǒng)信息,成為惡意用戶(hù)剖析Web 服務(wù)器的工具,而且這些文件的存在也往往暗示網(wǎng)站的安全管理有問(wèn)題,網(wǎng)站中存在潛在的安全漏洞。 3)搜索管理員登錄頁(yè)面:許多網(wǎng)絡(luò)產(chǎn)品提供了基于Web的管理接口,允許管理員在互聯(lián)網(wǎng)中對(duì)其進(jìn)行遠(yuǎn)程管理與控制。如果管理員疏于防范,沒(méi)有修改網(wǎng)絡(luò)產(chǎn)品默認(rèn)的管理員名及

18、密碼,一旦其管理員登錄頁(yè)面被惡意用戶(hù)搜索到,網(wǎng)絡(luò)安全將面臨極大威脅。 4) 搜索互聯(lián)網(wǎng)用戶(hù)的姓名、電話(huà)、通信地址等個(gè)人信息,以便于實(shí)施社交攻擊。 5) 搜集群發(fā)垃圾郵件所需的郵件地址。 6) 查找一個(gè)站點(diǎn)中的各種敏感文件,包括各種程序使用的配置文件、日志文件、密碼文件、數(shù)據(jù)庫(kù)文件等等。 7) 搜索Web 站點(diǎn)中存在缺陷的程序。 8) 獲取互聯(lián)網(wǎng)用戶(hù)的信用卡密碼,銀行帳號(hào)等機(jī)密信息等等。 因此,采取適當(dāng)?shù)拇胧┫拗凭W(wǎng)絡(luò)爬蟲(chóng)的訪(fǎng)問(wèn)權(quán)限,對(duì)于保持網(wǎng)站的正常運(yùn)行、保護(hù)用戶(hù)的隱私是極其重要的。2、網(wǎng)絡(luò)爬蟲(chóng)的最新發(fā)展 傳統(tǒng)的網(wǎng)絡(luò)爬蟲(chóng)技術(shù)主要應(yīng)用于抓取靜態(tài)Web 網(wǎng)頁(yè),隨著AJAX/Web2.0的流行,如何抓取AJAX 等動(dòng)態(tài)頁(yè)面成了搜索引擎急需解決的問(wèn)題,因?yàn)锳JAX顛覆了傳統(tǒng)的純HTTP 請(qǐng)求/響應(yīng)協(xié)議機(jī)制,如果搜索引擎依舊采用“爬”的機(jī)制,是無(wú)法抓取到AJAX 頁(yè)面的有效數(shù)據(jù)的。 AJAX 采用了JavaSc

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論