圖像檢索技術(shù)研究_第1頁
圖像檢索技術(shù)研究_第2頁
圖像檢索技術(shù)研究_第3頁
圖像檢索技術(shù)研究_第4頁
圖像檢索技術(shù)研究_第5頁
已閱讀5頁,還剩27頁未讀 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

1、圖像檢索技術(shù)研究摘 要在網(wǎng)絡(luò)和多媒體技術(shù)越來越發(fā)達的今天,信息檢索技術(shù)成了現(xiàn)在計算機領(lǐng)域的重要內(nèi)容,而圖像檢索技術(shù)正是這其中的重要內(nèi)容之一。網(wǎng)絡(luò)資源的極大豐富以及圖像檢索技術(shù)不斷發(fā)展成熟,使得圖像檢索技術(shù)的應(yīng)用領(lǐng)域不斷擴大,這為圖像檢索技術(shù)的繼續(xù)研究提供條件。以此同時,隨著網(wǎng)絡(luò)傳送速度與計算機信息處理速度的提高,網(wǎng)頁中對多媒體信息的使用變得十分普及,特別是圖像信息,己經(jīng)成為表示網(wǎng)頁內(nèi)容不可缺少的組成部分。在實現(xiàn)對網(wǎng)頁中文本信息提取的同時,如何再為用戶抽取所需的圖片資料,是信息檢索中一個重要的方面。于是各種基于Web的圖像檢索系統(tǒng)應(yīng)運而生。它們采用不同的工作方式,極大地方便了用戶對網(wǎng)上圖像進行檢

2、索。本文首先介紹各種圖像檢索技術(shù)的工作原理、研究現(xiàn)狀、相關(guān)圖像檢索引擎與發(fā)展趨勢;然后,對幾種比較熱門的圖像檢索算法進行研究和對比。 關(guān)鍵字: 圖像檢索 檢索引擎 文本處理 信息檢索 相似度 相關(guān)反饋II目 錄1 前言11.1 課題來源11.2現(xiàn)有的圖像檢索技術(shù)21.2.1檢索引擎的工作原理21.2.2 圖像檢索引擎的檢索途徑31.2.3對幾個基本引擎的分析41.2.4 檢索引擎的基本要點51.3 圖像檢索的發(fā)展方向62 基于顏色的圖像檢索72.1顏色特征提取72.2 相似度計算102.3 實驗結(jié)果103 基于紋理的圖像檢索103.1紋理特征提取103.2  相似度計算133.3 實

3、驗結(jié)果134 綜合顏色和紋理特征的圖像檢索144.1 綜合特征檢索的思想144.2 相關(guān)反饋154.3實驗結(jié)果及結(jié)論155 基于WEB的圖像檢索175.1 文本與圖像之間的關(guān)系175.1.1 表示圖像內(nèi)容的文本標記175.1.2文本的權(quán)值比較185.2 圖像信息檢索185.2.1檢索模型與相似度185.2.2 分詞技術(shù)和匹配方法205.3 檢索反饋225.4 實驗結(jié)果246 總結(jié)25參 考 文 獻27Abstract28致 謝29仲愷農(nóng)業(yè)工程學(xué)院畢業(yè)論文(設(shè)計)成績評定表301 前言1.1 課題來源據(jù)統(tǒng)計,人類接受的外部信息,70%以上來自視覺,圖像作為一種內(nèi)容豐富,表現(xiàn)直觀的多媒體信息被大量

4、廣泛地使用,如何有效管理、檢索圖像信息成為迫切需要解決的問題。傳統(tǒng)的基于文本的檢索無法滿足海量環(huán)境下多媒體信息庫的檢索要求。為了克服基于文本方法的局限性,出現(xiàn)了基于內(nèi)容的圖像檢索。隨著多媒體技術(shù)及 Internet網(wǎng)絡(luò)的迅速發(fā)展,圖像來源不斷擴大,大容量高速存儲系統(tǒng)為圖像的海量存儲提供了基本保障,各行各業(yè)對圖像的使用越來越多,圖像信息資源的管理和檢索也就顯得越來越重要。但由于Internet 本身結(jié)構(gòu)上、管理上的問題,想要在Internet 準確、快速、全面地找到自己所想要的圖像,卻變成了件非常不容易的事。由于Internet現(xiàn)有的問題:內(nèi)容沒有結(jié)構(gòu);網(wǎng)上信息量龐大且還在不斷的增加。因此,網(wǎng)絡(luò)

5、產(chǎn)生了檢索引擎。雖然這些給網(wǎng)絡(luò)用戶提供了不少的幫助,但由于偏離準確、快速、全面地檢索自己所要的圖像還相當遙遠,所以對圖像檢索還要作很大的研究。根據(jù)國內(nèi)外現(xiàn)有的檢索引擎和國際上的有關(guān)研究小組的種種資料表明,現(xiàn)有的網(wǎng)絡(luò)資源和檢索引擎有如下特點:(1)索引的數(shù)據(jù)種類豐富,如文字、圖像、聲音等多媒體。數(shù)據(jù)的存取協(xié)議也是多種多樣的,如HTTP、FTP、News、Gopher等;(2)索引數(shù)據(jù)量大,以致不可能有某個數(shù)據(jù)庫能包括整個Internet的索引,目前最大的檢索引擎,其中的索引也只不過覆蓋了Internet的一小部分;(3)資源消耗太大,系統(tǒng)需要將HTML文件傳送至本地然后分析,大量占用昂貴的網(wǎng)絡(luò)帶

6、寬和CPU資源,增加被檢索結(jié)點的負擔。另外由于現(xiàn)有的檢索引擎一般是集中式的,所以檢索引擎服務(wù)器本身的硬件配置也極高,才能處理龐大的數(shù)據(jù)量和及時地響應(yīng)用戶的查詢請求;(4)不能有效解決索引失效問題,很多時候,檢索引擎會返回?zé)o效的查詢結(jié)果;(5)各檢索工具各行其事,不能相互協(xié)作,在一定意義上講是一種資源的浪費。 二十一世紀是一個多元化的信息社會,對圖像的需求將是前所未有的巨大的,圖像數(shù)據(jù)庫也將得到長足的發(fā)展。因此,圖像檢索系統(tǒng)具有廣闊的應(yīng)用前景。1.2現(xiàn)有的圖像檢索技術(shù)近年來隨著用戶對網(wǎng)上圖像檢索要求的不斷增長,各種圖像檢索引擎應(yīng)運而生,它們各自以不同的工作方式為用戶提供各種檢索途徑,使網(wǎng)上圖像信

7、息的檢索變得非常簡單,盡管還不很完善,卻已經(jīng)可以滿足用戶的大多數(shù)要求。1.2.1檢索引擎的工作原理最基本的檢索引擎的結(jié)構(gòu),是由Spider不停地從Web網(wǎng)上收集數(shù)據(jù),存放在檢索引擎的數(shù)據(jù)庫中。用戶通過檢索引擎服務(wù)器上的Web接口,提出檢索請求,Web Server通過CGI或其它技術(shù)訪問數(shù)據(jù)庫,并將用戶的檢索請求轉(zhuǎn)換成相應(yīng)的數(shù)據(jù)存取語句,送給數(shù)據(jù)庫引擎處理,并把查詢結(jié)果通過網(wǎng)頁顯示給用戶。網(wǎng)絡(luò)檢索的基本原理是通過網(wǎng)絡(luò)機器人定期在web網(wǎng)頁上爬行,然后發(fā)現(xiàn)新的網(wǎng)頁,把它們?nèi)』貋矸诺奖镜氐臄?shù)據(jù)庫中,用戶的查詢請求可以通過查詢本地的數(shù)據(jù)庫來得到。一般來說網(wǎng)絡(luò)信息檢索的實現(xiàn)機制一般有兩種:一是通過手工

8、方式對網(wǎng)頁進行索引,它的缺點是Web的覆蓋率比較低,同時不能保證最新的信息。查詢匹配是通過用戶寫入的關(guān)鍵字和網(wǎng)頁的描述和標題來進行匹配,而不是通過全文的匹配進行的;二是對網(wǎng)頁進行自動的索引,這種能實現(xiàn)自動的文檔分類,實際上采用了信息提取的技術(shù)。但是在分類準確性上可能不如手工分類。在現(xiàn)在所有運行的檢索工具來說,一般都有一個Robot定期的訪問一些站點,來檢查這些站點的變化,同時查找新的站點。一般站點有一個robot.txt文件用來說明服務(wù)器不希望Robot訪問的區(qū)域,Robot 都必須遵守這個規(guī)定。如果是自動索引的話,Robot在得到頁面以后,需要對該頁面根據(jù)其內(nèi)容進行索引,根據(jù)它的關(guān)鍵字的情況

9、把它歸到某一類中。頁面的信息是通過元數(shù)據(jù)的形式保存的,典型的元數(shù)據(jù)包括標題、IP地址、一個該頁面的簡要的介紹,關(guān)鍵字或者是索引短語、文件的大小和最后的更新的日期。盡管元數(shù)據(jù)有一定的標準,但是很多站點都采用自己的模板。文檔提取機制和索引策略對Web檢索引擎的有效性有很大的關(guān)系。高級的檢索選項一般包括:布爾方法或者是短語匹配和自然語言處理。一個查詢所產(chǎn)生的結(jié)果按照提取機制被分成不同的等級提交給用戶。最相關(guān)的放在最前面。每一個提取出來的文檔的元數(shù)據(jù)被顯示給用戶。同時包括該文檔所在的URL地址。另外有一些關(guān)于某一個主題的專門的引擎,它們只對某一個主題的內(nèi)容進行檢索和處理,這樣信息的取全率和精度相對就比

10、較高。 目前,圖像檢索引擎主要通過以下兩種方法識別圖像: (1)自動查找圖像文件。通過兩個HTML標簽,即IMGSRC和HREF來檢測是否存在可顯示的圖像文件,IMGSRC表示“顯示下面的圖像文件”,導(dǎo)向的是嵌入式圖像;而HREF則表示“下面是一個鏈接”,導(dǎo)向的是被鏈接的圖像。檢索引擎通過檢查文件擴展名來判斷其導(dǎo)向的是否為圖像文件,如果文件擴展名是.gif或.jpg,即是一個可顯示的圖像。 (2)人工干預(yù)找出圖像。進行分類,由人工對網(wǎng)上的圖像及站點進行選擇。這種方法可以產(chǎn)生準確的查詢體系,但勞動強度太大,因此要限制處理圖像的數(shù)量。由于圖像不同于文本,需要人們按照各自的理解來說明其蘊含的意義,因

11、此圖像檢索比文本的查詢和匹配要困難得多。1.2.2 圖像檢索引擎的檢索途徑1.關(guān)鍵詞檢索傳統(tǒng)的圖像檢索技術(shù)是基于關(guān)鍵字的精確匹配檢索,系統(tǒng)內(nèi)的圖像用關(guān)鍵字標識,檢索線索是與標識相一致的關(guān)鍵字,即輸入是關(guān)鍵字,輸出是圖像。它又包括兩種途徑:(1)基于圖像外部信息進行檢索。即根據(jù)圖像的文件名或目錄名、路徑名、鏈路、ALT標簽以及圖像周圍的文本信息等外部信息進行檢索,這是目前圖像檢索引擎采用最多的方法。在找出圖像文件后,圖像檢索引擎通過查看文件名或路徑名確定文件內(nèi)容,也可以通過查看圖像的標題來匹配檢索詞。(2)基于手工標注的檢索。手工對圖像的內(nèi)容(如物體、背景、顏色等)進行描述并分類,將其標注為一系

12、列關(guān)鍵字,并建立索引。檢索時,將主要在這些描述詞中檢索用戶輸入的關(guān)鍵字。這種查詢方式是比較準確的,一般可以獲得較好的查準率,但需人工參與,勞動強度大,因而限制了可處理的圖像數(shù)量。另外,由于圖像所包含的信息量龐大,不同用戶對于同一張圖像的看法又不盡相同,導(dǎo)致了對圖像的標注缺乏統(tǒng)一標準。2. 圖像可視屬性的檢索而基于圖像內(nèi)容的檢索主要是由圖像分析軟件自動抽取圖像的顏色、形狀、紋理等特征,建立特征索引庫,其輸入為用戶要查找的圖像的大致特征描述或示例,通過一定相似性匹配規(guī)則,輸出為與之具有相近特征的圖像,按相似程度排列,供用戶選擇,從而把在傳統(tǒng)圖像檢索技術(shù)中一般用戶難以完成的圖像特征描述、提取與識別等

13、難題,交由系統(tǒng)去解決。這是一種基于圖像本身特征層次的檢索,特別適用于檢索目標明確的查詢要求,但目前這種較成熟的檢索技術(shù)主要應(yīng)用于圖像數(shù)據(jù)庫的檢索。在圖像檢索引擎中應(yīng)用這種檢索技術(shù)還有一定困難,但己有部分圖像檢索引擎嘗試了這種檢索方法。1.2.3對幾個基本引擎的分析(1)InfoSeek是一個簡單但是功能強大的索引,它的一個優(yōu)點是有一個面向主題檢索的可擴展的分類。你可以把你的檢索短語和相似的分類目錄的主題短語相互參照,而那些主題短語會自動加到你的查詢中去。使你的檢索有更好的主題相關(guān)性。同時它也支持對圖像的查詢。它能夠漫游Web,Usenet,Usenet FAQs等等。不支持布爾操作,但是可以使

14、用符號"+"和"-"。 (2)AltaVista 是一個大容量的,基于Robot 索引的Search Engine。它能幫你在WWW網(wǎng)上檢索你所需要的網(wǎng)頁,新聞組,圖像,視頻音頻片段。AltaVista 還支持多種語言和簡單的自然語言查詢。AltaVista 覆蓋面約為WWW 網(wǎng)上可索引的網(wǎng)頁的30%(3)Scour成立于1998年,自稱是第一個基于web的多媒體檢索引擎。雖嚴格講,它并非是一個圖像檢索引擎,但可以將檢索限制在圖像檢索上。它的工作原理是在文件名、路徑名或ALT標簽中檢索檢索詞。主要使用關(guān)鍵詞檢索,可以用""或"

15、;"來增加或排除關(guān)鍵詞,使用盡可能少的關(guān)鍵詞會更有效。在高級檢索中,可以將檢索結(jié)果圖像限制在GIF、BMP、JPEG等格式中。檢索結(jié)果顯示簡圖、圖像類型(如GIF、BMP)、圖像大小、最后被查找的日期、檢索詞的匹配數(shù)量、標引使用的關(guān)鍵詞、成功下載的可靠程度等,并同時給出圖像文件的URL和源站點的URL。主要缺陷是標引深度不足,查準率較低,但查全率較好。(4) 這是由NCRTEC組織開發(fā)的一個"真正人工建立的完全的關(guān)鍵詞式索引"。 Amazing Picture Machine后面的教師負責(zé)選擇圖像豐富的站點,然后對每幅選定的圖像內(nèi)容進行描述,給出關(guān)鍵詞。因此它的最

16、大特點就是人工干預(yù),關(guān)鍵詞檢索是主要的檢索手段。Amazing Picture Machine的檢索結(jié)果將顯示一個簡短的標題、有關(guān)圖像的說明(如彩色或黑白)、文件的大小、文件類型及象素多少等,但不顯示簡圖。單擊該標題可得到原圖像,但需由該URL回溯才能找出源站點。由于人工干預(yù)檢索過程,它的查準率極好,但這也限制了它的查全率。它的檢索范圍很有限,只包括web上人工選擇的部分站點。(5)Lycos對所收錄的圖像進行了詳盡的內(nèi)容描述,并支持短語檢索,從而使其查準率大大提高。它根據(jù)文件擴展名識別圖像,在描述詞、文件名、目錄名或ALT字段中查詢檢索詞。結(jié)果顯示的信息極為豐富,包括簡圖、圖像大小、最后檢索

17、日期、圖像文件名、圖像內(nèi)容描述詞、圖像所在頁面等。點擊簡圖將得到原圖及更多的信息,如著作權(quán)人和更多的相關(guān)圖像。比較而言它的檢索效果很好,速度也很快。1.2.4 檢索引擎的基本要點(1)索引文檔的容量:現(xiàn)在最大的檢索引擎可能包含了超過100,000,000個鏈接,但這也只是整個Web網(wǎng)上的一小部分。因為收集資料的Robot,只能從“已知”的鏈接開始收集網(wǎng)頁資料,而只有一小部分Web網(wǎng)頁和這些“已知”的網(wǎng)頁有連接;現(xiàn)在還沒有一個檢索引擎能夠隨網(wǎng)頁內(nèi)容的更新比較及時地更新索引;(2)覆蓋面:地理覆蓋面和主題覆蓋面;(3)索引更新頻率:不同的檢索引擎,索引更新頻率相差很大,有的是幾周,有的是一年。索引

18、更新頻率有兩種定義,一種比較少用的定義是新的網(wǎng)頁能被收錄進索引數(shù)據(jù)庫中,另一種是同一頁多少時間才被檢查一次,有必要時更新索引。有的檢索引擎會對經(jīng)常更新的網(wǎng)頁和多人訪問的網(wǎng)頁進行更頻繁的重建索引工作;(4)采集過程:采集過程有寬度優(yōu)先、深度優(yōu)先兩種算法;一般認為寬度優(yōu)先對擴大內(nèi)容的覆蓋面有利,深度優(yōu)先算法有助于提供更多的細節(jié)資料;(5)索引算法:有的檢索引擎只處理元標記和一小部分文檔內(nèi)容,而有一些檢索引擎則是對全文進行索引;(6)結(jié)果顯示:有的檢索引擎只顯示網(wǎng)頁的標題,有些則有更詳細的一些信息,比如網(wǎng)頁的內(nèi)容,更新日期等;(7)查詢算法:一個優(yōu)秀的查詢算法是很重要的,最基本的布爾查詢,短語查詢,

19、有的檢索引擎還提供指定屬性的查詢,比如可以指定對網(wǎng)頁的作者、主題進行查詢。另外有的檢索引擎還采用了相關(guān)度反饋、概念查詢等算法;(8)用戶界面:很多檢索引擎都提供了簡單查詢和高級查詢兩個界面。并且提供了必要的幫助和范例。1.3 圖像檢索的發(fā)展方向圖像檢索技術(shù)給用戶提供了一個在互聯(lián)網(wǎng)上檢索感興趣圖像資源的有效手段,基于文本和基于內(nèi)容是圖像檢索發(fā)展的兩個分支,不過從目前圖像檢索研究的趨勢而言,尤其結(jié)合網(wǎng)絡(luò)環(huán)境下圖像的特征嵌入在具有文本內(nèi)容的Web文檔中,出現(xiàn)了三個不同的研究著眼點。(1)基于文本的檢索研究立足于文本,對圖像進行檢索。試圖將傳統(tǒng)的文本檢索技術(shù)移植于對多媒體信息的檢索上,因為基于文本的檢

20、索技術(shù)發(fā)展已經(jīng)成熟。如Page-Rank方法、概率方法、位置方法、摘要方法、分類或聚類方法、詞性標注法等,不僅技術(shù)發(fā)展較為成熟,同時分析和實現(xiàn)的難度略小。但是因為受控詞匯本身的局限,易歧義,更新慢,所以不太容易應(yīng)對網(wǎng)絡(luò)上日新月異的各類圖像。(2)基于內(nèi)容的檢索研究立足于圖像內(nèi)容,對圖像進行分析和檢索。相比而言,盡管圖像檢索已經(jīng)出現(xiàn)了諸如直方圖、顏色矩、顏色集等多種表征圖像特征的方法,但是要突破對低層次特征的分析,實現(xiàn)更高語義上的檢索,實現(xiàn)難度大,進展慢。不過,基于內(nèi)容的圖像檢索建立在多媒體信息的內(nèi)容語義上,能夠更為客觀地反映媒體本質(zhì)的特征。(3)基于文本內(nèi)容結(jié)合的檢索研究結(jié)合文本和內(nèi)容,二者雖

21、側(cè)重不同但卻互相補充。如果能將二者結(jié)合起來取長補短,則網(wǎng)絡(luò)的圖像檢索技術(shù)必有新的進展。已有的圖像檢索引擎在信息的自動加工和標引方面都有待提高,需要開發(fā)出計算機自動識別和標引圖像的算法和技術(shù),以完善現(xiàn)有的檢索功能,并與已有的成熟的圖像庫檢索技術(shù)相結(jié)合,這是今后應(yīng)該研究的一個課題。而且,圖像庫檢索技術(shù)也應(yīng)面向網(wǎng)絡(luò),利用網(wǎng)絡(luò)技術(shù)進行改造,提供新的WWW訪問界面代替原來的應(yīng)用系統(tǒng)界面。同時將巨大的圖像庫資源利用網(wǎng)絡(luò)實現(xiàn)共享。(4)對基于內(nèi)容編碼技術(shù)的研究可以說,三個方向都是相互影響和促進的,任何一個方向的進展都會促進圖像檢索技術(shù)向前更進一步。目前,國際上還沒有通用的基于內(nèi)容的編碼標準。20世紀90年代

22、初,國際上就開始了對基于內(nèi)容的圖像信息檢索方面的研究。從基本的顏色檢索,到綜合利用多種圖像特征進行檢索,大量原型系統(tǒng)已經(jīng)推出,其中,部分已投入到實際應(yīng)用中以檢驗其有效性。同時,MPEG-7標準作為基于內(nèi)容的多媒體編碼標準也正在制定當中,即將成為國際標準中的一員。因此,應(yīng)盡快對MPEG-7標準進行研究,分析其編碼的實質(zhì),在此基礎(chǔ)上進一步研究基于內(nèi)容檢索的系統(tǒng),使我國基于內(nèi)容的圖像檢索盡快走向?qū)嶋H應(yīng)用階段。(5)對用戶查詢接口的研究 這涉及到用戶對圖像內(nèi)容的感知表達、交互方式的設(shè)計、用戶如何形成并提交查詢等方面?,F(xiàn)代多媒體信息系統(tǒng)的一個重要特征就是信息獲取過程的可交互性,人在系統(tǒng)中是主動的。除了提

23、供示例和描繪查詢基本接口之外,用戶的查詢接口應(yīng)提供豐富的交互能力,使用戶在主動的交互過程中表達對圖像語義的感知,調(diào)整查詢參數(shù)及其組合,最終獲得滿意的查詢結(jié)果。用戶的查詢接口應(yīng)該是直觀易用的,底層的特征選擇對用戶是透明的。這里涉及到如何把用戶的查詢表達轉(zhuǎn)換為可以執(zhí)行檢索的特征矢量,如何從交互過程中獲取用戶的內(nèi)容感知,以便選擇合適的檢索特征等問題。一個優(yōu)秀的檢索引擎必須處理以下幾個問題:(1)網(wǎng)頁的分類(2)自然語言的處理(3)檢索策略的調(diào)度和協(xié)作 (4)面向特定用戶的檢索。因此,現(xiàn)在有很多的網(wǎng)絡(luò)檢索工具,也就是說檢索引擎采用了智能的檢索手段來增強它的檢索能力,而圖片檢索正是其中的一大塊內(nèi)容。隨著

24、網(wǎng)上多媒體的廣泛應(yīng)用,對圖像的檢索需求將會越來越迫切。未來的圖像檢索技術(shù)將是網(wǎng)絡(luò)技術(shù)和基于內(nèi)容的圖像庫檢索技術(shù)的結(jié)合。隨著多媒體信息處理技術(shù)的日益發(fā)展和深化,圖像信息的加工、處理和檢索標準的出臺,網(wǎng)上的圖像檢索技術(shù)將會日趨完善,而圖像檢索引擎也將成為Internet上的新寵。2 基于顏色的圖像檢索2.1顏色特征提取顏色特征是一種全局特征,描述了圖像或圖像區(qū)域所對應(yīng)的景物的表面性質(zhì)。一般顏色特征是基于像素點的特征,此時所有屬于圖像或圖像區(qū)域的像素都有各自的貢獻。由于顏色對圖像或圖像區(qū)域的方向、大小等變化不敏感,所以顏色特征不能很好地捕捉圖像中對象的局部特征。另外,僅使用顏色特征查詢時,如果數(shù)據(jù)庫

25、很大,常會將許多不需要的圖像也檢索出來。顏色特征是在圖像檢索中應(yīng)用最為廣泛的視覺特征,主要原因在于顏色往往和圖像中所包含的物體或場景十分相關(guān)。此外,與其它的視覺特征相比,顏色特征對圖像本身的尺寸、方向、視角的依賴性較小,從而具有較高的穩(wěn)定性。為了正確地使用顏色,需要建立顏色模型。顏色特征是圖像最直觀而明顯的特征,一般采用直方圖來描述。顏色直方圖是表示圖像中顏色分布的一種方法,它的橫軸表示顏色等級,縱軸表示在某一個顏色等級上具有該顏色的像素在整幅圖像中所占的比例,直方圖顏色空間中的每一個刻度表示了顏色空間中的一種顏色。采用直方圖計算圖像間的相似性比較簡單,但它不能反映圖像中對象的空間特征。在顏色

26、布局描述符中,對分割好的8×8的圖像取每一塊圖像的顏色平均值,形成一個顏色平均值矩陣,然后對其用二維離散余弦進行變換,取低頻分量作為顏色特征。考慮到本文所選的測試圖片都是bmp圖片,以及減少計算量,提高檢索速度的因素,本文的顏色布局描述符的提取方法如下:    (1)將整幅圖像分成4×4塊,計算每一塊中所有象素RGB三個顏色通道的顏色平均值,并以此作為該塊的代表顏色(主顏色)。    (2)將各塊的顏色平均值進行離散余弦變換(DCT),得到DCT系數(shù)矩陣。DCT是一種分離的變換,是國際靜止圖像壓縮標準JPEG的基礎(chǔ)

27、。由于大多數(shù)圖像的高頻分量較小,相應(yīng)于圖像高頻分量的系數(shù)經(jīng)常為零,加上人眼對高頻成分的失真不太敏感,所以 可用更粗的量化。因此,在一般檢索中可以利用部分DCT系數(shù)作為特征向量。    (3)對DCT系數(shù)矩陣進行之字形掃描和量化,得到DCT系數(shù)。(4)對于R、G、B三個通道,分別從DCT系數(shù)中取出4個低頻分量,形成12個參數(shù),共同構(gòu)成該圖像的顏色特征向量。圖1為顏色特征提取的流程圖。圖1顏色特征提取流程圖2.2 相似度計算國際標準MPEG-7中建議的顏色布局描述符在匹配時使用歐式距離公式,因此在本算法中匹配時也使用歐式距離公式,即為:其中,各個分量的W為權(quán)重,Ri,

28、Gi,Bi分別為各個分量的第i(i=0,1,2,3)個DCT系數(shù)。2.3 實驗結(jié)果本文實驗的圖庫是從標準測試圖像庫Corel圖像庫中選取的,包括由海灘、恐龍、大象、馬、花等組成的120副圖片,得到利用顏色特征檢索圖片的查準率和查全率為下表。表1 利用顏色特征的結(jié)果類型利用顏色特征的查準率利用顏色特征的查全率海灘0.5830.350恐龍0.5000.300大象0.4170.250馬0.5830.583雪景0.1670.100花0.5000.3003 基于紋理的圖像檢索3.1紋理特征提取 圖像可以看成是不同紋理區(qū)域的組合,紋理通常定義為圖像的某種局部性質(zhì),或是對局部區(qū)域中像素之間關(guān)系的一種度量。紋

29、理特征可用來對圖像中的空間信息進行一定程度的定量描述。在國際標準MPEG-7中建議了一種紋理特征描述符邊緣直方圖。邊緣直方圖是基于圖像邊緣的統(tǒng)計特征,能較好地反映目標的邊緣和紋理特征,而且運算速度較高。因此在本文中選取邊緣直方圖來提取圖像的紋理特征。下面介紹提取的具體步驟:    (1)將bmp圖像轉(zhuǎn)換成灰度圖。每個象素的灰度值可以根據(jù)RGB顏色分量按下列公式計算得到:Gray(i,j)=0.11*R(i,j)+0.59*G(i,j)+0.3*B(i,j)。    (2)將整幅圖像分成4×4塊。  

30、60; (3)分別對16塊1/16子圖像進行sobel邊緣算子運算,得到邊緣圖像。    (4)統(tǒng)計子圖像中的邊緣直方圖,該直方圖包括4個直方條。(橫軸為0,1,2,3四個邊緣方向,縱軸為該方向上的象素數(shù)占子圖像總的象素數(shù)的比率)(5)將16個子圖像的直方條綜合起來,得到包括64個直方條的整幅圖像的邊緣直方圖。圖2為圖像紋理特征流程圖。圖2 圖像紋理特征流程圖下面介紹用sobel算子提取圖像邊緣的具體算法:首先介紹一下sobel算法中用到的4個核模板:圖3 sobel算法模板圖4 sobel 算法的邊緣方向編號(1)將圖像中的象素點的灰度值分別與以上四個方向的核模

31、板相乘。     (2)比較四個乘積數(shù)值,取最大的那個數(shù)值,作為該象素點的新的灰度值。    (3)取適當?shù)拈撝礣,若新的灰度值T,則認為該象素點為邊緣點。    通過以上算法提取出圖像的邊緣。3.2  相似度計算 仍然采用歐式距離公式作為相似度的計算公式,如下:其中;Qi,Di為圖像Q,D在邊緣直方圖中對應(yīng)的第i個直方條的值。3.3 實驗結(jié)果實驗平臺如2.3所述,得出結(jié)果如下表。表2 利用紋理特征的檢索結(jié)果類型利用紋理特征查準率利用紋理特征查全率海灘0.5000.300恐龍1.0000.600

32、大象0.3330.150馬0.8330.833雪景0.2500.150花0.6670.4004 綜合顏色和紋理特征的圖像檢索4.1 綜合特征檢索的思想圖5對于以上三幅圖像,假設(shè)它們是原圖像的1/4圖像(其余3/4圖像與此1/4圖像相同),如果按照本文中的利用顏色特征進行檢索,那么將得出完全相似的結(jié)論,但是實際上這三幅圖像給人的感覺是完全不同的。因此說單一的依靠提取一種特征來進行檢索,得出的結(jié)果往往是不盡如人意的。在本文中,利用顏色布局描述 符結(jié)合了顏色特征和空間關(guān)系的特點;利用邊緣直方圖作為紋理特征彌補了顏色特征缺乏空間分布信息的不足,考慮到圖像中的邊緣多對應(yīng)目標的邊界或輪廓,邊緣 直方圖描述

33、符在一定程度上還反映了圖像中目標的形狀信息。因此這兩種特征描述符達到了不同特征的優(yōu)勢互補的效果,而且,這兩種特征在提取的過程中都歸一化到了0,1區(qū)間,可以綜合在一起進行圖像檢索。設(shè)顏色特征的權(quán)重為Wc,紋理特征權(quán)重為Wt,并且Wc+Wt=1,則綜合特征的相似度計算公式為:4.2 相關(guān)反饋由于顏色特征的權(quán)重Wc和紋理特征權(quán)重Wt在提取的過程中都歸一化到了0,1區(qū)間,而在這個區(qū)間不同的權(quán)重的選擇所得出的效果肯定是有差異的。為了能在實驗中得到最佳的實驗結(jié)果,就需要對權(quán)重的值進行多次的選擇。在確定Wc和Wt兩個權(quán)重的取值時,將Wc在20%和80%之間取值,每5%取一次值,并計算出每次取值的圖像檢索的查

34、全率。同時相應(yīng)改變Wt的取值,進而得到最佳的反饋值。4.3實驗結(jié)果及結(jié)論通過上述的反饋實驗,得出關(guān)系圖如下:圖 6 權(quán)重取值反饋關(guān)系由圖6可見當Wc=0.6左右時,圖像的檢索查全率最高,于是選取Wc=0.6,Wt=0.4來分別進行顏色和紋理的單一特征分別檢索以及顏色和紋理特征相結(jié)合的圖像檢索。同樣利用上述的平臺,得出綜合利用顏色和紋理的檢索方法的查準率和查全率,并以之和單獨利用顏色或紋理的檢索方法進行比對。表3  六類圖片的查準率 類型利用顏色特征利用紋理特征利用綜合特征海灘0.5830.5000.833恐龍0.5001.0001.000大象0.4170.3330.583馬

35、0.5830.8331.000雪景0.1670.2500.333花0.5000.6670.833表4  六類圖片的查全率 類型利用顏色特征利用紋理特征利用綜合特征海灘0.3500.3000.500恐龍0.3000.6000.600大象0.2500.1500.350馬0.5830.8331.000雪景0.1000.1500.250花0.3000.4000.500從表中的數(shù)據(jù)可以看出,利用綜合特征進行圖像檢索得到的查準率和查全率都要高于使用任何一種單一方法進行圖像檢索得到的查準率和查全率。通過以上的實驗結(jié)果數(shù)據(jù)可以看出:本文中綜合利用顏色和紋理特征進行圖像檢索的效果比使用單一特

36、征進行檢索的效果更好,更符合人的視覺要求。因此,本文提出的綜合顏色和紋理特征進行圖像檢索的方法是有效的,有意義的方法。5 基于WEB的圖像檢索5.1 文本與圖像之間的關(guān)系在文本檢索中,檢索引擎主要考慮Web頁中相關(guān)文字信息以及它的語義,這些文本信息反映出網(wǎng)頁的內(nèi)容,但不完全與網(wǎng)頁中圖片的內(nèi)容一致。在HTML網(wǎng)頁中,根據(jù)HTML語言的格式,捕獲反映圖片信息的文字信息,分析這些文本的語義具有重要的意義。如在HTML文檔中<img>標記以及其周圍的文字信息,與網(wǎng)頁中的插圖的內(nèi)容有著密切的聯(lián)系。5.1.1 表示圖像內(nèi)容的文本標記為了能識別嵌入網(wǎng)頁中圖片的內(nèi)容,必須仔細檢索HTML文檔中能反

37、映出圖像內(nèi)容的標記與其中的文本。經(jīng)過對HTML網(wǎng)頁格式的分析與對大量實際網(wǎng)頁的研究,可知以下幾個方面的標記與文本和圖像內(nèi)容有著最為密切的聯(lián)系。(1)圖像的說明,這些文本出現(xiàn)在圖像的周圍,用一句過多句話表示出圖像的內(nèi)容,當圖像被置于表格中時,同一單元或相鄰單元格內(nèi)的文字也常用與表示圖像的含義。(2)圖像的標題,通常用一個關(guān)鍵詞表示圖像信息。(3)圖像的標簽,使用一段短語說明圖片的摘要信息,圖片無法顯示時用標簽的文本取代圖片,顯示摘要信息。(4)網(wǎng)頁的標題,該標題反映出網(wǎng)頁的中心內(nèi)容,作為表現(xiàn)網(wǎng)頁內(nèi)容的圖片與網(wǎng)頁的標題之間也有著一定的聯(lián)系。以上討論的是HTML中文檔和嵌入網(wǎng)頁中圖像文本信息的關(guān)系,

38、當然還存在其他的文本與多媒體信息和圖像有關(guān)。但是作為檢索引擎要考慮的方面,既要保證抽取信息的準確性,也要兼顧程序執(zhí)行中時間、空間的復(fù)雜度。過多地引入與圖像關(guān)系不是十分緊密的內(nèi)容作為檢索的依據(jù),會引入檢索時的躁聲干擾,降低檢索效率。5.1.2文本的權(quán)值比較以上討論了網(wǎng)頁中對圖像信息的描述,在圖像的檢索中,首先是要建立描述圖片內(nèi)容特征的查詢語句,然后比較、區(qū)分描述信息與查詢語句之間的異同,獲取需要檢索的圖像。但以上信息在對圖像描述時側(cè)重于不同角度,同時與圖像信息的聯(lián)系程度也不一樣。圖像標題和網(wǎng)頁標題是簡單的詞條,兩者中相對來說圖像標題更接近圖像的主題內(nèi)容。圖像的標簽和圖像的說明是文本信息對圖像內(nèi)容

39、的描述,后者相對來說更為詳細。所以在比較、區(qū)分各類文本信息以決定是否符合檢索要求時,它們所占的權(quán)值應(yīng)該是有所不同的。根據(jù)信息的重要程度,他們所占的權(quán)值大小按次序如下:Image Caption>Image Title>Image Alternate>Page Title5.2 圖像信息檢索 在web中對圖像的檢索,也就是對圖像信息的檢索,根據(jù)圖像自身所帶的信息,選其中某一種或幾種進行檢索,進而檢索到相關(guān)的圖像,再經(jīng)過選取得到所需的圖像。而Web檢索引擎采用何種檢索模型,它所提供檢索質(zhì)量將直接影響到檢索的效果?,F(xiàn)在使用較多的是布爾檢索模型、概率檢索模型、概率推理網(wǎng)絡(luò)模型和向量空

40、間模型。這里采用的是近年來使用較多且效果較好的一種信息檢索模型:向量空間模型。5.2.1檢索模型與相似度在用向量空間模型進行檢索的時候,首先把描述網(wǎng)頁中的圖片的文字信息看作是有序的詞條序列,這樣把以上歸納的信息分別稱為:ICW,ITW,IAW,PTW。在應(yīng)用模型時,我首先要將這些信息向量化,把文檔映射為一個特征向量V(d)=(t1,1(d);tn, n(d),其中ti(i=1,2, ,n)為一列互不雷同的詞條項,i(d)為ti在d中的權(quán)值, 一般被定義為ti在d中出現(xiàn)頻率tfi(d)的函數(shù),即在信息檢索中常用的詞條權(quán)值計算方法為 TF-IDF 函數(shù)其中N為所有文檔的數(shù)目,ni為含有詞條ti的文

41、檔數(shù)目。TF-IDF公式有很多變種,下面是一個常用的TF-IDF公式:根據(jù)公式,文檔集中包含某一詞條的文檔越多,說明它區(qū)分文檔類別屬性的能力越低,其權(quán)值越??;另一方面,某一文檔中某一詞條出現(xiàn)的頻率越高,說明它區(qū)分文檔內(nèi)容屬性的能力越強,其權(quán)值越大。兩文檔之間的相似度可以用其對應(yīng)的向量之間的夾角余弦來表示,即文檔di,dj的相似度可以表示為進行查詢的過程中,先將查詢條件Q進行向量化,主要依據(jù)布爾模型:當ti在查詢條件Q中時,將對應(yīng)的第i坐標置為1,否則置為0,即也就是說當兩詞條完全相同時,這一項為1,其余情況為0。可以看出文檔含有完全相同的詞條時,相似度=1;而其中無相同時的詞條時,相似度=0。

42、從而文檔d與查詢Q的相似度為 根據(jù)文檔之間的相似度,結(jié)合機器學(xué)習(xí)的一些算法如神經(jīng)網(wǎng)絡(luò)算法,K-近鄰算法和貝葉斯分類算法等,可以將文檔集分類劃分為一些小的文檔子集。在查詢過程中,可以計算出每個文檔與查詢的相似度,進而可以根據(jù)相似度的大小,將查詢的結(jié)果進行排序。向量空間模型可以實現(xiàn)文檔的自動分類和對查詢結(jié)果的相似度排序,能夠有效提高檢索效率;它的缺點是相似度的計算量大,當有新文檔加入時,則必須重新計算詞的權(quán)值。流程為: 圖7 向量空間模型檢索流程5.2.2 分詞技術(shù)和匹配方法1. 常用的切詞算法如下:(1)最大正向匹配法基本思想是:設(shè)D為詞典,MAX表示D中的最大詞長,str為待切分的字串。它是每

43、次從str中取長度為MAX的子串與D中的詞進行匹配。若成功,則該子串為詞,指針后移MAX個漢字后繼續(xù)匹配,否則子串逐次減一進行匹配。(2)逆向最大匹配法 它的基本原理與前面的相同,不同的是分詞的掃描方向,它是從右至左取子串進行匹配。統(tǒng)計結(jié)果表明,單純使用正向最大匹配的錯誤率為1/169,單純使用逆向最大匹配的錯誤率為1/245,它切分的準確率上比正向匹配法有很大提高。(3)基于詞頻的統(tǒng)計方法統(tǒng)計方法一般不依賴于詞典,而是將原文中任意前后緊鄰的兩個字作為一個詞進行出現(xiàn)頻率的統(tǒng)計,出現(xiàn)的次數(shù)越高,成為一個詞的可能性也就越大。在頻率超過某個預(yù)先設(shè)定得閾值時,就將其作為一個詞進行索引。這種方法能夠有效

44、地提取出未登錄詞。2. 匹配方法:(1)詞典存儲格式:首先對存儲形式進行建模,結(jié)構(gòu)是3層樹形結(jié)構(gòu),如下圖8 3層樹形結(jié)構(gòu)一層存儲所有單字。第二層保存所有的雙字詞和多字詞的前兩個字(因為,也許會出現(xiàn)ABC為詞,但AB不是詞的情況),并對兩者做不同標記(t/f)。每一個可成詞的單字對應(yīng)一系列第二層結(jié)點,用來存儲所有以該字為詞首的雙字(包括上述兩種情況)。并且,在這里,針對每一個雙字,需要記錄以該雙字為詞首的所有詞的最大長度,實際中,可以保存除去該雙字部分的最大長度(記為n)。第三層存儲以某一雙字為首的所有詞。為了減少存儲空間,只存儲除去該雙字以外的部分(如上圖所示)。每一層各結(jié)點需按某種次序排列,

45、可使用hash、二分查找等方法進行查詢。采用這種層次的存儲結(jié)構(gòu),可以很快把查詢詞的工作縮小到一個很小的范圍內(nèi),有利于分詞效率的提高。(2)匹配方法由于詞庫中的最大詞長通常大于所切分出的詞長,為了提高切分的效率,不采用逐次減一個字的方法,而是使用正向逐一增長的方法。假設(shè)對一個句子C1C2進行分詞處理,算法描述如下:1) 兩個字(開始時為C1C2),在詞典中查詢C1C2是否存在2) 不存在,則C1為單字詞,一次分詞結(jié)束,返回1。3) 存在,判斷C1C2是否為詞,并從詞典中獲取該詞下層節(jié)點漢字的最大長度,設(shè)為n4) 若n=0,一次分詞結(jié)束,保存結(jié)果。5) 否則,i=2,轉(zhuǎn)6)。6 ) i=i+1,若

46、i=n+3,轉(zhuǎn)8);否則,轉(zhuǎn)7)。7) 再取一個字(此處為Ci),判斷第三層中是否有以C3Ci開始的字(不需要恰好匹配,只要匹配開始的i個字就可以了)。8) 若存在,分詞結(jié)束,返回最近一次能夠恰好匹配的C3Cj(j<i),并與C1C2組合成詞。如果是C1C2,則根據(jù)C1C2的標記判斷是雙字詞還是分為兩個單字詞。9) 否則,轉(zhuǎn)6)。(3)統(tǒng)計方法運用由于詞典的不完全性,許多詞可能不會在字典中登錄,為了處理句子中的未登錄詞,我們在原有的算法中嵌入詞頻統(tǒng)計方法,將某些出現(xiàn)頻率較高的連續(xù)字段作為一個詞切分,我們首先對頻度設(shè)定一個閾值f。設(shè)已對C1Cn進行切分,由切分算法和歧義處理算法得到C1Ci

47、為一個詞,CjCn為一個詞,Ci與Cj之間皆為單字詞,即C1Ci和CjCn是相鄰最近的兩個多字詞,則將Ci+1Cj-1作為一個多字詞進行詞頻統(tǒng)計,在對文章全部切分完畢之后,若Ci+1Cj-1的出現(xiàn)次數(shù)達到f時,則將其看作一個詞,否則,將其拆分為單字詞。同時,對于相同或相近專業(yè)和領(lǐng)域建立起動態(tài)詞庫,將由統(tǒng)計得到的詞不斷加入詞庫中,可以實現(xiàn)對詞典的動態(tài)維護。以上通過將基于詞典的處理方法和基于頻率的統(tǒng)計方法結(jié)合起來匹配檢索運算,不僅保證了切分速度快、精度高的優(yōu)點,而且能夠結(jié)合上下文,最大限度的識別人名、地名、專業(yè)術(shù)語等未登錄詞。5.3 檢索反饋由于初時的查詢語句常常與我們所要的圖像內(nèi)容不符,使得我們

48、找不到我們想要的東西,因此,許多系統(tǒng)都引入了相關(guān)反饋,即通過選擇一些正確/錯誤的例子作為反饋,來逐漸提高檢索的結(jié)果。借鑒文本信息檢索的方法,我們在系統(tǒng)中也引入了相關(guān)反饋來修改用戶提交的查詢,使得修改后的查詢逐步接近用戶真正的需求,來提高系統(tǒng)的性能。通過相關(guān)反饋對用戶提交的查詢的修改,檢索的性能比原先有了一定的提高。不過,大多數(shù)相關(guān)反饋并不具有記憶能力,每次反饋后的結(jié)果只能提高本次查詢結(jié)果。因此我們引入了語義網(wǎng)絡(luò),把每次反饋的結(jié)果記錄到語義網(wǎng)絡(luò)中,使得系統(tǒng)的效果隨著使用次數(shù)的增加而逐步提高。本文介紹的反饋系統(tǒng),主要集中在對查詢語句(Q1,W1,Q2,W2, , Qm,Wm)中 Wj的修整中,查詢

49、語句中對初始Wj的定義具有一定的偏差,反饋系統(tǒng)可以適當調(diào)整Wj,使查詢語句(Q1,W1,Q2,W2, , Qm,Wm)更反映檢索的目的。當查詢到m=r+n幅圖片時,其中r幅圖片與目標相關(guān),n幅圖片與目標無關(guān)。反饋系統(tǒng)可根據(jù)用戶的反饋結(jié)果,重新生成查詢語句如下:其中矢量是檢索結(jié)果圖像網(wǎng)頁的矢量表示,在矢量中,選擇在相似度計算中有貢獻的分量作為反饋信息。在公式中,一般選=1 ,0 1 ,0 1 ,與值的選取影響著反饋深度,也直接影響著檢索的精度。實踐表明,具有反饋系統(tǒng)的圖像檢索系統(tǒng)要比無反饋的圖像檢索精度提高10%左右,而且m越小,檢索的精度越高。我們在設(shè)計檢索系統(tǒng)時,提供反饋無反饋選擇,并且在反

50、饋系統(tǒng)中提供取值的選圖9 檢索精度Precision與系數(shù)的關(guān)系圖10 檢索精度Precision與系數(shù)的關(guān)系擇。當m取值較小時,直接顯示檢索到的圖像,并供用戶選擇是否與目標圖像的相關(guān)性。以上都是為了改善用戶界面,便于反饋系統(tǒng)的應(yīng)用。下面是測得當m=1時,檢索精度與反饋中系數(shù)、之間關(guān)系的曲線,圖中可以得出=0.1 時檢索精度Precision取最大值,圖2中可以得出在0.50.6 之間時檢索精度Precision取最大值。從圖1和圖2又可以得出,當=0無反饋時檢索精度Precision=48%,當=0.1 ,=0.5 或0.6時檢索精度Precision =61%,引入反饋系統(tǒng)使檢索精度提高了

51、13%。5.4 實驗結(jié)果為檢驗檢索模型,下載含有圖像的4000多個中文網(wǎng)頁( 來自1000多個 URLs),對這些HTML文檔進行檢索。在查詢語句建立以后,通過詞條網(wǎng)對具有相同語義的詞條進行擴充,構(gòu)建符合查詢要求的多個IQW,然后分別計算出各自的相似度,根據(jù)相似度規(guī)定的臨界值,得出查詢的結(jié)果。實驗表明,合理地選取相似度臨界值可以保證較高檢索精度與檢索完全度。圖11 相似度臨界值與檢索精度的關(guān)系圖12 相似度臨界值與檢索完全度的關(guān)系從圖11中可以看出,當相似度臨界值>0.6時,能保證檢索精度>80%,從圖12中看出,當相似度臨界值<0.6時,能保證檢索完全度>60%。當相

52、似度臨界值取0.6時,本檢索模型可以保證檢索精度>80%,而檢索完全度>60%。為決定ICW,ITW,IAW,PTW在相似度計算中的權(quán)值,測試從0.1 1.0的所有系數(shù)。最終得出ICW,ITW,IAW,PTW的權(quán)值分別為0.4、0.3、0.2、0.1時,能比較合理地反映出圖片與這些文本的相關(guān)性,保證檢索的準確性。6 總結(jié) 本文概括介紹了圖像檢索的現(xiàn)狀和發(fā)展方向,并對其中幾個算法進行了分析和比較。在了解了檢索引擎的檢索原理公式和反饋原理之后,可以根據(jù)其理論做出相應(yīng)的檢索引擎,并能作出比較檢索效果。但為了能更好的使用,還得去仔細更好的給文檔進行分類,更多的對此引擎進行反饋訓(xùn)練查詢等,使

53、得Web檢索引擎具有更好的智能性和個性化的特點。在畢業(yè)論文的過程中,遇到了很多的問題。首先,圖像檢索的算法對我來說過于深奧,為此我看了很多的關(guān)于這方面的算法的研究,大概能知道具體的思路了。本人的水平和技術(shù)都很有限,論文里可能存在著某些問題和錯誤,在這方面希望能得到老師們的體諒,本人也將繼續(xù)努力。最后,在這個論文的編寫中,我確實學(xué)到了不少東西,在眼界和思想上都得到了一定的擴展,尤其是關(guān)于圖像這方面,以前幾乎沒接觸過這方面的知識,現(xiàn)在也能大概知道關(guān)于這方面的發(fā)展和相關(guān)的技術(shù)。而我在今后也將更加努力的學(xué)習(xí),擴展自己的見識,提高自己的能力。參 考 文 獻1張量,詹國華,袁貞明.基于Web的圖像檢索.計

54、算機工程,2002.5.2朱學(xué)芳.多媒體信息處理與檢索技術(shù)M,電子工業(yè)出版社,2003:167-173.3陳瀅 ,徐宏炳 ,王能斌.協(xié)作式Web資源發(fā)現(xiàn)系統(tǒng)模型,計算機學(xué)報,1998.4:62-67.4陽小華, 周龍驤.World Wide Web 的索引與查詢技術(shù),計算機科學(xué) ,1997:108-112.5吳立德等,大規(guī)模中文文本處理,上海:復(fù)旦大學(xué)出版社,1997:50-168.6李唐, 解讀網(wǎng)絡(luò)圖像檢索引擎,Internet網(wǎng)絡(luò),20017陳立娜,Internet上的圖像檢索技術(shù),2001.58黃博士,網(wǎng)絡(luò)環(huán)境下的圖像檢索技術(shù),中國計算機用戶,2003.12.309Dunlop M.D.

55、 1991. Multimedia Information Retrieval,Ph.D. Thesis. Computing Science Department, University of Glasgow, Report 199l/R21.10Ellen M. Voorhees and Yuan-Wang Hou, "Vector Expansion in a Large Collection”, First Text REtrieval Conference TREC-1, 1993.11Frisse M.E, 1988. Searching for information

56、in a hypertext medical handbook. Communications of the ACM, 3 I7, pp.880-886.12R.Price, T.S Chua, and S.Al-Hawamdeh, Applying relevance feedback on a photo archival system. Journal of Information Science, 18:203-215, 199213W.Niblack, R.Barber, and W.Equitz. the qbib project:querying images by content using color, texture, and shape. Technical report, IBM RJ 920381511, Feb, 199314Shih-Fu Chang, William Chen, and Hari Sundaram,Semantic Visual Template - Linking Visual Fetures to Semantics. IEEE I

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論