算法模型介紹課件_第1頁
算法模型介紹課件_第2頁
算法模型介紹課件_第3頁
算法模型介紹課件_第4頁
算法模型介紹課件_第5頁
已閱讀5頁,還剩79頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

關(guān)于自底向上的顯著性方法的綜述報(bào)告人:周靜波2012年08月30日關(guān)于自底向上的顯著性方法的綜述報(bào)告人:周靜波2012年08月報(bào)告提綱研究現(xiàn)狀算法模型介紹實(shí)驗(yàn)結(jié)果及分析結(jié)論報(bào)告提綱研究現(xiàn)狀研究現(xiàn)狀研究現(xiàn)狀研究現(xiàn)狀基于視覺注意的顯著性區(qū)域檢測對于圖像分析過程有著非常重要的意義。注意是人類信息加工過程中的一項(xiàng)重要的心理調(diào)節(jié)機(jī)制,它能夠?qū)τ邢薜男畔⒓庸べY源進(jìn)行分配,使感知具備選擇能力。如果能夠?qū)⑦@種機(jī)制引入圖像分析領(lǐng)域,將計(jì)算資源優(yōu)先分配給那些容易引起觀察者注意的區(qū)域,這樣必將極大的提高現(xiàn)有的圖像處理分析方法的工作效率。顯著性區(qū)域檢測正是在這個(gè)基礎(chǔ)上提出并發(fā)展起來的。研究現(xiàn)狀基于視覺注意的顯著性區(qū)域檢測對于圖像分析過程有著非常研究現(xiàn)狀顯著性檢測一般分為兩類自下而上基于數(shù)據(jù)驅(qū)動(dòng)的顯著性區(qū)域突現(xiàn)自上而下任務(wù)驅(qū)動(dòng)的目標(biāo)突現(xiàn)本報(bào)告只關(guān)注自下而上的顯著性檢測算法研究現(xiàn)狀顯著性檢測一般分為兩類研究現(xiàn)狀A(yù)chanta將這些算法分成三類基于低層視覺特征,代表性算法是文獻(xiàn)[1]中提出的模擬生物體視覺注意機(jī)制的選擇性注意算法(Itti算法)沒有基于任何生物視覺原理的純數(shù)學(xué)計(jì)算方法,如Achanta等[4]提出的全分辨率算法(AC算法)和Hou等[5]提出的基于空間頻域分析的剩余譜算法(Spectralresidualapproach,SR)將前兩種進(jìn)行融合的方法,代表性算法是Harel等[6]提出的基于圖論的算法(Graph-basedvisualsaliency,GBVS)研究現(xiàn)狀A(yù)chanta將這些算法分成三類研究現(xiàn)狀Goferman將顯著性分析算法分成以下三類考慮局部特征的,如Itti算法和GBVS算法考慮整體性的,如SR算法和Achanta等[3]提出的算法(IG算法)局部與整體結(jié)合的,如Goferman等[7]和Liu等提出的算法研究現(xiàn)狀Goferman將顯著性分析算法分成以下三類算法模型介紹算法模型介紹Itti模型Itti模型中,顯著值是像素點(diǎn)在顏色、亮度、方向方面與周邊背景的對比值。該模型包括兩個(gè)步驟:特征提取顯著圖生成Itti模型Itti模型中,顯著值是像素點(diǎn)在顏色、亮度、AIM模型

AIM(Attention-basedonInformationMaximization)模型利用香農(nóng)的自信息度量,將圖像的特征平面變換到對應(yīng)于視覺顯著性的維度上。AIM假設(shè):一個(gè)視覺特征的顯著性就是該特征相對于它周圍其他特征提供的信息的差別度。根據(jù)香農(nóng)定理,圖像特征對應(yīng)的自信息通過下面的公式進(jìn)行計(jì)算為特征的概率密度函數(shù)。AIM模型AIM(Attention-basedonIGBVS模型GBVS(Graph-BasedVisualSaliency)模型是在Itti的模型基礎(chǔ)之上運(yùn)用馬爾可夫隨機(jī)場的特點(diǎn)構(gòu)建二維圖像的馬爾可夫鏈,通過求其平衡分布而得到顯著圖算法步驟:特征的提?。号cItti算法類似顯著圖生成:馬爾可夫鏈方法GBVS模型GBVS(Graph-BasedVisualFTS模型

FTS(Frequency-TunedSaliency)模型是由Achanta等人提出的一種自底向上的顯著性檢測方法,通過局部顏色和亮度特征的對比多尺度方法求像素點(diǎn)顯著值。將原始圖像由SRGB顏色空間轉(zhuǎn)化成CIE顏色空間,然后顯著性映射定義為其中為圖像特征的幾何平均向量,為對原始圖像的高斯模糊,采用的二項(xiàng)式核。為范數(shù),為像素點(diǎn)坐標(biāo)。FTS模型FTS(Frequency-TunedSaliSR模型SR(SpectralResidual)模型是由Hou等人提出來的,基于空間頻域分析的算法之一,顯著圖通過對剩余譜做傅里葉逆變換得到。剩余譜定義為其中,為原圖二維傅里葉變換得到的頻域空間,為局部平均濾波器(一般n取3)SR模型SR(SpectralResidual)模型是由HPQFT模型PQFT(PhaseSpectrumofQuaternionFourierTransform)模型是由Guo等人在SpectralResidual基礎(chǔ)之上提出的,該方法通過計(jì)算圖像的四元傅里葉變換的相位譜得到圖像的時(shí)空顯著性映射。事實(shí)上,圖像的相位譜即圖像中的顯著性目標(biāo)。圖像中的每一個(gè)像素點(diǎn)都用四元組表示:顏色,亮度和運(yùn)動(dòng)向量。PQFT模型獨(dú)立于先驗(yàn)信息,不需要參數(shù),計(jì)算高效,適合于實(shí)時(shí)顯著性檢測PQFT模型PQFT(PhaseSpectrumofQPQFT模型假設(shè)

表示時(shí)間t時(shí)刻的輸入圖像,

為所有圖像幀的總數(shù)。

分為紅、綠、藍(lán)三個(gè)顏色通道,表示為

,那么,可以將三個(gè)顏色通道擴(kuò)展為四個(gè)廣義的顏色通道:PQFT模型假設(shè)表示時(shí)間t時(shí)刻的輸入圖像,PQFT模型類似于人類視覺系統(tǒng),對立顏色通道定義為亮度通道和運(yùn)動(dòng)通道定義為其中

為使用者設(shè)定的延遲因子。PQFT模型類似于人類視覺系統(tǒng),對立顏色通道定義為PQFT模型四元組圖像可以表示為下列形式其中

,滿足

可以寫成如下形式PQFT模型四元組圖像可以表示為下列形式PQFT模型將圖像中每一個(gè)像素點(diǎn)表示為

,

為空間坐標(biāo),

為時(shí)間坐標(biāo)。四元傅里葉圖像變化寫成表示頻域坐標(biāo),表示圖像維度。四元逆傅里葉變化為PQFT模型將圖像中每一個(gè)像素點(diǎn)表示為PQFT模型可將

表示為

的極坐標(biāo)形式其中

的相位譜。設(shè)定

,則只剩下相位信息

。計(jì)算逆相位信息

可得到時(shí)空顯著性映射為其中g(shù)表示二維高斯平滑濾波。當(dāng)輸入為靜態(tài)圖像時(shí),

。PQFT模型可將表示為的極坐標(biāo)形SDSR模型SDSR(SaliencyDetectionbySelf-Resemblance)模型由Seo等人提出的,通過計(jì)算感興趣像素點(diǎn)的特征矩陣與其相鄰的像素點(diǎn)的特征矩陣之間的相似性,來確定像素點(diǎn)的顯著性映射。每一個(gè)像素點(diǎn)的局部圖像結(jié)構(gòu)表示成一個(gè)局部描述子(局部回歸核)矩陣;然后,利用矩陣余弦相似計(jì)算量化每一個(gè)像素點(diǎn)和它相鄰的像素點(diǎn)對應(yīng)的局部描述子矩陣之間的相似性。SDSR模型SDSR(SaliencyDetectionSDSR模型對于像素點(diǎn)i,與之對應(yīng)的特征矩陣,給定像素點(diǎn)i周圍相鄰的像素點(diǎn)特征矩陣,顯著性映射為其中為矩陣和的余弦相似性,為局部權(quán)重參數(shù)。局部特征矩陣的列表示局部指導(dǎo)核的輸出SDSR模型對于像素點(diǎn)i,與之對應(yīng)的特征矩陣,給定SDSR模型SDSR模型SUN模型SUN(SaliencyUsingNaturalStatistics)模型由Zhang等人提出的,模仿視覺系統(tǒng)檢測潛在的目標(biāo)。假設(shè)z代表視覺區(qū)域中的一個(gè)點(diǎn)。二值隨機(jī)變量C代表該點(diǎn)是否屬于目標(biāo),L表示該點(diǎn)的坐標(biāo)位置,F(xiàn)表示該點(diǎn)的視覺特征。定義為,

分別表示點(diǎn)z的特征和坐標(biāo)。根據(jù)貝葉斯定理

SUN模型SUN(SaliencyUsingNaturaSUN模型假設(shè)特征和坐標(biāo)相互獨(dú)立,那么對上式兩邊同時(shí)取對數(shù),由于對數(shù)函數(shù)是單調(diào)增加的,因此不會(huì)影響各點(diǎn)的顯著值排列SUN模型假設(shè)特征和坐標(biāo)相互獨(dú)立,那么SUN模型只依賴于點(diǎn)z的視覺特征,獨(dú)立于任何先驗(yàn)信息。在信息論中,該項(xiàng)實(shí)際上求隨機(jī)變量F取值為時(shí)的自信息。體現(xiàn)了目標(biāo)的先驗(yàn)信息。比如,當(dāng)知道目標(biāo)物體為綠色時(shí),那么該項(xiàng)的值在遇到綠色點(diǎn)時(shí)比遇到藍(lán)色點(diǎn)要大。獨(dú)立于視覺特征,反映了目標(biāo)物體位置的先驗(yàn)信息。一般情況下,我們并不知道目標(biāo)的位置信息和目標(biāo)的視覺特征,于是我們省略后兩項(xiàng),只剩下自信息這一項(xiàng)SUN模型只依GCS模型GCS(GlobalContrastbasedSaliency)模型是由程明明等人基于輸入圖像的顏色統(tǒng)計(jì)特征提出的基于直方圖對比度的圖像顯著性值檢測方法。具體的說,一個(gè)像素的顯著性值用它和圖像中其他像素顏色的對比度來定義。圖像中像素點(diǎn)的顯著性定義為

其中為像素在Lab空間的顏色距離度量。如果忽略空間關(guān)系,使得具有相同顏色的像素歸到一起,得到每一個(gè)顏色的顯著性值

GCS模型GCS(GlobalContrastbaseGCS模型為了加入空間關(guān)系,首先利用基于圖的圖像分割方法將輸入圖像分割成若干個(gè)區(qū)域。然后對每一個(gè)區(qū)域建立顏色直方圖。對每一個(gè)區(qū)域,通過測量它與圖像其他區(qū)域的顏色對比度來計(jì)算它的顯著值為區(qū)域的權(quán)值,為兩個(gè)區(qū)域的顏色距離度量。對于區(qū)域和,他們之間的顏色距離度量定義為為第i個(gè)顏色在第k個(gè)區(qū)域的所有種顏色中出現(xiàn)的概率。

GCS模型為了加入空間關(guān)系,首先利用基于圖的圖像分割方法將輸GCS模型為了增加區(qū)域的空間影響效果,基于空間加權(quán)區(qū)域?qū)Ρ榷鹊娘@著性定義為:

為區(qū)域和的空間距離,控制空間權(quán)值強(qiáng)度。GCS模型為了增加區(qū)域的空間影響效果,基于空間加權(quán)區(qū)域?qū)Ρ榷萈BS模型PBS(Patch-basedSaliency)模型都是先將圖像分割為一系列大小一致的圖像塊,再根據(jù)不同的特征提取方式,對圖像塊進(jìn)行特征提取。下面介紹PBS算法的一般步驟

對于維數(shù)為的圖像,將其分解為一系列大小為的圖像片。為簡便起見,我們不考慮圖像片的重疊問題。圖像片的總數(shù)為。對于任一圖像片,將其表示成向量形式,最終得到一個(gè)表示圖像片的矩陣PBS模型PBS(Patch-basedSaliency)PBS模型使用PCA抽取特征。對圖像片矩陣,計(jì)算對應(yīng)的協(xié)方差矩陣為:對A進(jìn)行特征值分解,選擇前d個(gè)最大特征值對應(yīng)的特征向量。其中U的維度為。

PBS模型使用PCA抽取特征。對圖像片矩陣PBS模型給定圖像片

,它們之間的不一致性為:

其中,

為絕對值函數(shù)。PBS模型給定圖像片和,它們之間的不一PBS模型圖像片

的顯著性計(jì)算方法為:

其中

為圖像片總數(shù)。PBS模型圖像片的顯著性計(jì)算方法為:實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析我們在Achanta等人提供的公開測試數(shù)據(jù)集上面測試了上述所有方法。據(jù)我們所知,此數(shù)據(jù)集是此類數(shù)據(jù)最大的測試集,并且有人工精確標(biāo)注了顯著性區(qū)域。將所有方法都在1000張圖片上進(jìn)行計(jì)算得到顯著圖。實(shí)驗(yàn)結(jié)果與分析我們在Achanta等人提供的公開測試數(shù)據(jù)集上實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析實(shí)驗(yàn)結(jié)果與分析根據(jù)不同模型中提到的方法對顯著圖進(jìn)行二值化,并且與實(shí)際分割圖進(jìn)行比較,得到查準(zhǔn)率(precision)和查全率(recall)以及F三個(gè)指標(biāo)值。其中,我們設(shè)置

,得到的查準(zhǔn)率(precision)和查全率(recall)以及F指標(biāo)如表1所示實(shí)驗(yàn)結(jié)果與分析根據(jù)不同模型中提到的方法對顯著圖進(jìn)行二值化,并實(shí)驗(yàn)結(jié)果與分析算法/指標(biāo)precisionrecallF-measureItti0.620.230.45AIM0.810.640.76GBVS0.840.630.78FTS0.880.770.85SR0.710.280.52PQFT0.750.330.58SDSR0.830.710.8SUN0.780.720.76GCS(RC)0.90.90.9PBS0.880.810.86實(shí)驗(yàn)結(jié)果與分析算法/指標(biāo)precisionrecallF-m結(jié)束語結(jié)束語結(jié)束語從上述10類自底向上的顯著性檢測模型中,所有算法都容易受到背景中噪聲的影響。這是因?yàn)?,自底向上的算法采用的特征都是一些底層的特征,如顏色,亮度,方向和空間位置信息。在未來工作中,我們希望能夠研究包含空間關(guān)系且保留詳細(xì)細(xì)節(jié)的全局顯著性圖像的高效計(jì)算算法,并且希望研究能夠處理具有復(fù)雜紋理背景圖像的檢測算法另外,我們還希望在顯著性檢測過程中增加一些特征,比如人臉,對稱性等,進(jìn)一步增加檢測算法的魯棒性.結(jié)束語從上述10類自底向上的顯著性檢測模型中,所有算法都容易謝謝!報(bào)告人:姓名2009年XX月XX日謝謝!報(bào)告人:姓名2009年XX月XX日關(guān)于自底向上的顯著性方法的綜述報(bào)告人:周靜波2012年08月30日關(guān)于自底向上的顯著性方法的綜述報(bào)告人:周靜波2012年08月報(bào)告提綱研究現(xiàn)狀算法模型介紹實(shí)驗(yàn)結(jié)果及分析結(jié)論報(bào)告提綱研究現(xiàn)狀研究現(xiàn)狀研究現(xiàn)狀研究現(xiàn)狀基于視覺注意的顯著性區(qū)域檢測對于圖像分析過程有著非常重要的意義。注意是人類信息加工過程中的一項(xiàng)重要的心理調(diào)節(jié)機(jī)制,它能夠?qū)τ邢薜男畔⒓庸べY源進(jìn)行分配,使感知具備選擇能力。如果能夠?qū)⑦@種機(jī)制引入圖像分析領(lǐng)域,將計(jì)算資源優(yōu)先分配給那些容易引起觀察者注意的區(qū)域,這樣必將極大的提高現(xiàn)有的圖像處理分析方法的工作效率。顯著性區(qū)域檢測正是在這個(gè)基礎(chǔ)上提出并發(fā)展起來的。研究現(xiàn)狀基于視覺注意的顯著性區(qū)域檢測對于圖像分析過程有著非常研究現(xiàn)狀顯著性檢測一般分為兩類自下而上基于數(shù)據(jù)驅(qū)動(dòng)的顯著性區(qū)域突現(xiàn)自上而下任務(wù)驅(qū)動(dòng)的目標(biāo)突現(xiàn)本報(bào)告只關(guān)注自下而上的顯著性檢測算法研究現(xiàn)狀顯著性檢測一般分為兩類研究現(xiàn)狀A(yù)chanta將這些算法分成三類基于低層視覺特征,代表性算法是文獻(xiàn)[1]中提出的模擬生物體視覺注意機(jī)制的選擇性注意算法(Itti算法)沒有基于任何生物視覺原理的純數(shù)學(xué)計(jì)算方法,如Achanta等[4]提出的全分辨率算法(AC算法)和Hou等[5]提出的基于空間頻域分析的剩余譜算法(Spectralresidualapproach,SR)將前兩種進(jìn)行融合的方法,代表性算法是Harel等[6]提出的基于圖論的算法(Graph-basedvisualsaliency,GBVS)研究現(xiàn)狀A(yù)chanta將這些算法分成三類研究現(xiàn)狀Goferman將顯著性分析算法分成以下三類考慮局部特征的,如Itti算法和GBVS算法考慮整體性的,如SR算法和Achanta等[3]提出的算法(IG算法)局部與整體結(jié)合的,如Goferman等[7]和Liu等提出的算法研究現(xiàn)狀Goferman將顯著性分析算法分成以下三類算法模型介紹算法模型介紹Itti模型Itti模型中,顯著值是像素點(diǎn)在顏色、亮度、方向方面與周邊背景的對比值。該模型包括兩個(gè)步驟:特征提取顯著圖生成Itti模型Itti模型中,顯著值是像素點(diǎn)在顏色、亮度、AIM模型

AIM(Attention-basedonInformationMaximization)模型利用香農(nóng)的自信息度量,將圖像的特征平面變換到對應(yīng)于視覺顯著性的維度上。AIM假設(shè):一個(gè)視覺特征的顯著性就是該特征相對于它周圍其他特征提供的信息的差別度。根據(jù)香農(nóng)定理,圖像特征對應(yīng)的自信息通過下面的公式進(jìn)行計(jì)算為特征的概率密度函數(shù)。AIM模型AIM(Attention-basedonIGBVS模型GBVS(Graph-BasedVisualSaliency)模型是在Itti的模型基礎(chǔ)之上運(yùn)用馬爾可夫隨機(jī)場的特點(diǎn)構(gòu)建二維圖像的馬爾可夫鏈,通過求其平衡分布而得到顯著圖算法步驟:特征的提?。号cItti算法類似顯著圖生成:馬爾可夫鏈方法GBVS模型GBVS(Graph-BasedVisualFTS模型

FTS(Frequency-TunedSaliency)模型是由Achanta等人提出的一種自底向上的顯著性檢測方法,通過局部顏色和亮度特征的對比多尺度方法求像素點(diǎn)顯著值。將原始圖像由SRGB顏色空間轉(zhuǎn)化成CIE顏色空間,然后顯著性映射定義為其中為圖像特征的幾何平均向量,為對原始圖像的高斯模糊,采用的二項(xiàng)式核。為范數(shù),為像素點(diǎn)坐標(biāo)。FTS模型FTS(Frequency-TunedSaliSR模型SR(SpectralResidual)模型是由Hou等人提出來的,基于空間頻域分析的算法之一,顯著圖通過對剩余譜做傅里葉逆變換得到。剩余譜定義為其中,為原圖二維傅里葉變換得到的頻域空間,為局部平均濾波器(一般n取3)SR模型SR(SpectralResidual)模型是由HPQFT模型PQFT(PhaseSpectrumofQuaternionFourierTransform)模型是由Guo等人在SpectralResidual基礎(chǔ)之上提出的,該方法通過計(jì)算圖像的四元傅里葉變換的相位譜得到圖像的時(shí)空顯著性映射。事實(shí)上,圖像的相位譜即圖像中的顯著性目標(biāo)。圖像中的每一個(gè)像素點(diǎn)都用四元組表示:顏色,亮度和運(yùn)動(dòng)向量。PQFT模型獨(dú)立于先驗(yàn)信息,不需要參數(shù),計(jì)算高效,適合于實(shí)時(shí)顯著性檢測PQFT模型PQFT(PhaseSpectrumofQPQFT模型假設(shè)

表示時(shí)間t時(shí)刻的輸入圖像,

,

為所有圖像幀的總數(shù)。

分為紅、綠、藍(lán)三個(gè)顏色通道,表示為

,那么,可以將三個(gè)顏色通道擴(kuò)展為四個(gè)廣義的顏色通道:PQFT模型假設(shè)表示時(shí)間t時(shí)刻的輸入圖像,PQFT模型類似于人類視覺系統(tǒng),對立顏色通道定義為亮度通道和運(yùn)動(dòng)通道定義為其中

為使用者設(shè)定的延遲因子。PQFT模型類似于人類視覺系統(tǒng),對立顏色通道定義為PQFT模型四元組圖像可以表示為下列形式其中

,滿足

,

可以寫成如下形式PQFT模型四元組圖像可以表示為下列形式PQFT模型將圖像中每一個(gè)像素點(diǎn)表示為

,

為空間坐標(biāo),

為時(shí)間坐標(biāo)。四元傅里葉圖像變化寫成表示頻域坐標(biāo),表示圖像維度。四元逆傅里葉變化為PQFT模型將圖像中每一個(gè)像素點(diǎn)表示為PQFT模型可將

表示為

的極坐標(biāo)形式其中

的相位譜。設(shè)定

,則只剩下相位信息

。計(jì)算逆相位信息

可得到時(shí)空顯著性映射為其中g(shù)表示二維高斯平滑濾波。當(dāng)輸入為靜態(tài)圖像時(shí),

。PQFT模型可將表示為的極坐標(biāo)形SDSR模型SDSR(SaliencyDetectionbySelf-Resemblance)模型由Seo等人提出的,通過計(jì)算感興趣像素點(diǎn)的特征矩陣與其相鄰的像素點(diǎn)的特征矩陣之間的相似性,來確定像素點(diǎn)的顯著性映射。每一個(gè)像素點(diǎn)的局部圖像結(jié)構(gòu)表示成一個(gè)局部描述子(局部回歸核)矩陣;然后,利用矩陣余弦相似計(jì)算量化每一個(gè)像素點(diǎn)和它相鄰的像素點(diǎn)對應(yīng)的局部描述子矩陣之間的相似性。SDSR模型SDSR(SaliencyDetectionSDSR模型對于像素點(diǎn)i,與之對應(yīng)的特征矩陣,給定像素點(diǎn)i周圍相鄰的像素點(diǎn)特征矩陣,顯著性映射為其中為矩陣和的余弦相似性,為局部權(quán)重參數(shù)。局部特征矩陣的列表示局部指導(dǎo)核的輸出SDSR模型對于像素點(diǎn)i,與之對應(yīng)的特征矩陣,給定SDSR模型SDSR模型SUN模型SUN(SaliencyUsingNaturalStatistics)模型由Zhang等人提出的,模仿視覺系統(tǒng)檢測潛在的目標(biāo)。假設(shè)z代表視覺區(qū)域中的一個(gè)點(diǎn)。二值隨機(jī)變量C代表該點(diǎn)是否屬于目標(biāo),L表示該點(diǎn)的坐標(biāo)位置,F(xiàn)表示該點(diǎn)的視覺特征。定義為,

分別表示點(diǎn)z的特征和坐標(biāo)。根據(jù)貝葉斯定理

SUN模型SUN(SaliencyUsingNaturaSUN模型假設(shè)特征和坐標(biāo)相互獨(dú)立,那么對上式兩邊同時(shí)取對數(shù),由于對數(shù)函數(shù)是單調(diào)增加的,因此不會(huì)影響各點(diǎn)的顯著值排列SUN模型假設(shè)特征和坐標(biāo)相互獨(dú)立,那么SUN模型只依賴于點(diǎn)z的視覺特征,獨(dú)立于任何先驗(yàn)信息。在信息論中,該項(xiàng)實(shí)際上求隨機(jī)變量F取值為時(shí)的自信息。體現(xiàn)了目標(biāo)的先驗(yàn)信息。比如,當(dāng)知道目標(biāo)物體為綠色時(shí),那么該項(xiàng)的值在遇到綠色點(diǎn)時(shí)比遇到藍(lán)色點(diǎn)要大。獨(dú)立于視覺特征,反映了目標(biāo)物體位置的先驗(yàn)信息。一般情況下,我們并不知道目標(biāo)的位置信息和目標(biāo)的視覺特征,于是我們省略后兩項(xiàng),只剩下自信息這一項(xiàng)SUN模型只依GCS模型GCS(GlobalContrastbasedSaliency)模型是由程明明等人基于輸入圖像的顏色統(tǒng)計(jì)特征提出的基于直方圖對比度的圖像顯著性值檢測方法。具體的說,一個(gè)像素的顯著性值用它和圖像中其他像素顏色的對比度來定義。圖像中像素點(diǎn)的顯著性定義為

其中為像素在Lab空間的顏色距離度量。如果忽略空間關(guān)系,使得具有相同顏色的像素歸到一起,得到每一個(gè)顏色的顯著性值

GCS模型GCS(GlobalContrastbaseGCS模型為了加入空間關(guān)系,首先利用基于圖的圖像分割方法將輸入圖像分割成若干個(gè)區(qū)域。然后對每一個(gè)區(qū)域建立顏色直方圖。對每一個(gè)區(qū)域,通過測量它與圖像其他區(qū)域的顏色對比度來計(jì)算它的顯著值為區(qū)域的權(quán)值,為兩個(gè)區(qū)域的顏色距離度量。對于區(qū)域和,他們之間的顏色距離度量定義為為第i個(gè)顏色在第k個(gè)區(qū)域的所有種顏色中出現(xiàn)的概率。

GCS模型為了加入空間關(guān)系,首先利用基于圖的圖像分割方法將輸GCS模型為了增加區(qū)域的空間影響效果,基于空間加權(quán)區(qū)域?qū)Ρ榷鹊娘@著性定義為:

為區(qū)域和的空間距離,控制空間權(quán)值強(qiáng)度。GCS模型為了增加區(qū)域的空間影響效果,基于空間加權(quán)區(qū)域?qū)Ρ榷萈BS模型PBS(Patch-basedSaliency)模型都是先將圖像分割為一系列大小一致的圖像塊,再根據(jù)不同的特征提取方式,對圖像塊進(jìn)行特征提取。下面介紹PBS算法的一般步驟

對于維數(shù)為的圖像,將其分解為一系列大小為的圖像片。為簡便起見,我們不考慮圖像片的重疊問題。圖像片的總數(shù)為。對于任一圖像片,將其表示成向量形式,最終得到一個(gè)表示圖像片的矩陣PBS模型PBS(Patch-basedSaliency)PBS模型使用PCA抽取特征。對圖像片矩陣,計(jì)算對應(yīng)的協(xié)方差矩陣為:對A進(jìn)行特征值分解,選擇前d

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論