模式識(shí)別(山東聯(lián)盟)知到章節(jié)答案智慧樹(shù)2023年青島大學(xué)_第1頁(yè)
模式識(shí)別(山東聯(lián)盟)知到章節(jié)答案智慧樹(shù)2023年青島大學(xué)_第2頁(yè)
模式識(shí)別(山東聯(lián)盟)知到章節(jié)答案智慧樹(shù)2023年青島大學(xué)_第3頁(yè)
模式識(shí)別(山東聯(lián)盟)知到章節(jié)答案智慧樹(shù)2023年青島大學(xué)_第4頁(yè)
模式識(shí)別(山東聯(lián)盟)知到章節(jié)答案智慧樹(shù)2023年青島大學(xué)_第5頁(yè)
免費(fèi)預(yù)覽已結(jié)束,剩余7頁(yè)可下載查看

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

模式識(shí)別(山東聯(lián)盟)知到章節(jié)測(cè)試答案智慧樹(shù)2023年最新青島大學(xué)第一章測(cè)試

關(guān)于監(jiān)督模式識(shí)別與非監(jiān)督模式識(shí)別的描述正確的是

參考答案:

非監(jiān)督模式識(shí)別對(duì)樣本的分類結(jié)果是唯一的

基于數(shù)據(jù)的方法適用于特征和類別關(guān)系不明確的情況

參考答案:

對(duì)

下列關(guān)于模式識(shí)別的說(shuō)法中,正確的是

參考答案:

模式可以看作對(duì)象的組成成分或影響因素間存在的規(guī)律性關(guān)系

在模式識(shí)別中,樣本的特征構(gòu)成特征空間,特征數(shù)量越多越有利于分類

參考答案:

錯(cuò)

在監(jiān)督模式識(shí)別中,分類器的形式越復(fù)雜,對(duì)未知樣本的分類精度就越高

參考答案:

錯(cuò)

第二章測(cè)試

下列關(guān)于最小風(fēng)險(xiǎn)的貝葉斯決策的說(shuō)法中正確的有

參考答案:

最小風(fēng)險(xiǎn)的貝葉斯決策考慮到了不同的錯(cuò)誤率所造成的不同損失;最小錯(cuò)誤率的貝葉斯決策是最小風(fēng)險(xiǎn)的貝葉斯決策的特例;條件風(fēng)險(xiǎn)反映了對(duì)于一個(gè)樣本x采用某種決策時(shí)所帶來(lái)的損失

我們?cè)趯?duì)某一模式x進(jìn)行分類判別決策時(shí),只需要算出它屬于各類的條件風(fēng)險(xiǎn)就可以進(jìn)行決策了。

參考答案:

對(duì)

下面關(guān)于貝葉斯分類器的說(shuō)法中錯(cuò)誤的是

參考答案:

貝葉斯分類器中的判別函數(shù)的形式是唯一的

當(dāng)各類的協(xié)方差矩陣相等時(shí),分類面為超平面,并且與兩類的中心連線垂直。

參考答案:

錯(cuò)

當(dāng)各類的協(xié)方差矩陣不等時(shí),決策面是超二次曲面。

參考答案:

對(duì)

第三章測(cè)試

概率密度函數(shù)的估計(jì)的本質(zhì)是根據(jù)訓(xùn)練數(shù)據(jù)來(lái)估計(jì)概率密度函數(shù)的形式和參數(shù)。

參考答案:

對(duì)

參數(shù)估計(jì)是已知概率密度的形式,而參數(shù)未知。

參考答案:

對(duì)

概率密度函數(shù)的參數(shù)估計(jì)需要一定數(shù)量的訓(xùn)練樣本,樣本越多,參數(shù)估計(jì)的結(jié)果越準(zhǔn)確。

參考答案:

對(duì)

下面關(guān)于最大似然估計(jì)的說(shuō)法中正確的是

參考答案:

最大似然估計(jì)是在已知概率密度函數(shù)的形式,但是參數(shù)未知的情況下,利用訓(xùn)練樣本來(lái)估計(jì)未知參數(shù)。;在最大似然估計(jì)中要求各個(gè)樣本必須是獨(dú)立抽取的。;在最大似然函數(shù)估計(jì)中,要估計(jì)的參數(shù)是一個(gè)確定的量。

貝葉斯估計(jì)中是將未知的參數(shù)本身也看作一個(gè)隨機(jī)變量,要做的是根據(jù)觀測(cè)數(shù)據(jù)對(duì)參數(shù)的分布進(jìn)行估計(jì)。

參考答案:

對(duì)

第四章測(cè)試

多類問(wèn)題的貝葉斯分類器中判別函數(shù)的數(shù)量與類別數(shù)量是有直接關(guān)系的。

參考答案:

對(duì)

在線性判別函數(shù)的表達(dá)式中,一般情況下,權(quán)向量w的維數(shù)和樣本的維數(shù)是一致的。

參考答案:

對(duì)

下面關(guān)于超平面的說(shuō)法中正確的是

參考答案:

超平面的法線方向與判別函數(shù)的權(quán)向量的方向是一致的。;判別函數(shù)可以度量樣本x到超平面的距離。;權(quán)向量與超平面垂直。;分類面的位置是由判別函數(shù)的閾值決定的。

fisher線性判別方法可以將樣本從多維空間投影到一維空間。

參考答案:

對(duì)

在感知器算法中訓(xùn)練樣本需要經(jīng)過(guò)增廣化處理和規(guī)范化處理。

參考答案:

對(duì)

在解空間中的解向量應(yīng)該對(duì)所有的樣本都滿足aTyi>0的條件。

參考答案:

對(duì)

第五章測(cè)試

單個(gè)感知器可以解決非線性問(wèn)題的分類。

參考答案:

錯(cuò)

下面關(guān)于神經(jīng)網(wǎng)絡(luò)的說(shuō)法中正確的是

參考答案:

單個(gè)感知器可以實(shí)現(xiàn)線性分類。;神經(jīng)元是神經(jīng)網(wǎng)絡(luò)的基本組成單元。;多層神經(jīng)網(wǎng)絡(luò)由輸入層、隱藏層和輸出層組成。;多個(gè)感知器可以解決非線性問(wèn)題的分類。

在模式識(shí)別中,神經(jīng)網(wǎng)絡(luò)的輸入層的神經(jīng)元的個(gè)數(shù)與樣本的特征數(shù)量相關(guān)。

參考答案:

對(duì)

隱含層或輸出層具有激活函數(shù)。

參考答案:

對(duì)

下面關(guān)于BP神經(jīng)網(wǎng)絡(luò)的說(shuō)法錯(cuò)誤的是

參考答案:

BP算法由誤差的正向傳播和數(shù)據(jù)的反向傳播兩個(gè)過(guò)程構(gòu)成。

神經(jīng)網(wǎng)絡(luò)的模型受到哪些因素的影響。

參考答案:

網(wǎng)絡(luò)結(jié)構(gòu);連接權(quán)值的學(xué)習(xí);傳遞函數(shù)

利用神經(jīng)網(wǎng)絡(luò)對(duì)兩類問(wèn)題進(jìn)行分類時(shí),可以用一個(gè)輸出節(jié)點(diǎn)來(lái)實(shí)現(xiàn)。

參考答案:

對(duì)

第六章測(cè)試

k-近鄰法中k的選取一般為偶數(shù)。

參考答案:

錯(cuò)

剪輯近鄰法去除的是遠(yuǎn)離分類邊界,對(duì)于最后的決策沒(méi)有貢獻(xiàn)的樣本。

參考答案:

錯(cuò)

壓縮近鄰法去除的是遠(yuǎn)離分類邊界,對(duì)于最后的決策沒(méi)有貢獻(xiàn)的樣本。

參考答案:

對(duì)

剪輯近鄰法剪除的是靠近分類面邊緣的樣本。

參考答案:

對(duì)

近鄰法是一種有監(jiān)督學(xué)習(xí)

參考答案:

對(duì)

第七章測(cè)試

一個(gè)數(shù)據(jù)集能生成多種決策樹(shù)

參考答案:

對(duì)

ID3方法的目的是降低系統(tǒng)信息熵

參考答案:

對(duì)

過(guò)擬合不會(huì)影響分類模型的泛化能力

參考答案:

錯(cuò)

先剪枝可以有效解決過(guò)擬合問(wèn)題,但是后剪枝不能

參考答案:

錯(cuò)

隨機(jī)森林算法是基于自舉思想的一種決策樹(shù)改進(jìn)算法

參考答案:

對(duì)

第八章測(cè)試

C均值算法是基于相似性度量的

參考答案:

對(duì)

C均值算法需要進(jìn)行迭代計(jì)算

參考答案:

對(duì)

分級(jí)聚類可以使用多種不同的類間相似性度量

參考答案:

對(duì)

C均值聚類算法對(duì)噪聲和孤立點(diǎn)不敏感

參考答案:

錯(cuò)

分級(jí)聚類又叫層次聚類,需要構(gòu)建聚類樹(shù)

參考答案:

對(duì)

第九章測(cè)試

特征提取不僅可以降低特征空間的維度,還可以消除特征之間的相關(guān)性。

參考答案:

對(duì)

理想的判據(jù)應(yīng)該對(duì)特征具有單調(diào)性,加入新的特征不會(huì)使判據(jù)減小。

參考答案:

對(duì)

基于類內(nèi)類間距離的可分性判據(jù)和概率密度函數(shù)的可分性判據(jù)都可以有不同的表達(dá)形式。

參考答案:

對(duì)

熵表示不確定性,熵越小不確定性越大。

參考答案:

錯(cuò)

窮舉法是一種基本的特征選擇最優(yōu)算法。

參考答案:

對(duì)

下面關(guān)于分支定界法的說(shuō)法中正確的是

參考答案:

分枝定界法也是一種特征選擇的最優(yōu)算法。;分枝定界法的計(jì)算量與具體問(wèn)題和數(shù)據(jù)有關(guān)。;分枝定界法是一種自頂向下的方法,具有回溯的過(guò)程。

第十章測(cè)試

選擇性抽樣是根據(jù)樣本的先驗(yàn)概率來(lái)確定檢驗(yàn)集數(shù)量的抽樣方法。

參考答案:

對(duì)

測(cè)試集的樣本數(shù)量越多,對(duì)分類器錯(cuò)誤率的估計(jì)就越準(zhǔn)確。

參考答案:

對(duì)

在總的樣本集不是很大的情況下,可以采用交叉驗(yàn)證法來(lái)較好的估計(jì)分類器性能。

參考答案:

對(duì)

在進(jìn)行交叉驗(yàn)證時(shí),,一般讓臨時(shí)訓(xùn)練集較大,臨時(shí)測(cè)試集較小,這樣得到的錯(cuò)誤率估計(jì)就更接近用全部樣本作為訓(xùn)練樣本時(shí)的錯(cuò)誤率。

參考答案:

對(duì)

下面關(guān)于交叉

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論