大數(shù)據(jù)解析與應(yīng)用導(dǎo)論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第1頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第2頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第3頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第4頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)_第5頁
已閱讀5頁,還剩8頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認(rèn)領(lǐng)

文檔簡介

大數(shù)據(jù)解析與應(yīng)用導(dǎo)論知到智慧樹章節(jié)測試課后答案2024年秋浙江大學(xué)第一章單元測試

下列屬于多元統(tǒng)計方法的為()

A:回歸分析

B:神經(jīng)網(wǎng)絡(luò)

C:決策樹

D:主元分析

答案:回歸分析

;主元分析

多元統(tǒng)計分析的圖表示法有()

A:調(diào)和曲線圖

B:散布圖矩陣

C:輪廓圖

D:雷達圖

答案:調(diào)和曲線圖

;散布圖矩陣

;輪廓圖

;雷達圖

完整的數(shù)據(jù)分析過程,包括數(shù)據(jù)采集、數(shù)據(jù)清洗和數(shù)據(jù)分析。()

A:對B:錯

答案:對下列場景適用于回歸分析的是()

A:人臉識別

B:水果分揀

C:信息濃縮

D:天氣預(yù)報

答案:天氣預(yù)報

下面哪一句體現(xiàn)了主元分析的思想()

A:笨鳥先飛

B:牽牛要牽牛鼻子

C:人不是一座孤島

D:物以類聚,人以群分

答案:牽牛要牽牛鼻子

第二章單元測試

一般常見的缺失值處理的方法有()

A:回歸填充法

B:最近鄰插補填充法

C:插值填充

D:替換填充法

答案:回歸填充法

;最近鄰插補填充法

;插值填充

;替換填充法

一般常見的數(shù)據(jù)歸一化的方法有()

A:零均值規(guī)范化

B:替換填充法

C:回歸填充法

D:最小最大規(guī)范化

答案:零均值規(guī)范化

;最小最大規(guī)范化

少量的異常值完全不會影響數(shù)據(jù)分析。()

A:錯B:對

答案:錯下列哪種方法不是數(shù)據(jù)填補的手段()

A:回歸填充法

B:替換填充法

C:均值標(biāo)準(zhǔn)化

D:插值填充法

答案:均值標(biāo)準(zhǔn)化

主成分分析的英文名是()。

A:PrincipalComponentAnalysis

B:OrdinaryLeastSquares

C:CanonicalComponentAnalysis

D:PartialLeastSquares

答案:PrincipalComponentAnalysis

第三章單元測試

下面哪個是SVM在實際生活中的應(yīng)用()

A:郵件分類

B:房價預(yù)測

C:圖片分類

D:文本翻譯

答案:郵件分類

;圖片分類

以下說法正確的有哪些()

A:軟間隔的引入可以解決輕度線性不可分問題

B:核方法不能解決非線性問題

C:SVM只能夠解決回歸問題

D:SVM是一種線性方法

答案:軟間隔的引入可以解決輕度線性不可分問題

;SVM是一種線性方法

拉格朗日乘子法可用于線性可分SVM的模型求解。()

A:錯B:對

答案:對SVM的中文全稱叫什么?()

A:最小向量分類器

B:支持向量回歸器

C:支持向量機

D:最大向量分類器

答案:支持向量機

SVM算法的最小時間復(fù)雜度是O(n2),基于此,以下哪種規(guī)格的數(shù)據(jù)集并不適該算法?()

A:小數(shù)據(jù)集

B:不受數(shù)據(jù)集的大小影響

C:中等數(shù)據(jù)集

D:大數(shù)據(jù)集

答案:大數(shù)據(jù)集

第四章單元測試

一元線性回歸有哪些基本假定?()

A:隨機誤差項服從零均值、同方差的正態(tài)分布。

B:隨機誤差項和解釋變量X不相關(guān);

C:隨機誤差項具有零均值、同方差和序列不相關(guān)的性質(zhì);

D:解釋變量X是確定性變量,Y是隨機變量;

答案:隨機誤差項服從零均值、同方差的正態(tài)分布。

;隨機誤差項和解釋變量X不相關(guān);

;隨機誤差項具有零均值、同方差和序列不相關(guān)的性質(zhì);

;解釋變量X是確定性變量,Y是隨機變量;

最典型的兩種擬合不佳的情況是()。

A:過擬合

B:弱擬合

C:欠擬合

D:強擬合

答案:過擬合

;欠擬合

嶺回歸適用于樣本很少,但變量很多的回歸問題。()

A:對B:錯

答案:對最小二乘方法的擬合程度衡量指標(biāo)是()。

A:殘差平方和

B:均值差

C:擬合殘差

D:殘差和

答案:殘差平方和

關(guān)于最小二乘法,下列說法正確的是。()

A:最小二乘法要求樣本點到擬合直線的豎直距離的平方和最小

B:最小二乘法要求樣本點到擬合直線的垂直距離的平方和最小

C:最小二乘法要求樣本點到擬合直線的豎直距離的和最小

D:最小二乘法要求樣本點到擬合直線的垂直距離的和最小

答案:最小二乘法要求樣本點到擬合直線的豎直距離的平方和最小

第五章單元測試

在區(qū)分某個算法是否是聚類算法時,往往可以通過該算法是否需要預(yù)先設(shè)定明確的類中心來判斷()。

A:對B:錯

答案:對閔可夫斯基距離是一組距離的定義,下列距離中屬于閔可夫斯基距離的有()

A:切比雪夫距離

B:曼哈頓距離

C:歐式距離

D:馬氏距離

答案:切比雪夫距離

;曼哈頓距離

;歐式距離

在利用EM算法估計高斯混合模型參數(shù)的時候,需要預(yù)先設(shè)定的參數(shù)有()。

A:類別個數(shù)

B:高斯元的方差

C:高斯元的均值

D:高斯元的權(quán)重系數(shù)

答案:類別個數(shù)

;高斯元的方差

;高斯元的均值

;高斯元的權(quán)重系數(shù)

聚類算法是一種()的學(xué)習(xí)方式。

A:Q型

B:有監(jiān)督

C:自上而下

D:無監(jiān)督

答案:無監(jiān)督

理想情況下,K均值算法中確定類別個數(shù)的最佳方式為()。

A:根據(jù)比較不同類別個數(shù)時的聚類效果來確定

B:結(jié)合先驗知識確定

C:無需提前確定,可以在訓(xùn)練中得到

D:隨機確定

答案:結(jié)合先驗知識確定

第六章單元測試

隨機森林只能選擇決策樹作為基分類器。()

A:對B:錯

答案:錯在Bootstrap自助采樣法中,真實的情況是()。

A:在每一次采樣中,樣本之間不重復(fù);在完成n次采樣之后,所有樣本都會被采集到

B:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,所有樣本都會被采集到

C:在每一次采樣中,樣本之間不重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到

D:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到

答案:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到

對于離散型隨機變量X,它的熵取決于()。

A:X取每個值的概率

B:X的期望

C:X的分布函數(shù)

D:X的取值范圍

答案:X取每個值的概率

隨機森林有哪些優(yōu)點()。

A:減弱單決策樹的過擬合情況

B:訓(xùn)練速度快

C:可以處理高維度數(shù)據(jù)

D:可以給出特征的重要性大小

答案:減弱單決策樹的過擬合情況

;訓(xùn)練速度快

;可以處理高維度數(shù)據(jù)

;可以給出特征的重要性大小

隨機森林的隨機性體現(xiàn)在哪里()

A:每棵樹的結(jié)點采用隨機屬性搜索

B:每棵樹采用隨機取樣訓(xùn)練

C:隨機刪除一些樹內(nèi)結(jié)點

D:隨機采用隨機抽取的樣本來訓(xùn)練整個隨機森林

答案:每棵樹的結(jié)點采用隨機屬性搜索

;每棵樹采用隨機取樣訓(xùn)練

第七章單元測試

典型相關(guān)分析適用于分析兩組變量之間的關(guān)系()

A:錯B:對

答案:對CCA算法在求解時,分別在兩組變量中選取具有代表性的綜合變量Ui,Vi,每個綜合變量是原變量的線性組合,選擇綜合變量時的目標(biāo)是()

A:最小化兩者的相關(guān)系數(shù)

B:最大化兩者的距離

C:最大化兩者的相關(guān)系數(shù)

D:最小化兩者的距離

答案:最大化兩者的相關(guān)系數(shù)

相比于普通CCA算法,KernelCCA()

A:將標(biāo)簽信息融入到CCA框架中

B:使用了自編碼器

C:只考慮臨近點的影響

D:能分析兩組隨機變量之間的非線性關(guān)系

答案:能分析兩組隨機變量之間的非線性關(guān)系

關(guān)于典型相關(guān)分析CCA與主成分分析PCA,下面說法錯誤的是()

A:考慮了變量的相關(guān)性信息

B:都基于變量的線性變換

C:PCA可以視為一種降維技術(shù),CCA不可以視為一種降維技術(shù)

D:是否進行歸一化,都不影響分析結(jié)果

答案:PCA可以視為一種降維技術(shù),CCA不可以視為一種降維技術(shù)

;是否進行歸一化,都不影響分析結(jié)果

傳統(tǒng)典型相關(guān)分析的基本假設(shè)包括()

A:變量間的關(guān)系是線性關(guān)系:每對典型變量之間是線性關(guān)系,每個典型變量與本組變量之間也是線性關(guān)系;

B:變量具有正態(tài)性;

C:兩組變量的地位是相等的。

D:樣本的同質(zhì)性高,但各組內(nèi)變量間不能有高度的復(fù)共線性。

答案:變量間的關(guān)系是線性關(guān)系:每對典型變量之間是線性關(guān)系,每個典型變量與本組變量之間也是線性關(guān)系;

;變量具有正態(tài)性;

;兩組變量的地位是相等的。

;樣本的同質(zhì)性高,但各組內(nèi)變量間不能有高度的復(fù)共線性。

第八章單元測試

為了提高預(yù)測結(jié)果的精度,網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置得越復(fù)雜越好,不必考慮訓(xùn)練網(wǎng)絡(luò)時所花費的時間。()

A:錯B:對

答案:錯下面哪個函數(shù)不是神經(jīng)元的激活函數(shù)()

A:

B:

C:

D:

答案:

關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN,以下說法錯誤的是:()

A:由于卷積核的大小一般是3*3或更大,因此卷積層得到的特征圖像一定比原圖像小。

B:CNN中的池化層用于降低特征圖維數(shù),以避免過擬合。

C:CNN中的全連接層常用softmax作為激活函數(shù)。

D:CNN由卷積層、池化層和全連接層組成,常用于處理與圖像有關(guān)的問題。

答案:由于卷積核的大小一般是3*3或更大,因此卷積層得到的特征圖像一定比原圖像小。

相較于傳統(tǒng)RNN,LSTM引入了獨特的門控機制。以下哪些是LSTM中包含的門結(jié)構(gòu):()

A:遺忘門

B:輸出門

C:更新門

D:輸入門

答案:遺忘門

;輸出門

;輸入門

關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN與循環(huán)神經(jīng)網(wǎng)絡(luò)RNN,下面說法正確的有:()

A:在同一個網(wǎng)絡(luò)中,CNN結(jié)構(gòu)和RNN結(jié)構(gòu)不能同時使用。

B:CNN適用于圖像處理,而RNN適用于序列數(shù)據(jù)處理。

C:CNN和RNN都屬于神經(jīng)網(wǎng)絡(luò),因此二者的訓(xùn)練方式完全一致,均采用BP算法。

D:CNN和RNN都采用了權(quán)值共享機制以減少網(wǎng)絡(luò)中的參數(shù)量。

答案:CNN適用于圖像處理,而RNN適用于序列數(shù)據(jù)處理。

;CNN和RNN都采用了權(quán)值共享機制以減少網(wǎng)絡(luò)中的參數(shù)量。

第九章單元測試

自編碼器的訓(xùn)練屬于半監(jiān)督學(xué)習(xí)。()

A:錯B:對

答案:錯下面哪一種算法屬于生成式模型()。

A:決策樹

B:變分自編碼器

C:支持向量機

D:線性回歸模型

答案:變分自編碼器

關(guān)于去噪自編碼器DAE,以下說法錯誤的是:()

A:DAE的Loss函數(shù)用于最小化預(yù)測結(jié)果與噪聲數(shù)據(jù)間的誤差。

B:DAE訓(xùn)練時需要保證訓(xùn)練數(shù)據(jù)的完整性。

C:DAE中假設(shè)所有含噪樣本的損壞過程一致。

D:DAE一般以含噪聲數(shù)據(jù)作為輸入,并輸出重構(gòu)的去噪數(shù)據(jù)。

答案:DAE的Loss函數(shù)用于最小化預(yù)測結(jié)果與噪聲數(shù)據(jù)間的誤差。

在稀疏自編碼器中,假設(shè)神經(jīng)元采用tanh作為激活函數(shù),則:()

A:當(dāng)神經(jīng)元的輸出接近1的時候,認(rèn)為它被激活。

B:當(dāng)神經(jīng)元的輸出接近0的時候,認(rèn)為它被激活。

C:當(dāng)神經(jīng)元的輸出接近0的時候,認(rèn)為它被抑制。

D:當(dāng)神經(jīng)元的輸出接近-1的時候,認(rèn)為它被抑制。

答案:當(dāng)神經(jīng)元的輸出接近1的時候,認(rèn)為它被激活。

;當(dāng)神經(jīng)元的輸出接近-1的時候,認(rèn)為它被抑制。

關(guān)于變分自編碼器VAE,以下說法正確的有:()

A:VAE的變分下界中,KL散度項可以為負(fù)值。

B:VAE的變分下界由KL散度項和模型重建誤差項組成。

C:VAE是一類生成模型,可用于訓(xùn)練出一個樣本的生成器。

D:VAE廣泛用于生成圖像。

答案:VAE的變分下界由KL散度項和模型重建誤差項組成。

;VAE是一類生成模型,可用于訓(xùn)練出一個樣本的生成器。

;VAE廣泛用于生成圖像。

第十章單元測試

一般情況下我們在模型訓(xùn)練及調(diào)參前要先進行數(shù)據(jù)分析預(yù)處理以及特征工程,這是十分必要的一環(huán)()。

A:對B:錯

答案:對對于糖尿病的血糖預(yù)測,我們可以考慮使用()方法。

A:DNN

B:LSTM

C:SVM

D:SVR

答案:DNN

;LSTM

;SVR

工業(yè)蒸汽量預(yù)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論