大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第1頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第2頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第3頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第4頁
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第5頁
已閱讀5頁,還剩12頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)浙江大學(xué)

第一章測(cè)試

下列屬于多元統(tǒng)計(jì)方法的為()

A:回歸分析

B:神經(jīng)網(wǎng)絡(luò)

C:決策樹

D:主元分析

答案:回歸分析

;主元分析

多元統(tǒng)計(jì)分析的圖表示法有()

A:調(diào)和曲線圖

B:雷達(dá)圖

C:輪廓圖

D:散布圖矩陣

答案:調(diào)和曲線圖

;雷達(dá)圖

;輪廓圖

;散布圖矩陣

完整的數(shù)據(jù)分析過程,包括數(shù)據(jù)采集、數(shù)據(jù)清洗和數(shù)據(jù)分析。()

A:錯(cuò)B:對(duì)

答案:對(duì)

下列場(chǎng)景適用于回歸分析的是()

A:水果分揀

B:天氣預(yù)報(bào)

C:信息濃縮

D:人臉識(shí)別

答案:天氣預(yù)報(bào)

下面哪一句體現(xiàn)了主元分析的思想()

A:人不是一座孤島

B:物以類聚,人以群分

C:牽牛要牽牛鼻子

D:笨鳥先飛

答案:牽牛要牽牛鼻子

第二章測(cè)試

一般常見的缺失值處理的方法有()

A:最近鄰插補(bǔ)填充法

B:插值填充

C:回歸填充法

D:替換填充法

答案:最近鄰插補(bǔ)填充法

;插值填充

;回歸填充法

;替換填充法

一般常見的數(shù)據(jù)歸一化的方法有()

A:替換填充法

B:最小最大規(guī)范化

C:回歸填充法

D:零均值規(guī)范化

答案:最小最大規(guī)范化

;零均值規(guī)范化

少量的異常值完全不會(huì)影響數(shù)據(jù)分析。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)

下列哪種方法不是數(shù)據(jù)填補(bǔ)的手段()

A:回歸填充法

B:均值標(biāo)準(zhǔn)化

C:插值填充法

D:替換填充法

答案:均值標(biāo)準(zhǔn)化

主成分分析的英文名是()。

A:CanonicalComponentAnalysis

B:PartialLeastSquares

C:OrdinaryLeastSquares

D:PrincipalComponentAnalysis

答案:PrincipalComponentAnalysis

第三章測(cè)試

下面哪個(gè)是SVM在實(shí)際生活中的應(yīng)用()

A:郵件分類

B:房?jī)r(jià)預(yù)測(cè)

C:文本翻譯

D:圖片分類

答案:郵件分類

;圖片分類

以下說法正確的有哪些()

A:SVM只能夠解決回歸問題

B:軟間隔的引入可以解決輕度線性不可分問題

C:SVM是一種線性方法

D:核方法不能解決非線性問題

答案:軟間隔的引入可以解決輕度線性不可分問題

;SVM是一種線性方法

拉格朗日乘子法可用于線性可分SVM的模型求解。()

A:對(duì)B:錯(cuò)

答案:對(duì)

SVM的中文全稱叫什么?()

A:支持向量回歸器

B:最大向量分類器

C:最小向量分類器

D:支持向量機(jī)

答案:支持向量機(jī)

SVM算法的最小時(shí)間復(fù)雜度是O(n2),基于此,以下哪種規(guī)格的數(shù)據(jù)集并不適該算法?()

A:大數(shù)據(jù)集

B:中等數(shù)據(jù)集

C:不受數(shù)據(jù)集的大小影響

D:小數(shù)據(jù)集

答案:大數(shù)據(jù)集

第四章測(cè)試

一元線性回歸有哪些基本假定?()

A:隨機(jī)誤差項(xiàng)和解釋變量X不相關(guān);

B:隨機(jī)誤差項(xiàng)服從零均值、同方差的正態(tài)分布。

C:解釋變量X是確定性變量,Y是隨機(jī)變量;

D:隨機(jī)誤差項(xiàng)具有零均值、同方差和序列不相關(guān)的性質(zhì);

答案:隨機(jī)誤差項(xiàng)和解釋變量X不相關(guān);

;隨機(jī)誤差項(xiàng)服從零均值、同方差的正態(tài)分布。

;解釋變量X是確定性變量,Y是隨機(jī)變量;

;隨機(jī)誤差項(xiàng)具有零均值、同方差和序列不相關(guān)的性質(zhì);

最典型的兩種擬合不佳的情況是()。

A:欠擬合

B:過擬合

C:強(qiáng)擬合

D:弱擬合

答案:欠擬合

;過擬合

嶺回歸適用于樣本很少,但變量很多的回歸問題。()

A:對(duì)B:錯(cuò)

答案:對(duì)

最小二乘方法的擬合程度衡量指標(biāo)是()。

A:殘差和

B:均值差

C:擬合殘差

D:殘差平方和

答案:殘差平方和

關(guān)于最小二乘法,下列說法正確的是。()

A:最小二乘法要求樣本點(diǎn)到擬合直線的垂直距離的平方和最小

B:最小二乘法要求樣本點(diǎn)到擬合直線的垂直距離的和最小

C:最小二乘法要求樣本點(diǎn)到擬合直線的豎直距離的平方和最小

D:最小二乘法要求樣本點(diǎn)到擬合直線的豎直距離的和最小

答案:最小二乘法要求樣本點(diǎn)到擬合直線的豎直距離的平方和最小

第五章測(cè)試

在區(qū)分某個(gè)算法是否是聚類算法時(shí),往往可以通過該算法是否需要預(yù)先設(shè)定明確的類中心來判斷()。

A:對(duì)B:錯(cuò)

答案:對(duì)

閔可夫斯基距離是一組距離的定義,下列距離中屬于閔可夫斯基距離的有()

A:馬氏距離

B:切比雪夫距離

C:歐式距離

D:曼哈頓距離

答案:切比雪夫距離

;歐式距離

;曼哈頓距離

在利用EM算法估計(jì)高斯混合模型參數(shù)的時(shí)候,需要預(yù)先設(shè)定的參數(shù)有()。

A:高斯元的均值

B:高斯元的權(quán)重系數(shù)

C:類別個(gè)數(shù)

D:高斯元的方差

答案:高斯元的均值

;高斯元的權(quán)重系數(shù)

;類別個(gè)數(shù)

;高斯元的方差

聚類算法是一種()的學(xué)習(xí)方式。

A:有監(jiān)督

B:自上而下

C:Q型

D:無監(jiān)督

答案:無監(jiān)督

理想情況下,K均值算法中確定類別個(gè)數(shù)的最佳方式為()。

A:無需提前確定,可以在訓(xùn)練中得到

B:根據(jù)比較不同類別個(gè)數(shù)時(shí)的聚類效果來確定

C:隨機(jī)確定

D:結(jié)合先驗(yàn)知識(shí)確定

答案:結(jié)合先驗(yàn)知識(shí)確定

第六章測(cè)試

隨機(jī)森林只能選擇決策樹作為基分類器。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

在Bootstrap自助采樣法中,真實(shí)的情況是()。

A:在每一次采樣中,樣本之間不重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到

B:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,所有樣本都會(huì)被采集到

C:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到

D:在每一次采樣中,樣本之間不重復(fù);在完成n次采樣之后,所有樣本都會(huì)被采集到

答案:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到

對(duì)于離散型隨機(jī)變量X,它的熵取決于()。

A:X取每個(gè)值的概率

B:X的分布函數(shù)

C:X的取值范圍

D:X的期望

答案:X取每個(gè)值的概率

隨機(jī)森林有哪些優(yōu)點(diǎn)()。

A:減弱單決策樹的過擬合情況

B:訓(xùn)練速度快

C:可以處理高維度數(shù)據(jù)

D:可以給出特征的重要性大小

答案:減弱單決策樹的過擬合情況

;訓(xùn)練速度快

;可以處理高維度數(shù)據(jù)

;可以給出特征的重要性大小

隨機(jī)森林的隨機(jī)性體現(xiàn)在哪里()

A:每棵樹的結(jié)點(diǎn)采用隨機(jī)屬性搜索

B:隨機(jī)刪除一些樹內(nèi)結(jié)點(diǎn)

C:隨機(jī)采用隨機(jī)抽取的樣本來訓(xùn)練整個(gè)隨機(jī)森林

D:每棵樹采用隨機(jī)取樣訓(xùn)練

答案:每棵樹的結(jié)點(diǎn)采用隨機(jī)屬性搜索

;每棵樹采用隨機(jī)取樣訓(xùn)練

第七章測(cè)試

典型相關(guān)分析適用于分析兩組變量之間的關(guān)系()

A:對(duì)B:錯(cuò)

答案:對(duì)

CCA算法在求解時(shí),分別在兩組變量中選取具有代表性的綜合變量Ui,Vi,每個(gè)綜合變量是原變量的線性組合,選擇綜合變量時(shí)的目標(biāo)是()

A:最小化兩者的相關(guān)系數(shù)

B:最大化兩者的距離

C:最大化兩者的相關(guān)系數(shù)

D:最小化兩者的距離

答案:最大化兩者的相關(guān)系數(shù)

相比于普通CCA算法,KernelCCA()

A:能分析兩組隨機(jī)變量之間的非線性關(guān)系

B:將標(biāo)簽信息融入到CCA框架中

C:使用了自編碼器

D:只考慮臨近點(diǎn)的影響

答案:能分析兩組隨機(jī)變量之間的非線性關(guān)系

關(guān)于典型相關(guān)分析CCA與主成分分析PCA,下面說法錯(cuò)誤的是()

A:PCA可以視為一種降維技術(shù),CCA不可以視為一種降維技術(shù)

B:是否進(jìn)行歸一化,都不影響分析結(jié)果

C:都基于變量的線性變換

D:考慮了變量的相關(guān)性信息

答案:PCA可以視為一種降維技術(shù),CCA不可以視為一種降維技術(shù)

;是否進(jìn)行歸一化,都不影響分析結(jié)果

傳統(tǒng)典型相關(guān)分析的基本假設(shè)包括()

A:兩組變量的地位是相等的。

B:樣本的同質(zhì)性高,但各組內(nèi)變量間不能有高度的復(fù)共線性。

C:變量具有正態(tài)性;

D:變量間的關(guān)系是線性關(guān)系:每對(duì)典型變量之間是線性關(guān)系,每個(gè)典型變量與本組變量之間也是線性關(guān)系;

答案:兩組變量的地位是相等的。

;樣本的同質(zhì)性高,但各組內(nèi)變量間不能有高度的復(fù)共線性。

;變量具有正態(tài)性;

;變量間的關(guān)系是線性關(guān)系:每對(duì)典型變量之間是線性關(guān)系,每個(gè)典型變量與本組變量之間也是線性關(guān)系;

第八章測(cè)試

為了提高預(yù)測(cè)結(jié)果的精度,網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置得越復(fù)雜越好,不必考慮訓(xùn)練網(wǎng)絡(luò)時(shí)所花費(fèi)的時(shí)間。()

A:錯(cuò)B:對(duì)

答案:錯(cuò)

下面哪個(gè)函數(shù)不是神經(jīng)元的激活函數(shù)()

A:

B:

C:

D:

答案:

關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN,以下說法錯(cuò)誤的是:()

A:CNN中的池化層用于降低特征圖維數(shù),以避免過擬合。

B:由于卷積核的大小一般是3*3或更大,因此卷積層得到的特征圖像一定比原圖像小。

C:CNN由卷積層、池化層和全連接層組成,常用于處理與圖像有關(guān)的問題。

D:CNN中的全連接層常用softmax作為激活函數(shù)。

答案:由于卷積核的大小一般是3*3或更大,因此卷積層得到的特征圖像一定比原圖像小。

相較于傳統(tǒng)RNN,LSTM引入了獨(dú)特的門控機(jī)制。以下哪些是LSTM中包含的門結(jié)構(gòu):()

A:輸入門

B:輸出門

C:更新門

D:遺忘門

答案:輸入門

;輸出門

;遺忘門

關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN與循環(huán)神經(jīng)網(wǎng)絡(luò)RNN,下面說法正確的有:()

A:CNN和RNN都采用了權(quán)值共享機(jī)制以減少網(wǎng)絡(luò)中的參數(shù)量。

B:CNN和RNN都屬于神經(jīng)網(wǎng)絡(luò),因此二者的訓(xùn)練方式完全一致,均采用BP算法。

C:在同一個(gè)網(wǎng)絡(luò)中,CNN結(jié)構(gòu)和RNN結(jié)構(gòu)不能同時(shí)使用。

D:CNN適用于圖像處理,而RNN適用于序列數(shù)據(jù)處理。

答案:CNN和RNN都采用了權(quán)值共享機(jī)制以減少網(wǎng)絡(luò)中的參數(shù)量。

;CNN適用于圖像處理,而RNN適用于序列數(shù)據(jù)處理。

第九章測(cè)試

自編碼器的訓(xùn)練屬于半監(jiān)督學(xué)習(xí)。()

A:對(duì)B:錯(cuò)

答案:錯(cuò)

下面哪一種算法屬于生成式模型()。

A:決策樹

B:變分自編碼器

C:支持向量機(jī)

D:線性回歸模型

答案:變分自編碼器

關(guān)于去噪自編碼器DAE,以下說法錯(cuò)誤的是:()

A:DAE一般以含噪聲數(shù)據(jù)作為輸入,并輸出重構(gòu)的去噪數(shù)據(jù)。

B:DAE訓(xùn)練時(shí)需要保證訓(xùn)練數(shù)據(jù)的完整性。

C:DAE的Loss函數(shù)用于最小化預(yù)測(cè)結(jié)果與噪聲數(shù)據(jù)間的誤差。

D:DAE中假設(shè)所有含噪樣本的損壞過程一致。

答案:DAE的Loss函數(shù)用于最小化預(yù)測(cè)結(jié)果與噪聲數(shù)據(jù)間的誤差。

在稀疏自編碼器中,假設(shè)神經(jīng)元采用tanh作為激活函數(shù),則:()

A:當(dāng)神經(jīng)元的輸出接近0的時(shí)候,認(rèn)為它被抑制。

B:當(dāng)神經(jīng)元的輸出接近1的時(shí)候,認(rèn)為它被激活。

C:當(dāng)神經(jīng)元的輸出接近-1的時(shí)候,認(rèn)為它被抑制。

D:當(dāng)神經(jīng)元的輸出接近0的時(shí)候,認(rèn)為它被激活。

答案:當(dāng)神經(jīng)元的輸出接近1的時(shí)候,認(rèn)為它被激活。

;當(dāng)神經(jīng)元的輸出接近-1的時(shí)候,認(rèn)為它被抑制。

關(guān)于變分自編碼器VAE,以下說法正確的有:()

A:VAE的變分下界中,KL散度項(xiàng)可以為負(fù)值。

B:VAE是一類生成模型,可用于訓(xùn)練出一個(gè)樣本的生成器。

C:VAE廣泛用于生成圖像。

D:VAE的變分下界由KL散度項(xiàng)和模型重建誤差項(xiàng)組成。

答案:VAE是一類生成模型,可用于訓(xùn)練出一個(gè)樣本的生成器。

;VAE廣泛用于生成圖像。

;VAE的變分下界由KL散度項(xiàng)和模型重建誤差項(xiàng)組成。

第十章測(cè)試

一般情況下我們?cè)谀P陀?xùn)練及調(diào)參前要先進(jìn)行數(shù)據(jù)分析預(yù)處理以及特征工程,這是十分必要的一環(huán)()。

A:錯(cuò)B:對(duì)

答案:對(duì)

對(duì)于糖尿病的血糖預(yù)測(cè),我們可以考慮使用()方法。

A:DNN

B:SVM

C:LSTM

D:SVR

答案:DNN

;LSTM

;SVR

工業(yè)蒸汽量預(yù)測(cè)

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論