![大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第1頁](http://file4.renrendoc.com/view/10cd597eaf18872a14f1345f5974e5f0/10cd597eaf18872a14f1345f5974e5f01.gif)
![大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第2頁](http://file4.renrendoc.com/view/10cd597eaf18872a14f1345f5974e5f0/10cd597eaf18872a14f1345f5974e5f02.gif)
![大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第3頁](http://file4.renrendoc.com/view/10cd597eaf18872a14f1345f5974e5f0/10cd597eaf18872a14f1345f5974e5f03.gif)
![大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第4頁](http://file4.renrendoc.com/view/10cd597eaf18872a14f1345f5974e5f0/10cd597eaf18872a14f1345f5974e5f04.gif)
![大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)_第5頁](http://file4.renrendoc.com/view/10cd597eaf18872a14f1345f5974e5f0/10cd597eaf18872a14f1345f5974e5f05.gif)
版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
大數(shù)據(jù)解析與應(yīng)用導(dǎo)論智慧樹知到課后章節(jié)答案2023年下浙江大學(xué)浙江大學(xué)
第一章測(cè)試
下列屬于多元統(tǒng)計(jì)方法的為()
A:回歸分析
B:神經(jīng)網(wǎng)絡(luò)
C:決策樹
D:主元分析
答案:回歸分析
;主元分析
多元統(tǒng)計(jì)分析的圖表示法有()
A:調(diào)和曲線圖
B:雷達(dá)圖
C:輪廓圖
D:散布圖矩陣
答案:調(diào)和曲線圖
;雷達(dá)圖
;輪廓圖
;散布圖矩陣
完整的數(shù)據(jù)分析過程,包括數(shù)據(jù)采集、數(shù)據(jù)清洗和數(shù)據(jù)分析。()
A:錯(cuò)B:對(duì)
答案:對(duì)
下列場(chǎng)景適用于回歸分析的是()
A:水果分揀
B:天氣預(yù)報(bào)
C:信息濃縮
D:人臉識(shí)別
答案:天氣預(yù)報(bào)
下面哪一句體現(xiàn)了主元分析的思想()
A:人不是一座孤島
B:物以類聚,人以群分
C:牽牛要牽牛鼻子
D:笨鳥先飛
答案:牽牛要牽牛鼻子
第二章測(cè)試
一般常見的缺失值處理的方法有()
A:最近鄰插補(bǔ)填充法
B:插值填充
C:回歸填充法
D:替換填充法
答案:最近鄰插補(bǔ)填充法
;插值填充
;回歸填充法
;替換填充法
一般常見的數(shù)據(jù)歸一化的方法有()
A:替換填充法
B:最小最大規(guī)范化
C:回歸填充法
D:零均值規(guī)范化
答案:最小最大規(guī)范化
;零均值規(guī)范化
少量的異常值完全不會(huì)影響數(shù)據(jù)分析。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)
下列哪種方法不是數(shù)據(jù)填補(bǔ)的手段()
A:回歸填充法
B:均值標(biāo)準(zhǔn)化
C:插值填充法
D:替換填充法
答案:均值標(biāo)準(zhǔn)化
主成分分析的英文名是()。
A:CanonicalComponentAnalysis
B:PartialLeastSquares
C:OrdinaryLeastSquares
D:PrincipalComponentAnalysis
答案:PrincipalComponentAnalysis
第三章測(cè)試
下面哪個(gè)是SVM在實(shí)際生活中的應(yīng)用()
A:郵件分類
B:房?jī)r(jià)預(yù)測(cè)
C:文本翻譯
D:圖片分類
答案:郵件分類
;圖片分類
以下說法正確的有哪些()
A:SVM只能夠解決回歸問題
B:軟間隔的引入可以解決輕度線性不可分問題
C:SVM是一種線性方法
D:核方法不能解決非線性問題
答案:軟間隔的引入可以解決輕度線性不可分問題
;SVM是一種線性方法
拉格朗日乘子法可用于線性可分SVM的模型求解。()
A:對(duì)B:錯(cuò)
答案:對(duì)
SVM的中文全稱叫什么?()
A:支持向量回歸器
B:最大向量分類器
C:最小向量分類器
D:支持向量機(jī)
答案:支持向量機(jī)
SVM算法的最小時(shí)間復(fù)雜度是O(n2),基于此,以下哪種規(guī)格的數(shù)據(jù)集并不適該算法?()
A:大數(shù)據(jù)集
B:中等數(shù)據(jù)集
C:不受數(shù)據(jù)集的大小影響
D:小數(shù)據(jù)集
答案:大數(shù)據(jù)集
第四章測(cè)試
一元線性回歸有哪些基本假定?()
A:隨機(jī)誤差項(xiàng)和解釋變量X不相關(guān);
B:隨機(jī)誤差項(xiàng)服從零均值、同方差的正態(tài)分布。
C:解釋變量X是確定性變量,Y是隨機(jī)變量;
D:隨機(jī)誤差項(xiàng)具有零均值、同方差和序列不相關(guān)的性質(zhì);
答案:隨機(jī)誤差項(xiàng)和解釋變量X不相關(guān);
;隨機(jī)誤差項(xiàng)服從零均值、同方差的正態(tài)分布。
;解釋變量X是確定性變量,Y是隨機(jī)變量;
;隨機(jī)誤差項(xiàng)具有零均值、同方差和序列不相關(guān)的性質(zhì);
最典型的兩種擬合不佳的情況是()。
A:欠擬合
B:過擬合
C:強(qiáng)擬合
D:弱擬合
答案:欠擬合
;過擬合
嶺回歸適用于樣本很少,但變量很多的回歸問題。()
A:對(duì)B:錯(cuò)
答案:對(duì)
最小二乘方法的擬合程度衡量指標(biāo)是()。
A:殘差和
B:均值差
C:擬合殘差
D:殘差平方和
答案:殘差平方和
關(guān)于最小二乘法,下列說法正確的是。()
A:最小二乘法要求樣本點(diǎn)到擬合直線的垂直距離的平方和最小
B:最小二乘法要求樣本點(diǎn)到擬合直線的垂直距離的和最小
C:最小二乘法要求樣本點(diǎn)到擬合直線的豎直距離的平方和最小
D:最小二乘法要求樣本點(diǎn)到擬合直線的豎直距離的和最小
答案:最小二乘法要求樣本點(diǎn)到擬合直線的豎直距離的平方和最小
第五章測(cè)試
在區(qū)分某個(gè)算法是否是聚類算法時(shí),往往可以通過該算法是否需要預(yù)先設(shè)定明確的類中心來判斷()。
A:對(duì)B:錯(cuò)
答案:對(duì)
閔可夫斯基距離是一組距離的定義,下列距離中屬于閔可夫斯基距離的有()
A:馬氏距離
B:切比雪夫距離
C:歐式距離
D:曼哈頓距離
答案:切比雪夫距離
;歐式距離
;曼哈頓距離
在利用EM算法估計(jì)高斯混合模型參數(shù)的時(shí)候,需要預(yù)先設(shè)定的參數(shù)有()。
A:高斯元的均值
B:高斯元的權(quán)重系數(shù)
C:類別個(gè)數(shù)
D:高斯元的方差
答案:高斯元的均值
;高斯元的權(quán)重系數(shù)
;類別個(gè)數(shù)
;高斯元的方差
聚類算法是一種()的學(xué)習(xí)方式。
A:有監(jiān)督
B:自上而下
C:Q型
D:無監(jiān)督
答案:無監(jiān)督
理想情況下,K均值算法中確定類別個(gè)數(shù)的最佳方式為()。
A:無需提前確定,可以在訓(xùn)練中得到
B:根據(jù)比較不同類別個(gè)數(shù)時(shí)的聚類效果來確定
C:隨機(jī)確定
D:結(jié)合先驗(yàn)知識(shí)確定
答案:結(jié)合先驗(yàn)知識(shí)確定
第六章測(cè)試
隨機(jī)森林只能選擇決策樹作為基分類器。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)
在Bootstrap自助采樣法中,真實(shí)的情況是()。
A:在每一次采樣中,樣本之間不重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到
B:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,所有樣本都會(huì)被采集到
C:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到
D:在每一次采樣中,樣本之間不重復(fù);在完成n次采樣之后,所有樣本都會(huì)被采集到
答案:在每一次采樣中,樣本之間可能有重復(fù);在完成n次采樣之后,有些樣本可能沒有被采集到
對(duì)于離散型隨機(jī)變量X,它的熵取決于()。
A:X取每個(gè)值的概率
B:X的分布函數(shù)
C:X的取值范圍
D:X的期望
答案:X取每個(gè)值的概率
隨機(jī)森林有哪些優(yōu)點(diǎn)()。
A:減弱單決策樹的過擬合情況
B:訓(xùn)練速度快
C:可以處理高維度數(shù)據(jù)
D:可以給出特征的重要性大小
答案:減弱單決策樹的過擬合情況
;訓(xùn)練速度快
;可以處理高維度數(shù)據(jù)
;可以給出特征的重要性大小
隨機(jī)森林的隨機(jī)性體現(xiàn)在哪里()
A:每棵樹的結(jié)點(diǎn)采用隨機(jī)屬性搜索
B:隨機(jī)刪除一些樹內(nèi)結(jié)點(diǎn)
C:隨機(jī)采用隨機(jī)抽取的樣本來訓(xùn)練整個(gè)隨機(jī)森林
D:每棵樹采用隨機(jī)取樣訓(xùn)練
答案:每棵樹的結(jié)點(diǎn)采用隨機(jī)屬性搜索
;每棵樹采用隨機(jī)取樣訓(xùn)練
第七章測(cè)試
典型相關(guān)分析適用于分析兩組變量之間的關(guān)系()
A:對(duì)B:錯(cuò)
答案:對(duì)
CCA算法在求解時(shí),分別在兩組變量中選取具有代表性的綜合變量Ui,Vi,每個(gè)綜合變量是原變量的線性組合,選擇綜合變量時(shí)的目標(biāo)是()
A:最小化兩者的相關(guān)系數(shù)
B:最大化兩者的距離
C:最大化兩者的相關(guān)系數(shù)
D:最小化兩者的距離
答案:最大化兩者的相關(guān)系數(shù)
相比于普通CCA算法,KernelCCA()
A:能分析兩組隨機(jī)變量之間的非線性關(guān)系
B:將標(biāo)簽信息融入到CCA框架中
C:使用了自編碼器
D:只考慮臨近點(diǎn)的影響
答案:能分析兩組隨機(jī)變量之間的非線性關(guān)系
關(guān)于典型相關(guān)分析CCA與主成分分析PCA,下面說法錯(cuò)誤的是()
A:PCA可以視為一種降維技術(shù),CCA不可以視為一種降維技術(shù)
B:是否進(jìn)行歸一化,都不影響分析結(jié)果
C:都基于變量的線性變換
D:考慮了變量的相關(guān)性信息
答案:PCA可以視為一種降維技術(shù),CCA不可以視為一種降維技術(shù)
;是否進(jìn)行歸一化,都不影響分析結(jié)果
傳統(tǒng)典型相關(guān)分析的基本假設(shè)包括()
A:兩組變量的地位是相等的。
B:樣本的同質(zhì)性高,但各組內(nèi)變量間不能有高度的復(fù)共線性。
C:變量具有正態(tài)性;
D:變量間的關(guān)系是線性關(guān)系:每對(duì)典型變量之間是線性關(guān)系,每個(gè)典型變量與本組變量之間也是線性關(guān)系;
答案:兩組變量的地位是相等的。
;樣本的同質(zhì)性高,但各組內(nèi)變量間不能有高度的復(fù)共線性。
;變量具有正態(tài)性;
;變量間的關(guān)系是線性關(guān)系:每對(duì)典型變量之間是線性關(guān)系,每個(gè)典型變量與本組變量之間也是線性關(guān)系;
第八章測(cè)試
為了提高預(yù)測(cè)結(jié)果的精度,網(wǎng)絡(luò)結(jié)構(gòu)設(shè)置得越復(fù)雜越好,不必考慮訓(xùn)練網(wǎng)絡(luò)時(shí)所花費(fèi)的時(shí)間。()
A:錯(cuò)B:對(duì)
答案:錯(cuò)
下面哪個(gè)函數(shù)不是神經(jīng)元的激活函數(shù)()
A:
B:
C:
D:
答案:
關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN,以下說法錯(cuò)誤的是:()
A:CNN中的池化層用于降低特征圖維數(shù),以避免過擬合。
B:由于卷積核的大小一般是3*3或更大,因此卷積層得到的特征圖像一定比原圖像小。
C:CNN由卷積層、池化層和全連接層組成,常用于處理與圖像有關(guān)的問題。
D:CNN中的全連接層常用softmax作為激活函數(shù)。
答案:由于卷積核的大小一般是3*3或更大,因此卷積層得到的特征圖像一定比原圖像小。
相較于傳統(tǒng)RNN,LSTM引入了獨(dú)特的門控機(jī)制。以下哪些是LSTM中包含的門結(jié)構(gòu):()
A:輸入門
B:輸出門
C:更新門
D:遺忘門
答案:輸入門
;輸出門
;遺忘門
關(guān)于卷積神經(jīng)網(wǎng)絡(luò)CNN與循環(huán)神經(jīng)網(wǎng)絡(luò)RNN,下面說法正確的有:()
A:CNN和RNN都采用了權(quán)值共享機(jī)制以減少網(wǎng)絡(luò)中的參數(shù)量。
B:CNN和RNN都屬于神經(jīng)網(wǎng)絡(luò),因此二者的訓(xùn)練方式完全一致,均采用BP算法。
C:在同一個(gè)網(wǎng)絡(luò)中,CNN結(jié)構(gòu)和RNN結(jié)構(gòu)不能同時(shí)使用。
D:CNN適用于圖像處理,而RNN適用于序列數(shù)據(jù)處理。
答案:CNN和RNN都采用了權(quán)值共享機(jī)制以減少網(wǎng)絡(luò)中的參數(shù)量。
;CNN適用于圖像處理,而RNN適用于序列數(shù)據(jù)處理。
第九章測(cè)試
自編碼器的訓(xùn)練屬于半監(jiān)督學(xué)習(xí)。()
A:對(duì)B:錯(cuò)
答案:錯(cuò)
下面哪一種算法屬于生成式模型()。
A:決策樹
B:變分自編碼器
C:支持向量機(jī)
D:線性回歸模型
答案:變分自編碼器
關(guān)于去噪自編碼器DAE,以下說法錯(cuò)誤的是:()
A:DAE一般以含噪聲數(shù)據(jù)作為輸入,并輸出重構(gòu)的去噪數(shù)據(jù)。
B:DAE訓(xùn)練時(shí)需要保證訓(xùn)練數(shù)據(jù)的完整性。
C:DAE的Loss函數(shù)用于最小化預(yù)測(cè)結(jié)果與噪聲數(shù)據(jù)間的誤差。
D:DAE中假設(shè)所有含噪樣本的損壞過程一致。
答案:DAE的Loss函數(shù)用于最小化預(yù)測(cè)結(jié)果與噪聲數(shù)據(jù)間的誤差。
在稀疏自編碼器中,假設(shè)神經(jīng)元采用tanh作為激活函數(shù),則:()
A:當(dāng)神經(jīng)元的輸出接近0的時(shí)候,認(rèn)為它被抑制。
B:當(dāng)神經(jīng)元的輸出接近1的時(shí)候,認(rèn)為它被激活。
C:當(dāng)神經(jīng)元的輸出接近-1的時(shí)候,認(rèn)為它被抑制。
D:當(dāng)神經(jīng)元的輸出接近0的時(shí)候,認(rèn)為它被激活。
答案:當(dāng)神經(jīng)元的輸出接近1的時(shí)候,認(rèn)為它被激活。
;當(dāng)神經(jīng)元的輸出接近-1的時(shí)候,認(rèn)為它被抑制。
關(guān)于變分自編碼器VAE,以下說法正確的有:()
A:VAE的變分下界中,KL散度項(xiàng)可以為負(fù)值。
B:VAE是一類生成模型,可用于訓(xùn)練出一個(gè)樣本的生成器。
C:VAE廣泛用于生成圖像。
D:VAE的變分下界由KL散度項(xiàng)和模型重建誤差項(xiàng)組成。
答案:VAE是一類生成模型,可用于訓(xùn)練出一個(gè)樣本的生成器。
;VAE廣泛用于生成圖像。
;VAE的變分下界由KL散度項(xiàng)和模型重建誤差項(xiàng)組成。
第十章測(cè)試
一般情況下我們?cè)谀P陀?xùn)練及調(diào)參前要先進(jìn)行數(shù)據(jù)分析預(yù)處理以及特征工程,這是十分必要的一環(huán)()。
A:錯(cuò)B:對(duì)
答案:對(duì)
對(duì)于糖尿病的血糖預(yù)測(cè),我們可以考慮使用()方法。
A:DNN
B:SVM
C:LSTM
D:SVR
答案:DNN
;LSTM
;SVR
工業(yè)蒸汽量預(yù)測(cè)
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 2025年企業(yè)市場(chǎng)營(yíng)銷宣傳協(xié)議
- 2025年傳統(tǒng)工藝振興戰(zhàn)略諒解協(xié)議
- 2025年中學(xué)食品安全監(jiān)管協(xié)議
- 2025年公共環(huán)境策劃改善協(xié)議
- 2025年導(dǎo)師學(xué)員攜手共進(jìn)協(xié)議書
- 2025年度股權(quán)合伙財(cái)產(chǎn)分割協(xié)議范例
- 江蘇省2025年土地使用權(quán)互換合同
- 2025年臨時(shí)辦公設(shè)施租賃合同
- 2025年企業(yè)股權(quán)融資協(xié)議書規(guī)范文本
- 2025年商業(yè)地產(chǎn)合作協(xié)議標(biāo)準(zhǔn)版
- 健康檔案模板
- 購買演唱會(huì)門票的合同模板
- DB32-T 4790-2024建筑施工特種作業(yè)人員安全操作技能考核標(biāo)準(zhǔn)
- 2022年安徽阜陽太和縣人民醫(yī)院本科及以上學(xué)歷招聘筆試歷年典型考題及考點(diǎn)剖析附帶答案詳解
- 頂管工程施工及驗(yàn)收技術(shù)標(biāo)準(zhǔn)
- 【基于現(xiàn)金流的企業(yè)財(cái)務(wù)風(fēng)險(xiǎn)探究文獻(xiàn)綜述4100字】
- TD/T 1036-2013 土地復(fù)墾質(zhì)量控制標(biāo)準(zhǔn)(正式版)
- 安全警示教育的會(huì)議記錄內(nèi)容
- 2024年度-銀行不良清收技巧培訓(xùn)課件(學(xué)員版)
- 燃燒爆炸理論及應(yīng)用 課件 第1-3章 緒論、燃燒及其災(zāi)害、物質(zhì)的燃燒
- 裝飾裝修施工新工藝
評(píng)論
0/150
提交評(píng)論