機(jī)器學(xué)習(xí):模型與算法智慧樹知到答案章節(jié)測(cè)試2023年浙江大學(xué)_第1頁
機(jī)器學(xué)習(xí):模型與算法智慧樹知到答案章節(jié)測(cè)試2023年浙江大學(xué)_第2頁
機(jī)器學(xué)習(xí):模型與算法智慧樹知到答案章節(jié)測(cè)試2023年浙江大學(xué)_第3頁
機(jī)器學(xué)習(xí):模型與算法智慧樹知到答案章節(jié)測(cè)試2023年浙江大學(xué)_第4頁
免費(fèi)預(yù)覽已結(jié)束,剩余4頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第一章測(cè)試sigmoid函數(shù)的值域?yàn)???/p>

)。

A:[0,1]

B:[0,1)

C:(0,1)

D:(0,1]

答案:C哪些屬于監(jiān)督學(xué)習(xí)重要元素?(

)。

A:標(biāo)注數(shù)據(jù)

B:學(xué)習(xí)模型

C:數(shù)據(jù)映射

D:損失函數(shù)

答案:ABD分析不同變量之間存在關(guān)系的研究叫回歸分析。(

A:錯(cuò)

B:對(duì)

答案:B強(qiáng)可學(xué)習(xí)和弱可學(xué)習(xí)是等價(jià)的。(

A:對(duì)

B:錯(cuò)

答案:A下面的說法正確的是()。

A:邏輯回歸只能處理二分類問題

B:邏輯回歸屬于線性回歸

C:Sigmoid的函數(shù)是單調(diào)遞減的

D:

答案:A第二章測(cè)試下面的說法正確的是(

)。

A:協(xié)方差不能反應(yīng)兩個(gè)變量之間的相關(guān)度。

B:K均值聚類算法實(shí)質(zhì)上是最小化每個(gè)類簇的方差。

C:X和Y彼此獨(dú)立,|cor(X,Y)|可能不等于零。

D:在K均值聚類算法中初始化聚類中心對(duì)聚類結(jié)果影響不大。

答案:B哪一項(xiàng)是皮爾遜相關(guān)系數(shù)的性質(zhì)?(

)。

A:X與Y協(xié)方差的絕對(duì)值小于1

B:X與Y協(xié)方差的絕對(duì)值大于1

C:X與Y協(xié)方差的絕對(duì)值小于等于1

D:X與Y協(xié)方差的絕對(duì)值大于等于1

答案:C下面的說法正確的有(

)。

A:在K均值聚類算法中,我們不必事先就確定聚類數(shù)目。

B:EM算法分為求取期望和期望最大化兩個(gè)步驟。

C:在K均值聚類算法中,未達(dá)到迭代次數(shù)上限,迭代不會(huì)停止。

D:在K均值聚類算法中,歐式距離與方差量綱相同。

答案:BDK均值聚類屬于監(jiān)督學(xué)習(xí)。(

A:對(duì)

B:錯(cuò)

答案:B特征人臉方法的本質(zhì)是用稱為“特征人臉”的特征向量按照線性組合形式表達(dá)每一張?jiān)既四槇D像。(

A:錯(cuò)

B:對(duì)

答案:B第三章測(cè)試下列哪一項(xiàng)不是運(yùn)用半監(jiān)督學(xué)習(xí)的原因(

)。

A:數(shù)據(jù)標(biāo)注非常昂貴

B:存在大量為標(biāo)記數(shù)據(jù)

C:為獲得更高的機(jī)器學(xué)習(xí)性能

D:有標(biāo)注的數(shù)據(jù)很稀少

答案:C在半監(jiān)督學(xué)習(xí)中下列哪種說法是錯(cuò)誤的(

)。

A:“假設(shè)數(shù)據(jù)存在簇結(jié)構(gòu),同一個(gè)簇多的樣本屬于同一類別?!睂儆诰垲惣僭O(shè)

B:“假設(shè)數(shù)據(jù)分布在一個(gè)流形架構(gòu)上,鄰近的樣本擁有相似的輸出值。”屬于流形假設(shè)

C:“聚類假設(shè)的推廣,對(duì)輸出值沒有限制”屬于聚類假設(shè)的范疇。

D:“聚類假設(shè)的推廣,對(duì)輸出值沒有限制”屬于流形假設(shè)的范疇。

答案:C

半監(jiān)督學(xué)習(xí)方法有:(

)。

A:生成方法

B:半監(jiān)督SVM

C:基于圖表的半監(jiān)督學(xué)習(xí)

D:K均值聚類

答案:ABC在有標(biāo)記數(shù)據(jù)極少的情形下往往比其他方法性能更好是半監(jiān)督學(xué)習(xí)生成式方法流程的優(yōu)點(diǎn)。(

A:對(duì)

B:錯(cuò)

答案:A基于圖表的半監(jiān)督學(xué)習(xí)不用占有太大內(nèi)存。(

A:對(duì)

B:錯(cuò)

答案:B第四章測(cè)試下列說法正確的是(

)。

A:感知機(jī)網(wǎng)絡(luò)可以擬合復(fù)雜的數(shù)據(jù)。

B:Hot-hot向量可以用盡可能少的維數(shù)對(duì)數(shù)據(jù)進(jìn)行描述。

C:感知機(jī)網(wǎng)絡(luò)只有輸入層/輸出層,無隱藏層。

D:BP算法是一種將隱藏層誤差反向傳播給輸出層進(jìn)行參數(shù)更新的方法。

答案:C一元變量所構(gòu)成函數(shù)f在x處的梯度為()

A:

B:

C:

D:

答案:B

常用的池化操作有::(

)。

A:最大池化

B:差值池化

C:最小池化

D:平均池化

答案:ADOne-hot向量可以刻畫詞與詞之間的相似性(

A:對(duì)

B:錯(cuò)

答案:B前饋神經(jīng)網(wǎng)絡(luò)中存在反饋。(

A:錯(cuò)

B:對(duì)

答案:A第五章測(cè)試下列說法錯(cuò)誤的是(

)。

A:循環(huán)神經(jīng)網(wǎng)絡(luò)已經(jīng)被廣泛應(yīng)用在語音識(shí)別、語言模型以及自然語言生成等任務(wù)上。

B:循環(huán)神經(jīng)網(wǎng)絡(luò)不能處理任意長度的序列

C:循環(huán)神經(jīng)網(wǎng)絡(luò)比前饋神經(jīng)網(wǎng)絡(luò)更加符合生物神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)。

D:循環(huán)神經(jīng)網(wǎng)絡(luò)的神經(jīng)元存在自反饋。

答案:B下列說法正確的是(

)。

A:典型的前饋神經(jīng)網(wǎng)絡(luò)存在梯度爆炸的問題

B:長期短期記憶網(wǎng)絡(luò)是一種前饋神經(jīng)網(wǎng)絡(luò)。

C:雙向RNN很好地解決了梯度消失的問題

D:如果一個(gè)完全連接的RNN有足夠數(shù)量的sigmoid型隱藏神經(jīng)元,它可以以任意的準(zhǔn)確率去近似任何一個(gè)非線性動(dòng)力系統(tǒng)個(gè)。

答案:D雙向RNN反向傳播過程也是雙向的。(

A:錯(cuò)

B:對(duì)

答案:B信息抽取是指從結(jié)構(gòu)化文本中抽取信息。(

A:對(duì)

B:錯(cuò)

答案:B

下列哪些屬于組合式attention結(jié)構(gòu):(

)。

A:Self-Attention

B:Memory-based

Attention

C:Multi-Step

Attention

D:Attention

over

Attention

答案:BCD第六章測(cè)試與傳統(tǒng)結(jié)構(gòu)化數(shù)據(jù)庫相比,下列哪一項(xiàng)不是知識(shí)圖譜的優(yōu)勢(shì)?(

)。

A:形成更靈活的異構(gòu)數(shù)據(jù)關(guān)聯(lián)

B:更容易實(shí)現(xiàn)。

C:更有效表達(dá)數(shù)據(jù)的關(guān)聯(lián)類型。

D:支持更高效的基于路徑的檢索與分析

答案:B下列哪一項(xiàng)不是知識(shí)圖譜的特點(diǎn)(

)。

A:填補(bǔ)數(shù)據(jù)與語義之間的鴻溝

B:是支持知識(shí)驅(qū)動(dòng)型任務(wù)的有例工具

C:無法對(duì)抗信息過載

D:提供啟發(fā)式結(jié)構(gòu)

答案:C

下列哪些屬于知識(shí)圖譜的應(yīng)用::(

)。

A:推薦系統(tǒng)

B:搜索與問答

C:物體識(shí)別

D:輔助大數(shù)據(jù)分析

答案:ABD基于深度學(xué)習(xí)的命名實(shí)體識(shí)別是目前研究與應(yīng)用的主流方法。(

A:錯(cuò)

B:對(duì)

答案:B訓(xùn)練樣本噪聲小是遠(yuǎn)程監(jiān)督的優(yōu)點(diǎn)。(

A:對(duì)

B:錯(cuò)

答案:B第七章測(cè)試下列不屬于強(qiáng)化學(xué)習(xí)的特點(diǎn)的是(

)。

A:基于評(píng)估

B:實(shí)時(shí)反饋

C:序列決策過程

D:交互性

答案:B下列關(guān)于環(huán)境的描述錯(cuò)誤的是(

)。

A:按照一定的規(guī)律發(fā)生變化。

B:向智能主體反饋狀態(tài)和獎(jiǎng)勵(lì)。

C:環(huán)境的變化受到智能主體的影響。

D:系統(tǒng)中智能主體以外的部分。

答案:C

關(guān)于智能主體下列描述正確的有:(

)。

A:按照某種策略,根據(jù)當(dāng)前的狀態(tài)選擇合適的動(dòng)作。

B:智能主體可能知道也可能不知道環(huán)境的變化規(guī)律

C:狀態(tài)指的是智能主體對(duì)環(huán)境的一種解釋。

D:動(dòng)作是智能主體對(duì)環(huán)境的被動(dòng)反應(yīng)。

答案:ABC一個(gè)好的策略是在當(dāng)前狀態(tài)下采取一個(gè)行動(dòng)后,該行動(dòng)能夠在未來收到最大化反饋。(

A:錯(cuò)

B:對(duì)

答案:BDeep

Q-learning能夠用有限的參數(shù)刻畫無限的狀態(tài)。(

A:對(duì)

B:錯(cuò)

答案:A第八章測(cè)試下列不屬于AutoML方法的是(

)。

A:神經(jīng)架構(gòu)搜索

B:超參數(shù)優(yōu)化

C:元學(xué)習(xí)

D:遷移學(xué)習(xí)

答案:D下列說法錯(cuò)誤的是(

)。

A:進(jìn)化算法具有自組織、自適應(yīng)、自學(xué)習(xí)等特點(diǎn)。

B:進(jìn)化算法可能會(huì)得到全局最優(yōu)解。

C:進(jìn)化算法是一種無梯度優(yōu)化算法。

D:進(jìn)化算法效率很高。

答案:D下列哪些屬于AutoML系統(tǒng):(

)。

A:Auto-WEKA

B:TPOT

C:自動(dòng)網(wǎng)絡(luò)

D:Hyperopt-Sklearn

答案:ABCD動(dòng)態(tài)規(guī)劃是從前驅(qū)狀態(tài)推斷后繼狀態(tài)來計(jì)算賦值函數(shù)。(

A:錯(cuò)

B:對(duì)

答案:B目前以深度學(xué)習(xí)為代表的人工智能計(jì)算需求,主要采用GPU、FPGA等已有的適合并行計(jì)算的通用芯片來實(shí)現(xiàn)加速。(

A:對(duì)

B:錯(cuò)

答案:A第九章測(cè)試下列關(guān)于Tensorflow說法錯(cuò)誤的是(

)。

A:是一款神經(jīng)網(wǎng)絡(luò)的Python外部結(jié)構(gòu)包。

B:由Facebook進(jìn)行開發(fā)。

C:可以把編輯好的文件轉(zhuǎn)換成更高效的C++,并在后端運(yùn)行。

D:可以繪制計(jì)算結(jié)構(gòu)圖

。

答案:B函數(shù)tf.reduce_mean(v)的作用是(

)。

A:求數(shù)組v的方差

B:求數(shù)組v各項(xiàng)與平均數(shù)的差值

C:求數(shù)組v的標(biāo)準(zhǔn)差

D:求v數(shù)組的平均數(shù)

答案:C下列屬于Tensorflow的有點(diǎn)的是:(

)。

A:開源性。

B:它擅長與訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)

C:是當(dāng)今最好用的神經(jīng)網(wǎng)絡(luò)庫之一。

D:降低了深度學(xué)習(xí)的開發(fā)成本和開發(fā)難度。

答案:ABCDPyTorch的API是圍繞命令行式的編程(

A:對(duì)

B:錯(cuò)

答案:ATensorFlow在2.0.0版本后將取代計(jì)算題稱為默認(rèn)設(shè)置。(

A:錯(cuò)

B:對(duì)

答案:B第十章測(cè)試下列說法錯(cuò)誤的是(

)。

A:因果的關(guān)鍵因素是平衡混淆變量X的分布。

B:因果推理的關(guān)鍵因素是保證其它變量不變,改變果變量Y。

C:因果效應(yīng)是指因變量T改變一個(gè)單位時(shí),果變量Y的變化程度。

D:因果的定義是變量T是變量Y的原因,當(dāng)且僅當(dāng)保持其它所有變量不變的情況下,改變T的值能導(dǎo)致Y的值發(fā)生變化。

答案:B下列不屬于因果推理方法的是(

)。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論