機器學習復習題及答案_第1頁
機器學習復習題及答案_第2頁
機器學習復習題及答案_第3頁
機器學習復習題及答案_第4頁
機器學習復習題及答案_第5頁
已閱讀5頁,還剩14頁未讀, 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內容提供方,若內容存在侵權,請進行舉報或認領

文檔簡介

一、單選題

1、下列哪位是人工智能之父?()

A.MarnivLeeMinsky

B.HerbertA.Simon

C.AIIenNewell

DJohnCliffordShaw

正確答案:A

2、根據(jù)王玨的理解,下列不屬于對問題空間W的統(tǒng)計描述是()o

A.一致性假設

B.劃分

C.泛化能力

D.學習能力

正確答案:D

3、下列描述無監(jiān)督學習錯誤的是()。

A.無標簽

B.核心是聚類

C.不需要降維

D,具有很好的解釋性

正確答案:C

4、下列描述有監(jiān)督學習錯誤的是()?

A.有標簽

B.核心是分類

C.所有數(shù)據(jù)都相互獨立分布

D.分類原因不透明

正確答案:C

5、下列哪種歸納學習采用符號表示方式?()

A.經(jīng)驗歸納學習

B遺傳算法

C.聯(lián)接學習

D.強化學習

正確答案:A

6、混淆矩陣的假正是指()。

A.模型預測為正的正樣本

B.模型預測為正的負樣本

C.模型預測為負的正樣本

D.模型預測為負的負樣本

正確答案:B

7、混淆矩陣的真負率公式是為()。

A.TP/(TP+FN)

B.FP/(FP+TN)

C.FN/(TP+FN)

D.TN/(TN+FP)

正確答案:D

8、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,準確率是()。

A.1/4

B.l/2

C.4/7

D.4/6

正確答案:B

9、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,精確率是()。

A.1/4

B.l/2

C.4/7

D.2/3

正確答案:C

10、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,召回率是().

A.1/4

B.l/2

C.4/7

D.2/3

正確答案:D

11、混淆矩陣中的TP=16,FP=12,FN=8,TN=4,Fl-score是().

A.4/13

B.8/13

C.4/7

D.2/3

0.00/2.00

正確答案:B

12、EM算法的E和M指什么?()

A.Expectation-Maximum

B.Expect-Maximum

C.Extra-Maximum

D.Extra-Max

正確答案:A

13、EM算法的核心思想是?()

A.通過不斷地求取目標函數(shù)的下界的最優(yōu)值,從而實現(xiàn)最優(yōu)化的目標。

B.列出優(yōu)化目標函數(shù),通過方法計算出最優(yōu)值。

C.列出優(yōu)化目標函數(shù),通過數(shù)值優(yōu)化方法計算出最優(yōu)值。

D.列出優(yōu)化目標函數(shù),通過坐標下降的優(yōu)化方法計算出最優(yōu)值。

正確答案:A

14、LDA模型的隱變量2是()。

A.每個詞對應的主題

B.每篇文檔對應的主題

C.每段話對應的主題

D.每個詞組對應的主題

正確答案:A

15、LDA模型中的一個主題指()。

A.詞集合上的一個概率分布

B.詞組集合上的一個概率分布

C.整個文檔上的一個概率分布

D.整個文檔集合上的一個概率分布

正確答案:A

16、SVM算法的性能取決于()。

A.核函數(shù)的選擇

B.核函數(shù)的參數(shù)

C.軟間隔參數(shù)

D.以上所有

正確答案:D

17、SVM中的代價參數(shù)C表示什么?()

A.在分類準確性和模型復雜度之間的權衡

B.交叉驗證的次數(shù)

C.以上都不對

D.用到的核函數(shù)

正確答案:A

18、下列有關支持向量機說法不正確的是().

A得到的是局部最優(yōu)解

B.具有很好的推廣能力

C.是凸二次優(yōu)化問題

D.采用結構風險最小化原理

正確答案:A

19、下列有關核函數(shù)不正確的是()。

A.可以采用cross-validalion方法選擇最佳核函數(shù)

B.滿足Mercer條件的函數(shù)不一定能作為支持向量機的核函數(shù)

C.極大地提高了學習機器的非線性處理能力

D.函數(shù)與非線性映射并不是—對應的關系

正確答案:B

20、一對一法分類器,k個類別需要多少個SVM()。

A.k(k-l)/2

B.k(k-l)

C.k

D.k!

正確答案:A

22、有關聚類分析說法錯誤的是()。

A.無須有標記的樣本

B.可以用于提取一些基本特征

C.可以解釋觀察數(shù)據(jù)的一些內部結構和規(guī)律

D.聚類分析一個簇中的數(shù)據(jù)之間具有高差異性

正確答案:D

23、兩個n維向量a(xii,%i2,…,Xin)和0(小1,%22,…,%2n)之間的歐式距離(euclidean

distance)為()。

A.d12=J(a-B)(a-B)T

a2=Zfc=ilxlk-x2k\

C.d12=maxCkii-x2il)

D.cos(O)=(a/)/(|a||°|)

正確答案:A

24、閔可夫斯基距離表示為曼哈頓距離時p為()(.

A.1

B.2

C.3

D.4

正確答案:A

25、關于K-means說法不正確的是()。

A.算法可能終止于局部最優(yōu)解

B.簇的數(shù)目k必須事先給定

C.對噪聲和離群點數(shù)據(jù)敏感

D.適合發(fā)現(xiàn)非凸形狀的簇

正確答案:D

26、k中心點算法每次迭代的計算復雜度是多少?()

A.O(l)

B.O(k)

C.O(nfc)

D.O(fc(n-fc)2)

正確答案:D

27、下面是矩陣M=(:;)的特征值為()。

A.3

B.2

C.-1

D.0

正確答案:A

A.4

B.5

C.6

D.7

正確答案:D

29、下圖中有多少個最大團?()

B.l

C.2

D.3

正確答案:C

30、假設某事件發(fā)生的概率為p,則此事件發(fā)生的幾率為().

A.p

B.l-p

C.P/(I-P)

D.(l-p)/P

正確答案:C

31、貝葉斯網(wǎng)絡起源于貝葉斯統(tǒng)計學,是以()為基礎的有向圖模型,它為處理不

確定知識提供了有效的方法。

A.線性代數(shù)

B.邏輯學

C.概率論

D.信息論

正確答案:C

32、下列哪項說法不正確。()

A.人工智能是對人類智能的模擬

B.人工神經(jīng)元是對生物神經(jīng)元的模擬

C.生物神經(jīng)信號由樹突傳遞給軸突

D.人工神經(jīng)元的激活函數(shù)可以有多種設計

正確答案:C

33、下列哪項說法正確。()

A.異或問題中能找到一條直線正確劃分所有點

B.隨著自變量數(shù)目的增多,所有二值函數(shù)中線性可分函數(shù)的比例逐漸增大

c.如果一個神經(jīng)網(wǎng)絡結構里面有多個神經(jīng)元,就一定能解決異或問題

D.通常一個神經(jīng)元包括線性和非線性兩種運算

正確答案:D

34、通用近似定理說明()。

A.多層感知機可以做為函數(shù)近似器逼近任意函數(shù)

B,只需一個隱藏層的多層感知機就能作為通用函數(shù)近似器,因此沒必要設計深層網(wǎng)絡

C.給定隱藏層神經(jīng)元,三層感知機可以近似任意從一個有限維空間到另一個有限維空

間的Borel可測函數(shù)

D.以上全不對

正確答案:D

35、強化學習基本要素有哪些?()

A.狀態(tài)、動作、獎勵

B.狀態(tài)、動作、折扣因子

C.動作、折扣因子、獎勵

D.狀態(tài)、獎勵、探索策略

正確答案:A

36、不需要建模環(huán)境,等待真實反饋再進行接下來的動作,這是哪種強化學習算法。

()

A.Model-free方法

B.Model-based方法

C.Policy-based方法

D.Value-based方法

正確答案:A

37、Q-learning屬于哪種算法。()

A.On-policy算法

B.Off-policy算法

C.Model-based算法

D.Value-based算法

正確答案:B

38、馬爾科夫決策過程由哪幾個元素來表示()?

A.狀態(tài)、動作、轉移概率、策略、折扣因子

B.狀態(tài)、動作、轉移概率、折扣因子、回報函數(shù)

C.狀態(tài)、動作、輸入、輸出、回報函數(shù)

D.狀態(tài)、動作、值、策略、回報函數(shù)

正確答案:B

39、關于episode說法錯誤的是()。

A.一個印isode就是一個從起始狀態(tài)到結束的經(jīng)歷

B.蒙特卡洛方法需要很少的episode就可以得到準確結果

C.TD方法每次更新不需要使用完整的episode

D.蒙特卡洛的方法需要等到整個episode結束才能更新

正確答案:B

40、如果我們的機器(或智能體)每次訓練更新的損耗會比較大,我們更傾向于選擇

哪種算法。()

A.Sarsa

B.Q-learning

C.兩者都可以

D.兩者都不行

正確答案:A

41、關于策略梯度的方法說法正確的是()。

A.只適用于離散動作空間

B.適用于連續(xù)動作空間

C.策略梯度的方法與DQN中的目標函數(shù)一致

D.策略梯度的方法通過Q值挑選動作

正確答案:B

二、判斷題

1、關于EM算法的收斂性,EM算法理論上不能夠保證收斂。

正確答案:x

2、關于EM算法的用途,EM算法只適用不完全數(shù)據(jù)的情形。

正確答案:x

3、Jessen不等式等號成立的條件是:變量為常數(shù)。

正確答案:V

4、Jessen不等式E(f(x))>=f(E(x)),左邊部分大于等于右邊部分的條件是函數(shù)f是凸

函數(shù),如果f是凹函數(shù),左邊部分應該是小于等于右邊部分。

正確答案:V

5、EM算法因為是理論可以保證收斂的,所以肯定能夠取得最優(yōu)解。

正確答案:X

6、EM算法首先猜測每個數(shù)據(jù)來自哪個高斯分布,然后求取每個高斯的參數(shù),之后再

去重新猜測每個數(shù)據(jù)來自哪個高斯分布,類推進一步迭代,直到收斂,從而得到最后

的參數(shù)估計值。

正確答案:V

7、EM算法,具有通用的求解形式,因此對任何問題,其求解過程都是一樣,都能很

容易求得結果。

正確答案:x

8、EM算法通常不需要設置步長,而且收斂速度一般很快。

正確答案:V

9、吉布斯采樣是一種通用的采樣方法,對于任何概率分布都可以采樣出對應的樣本。

正確答案:x

10、LDA模型的核心假設是:假設每個文檔首先由主題分布表示,然后主題由詞概率

分布表示,形成文檔-主題-詞的三級層次。

正確答案:V

11、Gibbs采樣是一類通用的采樣方法,和M-H采樣方法沒有任何關系。

正確答案:x

12、關于LDA模型中的K,K的指定,必須考慮數(shù)據(jù)集合的特點,選擇一個較為優(yōu)化

的數(shù)值。

正確答案:x

13、LDA模型是一種生成式模型。

正確答案:V

14、主題建模的關鍵是確定數(shù)據(jù)集合的主題個數(shù)。

正確答案:x

15、主題建模本質上是:一種新的文檔表示方法,主要是通過主題的分布來表示一個

文檔。一種數(shù)據(jù)壓縮方法,將文檔壓縮在更小的空間中。

正確答案:V

16、SVM中的泛化誤差代表SVM對新數(shù)據(jù)的預測準確度。

正確答案:V

17、若參數(shù)C(costparameter)被設為無窮,只要最佳分類超平面存在,它就能將所

有數(shù)據(jù)全部正確分類。

正確答案:V

18、"硬間隔"是指SVM允許分類時出現(xiàn)一定范圍的誤差。

正確答案:X

19、支持向量是最靠近決策表面的數(shù)據(jù)點。

正確答案:V

20、數(shù)據(jù)有噪聲,有重復值,不會導致SVM算法性能下降。

正確答案:x

21、分裂層次聚類采用的策略是自底向上。

正確答案:x

22、DBSCAN對參數(shù)不敏感。

正確答案:x

23、EM聚類屬于軟分聚類方法。

正確答案:V

24、k-means算法、EM算法是建立在凸球形的樣本空間上的聚類方法。

正確答案:V

25、邏輯斯蒂回歸模型是一種回歸算法。

正確答案:x

26、燧最大時,表示隨機變量最不確定,也就是隨機變量最隨機,對其行為做準確預

測最困難。

正確答案:V

27、從最大嫡思想出發(fā)得出的最大嫡模型,采用最大化求解就是在求P(y|x)的對數(shù)似

然最大化。

正確答案:V

28、GIS算法的收斂速度由計算更新值的步長確定。C值越大,步長越大,收斂速度就

越快。

正確答案:x

29、貝葉斯網(wǎng)絡具有的條件獨立性是結點與其后代結點條件獨立。

正確答案:x

30、最大似然估計方法是實例數(shù)據(jù)不完備情況下的學習方法。

正確答案:x

31、隱馬爾可夫模型是一種統(tǒng)計模型,經(jīng)常用來描述一個含有隱含未知參數(shù)的馬爾可

夫過程。

正確答案:V

32、LSTM和GRU網(wǎng)絡因為引入了門控單元,可以緩解梯度消失問題。

正確答案:V

33、循環(huán)神經(jīng)網(wǎng)絡按時間展開后就可以通過反向傳播算法訓練了。

正確答案:V

34、卷積神經(jīng)網(wǎng)絡通常比全連接神經(jīng)網(wǎng)絡參數(shù)少,因此能力更差。

正確答案:x

35、訓練算法的目的就是要讓模型擬合訓練數(shù)據(jù)。

正確答案:x

36、反向傳播算法中需要先計算靠近輸入層參數(shù)的梯度,再計算靠近輸出層參數(shù)的梯

度。

正確答案:x

三、多選題

1、LDA模型在做參數(shù)估計時,最常用的方法是()。

A.Gibbs采樣方法

B.變分推斷

C.梯度下降

D.Beamsearch

正確答案:A、B

2、以下關于邏輯斯蒂回歸模型的描述正確的是()。

A.針對分類的可能性進行建模,不僅能預測出類別,還可以得到屬于該類別的概率。

B.直接對分類的可能性進行建模,無需事先假設數(shù)據(jù)分布,這樣就避免了假設分布不

準確所帶來的問題。

C,模型本質仍然是一個線性模型,實現(xiàn)相對簡單。

D.邏輯斯蒂回歸模型是線性回歸模型

正確答案:A、B、C、D

3、條件隨機場需要解決的關鍵問題有()。

A.特征函數(shù)的選擇

B.參數(shù)估計

C.約束條件

D.模型推斷

正確答案:A、B、D

4、基于搜索評分的方法,關鍵點在于()。

A,確定合適的搜索策略

B.確定搜索優(yōu)先級

C.確定評分函數(shù)

D.確定選擇策略

正確答案:A、C

5、基于約束的方法通過統(tǒng)計獨立性測試來學習結點間的()。

A.獨立性

B.依賴性

C.完備性

D.相關性

正確答案:A、D

6、在數(shù)據(jù)不完備時,貝葉斯網(wǎng)絡的參數(shù)學習方法有()o

A.高斯逼近

B.最大似然估計方法

C.蒙特卡洛方法

D.拉普拉斯近似

正確答案:A、C、D

7、隱馬爾可夫模型的三個基本問題是()。

A.估值問題

B.狀態(tài)更新

C.尋找狀態(tài)序列

D.學習模型參數(shù)

正確答案:A、C、D

8、通常有哪幾種訓練神經(jīng)網(wǎng)絡的優(yōu)化方法?()

A.梯度下降法

B.隨機梯度下降法

C.小批量隨機梯度下降法

D.集成法

正確答案:A、B、C

9、為什么循環(huán)神經(jīng)網(wǎng)絡可以用來實現(xiàn)自動問答,比如對一句自然語言問句給出自然語

言回答?()

A.因為自動問答可以看成是一種序列到序列的轉換

B.因為循環(huán)神經(jīng)網(wǎng)要比卷積神經(jīng)網(wǎng)更強大

C.因為循環(huán)神經(jīng)網(wǎng)絡能夠處理變長輸入

D.因為卷積神經(jīng)網(wǎng)絡不能處理字符輸入

正確答案:A、C

10、以下關于蒙特卡洛方法描述正確的是().

A.蒙特卡洛方法計算值函數(shù)可以采用First-visit方法

B.蒙特卡洛方法方差很大

C.蒙特卡洛方法計算值函數(shù)可以采用Every-visit方法

D.蒙特卡洛方法偏差很大

正確答案:A、B、C

11、在Q-learning中,以下說法正確的是()。

A.在狀態(tài)b時計算的Q(s,,a,),對應的動作出并沒有真正執(zhí)行,只是用來更新當前Q值

B.在狀態(tài)『時計算的Q(s1a。,同時也執(zhí)行了動作優(yōu)

C.更新中,Q的真實值為r+yOnaxQ(s,,a,))

D.更新中,Q的真實值為Q(s,a)

正確答案:A、C

12、Sarsa與Q-learning的區(qū)別是?()

A.Sarsa是off-policy,而Q-learning是on-policy

B.Sarsa是on-policy,而Q-learning是off-policy

C.Q-learning在算法更新時,對應的下一個動作并沒有執(zhí)行,而sarsa的下一個動作在

這次更新時已經(jīng)確定了

D.Q-learning是一種保守的算法,sarsa是一種貪婪勇敢的算法

正確答案:B、C

13、Q-learning與Sarsa相同的地方是()。

A.都使用了£-greedy等策略進行探索

B.都用q-table存儲狀態(tài)動作對

C.更新公式相同

D.兩者都可以找到最優(yōu)的策略

正確答案:A、B

14、關于經(jīng)驗池(experiencereplay)敘述正確的是()。

A.為了縮小樣本量,可以讓樣本輸入到神經(jīng)網(wǎng)絡中

B.打破樣本之間的連續(xù)性

C.每次更新時在經(jīng)驗

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內容本身不做任何修改或編輯,并不能對任何下載內容負責。
  • 6. 下載文件中如有侵權或不適當內容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論