人工智能-核心算法考試題庫500題_第1頁
人工智能-核心算法考試題庫500題_第2頁
人工智能-核心算法考試題庫500題_第3頁
人工智能-核心算法考試題庫500題_第4頁
人工智能-核心算法考試題庫500題_第5頁
已閱讀5頁,還剩146頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

人工智能-核心算法考試題庫500題(供參考)

一、單選題

1.深度學習是當前很熱門的機器學習算法,在深度學習中,涉及到大量的矩陣相

乘,現(xiàn)在需耍計算三個稠密矩陣A,B,C的乘積ABC,假設三個矩陣的尺寸分別為ni

*n,n*p,p*q,且水n

A、(AB)C

B、AC(B)

C、A(BC)

D、所有效率都相同

答案:A

2.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡中Dropout的類似效果?()

AxBoosting

B、Bagging

C、Stacking

D、Mapping

答案:B

3.我們可以將深度學習看成一種端到端的學習方法,這里的端到端指的是

A、輸入端-輸出端

B、輸入端-中間端

C、輸出端-中間端

D、中間端-中間端

答案:A

4.語音是一種典型的()數(shù)據(jù)。

A、無結構無序列

B、有結構序列

C、無結構序列

D、有結構無序列

答案:C

解析:語音是一種典型的無結構序列數(shù)據(jù)。

5.CNN網(wǎng)絡設計中,學習率的設置往往對訓練收斂起到關鍵作用,關于學習率的

說法,錯誤的是。

A、學習率太小,更新速度慢

B、學習率過大,可能跨過最優(yōu)解

C、學習率也是有網(wǎng)絡學習而來

D、學習率可在網(wǎng)絡訓練過程中更改

答案:C

解析:CNN網(wǎng)絡設計中,學習率的設置往往對訓練收斂起到關鍵作用,關于學習

率的說法,錯誤的是學習率也是有網(wǎng)絡學習而來

6.嶺回歸和最小二乘法的算法復雜度是相同的。

A、正確

B、錯誤

答案:A

7.為應對卷積網(wǎng)絡模型中大量的權重存儲問題,研究人員在適量犧牲精度的基礎

上設計出一款超輕量化模型()

A、KNN

B、RNN

C、BNN

D、VGG

答案:C

解析:為應對卷積網(wǎng)絡模型中大量的權重存儲問題,研究人員在適量犧牲精度的

基礎上設計出一款超輕量化模型BNN

8.()是使用某一位置的相鄰輸出的總體統(tǒng)計特征來代替網(wǎng)絡在該位置的輸出

A、卷積

B、約化

C、池化

D、批歸一化

答案:C

解析:池化是使用某一位置的相鄰輸出的總體統(tǒng)L特征來代替網(wǎng)絡在該位置的輸

9.關于梯度下降算法描述正確的是:

A、梯度下降算法就是不斷的更新w和b的值

B、梯度下降算法就是不斷的更新w和b的導數(shù)值

C、梯度下降算法就是不斷尋找損失函數(shù)的最大值

D、梯度下降算法就是不斷更新學習率

答案:A

解析:梯度下降算法就是不斷的更新w和b的值

10.下述()不是人工智能中常用的知識格式化表示方法。

A、框架表示法

B、產(chǎn)生式表示法

C、語義網(wǎng)絡表示法

D、形象描寫表示法

答案:D

11.下列可以用于聚類問題的機器學習算法有。

A、決策樹

B、k-means

C、隨機森林

D、邏輯回歸

答案:B

12.在廢棄階段,廢棄銷毀使用目的不復存在或者有更好解決方法替換的人工智

能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷毀過程。

A、算法

B、模型

C、程序

D、算法模型

答案:D

解析:在廢棄階段,廢棄銷毀使用目的不復存在或者有更好解決方法替換的人工

智能系統(tǒng),主要包括數(shù)據(jù)、算法模型以及系統(tǒng)整體的廢棄銷毀過程。

13.對于神經(jīng)網(wǎng)絡的說法,下面正確的是()

A、增加神經(jīng)網(wǎng)絡層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率

B、減少神經(jīng)網(wǎng)絡層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率

C、增加神經(jīng)網(wǎng)絡層數(shù),總是能減小訓練數(shù)據(jù)集的分類錯誤率

D、1、2都對

答案:A

14.按照類別比例分組的k折用的是哪個函數(shù)。

AxRepeatedKFoId

B、StratifiedKFold

CxLeavePOut

D、GroupKFold

答案:B

15.高層的特征是低層特征的組合,從低層到高層的特征表達越來越(),也即

越來越能表現(xiàn)語義或者意圖。

A、具體和形象化

B、抽象和概念化

C、具體和概念化

D、抽象和具體化

答案:B

解析:高層的特征是低層特征的組合,從低層到高層的特征表達越來越抽象和概

念化,也即越來越能表現(xiàn)語義或者意圖。

16.關于模型參數(shù)(權重值)的描述,錯誤的說法是

A、在訓練神經(jīng)網(wǎng)絡過程中,參數(shù)不斷調(diào)整,其調(diào)整的依據(jù)是基于損失函數(shù)不斷

減少

B、每一次Epoch都會對之前的參數(shù)進行調(diào)整,迭代次數(shù)越多,損失函數(shù)一股越

C、模型參數(shù)量越多越好,沒有固定的對應規(guī)則

D、訓練好的神經(jīng)網(wǎng)絡模型存儲于一定結構的神經(jīng)元之間的權重和神經(jīng)元的偏置

答案:C

解析:幾乎模型每個操作所需的時間和內(nèi)存代價都會隨模型參數(shù)量的增加而增加

17.以下程序的輸出是()?array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,

11,12]]);print(array,shape)

A、(4,3)

B、(3,4)

C、3

D、4

答案:A

解析:見算法解析

18,下列關于深度學習說法錯誤的是

A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問題

B、CNN相比于全連接的優(yōu)勢之一是模型復雜度低,緩解過擬合

C、只要參數(shù)設置合理,深度學習的效果至少應優(yōu)于隨機算法

D、隨機梯度下降法可以緩解網(wǎng)絡訓練過程中陷入鞍點的問題

答案:C

解析:只要參數(shù)設置合理,深度學習的效果至不一定優(yōu)于隨機算法

19.循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠③.梯度

爆炸④.維數(shù)災難

A、①③④

B、①②③

C、①③④

D、①②④

答案:B

解析:循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠③.

梯度爆炸

20,下列哪個不是激活函數(shù)()。

A、sigmod

B、reIu

C、tanh

D、hidden

答案:D

解析:hidden不是激活函數(shù)。

21.以下哪個聚類算法不屬于基于網(wǎng)格的聚類算法()。

A、STING

BxWaveIuster

C、MAFI

D、IRH

答案:D

22.VGG79中卷積核的大小為

A、3x3

B、5x5

C、3x3,5x5

D、不確定

答案:A

解析:VGG-19中卷積核的大小為3x3

23.CRF(條件隨機場)和HMM(隱馬爾可夫模型)之間的主要區(qū)別是什么?

A、CRF是生成式的,而HMM是判別式模型

B、CRF是判別式模型,HMM是生成式模型。

C、CRF和HMM都是生成式模型

D、CRF和HMM都是判別式模型。

答案:B

24.在數(shù)據(jù)挖掘中,比較成熟的預測算法包括Logistic回歸模型、()、決策樹、

神經(jīng)網(wǎng)絡等

A、線性回歸

B、時間序列

C、灰色模型

D、貝葉斯網(wǎng)絡

答案:D

25.()是用來評估神經(jīng)網(wǎng)絡的計算模型對樣本的預測值和真實值之間的誤差大小。

A、損失函數(shù)

B、優(yōu)化函數(shù)

C、反向傳播

D、梯度下降

答案:A

26.關于K均值和DBSCAN的比較,以下說法不正確的是()。

A、K均值丟棄被它識別為噪聲的對象,而DBSCAN一般聚類所有對象。

B、K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。

C、K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不

同形狀的簇。

D、K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN

會合并有重疊的簇。

答案:A

27.DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,

損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時doc

排名越靠前越容易被點擊,僅用點擊來判斷正負樣本,產(chǎn)生的噪聲較大,模型難

以收斂;4.效果不可控。

A、1.2.3

B、1.3.4

C、2.3.4

D、1.2.3.4

答案:D

解析:DSSM經(jīng)典模型的缺點:1.Wordhashing可能造成詞語沖突;2.采用詞袋模

型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點擊時d

℃排名越靠前越容易被點擊,僅用點擊來判斷正負樣本,產(chǎn)生的噪聲較大,模

型難以收斂;4.效果不可控。

28.在回歸模型中,下列哪一項在權衡欠擬合(under-fitting)和過擬合(ove

r-fitting)中影響最大?

A、多項式階數(shù)

B、更新權重w時,使用的是矩陣求逆還是梯度下降

C、使用常數(shù)項

答案:A

29.人工神經(jīng)元內(nèi)部運算包含哪兩個部分:

A、非線性變換和激活變換

B、線性變換和非線性變換

C、向量變換和標量變換

D、化學變換和電變換

答案:B

解析:人工神經(jīng)元內(nèi)部運算包含線性變換和非線性變換兩個部分

30.在一個神經(jīng)網(wǎng)絡中,下面哪種方法可以用來處理過擬合?

A、Dropout

B、分批歸一化(BatchNormaIization)

C、正則化(regularization)

D、都可以

答案:D

31.讓學習器不依賴外界交互、自動地利用未標記樣本來提升學習性能,就是(.

_)?

A、監(jiān)督學習

B、倍監(jiān)督學習

C、半監(jiān)督學習

D、無監(jiān)督學習

答案:C

解析:見算法解析

32.Scikit-Learn中??梢詫崿F(xiàn)計算模型準確率。

A、accuracy_score

B、accuracy

C、f1_score

D、f2_score

答案:A

解析:Seikit-Learn中accuracy_score可以實現(xiàn)計算模型準確率。

33.留出法直接將數(shù)據(jù)集劃分為()個互斥的集合。

A、一

B、二

C、三

D、四

答案:B

解析:見算法解析

34.關于SVM,以下描述錯誤的是()

A、如果原始空間是有限維,即屬性數(shù)有限,那么一定存在一個高維特征空間使

樣本可分

B、某個核函數(shù)使訓練集在特征空間中線性可分,可能原因是欠擬合

C、“軟間隔”允許某些樣本不滿足約束

D、正則化可理解為一種“罰函數(shù)法

答案:B

解析:見算法解析

35.梯度下降算法的正確步驟是什么?a.計算預測值和真實值之間的誤差b.重

復迭代,直至得到網(wǎng)絡權重的最佳值c.把輸入傳入網(wǎng)絡,得到輸出值d.用隨機

值初始化權重和偏差e.對每一個產(chǎn)生誤差的神經(jīng)元,調(diào)整相應的(權重)值以

減小誤差()

A、abode

B、edcba

C、cbaed

D、dcaeb

答案:D

36.下列關于特征選擇的說法錯誤的是()

A、可以提高特征關聯(lián)性

B、可以減輕維數(shù)災難問題

C、可以降低學習任務的難度

D、特征選擇和降維具有相似的動機

答案:A

解析:見算法解析

37.以下對于標稱屬性說法不正確的是

A、標稱屬性的值是一些符號或事物的名稱,每種值代表某種類別、編碼或狀態(tài)。

B、標稱值并不具有有意義的順序,且不是定量的

C、對于給定對象集,找出這些屬性的均值、中值沒有意義。

D、標稱屬性通過將數(shù)值量的值域劃分有限個有序類別,把數(shù)值屬性離散化得來。

答案:D

38.深度學習神經(jīng)網(wǎng)絡訓練時需要大量的矩陣計算,一般我們需要配用硬件讓計

算機具備并行計算的能力,以下硬件設備可提供并行計算能力的是:

A、主板

B、內(nèi)存條

C、GPU

D、CPU

答案:C

39.fasterRCNN用于生成候選框proposal的模塊名稱()

A、RPN

B、CNN

C、ResNet

D、RoIpooIing

答案:A

解析:fasterRCNN用亍生成候選框proposal的模塊是RPN

40.假設我們有一個使用ReLU激活函數(shù)(ReLUactivationfunction)的神經(jīng)網(wǎng)絡,

假如我們把ReLU激活替換為線性激活,那么這個神經(jīng)網(wǎng)絡能夠模擬出同或函數(shù)

(XNORfunction)嗎

A、可以

B、不好說

C、不一定

D、不能

答案:D

解析:使用ReLU激活函數(shù)的神經(jīng)網(wǎng)絡是能夠模擬出同或函數(shù)的。但如果ReLU

激活函數(shù)被線性函數(shù)所替代之后,神經(jīng)網(wǎng)絡將失去模擬非線性函數(shù)的能力

41.對比學習的核心訓練信號是圖片的“()”。

A、可預見性

B、可移植性

C、可區(qū)分性

D、可推理性

答案:C

解析:對比學習的核心訓練信號是圖片的“可區(qū)分性”。

42.()有跟環(huán)境進行交互,從反饋當中進行不斷的學習的過程。

A、監(jiān)督學習

B、非監(jiān)督學習

C、強化學習

D、線性回歸

答案:C

43.產(chǎn)生式系統(tǒng)的推理不包括()

A、正向推理

B、逆向推理

C、雙向推理

D、簡單推理

答案:D

44.在20K文檔的輸入數(shù)據(jù)上為機器學習模型創(chuàng)建了文檔一詞矩陣(document-te

rmmatrix)o以下哪項可用于減少數(shù)據(jù)維度?(1)關鍵詞歸一化(KeywordNor

malization)(2)潛在語義索引(LatentSemanticIndexing)(3)隱狄利克雷

分布(LatentDirichIetAIIocation)

A、只有(1)

B、(2)、(3)

C、(1)、(3)

D、(1)、⑵、(3)

答案:D

45.以下哪種卷積神經(jīng)網(wǎng)絡的設計引入了殘差網(wǎng)絡結構()

A、LeNet

B、AIexNet

C、GoogLeNet

D、ResNets

答案:D

解析:ResNets(ResiduaINetworks)殘差網(wǎng)絡;LeNet是最早的卷積神經(jīng)網(wǎng)絡

結構,AIexNet首次在CNN中成功應用了ReLU、Dropout和LRN等技術,GoogLe

Net加入Inception網(wǎng)絡結構來搭建一個稀疏性、高計算性能的網(wǎng)絡結構,后三

種網(wǎng)絡都沒有用到殘差網(wǎng)絡結構

46.當數(shù)據(jù)太大而不能同時在RAM中處理時,哪種梯度技術更有優(yōu)勢

A、全批量梯度下降

B、隨機梯度下降

答案:B

47.SVM的基本思想是間隔最大化來得到最優(yōu)分離()

A、超平面

B、分離間隔

C、分離曲線

D、分離平面

答案:A

解析:SVM的基本思想是間隔最大化來得到最優(yōu)分離超平面

48.“文檔”是待處理的數(shù)據(jù)對象,它由一組詞組成,這些詞在文檔中不計順序

的額,例如一篇論文、一個網(wǎng)頁都可以看做一個文檔;這樣的表示方式稱為(—

,)?

A、語句

B、詞袋

C、詞海

D、詞塘

答案:B

解析:見算法解析

49.DNN不是適合處理圖像問題是因為“維數(shù)災難”,那么“維數(shù)災難”會帶來

什么問題呢:

A、網(wǎng)絡結構過于復雜

B、DNN根本不能處理圖像問題

C、內(nèi)存、計算量巨大、訓練困難

D、神經(jīng)元數(shù)量下降,所以精度下降

答案:C

解析:“維數(shù)災難”會帶來內(nèi)存、計算量巨大、訓練困難等問題。

50.在以下模型中,訓煉集不需要標注信息的是()

A、k-means

B、線性回歸

C、神經(jīng)網(wǎng)絡

D、決策樹

答案:A

解析:k-means是一種無監(jiān)督聚類方法。

51.圖計算中圖數(shù)據(jù)往往是。和不規(guī)則的,在利用分布式框架進行圖計算時,

首先需要對圖進行劃分,將負載分配到各個節(jié)點上

A、結構化

B、非結構化

C、對稱化

D、規(guī)則化

答案:B

解析:圖計算中圖數(shù)據(jù)往往是非結構化和不規(guī)則的,在利用分布式框架進行圖計

算時,首先需要對圖進行劃分,將負載分配到各個節(jié)點上

52.下面哪句話正確描述了馬爾科夫鏈中定義的馬爾可夫性

A、t+1時刻狀態(tài)取決于t時刻狀態(tài)

B、t-1時刻狀態(tài)取決于t+1時刻狀態(tài)

C、t+2時刻狀態(tài)取決于t時刻狀態(tài)

D、t+1時刻狀態(tài)和t時刻狀態(tài)相互獨立

答案:A

53.在主成分分析中,將幾個主分量經(jīng)過線性組合構造為一個綜合評價函數(shù)時,

每個主分量的權數(shù)為()。

A、每個主分量的方差

B、每個主分量的標準差

C、每個主分量的方差貢獻率

D、每個主分量的貢獻率

答案:C

解析:在主成分分析中,將幾個主分量經(jīng)過線性組合構造為一個綜合評價函數(shù)時,

每個主分量的權數(shù)為每個主分量的方差貢獻率。

54.長短期記憶LSTM的核心貢獻是引入了()的巧妙構思,該構思中的權重視上下

文而定,而不是固定的。

A、自增加

B\自循環(huán)

C、自遞歸

D、自減少

答案:B

解析:長短期記憶LSTM的核心貢獻是引入了自循環(huán)的巧妙構思,該構思中的權重

視上下文而定,而不是固定的。

55.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡中Dropout的類似效果?

A、Boosting

B、Bagging

C、Stacking

D、Mapping

答案:B

56.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的深度學習模型是

A、CNN

B、LSTM

C、GRU

D、RNN

答案:D

解析:RNN(RecurrentNeuraINetwork)是一類用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡。RN

N存在一些問題梯度較容易出現(xiàn)衰減或爆炸(BPTT)-梯度爆炸

57.梯度爆炸一般出現(xiàn)在深層網(wǎng)絡和權值初始化值()的情況下

A、太小

B、太大

C、分布不均勻

D、太接近零

答案:B

解析:梯度爆炸一般出現(xiàn)在深層網(wǎng)絡和權值初始化值太大的情況下

58.衡量模型預測值和真實值差距的評價函數(shù)被稱為()

A、損失函數(shù)

B、無參數(shù)函數(shù)

C、激活函數(shù)

D、矩陣拼接函數(shù)

答案:A

解析:衡量模型預測值和真實值差距的評價函數(shù)被稱為損失函數(shù)

59.根據(jù)操作的反饋總結更好的策略,這個過程抽象出來,就是()

A、強化訓練

B、加強訓練

C、強化學習

D、加強學習

答案:C

解析:見算法解析

60.對于線性可分的數(shù)據(jù),支持向量機的解決方式是()

A、軟間隔

B、硬間隔

C、核函數(shù)

D、以上選項均不正確

答案:B

解析:對于線性可分的數(shù)據(jù),支持向量機的解決方式是硬間隔

61.對完成特定任務的卷積神經(jīng)網(wǎng)絡訓練采用的是監(jiān)督學習方法。在這個過程中,

通過誤差后向傳播來優(yōu)化調(diào)整網(wǎng)絡參數(shù),請問下面哪個參數(shù)不是通過誤差后向傳

播來優(yōu)化的

A、卷積濾波矩陣中的參數(shù)

B、全連接層的鏈接權重

C、激活函數(shù)中的參數(shù)

D、模型的隱藏層數(shù)目

答案:D

62.代碼arr1=np.array([[1,2,3],[4,5,6]]);arr2=2*np.ones([2,3],dtype

=np.int64);print((arr1*arr2)[1][2])的輸出結果是()?注:(已導入

numpy庫)importnumpyasnp

A、6

B、8

C、10

D、12

答案:D

解析:見算法解析

63.關于GoogLeNet描述正確的有:

A、GoogLeNet僅僅是在寬度上進行了探索,所以它是一個很淺的網(wǎng)絡

B、GoogLeNet在寬度上進行了探索,為后人設計更加復雜的網(wǎng)絡打開了思路

C、GoogLeNet使用了Inception結構,Inception結構只有V1這一個版本

D.GoogLeNet結合多種網(wǎng)絡設計結構所以是到目前為止分類效果最好的網(wǎng)絡結

答案:B

解析:GoogLeNet在寬度上進行了探索,為后人設計更加復雜的網(wǎng)絡打開了思路

64.代碼arr1=np.array([[1,2,3],[4,5,6]]);print((arr1**2)[1,1])的

輸出是()?

A、5

B、25

C、6

D、26

答案:B

解析:見算法解析

65.機器學習算法的一般流程是()o

Ax1)收集數(shù)據(jù),2)準備數(shù)據(jù),3)分析數(shù)據(jù),4)訓練算法,5)測試算法,6)

使用算法

B、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準備數(shù)據(jù),4)訓練算法,5)測試算法,6)

使用算法

C、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)準備數(shù)據(jù),4:'測試算法,5)訓練算法,6)

使用算法

D、1)收集數(shù)據(jù),2)分析數(shù)據(jù),3)測試算法,4)訓練算法,5)準備數(shù)據(jù),6)

使用算法

答案:A

解析:機器學習算法的一般流程⑴收集數(shù)據(jù):可以使用任何方法。⑵準備數(shù)據(jù):

距離計算所需要的數(shù)值,最好是結構化的數(shù)據(jù)格式。(3)分析數(shù)據(jù):可以使用任

何方法。(4)訓練算法:此步驟不適用于k-近鄰算法。(5)測試算法:計算錯誤

率。(6)使用算法:首先需要輸入樣本數(shù)據(jù)和結構化的輸出結果,然后運行k-近

鄰算法判定輸入數(shù)據(jù)分別屬于哪個分類,最后應用對計算出的分類執(zhí)行后續(xù)的處

理。

66.下列關于隨機變量的分布函數(shù),分布律,密度函數(shù)的理解描述不正確的是?

A、離散型隨機變量沒有分布函數(shù)

B、密度函數(shù)只能描述連續(xù)型隨機變量的取值規(guī)律。

C、分布函數(shù)描述隨機變量的取值規(guī)律

D、分布律只能描述離散型隨機變量的取值規(guī)律

答案:A

67.關于主成分分析PCA說法不正確的是

A、我們必須在使用PCA前規(guī)范化數(shù)據(jù)

B、我們應該選擇使得模型有最大variance的主成分

C、我們應該選擇使得模型有最小variance的主成分

D、我們可以使用PCA在低緯度上做數(shù)據(jù)可視化

答案:C

68.Word2Vec提出了哪兩個算法訓練詞向量?

A、COBWSoftmax

B、SoftmaxVCBOW

C、CBOWxSkip-gramD

D、Skip-gramCOBWC

答案:C

解析:Word2Vec提出了兩個算法訓練詞向量

69.從一個初始策略出發(fā),不斷迭代進行策略評估和改進,直到策略收斂、不再

改變?yōu)橹梗@樣的作法稱為()

A、策略迭代

B、值迭代

C、策略改進

D、最優(yōu)值函數(shù)

答案:A

解析:見算法解析

70.最小二乘法就是試圖找到一條直線,使所有樣本到直線上的()之和最小。

A、曼哈頓距離

B、歐氏距離

C、馬氏距離

D、切比雪夫距離

答案:B

71.ILP系統(tǒng)通常采用()的規(guī)則生成策略

A、自底而上

B、自頂而下

C、自大而小

D、自小而大

答案:A

解析:見算法解析

72.強化學習是()領域的一類學習問題

A、機器學習

B、自然語言處理

C、nip

D、cv

答案:A

解析:見算法解析

73.下列哪一項在神經(jīng)網(wǎng)絡中引入了非線性?

A、隨機梯度下降

B、修正線性單元(ReLU)

C、卷積函數(shù)

D、以上都不正確

答案:B

解析:修正線性單元是非線性的激活函數(shù)

74.激活函數(shù)對于神經(jīng)網(wǎng)絡模型學習、理解非常復雜的問題有著重要的作用,以

下關于激活函數(shù)說法正確的是

A、激活函數(shù)都是線性函數(shù)

B、激活函數(shù)都是非線性函數(shù)

C、激活函數(shù)部分是非線性函數(shù),部分是線性函數(shù)

D、激活函數(shù)大多數(shù)是非線性函數(shù),少數(shù)是線性函數(shù)

答案:B

75.神經(jīng)網(wǎng)絡中Dropout的作用。

A、防止過擬合

B、減小誤差

C、增加網(wǎng)絡復雜度

答案:A

解析:dropout是指在深度學習網(wǎng)絡的訓練過程中,對于神經(jīng)網(wǎng)絡單元,按照一

定的概率將其暫時從網(wǎng)絡中丟棄。

76.在下列哪些應用中,我們可以使用深度學習來解決問題?

A、蛋白質(zhì)結構預測

B、化學反應的預測

C、外來粒子的檢測

D、所有這些

答案:D

77.關于語言建模任務,以下描述不正確的是:

A、語言建模任務指的是給定前一個單詞去預測文本中的下一個單詞。

B、可能是比較簡單的語言處理任務,具體的實際應用場景包括:智能鍵盤、電

子郵件回復建議、拼寫自動更正等。

C、比較經(jīng)典的方法基于n-grams。

D、不可使用平滑處理不可見的n-grams。

答案:D

78.在神經(jīng)網(wǎng)絡學習中,每個神經(jīng)元會完成若干功能,下面哪個功能不是神經(jīng)元

所能夠完成的功能

A、對前序相鄰神經(jīng)元所傳遞信息進行加權累加

B、對加權累加信息進行非線性變化(通過激活函數(shù))

C、向前序相鄰神經(jīng)元反饋加權累加信息

D、將加權累加信息向后續(xù)相鄰神經(jīng)元傳遞

答案:C

79.長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡相似的控制流,兩者的區(qū)別在于LSTM

中增加了()導致單元內(nèi)的處理過程不同。

A、輸入門

B、記憶門

C、忘記門

D、輸出門

答案:C

解析:長短期記憶LSTM具有與循環(huán)神經(jīng)網(wǎng)絡相似的控制流,兩者的區(qū)別在于LS

TM中增加了忘記門導致單元內(nèi)的處理過程不同。

80.回歸分析中定義的()

A、解釋變量和被解釋變量都是隨機變量

B、解釋變量為非隨機變量,被解釋變量為隨機變量

C、解釋變量和被解釋變量都為非隨機變量

D、解釋變量為隨機變量,被解釋變量為非隨機變量

答案:B

81.PCA的步驟不包括()

A、構建協(xié)方差矩陣

B、矩陣分解得到特征值和特征向量

C、特征值排序

D、特征值歸一化

答案:D

82.優(yōu)化器是訓練神經(jīng)網(wǎng)絡的重要組成部分,使用優(yōu)化器的目的不包含以下哪項:

A、加快算法收斂速度

B、減少手工參數(shù)的設置難度

C、避過過擬合問題

D、避過局部極值

答案:C

83.卷積核與特征圖的通道數(shù)的關系是:

A、卷積核數(shù)量越多特征圖通道數(shù)越少

B、卷積核size越大特征圖通道數(shù)越多

C、卷積核數(shù)量越多特征圖通道數(shù)越多

D、二者沒有關系

答案:C

解析:卷積核數(shù)量越多特征圖通道數(shù)越多

84.當采用K-距離的方法選擇DBSCAN的Eps和MmPts參數(shù)時,如果設置的K的

值太大,則小簇(尺寸小于K的簇)可能會被標記為

A、噪聲

B、核心簇

C、邊界簇

D、以上都不對

答案:A

85.一條規(guī)則形如:,其中“一”右邊的部分稱為:)

A、規(guī)則長度

B、規(guī)則頭

C、布爾表達式

D、規(guī)則體

答案:D

解析:見算法解析

86..混沌度(Perplexity)是一種常見的應用在使用深度學習處理NLP問題過程

中的評估技術,關于混沌度,哪種說法是正確的?

A、混沌度沒什么影響

B、混沌度越低越好

C、混沌度越高越好

D、混沌度對于結果的影響不一定

答案:B

87.循環(huán)神經(jīng)網(wǎng)絡優(yōu)于全連接網(wǎng)絡的一個原因是循環(huán)神經(jīng)網(wǎng)絡實現(xiàn)了權值共享,

那么權值共享的好處有:①.模型參數(shù)變少②.運算速度變快③.占用內(nèi)存少④.

所有權值都共享同一個值

A、①③④

B、①②③

C、①③④

D、①②④

答案:B

解析:循環(huán)神經(jīng)網(wǎng)絡優(yōu)于全連接網(wǎng)絡的一個原因是循環(huán)神經(jīng)網(wǎng)絡實現(xiàn)了權值共享,

那么權值共享的好處有:①.模型參數(shù)變少②.運算速度變快③.占用內(nèi)存少

88.以下屬于生成式模型的是:()

A、SVM

B、隨機森林

C、隱馬爾可夫模型HMM

D、邏輯回歸

答案:C

89.在K-mean或Knn中,是采用哪種距離計算方法?

A、曼哈頓距離

B、切比雪夫距離

C、歐式距離

D、閔氏距離

答案:C

解析:歐氏距離可用于任何空間的距離計算問題。因為,數(shù)據(jù)點可以存在于任何

空間,歐氏距離是更可行的選擇。

90.下列哪些不是“子集搜索”中的搜索方式(一)

A、單向搜索

B、雙向搜索

C、前向搜索

D、后向搜索

答案:A

解析:見算法解析

91.全局梯度下降算法,隨機梯度下降算法和批量梯度下降算法均屬于梯度下降

算法,以下關于其有優(yōu)缺點說法錯誤的是:

A、全局梯度算法可以找到損失函數(shù)的最小值

B、批量梯度算法可以解決局部最小值問題

C、隨機梯度算法可以找到損失函數(shù)的最小值

D、全局梯度算法收斂過程比較耗時

答案:C

92.池化層一般接在哪種網(wǎng)絡層之后

A、輸入層

B、輸出層

C、卷積層

D、全連接層

答案:C

93.以下哪一個不屬于分類算法

A、XGBoost

B、RandomForest

C、SVM

D、Fp-Growth

答案:D

94.影響基本K-均值算法的主要因素不包括下列哪一個選項?

A、樣本輸入順序

B、模式相似性測度

C、聚類準則

D、初始類中心的選取

答案:C

95.過擬合會出現(xiàn)高()問題

A、標準差

B、方差

C、偏差

D、平方差

答案:B

解析:過擬合會出現(xiàn)高方差問題

96.在強化學習的過程中,學習率a越大,表示采用新的嘗試得到的結果比例越().

保持舊的結果的比例越()。

A、大

B、小

C、大

D、大

E、小

答案:A

97.CascadeRCNN中使用了()個BBOXHead完成目標檢測

A、1

B、2

C、3

D、4

答案:C

解析:見算法解析

98.()的數(shù)目通常也被稱作卷積核的個數(shù)

A、通道

B、輸入通道

C、輸入維度

D、輸出通道

答案:D

解析:輸出通道的數(shù)目通常也被稱作卷積核的個數(shù)

99.在scikit-learn中,DBSCAN算法對于。參數(shù)值的選擇非常敏感

A、p

B、eps

C、n_jobs

D、aIgorithru

答案:B

100.下列哪個模型屬于無監(jiān)督學習。

A、KNN分類

B、邏輯回歸

C、DBSCAN

D、決策樹

答案:C

解析:DBSCAN屬于無監(jiān)督學習

1O1.ResNet從角度改進了之前的圖像分類網(wǎng)絡?

A、增加網(wǎng)絡寬度

B、輕量化網(wǎng)絡模型

C、改善網(wǎng)絡退化現(xiàn)象

D、增加網(wǎng)絡深度

答案:C

解析:ResNet從改善網(wǎng)絡退化現(xiàn)象角度改進了之前的圖像分類網(wǎng)絡

102.獨熱編碼的英文是:

Axonehot

B、twohot

C、onecoId

D、twocoId

答案:A

解析:獨熱編碼的英文是onehot

103.剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過衡量

剪枝后()變化來決定是否剪枝。

A、信息增益

B、損失函數(shù)

C、準確率

D、召回率

答案:B

解析:剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過衡

量剪枝后損失函數(shù)變化來決定是否剪枝。

104.下列人工神經(jīng)網(wǎng)絡屬于反饋網(wǎng)絡的是()

A、HopfieId網(wǎng)

B、BP網(wǎng)絡

C、多層感知器

D、LVQ網(wǎng)絡

答案:A

解析:$BP網(wǎng)絡、多層感知器、LVQ網(wǎng)絡屬于前饋網(wǎng)絡

105.構建一個神經(jīng)網(wǎng)絡,將前一層的輸出和它自身作為輸入。下列哪一種架構有

反饋連接?

A、循環(huán)神經(jīng)網(wǎng)絡

B、卷積神經(jīng)網(wǎng)絡

C、限制玻爾茲曼機

D、都不是

答案:A

106.關于學習率的描述正確的是:

A、學習率和w、b一樣是參數(shù),是系統(tǒng)自己學習得到的

B、學習率越大系統(tǒng)運行速度越快

C、學習率越小系統(tǒng)一定精度越高

D、學習率的大小是根據(jù)不同場景程序員自己設定的,不宜太大或者太小

答案:D

解析:學習率的大小是根據(jù)不同場景程序員自己設定的,不宜太大或者太小

107.使用一組槽來描述事件的發(fā)生序列,這種知識表示法叫做()

A、語義網(wǎng)絡法

B、過程表示法

C、劇本表示法

D、框架表示法

答案:C

108.下面算法中哪個不是回歸算法

A、線性回歸

B、邏輯回歸

C、嶺回歸

D、隨機森林

答案:B

109.下面關于SVM中核函數(shù)的說法正確的是?。

A、核函數(shù)將低維空間中的數(shù)據(jù)映射到高維空間

B、它是一個相似度函數(shù)

C、A、B都對

D、A、B都不對

答案:C

110.環(huán)境在接受到個體的行動之后,會反饋給個體環(huán)境目前的狀態(tài)(state)以

及由于上一個行動而產(chǎn)生的()O

Axaction

B、reward

C、state

D、agent

答案:B

解析:見算法解析

111.關于boosting下列說法錯誤的是()

A、boosting方法的主要思想是迭代式學習。

B、訓練基分類器時采用并行的方式。

C、測試時,根據(jù)各層分類器的結果的加權得到最終結果。

D、基分類器層層疊加,每一層在訓練時,對前一層基分類器分錯的樣本給予更

高的權值。

答案:B

112.循環(huán)神經(jīng)網(wǎng)絡之所以有作用是因為:

A、序列中的元素是無關的

B、序列中的元素蘊含著順序的規(guī)律

C、序列中的元素都是隨機出現(xiàn)的

D、序列中的元素都來自同一個數(shù)據(jù)源

答案:B

解析:循環(huán)神經(jīng)網(wǎng)絡之所以有作用是因為序列中的元素蘊含著順序的規(guī)律

113.ONE-HOT-ENCODING可用于什么特征處理

A、類別型特征

B、有序性特征

C、數(shù)值型特征

D、字符串型特征

答案:A

114.線性降維方法假設從高雄空間到低維空間的函數(shù)映射是()。

A、一元

B、線性

C、多元

D、非線性

答案:B

解析:基于線性變換來進行降維的方法稱為線性降維法。非線性降維是基于核技

巧對線性降維方法進行“核化”

115.下列哪個算法可以用于特征選擇()

A、樸素貝葉斯

B、感知器

C、支持向量機

D、決策樹

答案:D

解析:見算法解析

116.輸入圖片大小為200X200,依次經(jīng)過一層卷積(kernelsize5X5,padding

1,stride2),pooIing(kerneIsize3X3,paddingO,stridel),又一層卷積

(kernelsize3X3,padding1,stride1)之后,輸出特征圖大小為

A、95

B、96

C、97

D、98

答案:C

117.語義網(wǎng)絡表達知識時,有向弧AKO鏈、ISA鏈是用來表達節(jié)點知識的

A、無悖性

B、可擴充性

C、繼承性

D、連貫性

答案:C

解析:語義網(wǎng)絡表達知識時,有向弧AKO鏈、ISA鏈是用來表達節(jié)點知識的繼承

118.學習器的實際預測輸出與樣本的真實輸出之間的差異稱為()o

A、錯誤率

B、精度

C、誤差

D、查準率

答案:C

解析:見算法解析

119.DSSM使用()個全連接層

A、兩

B、一

C、三

D、四

答案:A

解析:DSSM使用兩個全連接層

120.xgboost在代價函數(shù)里加入了(),用于控制模型的復雜度

A、正則項

B、非線性

C、激活函數(shù)

D、特征變換

答案:A

解析:xgboost在代價函數(shù)里加入了正則項,用于控制模型的復雜度

121.下列對LVW算法的說法錯誤的是()

A、算法中特征子集搜索采用了隨機策略

B、每次特征子集評價都需要訓練學習器,開銷很大

C、算法設置了停止條件控制參數(shù)

D、算法可能求不出解

答案:D

解析:見算法解析

122.前饋型神經(jīng)網(wǎng)絡的中各個層之間是()的,反饋型神經(jīng)網(wǎng)絡中各個層之間是()

的。

A、有環(huán)

B、有環(huán)

C、有環(huán)

D、無環(huán)

E、無環(huán)

答案:C

123.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖

表示變量間的依賴關系,稱為第二類是使用無向圖表示變量間的相關關

系,稱為無向圖模型或馬爾可夫網(wǎng)(Markovnetwork)。

A、貝葉斯網(wǎng)

B、拉普拉斯網(wǎng)

C、帕斯卡網(wǎng)

D、塞繆爾網(wǎng)

答案:A

解析:見算法解析

124.CNN卷積網(wǎng)絡中,filter尺寸的選擇多為。

A、奇數(shù)

B、偶數(shù)

C、整數(shù)

D、分數(shù)

答案:A

解析:CNN卷積網(wǎng)絡中,filter尺寸的選擇多為奇數(shù)

125.傳統(tǒng)GBDT以()作為基分類器

A、線性分類器

B、CART

C、gbIinear

D、svm

答案:B

解析:傳統(tǒng)GBDT以CART作為基分類器

126.以下哪種問題主要采用無監(jiān)督學習方法?

A、頻繁項挖掘

B、股價預測

C、圖像分類

D、文本情感分析

答案:A

解析:頻繁項挖掘主要采用無監(jiān)督學習方法

127.在感知機中(Perceptron)的任務順序是什么?1隨機初始化感知機的權重

2去到數(shù)據(jù)集的下一批(batch)3如果預測值和輸出不一致,則調(diào)整權重4對一

個輸入樣本,計算輸出值

A、1,2,3,4

B、4,3,2,1

C、3,1,2,4

Dx1,4,3,2

答案:D

128.K-Means算法無法聚以下哪種形狀的樣本

A、圓形分布

B、螺旋分布

C、帶狀分布

D、凸多邊形分布

答案:B

129.假設在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€問題,logi

sties回歸需要很長時間才能訓練。如何提高訓練速度?()

A、降低學習率,減少迭代次數(shù)

B、降低學習率,增加迭代次數(shù)

C、提高學習率,增加迭代次數(shù)

D、增加學習率,減少迭代次數(shù)

答案:D

130.在一個神經(jīng)網(wǎng)絡中,知道每一個神經(jīng)元的權重和偏差是最重要的一步。如果

知道了神經(jīng)元準確的權重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的

權重和偏移呢?

A、搜索每個可能的權重和偏差組合,直到得到最佳值

B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權重

C、隨機賦值,聽天由命

D、以上都不正確的

答案:B

131.NMS算法中文名為()

A、非極大值抑制

B、非極小值抑制

C、極大值抑制

D、極小值抑制

答案:A

解析:見算法解析

132.基于統(tǒng)計的異常點檢測算法不包括

A、基于正態(tài)分布的異常點檢測算法

B、基于距離的異常點檢測算法

C、35原則

D、簡單統(tǒng)計分析

答案:A

133.哪項技術在BERT中沒有使用()

A、自注意力

B、NormaIization

C、全連接

D、卷積

答案:D

解析:卷積在BERT中沒有使用

134.以下關于Bagging(裝袋法)的說法不正確的是

A、能提升機器學習算法的穩(wěn)定性和準確性,但難以避免。verfitting

B、Bagging(裝袋法)是一個統(tǒng)計重采樣的技術,它的基礎是Bootstrap

C、主要通過有放回抽樣)來生成多個版本的預測分類器,然后把這些分類器進行

組合

D、進行重復的隨機采洋所獲得的樣本可以得到?jīng)]有或者含有較少的噪聲數(shù)據(jù)

答案:A

135.下面關于最小二乘法(OrdinaryLeastSquares)的說法,正確的是:

A、最小二乘法是通過最小化預測值y和真實的y在訓練數(shù)據(jù)上的誤差來尋找最

優(yōu)解的方法

B、當自變量X的特征很多的時候,使用最小二乘法可以求得最優(yōu)解

C、最小二乘法是通過求導來找出最優(yōu)解,是一種迭代的方法

D、使用最小二乘法求最優(yōu)解比梯度下降方法好

答案:A

136.關于神經(jīng)網(wǎng)絡的說法中,正確的是()

A、增加網(wǎng)絡層數(shù),總能減小訓練集錯誤率

B、減小網(wǎng)絡層數(shù),總能減小測試集錯誤率

C、增加網(wǎng)絡層數(shù),可能增加測試集錯誤率

答案:C

解析:增加網(wǎng)絡層數(shù),可能增加測試集錯誤率

137.在使用scikit-learn里面的交叉驗證對回歸模型進行評估時,根據(jù)平均絕

對誤差給模型打分,則下面代碼的劃線處應填上。,scores的分數(shù)越。,

說明回歸模型的性能越好。代碼:scores=cross_val_score(Im,X,y,cv=5,scor

e')

Axneg_mean_absoIute_error,高

B、mean_absoIute_error,高

C、mean_absoIute_error,低

D、neg_mear)_absoIute_error,低

答案:A

138.下列哪個是CNN網(wǎng)絡的超參數(shù)。

A、權重

B、偏置

C、激活函數(shù)

D、學習率

答案:D

解析:學習率是CNN網(wǎng)絡的超參數(shù)。

139.半監(jiān)督學習四大范型不含有()

A、基于分歧方法

B、半監(jiān)督SVM

C、生成式方法

D、半監(jiān)督聚類

答案:D

解析:見算法解析

140.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列

哪一種方法可能是解決此問題的最好選擇?

A、隨機森林分類器

B、卷積神經(jīng)網(wǎng)絡

C、梯度爆炸

D、上述所有方法

答案:B

141.規(guī)則學習中ILP的全稱是(一)

A、歸納邏輯程序設計

B、內(nèi)部邏輯程序設計

C、信息泄露防護

D、引入層次程序設計

答案:A

解析:見算法解析

142.為什么不能用多層全連接網(wǎng)絡解決命名實體識別問題:

A、序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長,有的序列短

B、全連接網(wǎng)絡的根本不能處理任何序列數(shù)據(jù)

C、全連接網(wǎng)絡的層次太深導致梯度消失,所以不能處理序列問題

D、命名實體識別問題是一個無法解決的問題,全連接網(wǎng)絡也不能解決這個問題

答案:A

解析:序列數(shù)據(jù)的輸入和輸出通常是不固定的,有的序列長,有的序列短,因此

不能用多層全連接網(wǎng)絡解決命名實體識別問題

143.R0IPooling在那個模型中被第一次提出。

A、fast-rcnn

B、faster-rcnn

Cxmask-rcnn

D、rcnn

答案:A

解析:見算法解析

144.以才哪種組合在CNN不常見

A、conv+reIu

B、conv+reIu+pooI

C、conv+reIu+pooI+fc

D、conv+k-means

答案:D

解析:conv+k-means組合在CNN不常見

145.以下說法正確的是()

A、神經(jīng)網(wǎng)絡可以用于多分類問題

B、決策樹只能用于二分類問題

C、監(jiān)督學習與無監(jiān)督學習的主要區(qū)別是,監(jiān)督學習的訓練樣本無標簽

D、分類任務的評價指標精確率和準確率是同一個概念

答案:A

146.多義現(xiàn)象可以被定義為在文本對象中一個單詞或短語的多種含義共存。下列

哪一種方法可能是解決此問題的最好選擇?

A、隨機森林分類器

B、卷積神經(jīng)網(wǎng)絡

C、梯度爆炸

D、上述所有方法

答案:B

147.反向傳播算法一開始計算什么內(nèi)容的梯度,之后將其反向傳播?

A、預測結果與樣本標簽之間的誤差

B、各個輸入樣本的平方差之和

C、各個網(wǎng)絡權重的平方差之和

D、都不對

答案:A

148.VGG模型于2014年被提出,是最流行的()模型之一,在ImageNet比賽中,

達到了Top5錯誤率7.3%o

A、CNN

B、KNN

C、RNN

D、DNN

答案:A

解析:VGG模型于2014年被提出,是最流行的CNN模型之一,在ImageNet比賽

中,達到了丁(^5錯誤率7.3%。

149.機器學習訓練時,Mini-Batch的大小優(yōu)選為2的幕,如256或512。它背后

的原因是什么?。

A、Mini-Batch為偶數(shù)的時候,梯度下降算法訓練的更快

B、Mini-Batch設為2的鬲,是為了符合CPU、GPU的內(nèi)存要求,利于并行化處

C、不使用偶數(shù)時,損失函數(shù)是不穩(wěn)定的

D、以上說法都不對

答案:B

150.線性判別分析設法將樣例投影到()直線上,使得同類樣例的投影點盡可

能(_)o

A、一條;接近

B、兩條;接近

C、一條;遠離

D、兩條;原理

答案:A

解析:見算法解析

151.CART樹在分類過程中使用的()

A、條件熠

B、基尼指數(shù)Gini

C、交叉病

D、聯(lián)合爆

答案:B

解析:CART樹在分類過程中使用的基尼指數(shù)Gim

152.如果我們用了一個過大的學習速率會發(fā)生什么?

A、神經(jīng)網(wǎng)絡會收斂

B、不好說

C、都不對

D、神經(jīng)網(wǎng)絡不會收斂

答案:D

153.Skip-gram在實際操作中,使用一個。(一般情況下,長度是奇數(shù)),從

左到右開始掃描當前句子。

A、過濾器

B、滑動窗口

C、篩選器

D、掃描器

答案:B

解析:見算法解析

154.()函數(shù)一般用在多分類問題中,它是對邏輯斯蒂回歸logistic的一種推

廣,也被稱為多項式邏輯斯蒂回歸模型。

A、ReIu

B、softmax

CxTanh

D、sigmoid

答案:B

解析:softmax函數(shù)一般用在多分類問題中,它是對邏輯斯蒂回歸logistic的

一種推廣,也被稱為多項式邏輯斯蒂回歸模型。

155.下列關于冗余特征的說法錯誤的是()

A、冗余特征是可以通過其他特征推演出來的特征

B、冗余特征是無用的特征

C、冗余特征有時候可以降低學習任務的難度

D、去除冗余特征可以減輕學習過程的負擔

答案:B

解析:見算法解析

156.在深度學習網(wǎng)絡中,反向傳播算法用于尋求最優(yōu)參數(shù),在反向傳播算法中使

用的什么法則進行逐層求導的?

A、鏈式法則

B、累加法則

C、對等法則

D、歸一法則

答案:A

157.機器學習中,模型需要輸入什么來訓練自身,預測未知?

A、人工程序

B、神經(jīng)網(wǎng)絡

C、訓練算法

D、歷史數(shù)據(jù)

答案:D

158.當不知道數(shù)據(jù)所處類別時,可以使用哪種技術促使同類數(shù)據(jù)與其他類數(shù)據(jù)分

離?()

A、分類

B、聚類

C、關聯(lián)分析

D、隱馬爾可夫鏈

答案:B

159.神經(jīng)網(wǎng)絡由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對諭入

進行處理后給出一個輸出。請問下列關于神經(jīng)元的描述中,哪一項是正確的?

A、每個神經(jīng)元可以有一個輸入和一個輸出

B、每個神經(jīng)元可以有多個愉入和一個榆出

C、每個神經(jīng)元可以有多個輸入和多個輸出

D、上述都正確

答案:D

解析:每個神經(jīng)元可以有一個或多個輸入,和一個或多個輸出。如圖所示的神經(jīng)

網(wǎng)絡結構中,隱藏層的每一個神經(jīng)元都是多輸入多輸出。若將輸出層改為一個神

經(jīng)元,則隱藏層每個神經(jīng)元都是一個輸出;若將輸入層改為一個神經(jīng)元,則隱藏

層每個神經(jīng)元都是一個輸入。

160.根據(jù)numpy數(shù)組中ndim屬性的含義確定程序的輸出()。array=np.array

([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array,ndim)

A、(3,4)

B、2

C、(4,3)

D、4

答案:B

解析:見算法解析

161.下列關于長短期記憶網(wǎng)絡LSTM和循環(huán)神經(jīng)網(wǎng)絡RNN的關系描述正確的是。。

A、LSTM是簡化版的RNN

B、LSTM是雙向的RNN

C、LSTM是多層的RNN

DxLSTM是RNN的擴展,通過特殊的結構設計來避免長期依賴問題

答案:D

解析:LSTM是RNN的擴展,通過特殊的結構設計來避免長期依賴問題

162.決策樹的生成是一個()過程。

A、聚類

B、回歸

C、遞歸

D、KNN

答案:C

解析:見算法解析

163.ROIPooIing存在幾次取整過程?

A、1

B、2

C、3

D、nan

答案:B

解析:見算法解析

164.下列哪項屬于集成學習()

A、決策樹模型

B、kNN分類

C、Adaboost

D、k-means

答案:C

解析:Adaboost屬于集成學習

165.在CNN網(wǎng)絡模型中,不常見的PooIing層操作是

Axmax

B、min

C、mean

D、sum

答案:D

解析:在CNN網(wǎng)絡模型中,不常見的Pooling層操作是sum

166.一階規(guī)則的基本成分是()

A、原子命題

B、謂詞

C、量詞

D、原子公式

答案:D

解析:見算法解析

167.線性回歸在3維以上的維度中擬合面是?

A\曲面

B、平面

C、超平面

D、超曲面

答案:C

168.關于MNIST,下列說法錯誤的是0o

A、是著名的手寫體數(shù)字識別數(shù)據(jù)集

B、有訓練集和測試集兩部分

C、訓練集類似人學習中使用的各種考試試卷

D、測試集大約包含10000個樣本和標簽

答案:C

169.在卷積操作過程中計算featuremap的尺寸:設圖像大小為300*300,卷積

核大小為3*3,卷積窗口移動的步長為1,則featuremaps的大小是()個元素?

A、78400

B、88804

C、91204

D、99856

答案:B

解析:見算法解析

170.自然語言中的詞語需要轉(zhuǎn)化為計算機可以記錄處理的數(shù)據(jù)結構,通常會把自

然語言中的詞語轉(zhuǎn)化為以下哪種數(shù)據(jù)結構:

A、標量

B、向量

C、結構體

D、有向圖

答案:B

解析:自然語言中的詞語需要轉(zhuǎn)化為計算機可以記錄處理的數(shù)據(jù)結構,通常會把

自然語言中的詞語轉(zhuǎn)化為向量。

171.協(xié)同過濾和基于內(nèi)容的模型是兩種流行的推薦引擎,在建立這樣的算法中N

LP扮演什么角色?

A、從文本中提取特征

B、測量特征相似度

C、為學習模型的向量空間編程特征

D、以上都是

答案:D

172.深度神經(jīng)網(wǎng)絡的運行過程是由三個算法依次運行組成,下面不屬于這三個算

法中的是

Ax歸一化

B、正向傳播

C、反向傳播

D、梯度下降

答案:A

解析:深度神經(jīng)網(wǎng)絡的運行過程是由三個算法依次運行組成,下面不屬于這三個

算法中的是歸一化

173.從全稱判斷推導出特稱判斷或單稱判斷的過程,即由一般性知識推出適合于

某一具體情況的結論的推理是

A、默認推理

B、歸結推理

C、演繹推理

D、單調(diào)推理

答案:C

解析:從全稱判斷推導出特稱判斷或單稱判斷的過程,即由一般性知識推出適合

于某一具體情況的結論的推理是演繹推理

174.模型有效的基本條件是能夠()已知的樣本

A、結合

B、擬合

C、聯(lián)合

D、聚集

答案:B

解析:模型有效的基本條件是能夠擬合已知的樣本

175.關于Boosting,Bagging和隨機森林,以下說法錯誤的是()

A、從偏差一方差分解的角度看,Boosting主要關注降低偏差

B、從偏差一方差分解的角度看,Bagging主要關注降低方差

C、隨機森林簡單、容易實現(xiàn)、計算開銷小

D、Boosting不能基于泛化性能相當弱的學習器構建出很強的集成

答案:D

解析:見算法解析

176.下列哪一個不是無約束算法。

A、梯度下降法

B、擬牛頓法

C、啟發(fā)式優(yōu)化方法

D、EM算法

答案:D

解析:EM算法

177.為什么計算機視覺任務優(yōu)先考慮使用卷積神經(jīng)網(wǎng)絡:

A、全連接網(wǎng)絡完全不能做計算機視覺任務

B、全連接網(wǎng)絡理論在處理視覺任務時計算量很小

C、全連接網(wǎng)絡理論在處理視覺任務時會出現(xiàn)維數(shù)災難現(xiàn)象,而卷積神經(jīng)網(wǎng)絡可

以緩解這一現(xiàn)象

D、卷積神經(jīng)網(wǎng)絡只能做計算機視覺任務

答案:C

解析:全連接網(wǎng)絡理論在處理視覺任務時會出現(xiàn)維數(shù)災難現(xiàn)象,而卷積神經(jīng)網(wǎng)絡

可以緩解這一現(xiàn)象

178.哪種聚類方法采用概率模型來表達聚類()

AxK-means

B、LVQ

C、DBSCAN

D、高斯混合聚類

答案:D

179.LVW屬于哪種特征選擇方法(一)

A、包裹式

B、啟發(fā)式

C、嵌入式

D、過濾式

答案:A

解析:見算法解析

180.批規(guī)范化(BatchNormaIization)的好處都有啥?

A、讓每一層的輸入的范圍都大致固定

B、它將權重的歸一化平均值和標準差

C、它是一種非常有效的反向傳播(BP)方法

D、這些均不是

答案:A

181.隨機森林是一種集成學習算法,是。算法的具體實現(xiàn)。

A、Boosting

B、Bagging

CxStacking

D、Dropping

答案:B

解析:隨機森林是一種集成學習算法,是Bagging算法的具體實現(xiàn)。

182.ROIAlign在哪個模型被采用()

A、fastRCNN

B、fasterRCNN

C\maskRCNN

D、Y0L0v3

答案:C

解析:ROIAlign在maskRCNN被采用

183.問答系統(tǒng)中的NLP技術,以下描述不正確的是:

A、問答(QA)系統(tǒng)的想法是直接從文檔、對話、在線搜索和其他地方提取信息,

以滿足用戶的信息需求。QA系統(tǒng)不是讓用戶閱讀整個文檔,而是更喜歡簡短而

簡潔的答案。

B、QA系統(tǒng)相對獨立很難與其他NLP系統(tǒng)結合使月,現(xiàn)有QA系統(tǒng)只能處理對文

本文檔的搜索,尚且無法從圖片集合中提取信息。

C、大多數(shù)NLP問題都可以被視為一個問題回答問題。范例很簡單:我們發(fā)出查

詢指令,機器提供響應。通過閱讀文檔或一組指令,智能系統(tǒng)應該能夠回答各種

各樣的問題。

D、強大的深度學習架陶(稱為動態(tài)內(nèi)存網(wǎng)絡(DMN))已針對QA問題進行了專

門開發(fā)和優(yōu)化。給定輸入序列(知識)和問題的訓練集,它可以形成情節(jié)記憶,

并使用它們來產(chǎn)生相關答案。

答案:B

解析:刪除

184.L1正則先驗服從什么分布?

A、拉普拉斯分布

B、高斯分布

C、伽瑪分布

D、柏拉圖分布

答案:A

解析:L1正則化可通過假設權重w的先驗分布為拉普拉斯分布,由最大后驗概

率估計導出。L2正則化可通過假設權重w的先驗分布為高斯分布,由最大后驗

概率估計導出。

185.回歸算法預測的標簽是?

A、自變型

B、離散型

c、應變型

D、連續(xù)型

答案:D

186.圖像數(shù)字化分為兩個步驟:一為取樣,二為。。

A、數(shù)字化

B、量化

C、去噪聲

D、清洗

答案:B

解析:圖像數(shù)字化分為兩個步驟:一為取樣,二為量化。

187.()反映的是模型每一次輸出結果與模型輸出期望之間的誤差,即模型的穩(wěn)

定性。反應預測的波動情況。

A、標準差

B、方差

C、偏差

D、平方差

答案:B

解析:方差反映的是模型每一次輸出結果與模型輸出期望之間的誤差,即模型的

穩(wěn)定性。反應預測的波動情況。

188.類別不平衡指分類任務中不同類別的訓練樣例數(shù)目()的情況。

A、沒有差別

B、差別很大

C、差別很小

D、以上都不正確

答案:B

解析:見算法解析

189.以下哪一個關于卷積神經(jīng)網(wǎng)絡的說法是錯誤的

A、AIexNet是一個八層的卷積神經(jīng)網(wǎng)絡&

B、&卷積神經(jīng)網(wǎng)絡中的建模學習,學習對象是每一層神經(jīng)元的值&

C、&目標檢測網(wǎng)絡SSD的網(wǎng)絡結構中包含卷積層&

D、&典型的卷積神經(jīng)網(wǎng)絡,由卷積層、池化層、激活層、全連接層等組成

答案:B

解析:見算法解析

190.一個特征的權重越高,說明該特征比其他特征。。

A、更重要

B、不重要

C、有影響

D、無法判斷

答案:A

解析:一個特征的權重越高,說明該特征比其他特征更重要。

191.下列哪個神經(jīng)網(wǎng)絡結構會發(fā)生權重共享

A、卷積神經(jīng)網(wǎng)絡&

B、&循環(huán)神經(jīng)網(wǎng)絡&

C、&全連接神經(jīng)網(wǎng)絡&

D、&卷積和循環(huán)神經(jīng)網(wǎng)絡

答案:D

解析:見算法解析

192.下列哪個函數(shù)不可以做非線性激活函數(shù)?。

A、y=tanh(x)

B、y=sin(x)

C、y=max(x,0)

D、y=2x

答案:D

193.Inception模塊可以并行執(zhí)行多個具有不同尺度的卷積運算或池化操作,下

列網(wǎng)絡運用Inception的是()

A、VGG

B、GoogLeNet

C、fast-RCNN

D、faster-RCNN

答案:B

解析:Inception模塊可以并行執(zhí)行多個具有不同尺度的卷積運算或池化操作,

下列網(wǎng)絡運用Inception的是GoogLeNet

194.早期圖像識別技術中存在的主要問題是()。

A、全局特征丟掉了圖像細節(jié)

B、提取不到主要特征

C、存儲效率低下

D、太多的錯誤匹配

答案:A

解析:早期圖像識別技術中存在的主要問題是全局特征丟掉了圖像細節(jié)。

195.語言模型的作用是:

A、查看一句話成為一勺“人話”的概率

B、查看一句話是英語的概率

C、查看一句話是漢語的概率

D、查看一句話是否是完整的

答案:A

解析:語言模型的作用是查看一句話成為一句“人話”的概率

196.DSSM模型的結構是什么?

A、線性

B、雙塔

C、三塔

D、非線性

答案:B

解析:DSSM模型的結構是雙塔

197.從給定的特征集合中選擇出相關特征子集的過程,稱為(一)

A、特征抽取

B、特征選擇

C、特征降維

D、特征簡化

答案:B

解析:見算法解析

198.()控制當前時刻的輸入信息需要向狀態(tài)向量中注入哪些信息。

A、輸出門

B、輸入門

C、遺忘門

D、以上都不對

答案:B

解析:輸入門控制當前時刻的輸入信息需要向狀態(tài)向量中注入哪些信息。

199.哪個不是常用的聚類算法()o

A、K-Means

B、DBSCAN

C、GMMs

D、Softmax

答案:D

解析:Softmax不是常用的聚類算法。

200.在Skip-gram實際實現(xiàn)的過程中,通常會讓模型接收。個tensor輸入。

A、1

B、2

C、3

D、4

答案:C

解析:見算法解析

多選題

1.參數(shù)學習過程中若采用梯度下降法,梯度為負:()W,梯度為正:()W

A、增加

B、取反

C、減小

D、取整

答案:AC

解析:見算法解析

2.下列哪些屬于集成學習()

A、Adaboost

B、決策樹

C、隨機森林

D、XGBoost

答案:ACD

解析:見算法解析

3.LibraRCNN從()幾個角度論證并增強了兩階段檢測模型

A、FPN特征

B、RPN結構

C、正負樣本采樣

D、Loss

答案:ACD

解析:見算法解析

4.下列哪些是數(shù)據(jù)預處理的常用技術()

A、數(shù)字屬性的缺失值補0

B、LabeIEncoder

C、one-hotencoder

D、CountVectorize

答案:ABCD

解析:見算法解析

5.下面關于隨機森林和集成學習的說法,正確的是:

A、隨機森林只能用于解決分類問題

B、隨機森林由隨機數(shù)量的決策樹組成

C、集成學習通過構建多個模型,并將各個模型的結果使用求平均數(shù)的方法集成

起來,作為最終的預測結果,提高分類問題的準確率

D、隨機森林的弱分類器(基分類器)的特征選擇是隨機的

答案:CD

6.關于感知器,下列說法正確的是。

A、感知器由2層神經(jīng)元組成,是一個單層的前饋神經(jīng)網(wǎng)絡

B、輸入結點把接收到的值傳送給榆出鏈,不作任何轉(zhuǎn)換

C、輸出結點計算輸入的加權和,加上偏置項,根據(jù)結果的符號產(chǎn)生輸出

D、訓練階段,權值參數(shù)不斷調(diào)整,直至模型輸出和訓練樣例的實際輸出一致

答案:ABD

解析:見算法解析

7.人工神經(jīng)網(wǎng)絡比感知器模型更復雜,這些額外的復雜性來源于()

A、輸入層和輸出層之間僅包含一個中間層

B、輸入層和輸出層之間可能包含多個中間層

C、激活函數(shù)允許隱藏結點和輸出結點的輸出值與輸入?yún)?shù)呈現(xiàn)線性關系

D、激活函數(shù)允許隱藏結點和輸出結點的輸出值與輸入?yún)?shù)呈現(xiàn)非線性關系

答案:BD

解析:見算法解析

8.經(jīng)典邏輯推理有哪些?

A、自然演繹推理

B、歸結演繹推理

C、不確定與非單調(diào)推理

D、與、或形演繹推理

答案:ABD

9.下面的Python開發(fā)包中,屬于深度學習框架的有()

A、fIask

B、TensorfIow

C、Keras

D、Mxnet

答案:BCD

解析:見算法解析

10.關于k折交叉驗證,下列說法正確的是?

A、k值并不是越大越好,k值過大,會降低運算速度

B、選擇更大的k值,會讓偏差更小,因為k值越大,訓練集越接近整個訓練樣

C、選擇合適的k值,能減小驗方差

D、k折交叉驗證能夠有效提高模型的學習能力

答案:ABCD

11.產(chǎn)生式系統(tǒng)的組成部分包括()

A、狀態(tài)空間

B、綜合數(shù)據(jù)庫

C、規(guī)則集

D、控制策略

答案:BCD

12.漢語的演化史表明,量詞的真實功用可能與()沒有任何關系

A、隱喻機制

B、個體化機制

C、單復數(shù)區(qū)分

D、補足音素

答案:BC

解析:見算法解析

13.哪些屬于生成式對抗網(wǎng)絡模塊

A、生成模型

B、對抗模型

C、判別模型

D、回歸模型

答案:AC

解析:生成式對抗網(wǎng)絡模塊由生成模型和判別模型組成

14.哪些項屬于集成學習

A、Knn

B、Adaboost

C、隨機森林

D、XGBoost

答案:BCD

解析:集

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論