版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)
文檔簡介
第頁人工智能單選復(fù)習(xí)測試卷附答案1.從全稱判斷推導(dǎo)出特稱判斷或單稱判斷的過程,即由一般性知識推出適合于某一具體情況的結(jié)論的推理是A、默認(rèn)推理B、歸結(jié)推理C、演繹推理D、單調(diào)推理【正確答案】:C解析:
搜索分為盲從搜索與啟發(fā)式搜索2.為應(yīng)對卷積網(wǎng)絡(luò)模型中大量的權(quán)重存儲問題,研究人員在適量犧牲精度的基礎(chǔ)上設(shè)計出一款超輕量化模型()A、KNNB、RNNC、BNND、VGG【正確答案】:C解析:
在CNN訓(xùn)練中,除了卷積偏置bias需要學(xué)習(xí)更新以外,weight也是學(xué)習(xí)跟新的重要內(nèi)容3.在訓(xùn)練集上每學(xué)到一條規(guī)則,就將該規(guī)則覆蓋的訓(xùn)練樣例去除,然后以剩下的訓(xùn)練樣例組成訓(xùn)練集重復(fù)上述過程的方法稱為(___)A、缺省規(guī)則B、序貫覆蓋C、不放回學(xué)習(xí)D、一階規(guī)則【正確答案】:B解析:
見算法解析4.下列哪個模型屬于無監(jiān)督學(xué)習(xí)()A、KNN分類B、邏輯回歸C、DBSCAND、決策樹【正確答案】:C解析:
SVR屬于監(jiān)督學(xué)習(xí)的方法5.在神經(jīng)網(wǎng)絡(luò)中,我們是通過以下哪個方法在訓(xùn)練網(wǎng)絡(luò)的時候更新參數(shù),從而最小化損失函數(shù)的?A、正向傳播算法B、池化計算C、卷積計算D、反向傳播算法【正確答案】:D6.DNN不是適合處理圖像問題是因為“維數(shù)災(zāi)難”,那么“維數(shù)災(zāi)難”會帶來什么問題呢:A、網(wǎng)絡(luò)結(jié)構(gòu)過于復(fù)雜B、DNN根本不能處理圖像問題C、內(nèi)存、計算量巨大、訓(xùn)練困難D、神經(jīng)元數(shù)量下降,所以精度下降【正確答案】:C解析:
全部都屬于常見的計算機(jī)視覺任務(wù)7.正則化是為了什么?()A、最小化錯誤率B、正規(guī)化C、防止過擬合D、最大化過擬合【正確答案】:C解析:
在其他條件不變的前提下,以下做法容易引起機(jī)器學(xué)習(xí)中的“過擬合”問題的是SVM算法中使用高斯核/RBF核代替線性核。8.我們?nèi)粘I钪械纳舷掳?,指紋掃描打卡考勤、虹膜掃描,應(yīng)用到了人工智能中的A、機(jī)器翻譯技術(shù)B、機(jī)器翻譯C、虛擬現(xiàn)實D、模式識別【正確答案】:D解析:
RNN存在嚴(yán)重的梯度消失現(xiàn)象,因此改進(jìn)出LSTM模型。9.
下列哪項關(guān)于模型能力(modelcapacity)的描述是正確的?(指神經(jīng)網(wǎng)絡(luò)模型能擬合復(fù)雜函數(shù)的能力)A、隱藏層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A10.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?A、關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B、聚類C、分類D、自然語言處理【正確答案】:A解析:
深度學(xué)習(xí)可以用來解決上述所有NLP問題。11.Python被廣泛用于人工智能程序的開發(fā),以下哪個庫實現(xiàn)了機(jī)器學(xué)習(xí)的經(jīng)典算法?A、numpyB、sclpyC、matplotiibD、skleam【正確答案】:D12.以下哪一個關(guān)于卷積神經(jīng)網(wǎng)絡(luò)的說法是錯誤的AlexNet是一個八層的卷積神經(jīng)網(wǎng)絡(luò)&B、&卷積神經(jīng)網(wǎng)絡(luò)中的建模學(xué)習(xí),學(xué)習(xí)對象是每一層神經(jīng)元的值&C、&目標(biāo)檢測網(wǎng)絡(luò)SSD的網(wǎng)絡(luò)結(jié)構(gòu)中包含卷積層&D、&典型的卷積神經(jīng)網(wǎng)絡(luò),由卷積層、池化層、激活層、全連接層等組成【正確答案】:B解析:
見算法解析13.以才哪種組合在CNN不常見A、conv+reluB、conv+relu+poolC、conv+relu+pool+fcD、conv+k-means【正確答案】:D解析:
CNN網(wǎng)絡(luò)設(shè)計中,學(xué)習(xí)率的設(shè)置往往對訓(xùn)練收斂起到關(guān)鍵作用,關(guān)于學(xué)習(xí)率的說法,錯誤的是學(xué)習(xí)率也是有網(wǎng)絡(luò)學(xué)習(xí)而來14.在感知機(jī)中(Perceptron)的任務(wù)順序是什么?1隨機(jī)初始化感知機(jī)的權(quán)重2去到數(shù)據(jù)集的下一批(batch)3如果預(yù)測值和輸出不一致,則調(diào)整權(quán)重4對一個輸入樣本,計算輸出值A(chǔ)、1,2,3,4B、4,3,2,1C、3,1,2,4D、1,4,3,2【正確答案】:D15.C4.5在分類過程中使用的()A、條件熵B、信息增益率C、交叉熵D、聯(lián)合熵【正確答案】:B解析:
ID3在分類過程中使用的信息增益16.基于統(tǒng)計的分詞方法為()A、正向最大匹配法B、逆向最大匹配法C、最少切分D、條件隨機(jī)場【正確答案】:D17.為什么計算機(jī)視覺任務(wù)優(yōu)先考慮使用卷積神經(jīng)網(wǎng)絡(luò):A、全連接網(wǎng)絡(luò)完全不能做計算機(jī)視覺任務(wù)B、全連接網(wǎng)絡(luò)理論在處理視覺任務(wù)時計算量很小C、全連接網(wǎng)絡(luò)理論在處理視覺任務(wù)時會出現(xiàn)維數(shù)災(zāi)難現(xiàn)象,而卷積神經(jīng)網(wǎng)絡(luò)可以緩解這一現(xiàn)象D、卷積神經(jīng)網(wǎng)絡(luò)只能做計算機(jī)視覺任務(wù)【正確答案】:C解析:
深度神經(jīng)網(wǎng)絡(luò)的運(yùn)行過程是由三個算法依次運(yùn)行組成,下面不屬于這三個算法中的是歸一化18.規(guī)則生成本質(zhì)上是一個貪心搜索的過程,須有一定的機(jī)制來緩解過擬合的風(fēng)險,最常見的做法是(___)A、序列化B、剪枝C、去重D、重組【正確答案】:B解析:
見算法解析19.下列選項中,屬于圖像識別技術(shù)應(yīng)用的是()A、人臉識別支付B、編寫word文檔C、制作多媒體D、制作ppt【正確答案】:A20.在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,每個主分量的權(quán)數(shù)為()。A、每個主分量的方差B、每個主分量的標(biāo)準(zhǔn)差C、每個主分量的方差貢獻(xiàn)率D、每個主分量的貢獻(xiàn)率【正確答案】:C解析:
在進(jìn)行主成分分析時,應(yīng)使第一主成分在總方差中所占的比重最大。21.(___)是在一個數(shù)據(jù)集上對多個算法進(jìn)行比較。A、t檢驗B、交叉驗證t檢驗C、Friedman檢驗D、McNemar檢驗【正確答案】:C解析:
見算法解析22.(
)是自然語言處理的重要應(yīng)用,也可以說是最基礎(chǔ)的應(yīng)用。A、文本識別B、機(jī)器翻譯C、文本分類D、問答系統(tǒng)【正確答案】:C解析:
專用人工智能,是指只對某一方面有自動化專業(yè)能力;通用人工智能,是指具有像人一樣的思維水平以及心理結(jié)構(gòu)的全面性智能化。所以真正意義上完備的人工智能系統(tǒng)應(yīng)該是一個通用的智能系統(tǒng),D選項錯誤,答案選D.23.隨著集成中個體分類器(相互獨(dú)立)數(shù)目T的增大,集成的錯誤率將呈(___)_下降,最終趨向于零A、指數(shù)級B、對數(shù)級C、線性級D、平方級【正確答案】:A解析:
見算法解析24.模型庫功能要求為:模型測試包括模型部署、()測試和服務(wù)管理,模型測試服務(wù)發(fā)布應(yīng)支持向?qū)J剑酥С忠绘I自動發(fā)布測試服務(wù),模型測試服務(wù)宜支持單卡內(nèi)存級分配。A、在線&B、&離線&C、&自動&D、&手動【正確答案】:A解析:
主要應(yīng)用25.衡量模型預(yù)測值和真實值差距的評價函數(shù)被稱為()A、損失函數(shù)B、無參數(shù)函數(shù)C、激活函數(shù)D、矩陣拼接函數(shù)【正確答案】:A解析:
DSSM經(jīng)典模型的優(yōu)點(diǎn);1.解決了字典爆炸問題,降低了計算復(fù)雜度;2.中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個字表達(dá)的詞義,減少分詞的依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語義embedding的映射問題;5.省去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。26.TF-IDF模型中,TF意思是詞頻,IDF意思是()。A、文本頻率指數(shù)B、C、逆文本頻率指數(shù)D、詞頻指數(shù)E、逆詞頻指數(shù)【正確答案】:B解析:
常見的圖像預(yù)處理方法不包括圖像標(biāo)注。27.強(qiáng)化學(xué)習(xí)在每個時刻環(huán)境和個體都會產(chǎn)生相應(yīng)的交互。個體可以采取一定的(),這樣的行動是施加在環(huán)境中的。A、actionB、rewardC、stateD、agent【正確答案】:A解析:
見算法解析28.下面算法中哪個不是分類算法A、決策樹B、高斯混合模型GMMC、隨機(jī)森林D、Xgboost【正確答案】:B29.在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中,每個神經(jīng)元會完成若干功能,下面哪個功能不是神經(jīng)元所能夠完成的功能A、對前序相鄰神經(jīng)元所傳遞信息進(jìn)行加權(quán)累加B、對加權(quán)累加信息進(jìn)行非線性變化(通過激活函數(shù))C、向前序相鄰神經(jīng)元反饋加權(quán)累加信息D、將加權(quán)累加信息向后續(xù)相鄰神經(jīng)元傳遞【正確答案】:C30.YOLOv3在coco數(shù)據(jù)集上聚類了()個矛框?A、3B、9C、80D、nan【正確答案】:B解析:
見算法解析31.GoogLeNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度【正確答案】:A解析:
分布范圍小>較小的卷積核,小的感受野32.在強(qiáng)化學(xué)習(xí)的過程中,學(xué)習(xí)率α越大,表示采用新的嘗試得到的結(jié)果比例越(),保持舊的結(jié)果的比例越()。A、大B、小C、大D、大E、小F、小【正確答案】:A33.信息熵是度量樣本集合(___)最常用的一種指標(biāo)。A、精確度B、準(zhǔn)確率C、召回率D、純度【正確答案】:D解析:
見算法解析34.以下關(guān)于隨機(jī)森林算法的描述中錯誤的是A、可以處理高維度的屬性,并且不用做特征選擇B、隨機(jī)森林的預(yù)測能力不受多重共線性影響C、也擅長處理小數(shù)據(jù)集和低維數(shù)據(jù)集的分類問題D、能應(yīng)對正負(fù)樣本不平衡問題【正確答案】:C35.參數(shù)學(xué)習(xí)過程中若采用梯度下降法,應(yīng)如何計算梯度值()?A、wLB、?L/?wC、?w/?LD、w/L【正確答案】:B解析:
見算法解析36.關(guān)于GoogLeNet描述正確的有:A、GoogLeNet僅僅是在寬度上進(jìn)行了探索,所以它是一個很淺的網(wǎng)絡(luò)B、GoogLeNet在寬度上進(jìn)行了探索,為后人設(shè)計更加復(fù)雜的網(wǎng)絡(luò)打開了思路C、GoogLeNet使用了Inception結(jié)構(gòu),Inception結(jié)構(gòu)只有V1這一個版本D、GoogLeNet結(jié)合多種網(wǎng)絡(luò)設(shè)計結(jié)構(gòu)所以是到目前為止分類效果最好的網(wǎng)絡(luò)結(jié)構(gòu)【正確答案】:B解析:
VGG全部使用了3*3的卷積核和2*2的池化核37.對于圖像分類問題,以下哪個神經(jīng)網(wǎng)絡(luò)更適合解決這個問題?A、感知器B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)D、全連接神經(jīng)網(wǎng)絡(luò)【正確答案】:C38.在圖像智能處理中,圖像分類的目標(biāo)主要是要確定什么內(nèi)容?A、對象位置B、對象邊框C、對象類別D、對象背景【正確答案】:C39.數(shù)據(jù)標(biāo)注:宜支持()標(biāo)注,以模型來給未標(biāo)注數(shù)據(jù)進(jìn)行標(biāo)注。A、手工B、智能C、自動D、動態(tài)【正確答案】:B解析:
主要應(yīng)用40.對于一個圖像識別問題(在一張照片里找出一只貓),下面哪種神經(jīng)網(wǎng)絡(luò)可以更好地解決這個問題?A、循環(huán)神經(jīng)網(wǎng)絡(luò)B、感知機(jī)C、多層感知機(jī)D、卷積神經(jīng)網(wǎng)絡(luò)【正確答案】:D41.神經(jīng)網(wǎng)絡(luò)由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進(jìn)行處理后給出一個輸出。請問下列關(guān)于神經(jīng)元的描述中,哪一項是正確的?A、每個神經(jīng)元可以有一個輸入和一個輸出B、每個神經(jīng)元可以有多個輸入和一個輸出C、每個神經(jīng)元可以有多個輸入和多個輸出D、上述都正確【正確答案】:D解析:
軌跡跟蹤又稱為前輪反饋控制法(Frontwheelfeedback),核心在于基于前輪中心的路徑跟蹤偏差量對方向盤轉(zhuǎn)向控制量進(jìn)行計算。決策樹算法是一種逼近離散函數(shù)值的方法,它是一種典型的分類方法,首先對數(shù)據(jù)進(jìn)行處理,利用歸納算法生成可讀的規(guī)則和決策樹,然后使用決策對新數(shù)據(jù)進(jìn)行分析。數(shù)據(jù)挖掘是指從大量的數(shù)據(jù)中通過算法搜索隱藏于其中信息的過程。K近鄰算法,即是給定一個訓(xùn)練數(shù)據(jù)集,對新的輸入實例,在訓(xùn)練數(shù)據(jù)集中找到與該實例最鄰近的K個實例,這K個實例的多數(shù)屬于某個類,就把該輸入實例分類到這個類中。符合題意的為B項決策樹。答案選B42.下列哪些不是“子集搜索”中的搜索方式(___)A、單向搜索B、雙向搜索C、前向搜索D、后向搜索【正確答案】:A解析:
見算法解析43.智慧城市的應(yīng)用體系,不包括智慧()體系。A、物流B、制造%C、軍工D、公共服務(wù)【正確答案】:C44.量子機(jī)器學(xué)習(xí)能有效增強(qiáng)傳統(tǒng)機(jī)器學(xué)習(xí)算法的性能,量子比特可同時具有0、1及其()。A、非線性疊加態(tài)B、線性疊加態(tài)C、非線性暫態(tài)D、線性暫態(tài)【正確答案】:B解析:
”元宇宙主要有以下幾項核心技術(shù):
一是擴(kuò)展現(xiàn)實技術(shù),包括VR和AR。。
二是數(shù)字孿生,能夠把現(xiàn)實世界鏡像到虛擬世界里面去。
三是用區(qū)塊鏈來搭建經(jīng)濟(jì)體系。45.混淆矩陣中TP=16,FP=12,FN=8,TN=4,精確率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日【正確答案】:C解析:
根據(jù)準(zhǔn)確率計算公式可得。46.下列選項中,不屬于深度學(xué)習(xí)模型的是?A、線性回歸B、深度殘差網(wǎng)絡(luò)C、卷積神經(jīng)網(wǎng)絡(luò)CNND、循環(huán)神經(jīng)網(wǎng)絡(luò)RNN【正確答案】:A解析:
k-means是一種無監(jiān)督聚類方法。47.在自動駕駛中,AI需要不斷地通過路面信息來調(diào)整開車的決策,這種處理模式適合用()來訓(xùn)練出合理的策略。A、監(jiān)督學(xué)習(xí)B、非監(jiān)督學(xué)習(xí)C、強(qiáng)化學(xué)習(xí)D、弱化學(xué)習(xí)【正確答案】:C48.為了對某圖像中的目標(biāo)進(jìn)行分析和識別,一般需要對圖像進(jìn)行()處理。A、圖像加噪B、圖像采集C、圖像壓縮D、圖像分割【正確答案】:D解析:
以下算法中可以用于圖像平滑的是均值濾波;。49.關(guān)于級聯(lián)相關(guān)網(wǎng)絡(luò)描述錯誤的是(___)A、屬于結(jié)構(gòu)自適應(yīng)網(wǎng)絡(luò),網(wǎng)絡(luò)結(jié)構(gòu)也是其優(yōu)化目標(biāo);B、主要成分為級聯(lián)、相關(guān)、歸約;C、無需設(shè)置網(wǎng)絡(luò)層數(shù)、隱層神經(jīng)元數(shù)目;D、訓(xùn)練速度快,但數(shù)據(jù)較小時容易陷入過擬合;【正確答案】:B解析:
見算法解析50.ILP系統(tǒng)通常采用(___)的規(guī)則生成策略A、自底而上B、自頂而下C、自大而小D、自小而大【正確答案】:A解析:
見算法解析51.當(dāng)前人工智能算力持續(xù)突破,面向訓(xùn)練用和推斷用的芯片仍在快速推進(jìn),基于()的訓(xùn)練芯片持續(xù)增多。A、CPUB、GPUC、FPGAD、5G通訊【正確答案】:B52.下列哪項可以評價回歸模型?1.R方RSquared2.調(diào)整R方3.F統(tǒng)計量4.RMSE/MSE/MAEA、2和4B、1和2C、2,3和4D、以上所有【正確答案】:D53.計算機(jī)中存儲的圖像是()A、模擬圖像B、數(shù)字圖像C、黑白圖像D、彩色圖像【正確答案】:B54.下面關(guān)于隨機(jī)森林和集成學(xué)習(xí)的說法,正確的是()A、隨機(jī)森林只能用于解決分類問題B、集成學(xué)習(xí)通過構(gòu)建多個模型,并將各個模型的結(jié)果使用求平均數(shù)的方法集成起來,作為最終的預(yù)測結(jié)果,提高分類問題的準(zhǔn)確率C、隨機(jī)森林由隨機(jī)數(shù)量的決策樹組成D、隨機(jī)森林的弱分類器(基分類器)的特征選擇不是隨機(jī)的【正確答案】:B解析:
$BP網(wǎng)絡(luò)、多層感知器、LVQ網(wǎng)絡(luò)屬于前饋網(wǎng)絡(luò)55.下列關(guān)于核函數(shù)的表述正確的是A、核函數(shù)即特征的映射關(guān)系B、多項式核函數(shù)只是將原始特征映射,并沒有升維C、高斯核函數(shù)將特征映射到無窮維D、使用線性核函數(shù)的SVM是非線性分類器【正確答案】:C解析:
只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至不一定優(yōu)于隨機(jī)算法56.語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點(diǎn)知識的A、無悖性B、可擴(kuò)充性C、繼承性D、連貫性【正確答案】:C解析:
從全稱判斷推導(dǎo)出特稱判斷或單稱判斷的過程,即由一般性知識推出適合于某一具體情況的結(jié)論的推理是演繹推理57.()年,人工智能首入中國政府工作報告意味著其已經(jīng)上升至國家戰(zhàn)略高度。A、2017B、2018C、2019D、$2,020【正確答案】:A解析:
隨著深度學(xué)習(xí)在計算機(jī)視覺、語音識別以及自然語言處理領(lǐng)域取得的成功,近幾年來,無論是在消費(fèi)者端還是在企業(yè)端,已經(jīng)有許多依賴人工智能技術(shù)的應(yīng)用臻于成熟,并開始滲透到我們生活的方方面面58.在CNN中,梯度下降法的作用是()。A、線性變換B、非線性變換C、求函數(shù)最小值D、加速訓(xùn)練【正確答案】:C解析:
hidden不是激活函數(shù)。59.能夠提取出圖片邊緣特征的網(wǎng)絡(luò)是()。A、卷積層B、池化層C、全連接層D、輸出層【正確答案】:A60.對于一個分類任務(wù),如果開始時神經(jīng)網(wǎng)絡(luò)的權(quán)重不是隨機(jī)賦值的,而是都設(shè)成0,下面哪個敘述是正確的?A、其他選項都不對B、沒啥問題,神經(jīng)網(wǎng)絡(luò)會正常開始訓(xùn)練C、神經(jīng)網(wǎng)絡(luò)可以訓(xùn)練,但是所有的神經(jīng)元最后都會變成識別同樣的東西D、神經(jīng)網(wǎng)絡(luò)不會開始訓(xùn)練,因為沒有梯度改變【正確答案】:C61.ResNet從角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)?A、增加網(wǎng)絡(luò)寬度B、輕量化網(wǎng)絡(luò)模型C、改善網(wǎng)絡(luò)退化現(xiàn)象D、增加網(wǎng)絡(luò)深度【正確答案】:C解析:
GoogLeNet從增加網(wǎng)絡(luò)寬度角度改進(jìn)了之前的圖像分類網(wǎng)絡(luò)62.混淆矩陣中TP=16,FP=12,FN=8,TN=4,準(zhǔn)確率是()。A、1212122022年1月4日B、1212122022年1月2日C、1212122022年4月7日D、1212122022年2月3日【正確答案】:B解析:
蒙特卡羅強(qiáng)化學(xué)習(xí)是在一個完整的采樣軌跡完成后再對所有的狀態(tài)-動作對進(jìn)行更新,屬于“批處理式”63.ROIPooling存在幾次取整過程?A、1B、2C、3D、nan【正確答案】:B解析:
見算法解析64.下列神經(jīng)網(wǎng)絡(luò)特點(diǎn)描述錯誤的是(___)A、適應(yīng)性B、由簡單單元組成C、廣泛并行互連的網(wǎng)絡(luò)D、線性特性【正確答案】:D解析:
見算法解析65.人工智能平臺應(yīng)提供主要網(wǎng)絡(luò)設(shè)備、通信線路和()系統(tǒng)的硬件冗余,保證高可用性,在無不可抗力環(huán)境下應(yīng)滿足7×24小時服務(wù)不中斷。A、數(shù)據(jù)庫B、主機(jī)C、電源D、集群【正確答案】:D解析:
主要應(yīng)用66.人工智能平臺應(yīng)提供模型推送功能,可通過云邊協(xié)同套件推送至()設(shè)備。A、中間B、核心C、邊側(cè)D、側(cè)邊【正確答案】:C解析:
主要應(yīng)用67.根據(jù)個體學(xué)習(xí)器的生成方式,目前集成學(xué)習(xí)大致分為兩類,其中一種是個體學(xué)習(xí)器間存在強(qiáng)依賴關(guān)系、必須串行生成的序列化方法,該方法的代表是()A、BoostingBaggingC、隨機(jī)森林D、reboot【正確答案】:A解析:
在主成分分析中,將幾個主分量經(jīng)過線性組合構(gòu)造為一個綜合評價函數(shù)時,每個主分量的權(quán)數(shù)為每個主分量的方差貢獻(xiàn)率。68.Transformer中拋棄了傳統(tǒng)的CNN和RNN,整個網(wǎng)絡(luò)結(jié)構(gòu)完全是由()機(jī)制組成。ActionB、AttentionC、TransformationD、Information【正確答案】:B解析:
在RNN中,目前使用最廣泛的模型便是LSTM模型,該模型能夠更好地建模長序列。69.圖像處理中無損壓縮的目的是()A、濾除圖像中的不相干信號B、濾除圖像中的高頻信號C、濾除圖形中的低頻信號D、濾除圖像中的冗余信號【正確答案】:D解析:
每一棵決策樹擬合的是之前迭代得到的模型的殘差70.在下列哪些應(yīng)用中,我們可以使用深度學(xué)習(xí)來解決問題?A、蛋白質(zhì)結(jié)構(gòu)預(yù)測B、化學(xué)反應(yīng)的預(yù)測C、外來粒子的檢測D、所有這些【正確答案】:D71.感知機(jī)描述錯誤的是:(___)A、感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;B、輸入層接收外界輸入信號傳遞給輸出層;C、輸出層是M-P神經(jīng)元;D、感知機(jī)能容易實現(xiàn)邏輯與、或、非運(yùn)算;【正確答案】:A解析:
見算法解析72.機(jī)器學(xué)習(xí)的核心任務(wù)是在新的、未知的數(shù)據(jù)中執(zhí)行得好。而這種在未知數(shù)據(jù)中執(zhí)行的能力,稱為A、泛化能力B、過擬合C、欠擬合D、正則化【正確答案】:A73.批量梯度下降,小批量梯度下降,隨機(jī)梯度下降最重要的區(qū)別在哪里?A、梯度大小B、梯度方向C、學(xué)習(xí)率D、使用樣本數(shù)【正確答案】:D74.下列____不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。A、與同一時期其他數(shù)據(jù)對比B、可視化C、基于模板的方法D、主觀興趣度量【正確答案】:A75.線性判別分析設(shè)法將樣例投影到(___)直線上,使得同類樣例的投影點(diǎn)盡可能(___)。A、一條;接近B、兩條;接近C、一條;遠(yuǎn)離D、兩條;原理【正確答案】:A解析:
見算法解析76.假定你已經(jīng)搜集了10000行推特文本的數(shù)據(jù),不過沒有任何信息。現(xiàn)在你想要創(chuàng)建一個推特分類模型,好把每條推特分為三類:積極、消極、中性。以下哪個模型可以執(zhí)行做到?()A、樸素貝葉斯B、支持向量機(jī)C、以上都不是D、nan【正確答案】:C77.下列哪個包不是用于處理圖像的?()A、ScipyB、skimageC、opencvD、gensim【正確答案】:D解析:
YOLOv1沒有使用Anchorbox78.雖然機(jī)器學(xué)習(xí)在許多任務(wù)中取得了巨大的成功,但由于缺乏(),其表現(xiàn)和應(yīng)用備受質(zhì)疑,嚴(yán)重阻礙了機(jī)器學(xué)習(xí)在各個領(lǐng)域尤其是安全敏感領(lǐng)域的廣泛落地。A、可分析性B、可復(fù)現(xiàn)性C、可解釋性D、可重構(gòu)性【正確答案】:C解析:
人工智能芯片將向通用人工智能芯片發(fā)展,智能傳感器將朝集成化方向推進(jìn)。79.剪枝分為前剪枝和后剪枝,前剪枝本質(zhì)就是早停止,后剪枝通常是通過衡量剪枝后()變化來決定是否剪枝。A、信息增益B、損失函數(shù)C、準(zhǔn)確率D、召回率【正確答案】:B解析:
C4.5在分類過程中使用的信息增益率80.在多通道卷積過程中,要生成n個featuremaps,需要()個卷積核立方體。A、n-2B、n^2C、[n/2]注[x]表示對x取整D、n【正確答案】:D解析:
見算法解析81.模型有效的基本條件是能夠()已知的樣本A、結(jié)合B、擬合C、聯(lián)合D、聚集【正確答案】:B解析:
批量歸一化對隱含層的輸入進(jìn)行歸一化,更好的尺度不變性(應(yīng)對內(nèi)部協(xié)變量偏移),更好的優(yōu)化地形(輸入處于不飽和區(qū)域,從而讓梯度變大)82.下列那種模型可以被用于文本相似度(documentsimilarity)問題?()A、在語料中訓(xùn)練一個由詞到向量(word2vector)的模型來對文本中呈現(xiàn)的上下文語境進(jìn)行學(xué)習(xí)B、訓(xùn)練一個詞包模型(abagofwordsmodel)來對文本中的詞的發(fā)生率(occurrence)進(jìn)行學(xué)習(xí)C、創(chuàng)建一個文獻(xiàn)檢索詞矩陣(document-termmatrix)并且對每一個文本應(yīng)用余弦相似性D、上述所有方法均可【正確答案】:D83.半監(jiān)督學(xué)習(xí)包括。A、主動學(xué)習(xí)B、回歸學(xué)習(xí)C、聚類學(xué)習(xí)D、直推學(xué)習(xí)【正確答案】:D解析:
見算法解析84.在其他條件不變的前提下,以下哪種做法容易引起機(jī)器學(xué)習(xí)中的過擬合問題()A、增加訓(xùn)練集量B、減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C、刪除稀疏的特征D、SVM算法中使用高斯核/RBF核代替線性核【正確答案】:D解析:
Bert主要用于自然語言處理的網(wǎng)絡(luò)結(jié)構(gòu)85.下面不是超參數(shù)的是:A、權(quán)重和偏置B、學(xué)習(xí)率C、mini-batch的大小D、網(wǎng)絡(luò)結(jié)構(gòu)【正確答案】:A解析:
深度學(xué)習(xí)系統(tǒng)訓(xùn)練過程通常需要輸入特征值和標(biāo)簽86.在人臉檢測中,不屬于該算法難點(diǎn)的是A、出現(xiàn)人臉遮擋B、人臉角度變化大C、需要檢測分辨率很小的人臉D、需要檢測不同性別的人臉【正確答案】:D87.語音是一種典型的()數(shù)據(jù)。A、無結(jié)構(gòu)無序列B、有結(jié)構(gòu)序列C、無結(jié)構(gòu)序列D、有結(jié)構(gòu)無序列【正確答案】:C解析:
循環(huán)神經(jīng)網(wǎng)最常常遇到的問題是:①.梯度消失②.詞語依賴位置較遠(yuǎn)③.梯度爆炸88.對于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是A、軟間隔B、硬間隔C、核函數(shù)D、以上選項均不正確【正確答案】:C89.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是()A、CNNB、LSTMC、GRUD、RNN【正確答案】:D解析:
數(shù)據(jù)預(yù)處理的主要步驟分為:數(shù)據(jù)清理、數(shù)據(jù)集成、數(shù)據(jù)規(guī)約和數(shù)據(jù)變換。90.在ε-greedy策略當(dāng)中,ε的值越大,表示采用隨機(jī)的一個動作的概率越(),采用當(dāng)前Q函數(shù)值最大的動作的概率越()。A、大B、小C、大D、大E、小F、小【正確答案】:A91.()技術(shù)助力人工智能數(shù)據(jù)安全可信地進(jìn)行協(xié)作。A、量子計算B、隱私計算C、數(shù)字孿生D、數(shù)據(jù)加密【正確答案】:B解析:
人工智能系統(tǒng)穩(wěn)定性技術(shù)重點(diǎn)逐步從數(shù)字域擴(kuò)展到物理域。92.一對一分類器,k個類別需要多少個SVM?A、k(k-1)/2B、k(k-1)C、k(k-2)D、(k-1)(k-2)【正確答案】:A解析:
根據(jù)F1計算公式可得。93.以下兩種描述分別對應(yīng)哪兩種對分類算法的評價標(biāo)準(zhǔn)?(1)警察抓小偷,描述警察抓的人中有多少個是小偷的標(biāo)準(zhǔn)。A、精確率B、召回率C、ROCD、AUC【正確答案】:A94.全局梯度下降算法、隨機(jī)梯度下降算法和批量梯度下降算法均屬于梯度下降算法,以下關(guān)于其有優(yōu)缺點(diǎn)說法錯誤的是:A、全局梯度算法可以找到損失函數(shù)的最小值B、批量梯度算法可以解決局部最小值問題C、隨機(jī)梯度算法可以找到損失函數(shù)的最小值D、全局梯度算法收斂過程比較耗時【正確答案】:C95.檢索的()和基于反事實學(xué)習(xí)的檢索和推薦模型已經(jīng)成為信息檢索領(lǐng)域重要的研究方向A、公平性B、真實性C、快速性D、準(zhǔn)確性【正確答案】:A解析:
康內(nèi)爾大學(xué)發(fā)表了公平無偏的排序?qū)W習(xí)模型FairCO,可緩解檢索排序馬太效應(yīng)的問題96.數(shù)字圖像處理中的()技術(shù)可應(yīng)用于機(jī)動車車牌識別系統(tǒng)。A、圖像變換B、圖像增強(qiáng)C、圖像分割D、圖像復(fù)原【正確答案】:C解析:
為了對某圖像中的目標(biāo)進(jìn)行分析和識別,一般需要對圖像進(jìn)行圖像分割處理。97.SIFT特征是基于物體上的一些局部外觀的興趣點(diǎn)而與影像的()無關(guān)。A、大小和旋轉(zhuǎn)B、大小C、旋轉(zhuǎn)D、縮放【正確答案】:A解析:
機(jī)器執(zhí)行學(xué)習(xí)的框架體現(xiàn)了其學(xué)習(xí)的本質(zhì)是參數(shù)估計98.線性回歸在3維以上的維度中擬合面是?A、曲面B、平面C、超平面D、超曲面【正確答案】:C99.隨機(jī)森林是一種集成學(xué)習(xí)算法,是()算法的具體實現(xiàn)。A、BoostingBaggingC、StackingDropping【正確答案】:B解析:
Adaboost就是從弱分類器出發(fā)反復(fù)訓(xùn)練,在其中不斷調(diào)整數(shù)據(jù)權(quán)重或者是概率分布。100.在圖靈測試中,如果有超過()的測試者不能分清屏幕后的對話者是人還是機(jī)器,就可以說這臺計算機(jī)通過了測試并具備人工智能A、30%B、0.4C、0.5D、$0.60【正確答案】:A101.深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)訓(xùn)練時需要大量的矩陣計算,一般我們需要配用硬件讓計算機(jī)具備并行計算的能力,以下硬件設(shè)備可提供并行計算能力的是:A、主板B、內(nèi)存條C、GPUD、CPU【正確答案】:C102.如果問題存在最優(yōu)解,則下面幾種搜索算法中,()必然可以得到該最優(yōu)解。A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:A解析:
在監(jiān)督學(xué)習(xí)中,預(yù)測變量離散,稱為分類,預(yù)測變量連續(xù),稱為回歸,兩者本質(zhì)一樣,都是對輸入做預(yù)測,不過分類輸出的是物體所屬的類別,回歸輸出的是物體的值。答案選D103.DSSM模型的結(jié)構(gòu)是什么?A、線性B、雙塔C、三塔D、非線性【正確答案】:B解析:
DSSM經(jīng)典模型的缺點(diǎn):1.Wordhashing可能造成詞語沖突;2.采用詞袋模型,損失了上下文語序信息;3.搜索引擎的排序由多種因素決定,用戶點(diǎn)擊時doc排名越靠前越容易被點(diǎn)擊,僅用點(diǎn)擊來判斷正負(fù)樣本,產(chǎn)生的噪聲較大,模型難以收斂;4.效果不可控。104.半監(jiān)督支持向量機(jī)中最著名的是TSVM(TransductiveSupportVectorMachine)。與標(biāo)準(zhǔn)SVM一樣,TSVM也是針對(___)問題的學(xué)習(xí)方法?A、分類B、回歸C、聚類D、二分類【正確答案】:D解析:
見算法解析105.下列哪個不屬于特征的類型(___)A、關(guān)鍵特征B、冗余特征C、相關(guān)特征D、無關(guān)特征【正確答案】:A解析:
見算法解析106.輸入圖片大小為200×200,依次經(jīng)過一層卷積(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一層卷積(kernelsize3×3,padding1,stride1)之后,輸出特征圖大小為A、95B、96C、97D、$98【正確答案】:C107.產(chǎn)生式系統(tǒng)的推理不包括A、正向推理B、逆向推理C、雙向推理D、簡單推理【正確答案】:D解析:
語義網(wǎng)絡(luò)表達(dá)知識時,有向弧AKO鏈、ISA鏈?zhǔn)怯脕肀磉_(dá)節(jié)點(diǎn)知識的繼承性108.機(jī)器翻譯屬于下列哪個領(lǐng)域的應(yīng)用?A、自然語言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專家系統(tǒng)D、人類感官模擬【正確答案】:A解析:
人工智能應(yīng)用包括人工神經(jīng)網(wǎng)絡(luò)、自然語言學(xué)習(xí)、專家系統(tǒng)等,自動控制如工業(yè)自動化控制屬于PLC技術(shù)完成,不屬于人工智能范疇。答案選B109.(
)是一種基于樹結(jié)構(gòu)進(jìn)行決策的算法。A、軌跡跟蹤B、決策樹C、數(shù)據(jù)挖掘D、K近鄰算法【正確答案】:B解析:
召回率=TP/TP+FN
查準(zhǔn)率=TP/TP+FP
所以當(dāng)概率閾值增加時,TP、FP減少或者持平,TP+FN不變,所以召回率不會增加,一般情況,用不同的閥值,統(tǒng)計出一組不同閥值下的精確率和召回率。110.當(dāng)不知道數(shù)據(jù)所帶標(biāo)簽時,可以使用哪種技術(shù)促使帶同類標(biāo)簽的數(shù)據(jù)與帶其他標(biāo)簽的數(shù)據(jù)相分離?A、分類B、聚類C、關(guān)聯(lián)分析D、隱馬爾可夫鏈【正確答案】:B解析:
數(shù)據(jù)預(yù)處理工作中的幾個關(guān)鍵主題探討:聚集、抽樣、降維、離散化、變量變換等111.我國人工智能三步走戰(zhàn)略,第三步到2030年人工智能理論、技術(shù)與應(yīng)用總體達(dá)到世界領(lǐng)先水平,成為世界主要人工智能創(chuàng)新中心。A、到2035年B、到2030年C、到2025年D、到2020年【正確答案】:B解析:
我國人工智能三步走戰(zhàn)略,第二步到2025年人工智能基礎(chǔ)理論實現(xiàn)重大突破,部分技術(shù)與應(yīng)用達(dá)到世界領(lǐng)先水平112.ROIPooling在那個模型中被第一次提出()A、fast-rcnnB、faster-rcnnC、mask-rcnnD、rcnn【正確答案】:A解析:
見算法解析113.卷積的擴(kuò)展方式是加():一個卷積核可以提取圖像的一種特征,多個卷積核提取多種特征。A、濾波器B、卷積層C、卷積核D、通道【正確答案】:C解析:
見算法解析114.()是對信息進(jìn)行計量和記錄之后形成的文字、語音、圖形、圖像、動畫、視頻、多媒體、富媒體等多種形式的記錄A、信息B、數(shù)據(jù)C、知識D、智慧【正確答案】:B115.DSSM經(jīng)典模型的優(yōu)點(diǎn);1.解決了字典爆炸問題,降低了計算復(fù)雜度;2.中文方面使用字作為最細(xì)切分粒度,可以復(fù)用每個字表達(dá)的詞義,減少分詞的依賴,從而提高模型的泛化能力;3.字母的n-gram可以更好的處理新詞,具有較強(qiáng)的魯棒性;4.使用有監(jiān)督的方法,優(yōu)化語義embedding的映射問題;5.省去了人工特征工程;6.采用有監(jiān)督訓(xùn)練,精度較高。A、B、C、.5.6D、3.4.6【正確答案】:C解析:
LSTM是一個非常經(jīng)典的面向序列的模型,可以對自然語言句子或是其他時序信號進(jìn)行建模,是一種循環(huán)神經(jīng)網(wǎng)絡(luò)。116.以下哪項是主要用于自然語言處理的網(wǎng)絡(luò)結(jié)構(gòu)()AlexNetB、ResNetC、BertD、LeNet【正確答案】:C解析:
線性回歸基本假設(shè)包括隨機(jī)干擾項是均值為0的同方差正態(tài)分布117.用Tensorflow處理圖像識別任務(wù)時,若輸入數(shù)據(jù)的形狀為[64,224,224,3],下面說法正確的是()A、每一張圖片都是二值圖片B、每一張圖片都是三通道圖片C、模型一次處理224張圖片(batchsize為224)D、以上選項均不正確【正確答案】:B解析:
根據(jù)已知模式在數(shù)據(jù)集中尋找相似模式屬于數(shù)據(jù)挖掘中的內(nèi)容檢索任務(wù)。118.下列哪一個不是神經(jīng)網(wǎng)絡(luò)的代表A、卷積神經(jīng)網(wǎng)絡(luò)B、遞歸神經(jīng)網(wǎng)絡(luò)C、殘差網(wǎng)絡(luò)D、xgboost算法【正確答案】:D解析:
A、防止模型過擬合而加在損失函數(shù)后面的一項;B、L1范數(shù)符合拉普拉斯分布,是不完全可微的;C、L2正則化項是模型各個參數(shù)的平方和的開方值。119.常見的使用深度學(xué)習(xí)解決的計算機(jī)視覺任務(wù)有:①.圖像分類②.目標(biāo)檢測③.語義分割/實例分割④.場景文字識別A、①③④B、①②③④C、①③④D、①②④【正確答案】:B解析:
Bi-LSTM屬于循環(huán)神經(jīng)網(wǎng)絡(luò)120.協(xié)同訓(xùn)練(co-training)是針對(___)數(shù)據(jù)設(shè)計?A、多角度B、多視圖C、多環(huán)境D、多版本【正確答案】:B解析:
見算法解析121.EM算法通過迭代求L(theta)=logP(Y|theta)的(),每次迭代交替進(jìn)行求期望和求極大化。A、無偏估計B、極大似然估計C、區(qū)間估計D、有偏估計【正確答案】:B解析:
在分類學(xué)習(xí)中,提升方法通過反復(fù)修改訓(xùn)練數(shù)據(jù)的權(quán)值分布,構(gòu)建一系列基本分類器并將它們線性組合,形成一個強(qiáng)分類器。122.工程實踐能力日益成為釋放人工智能技術(shù)紅利的重要支撐,人工智能研發(fā)管理體系日益完善,以()為代表的自動運(yùn)維技術(shù)收到越來越多的關(guān)注,“小作坊、項目制”的賦能方式正在成為歷史,未來將會更加便捷、高效地實現(xiàn)人工智能落地應(yīng)用和產(chǎn)品交付。A、CaffeB、TensorFlowC、MLOpsD、PaddlePaddle【正確答案】:C123.下列人工神經(jīng)網(wǎng)絡(luò)屬于反饋網(wǎng)絡(luò)的是()A、Hopfield網(wǎng)BP網(wǎng)絡(luò)C、多層感知器D、LVQ網(wǎng)絡(luò)【正確答案】:A解析:
可以將變量名為var的tensor放在GPU上運(yùn)行的代碼是var=var.cuda()、var=var.to("cuda:0")124.以下不屬于現(xiàn)階段知識圖譜技術(shù)類別的是()。A、構(gòu)建技術(shù)B、展示技術(shù)C、推理技術(shù)D、應(yīng)用技術(shù)【正確答案】:B125.代碼arr3=np.array([[1,2,3],[4,5,6]]).transpose();print(arr3[1,1])的輸出結(jié)果是()?A、5B、4C、3D、$2【正確答案】:A解析:
見算法解析126.關(guān)于SMO神經(jīng)網(wǎng)絡(luò)描述錯誤的是(___)A、一種競爭學(xué)習(xí)型的無監(jiān)督神經(jīng)網(wǎng)絡(luò);B、將高維輸入數(shù)據(jù)映射到低維空間,保持輸入數(shù)據(jù)在高維空間的拓?fù)浣Y(jié)構(gòu);C、SMO尋優(yōu)目標(biāo)為每個輸出神經(jīng)元找到合適的權(quán)重;D、輸出層神經(jīng)元以矩陣方式排列在二維空間;【正確答案】:C解析:
見算法解析127.如何選取合適的卷積核大???A、分布范圍廣>較小的卷積核,大的感受野B、分布范圍小>較小的卷積核,小的感受野C、分布范圍小>較大的卷積核,小的感受野D、分布范圍大>較小的卷積核,小的感受野【正確答案】:B解析:
VGG模型于2014年被提出,是最流行的CNN模型之一,在ImageNet比賽中,達(dá)到了Top5錯誤率7.3%。128.下列屬于基于統(tǒng)計的自然語言處理進(jìn)路的是()。A、基于中間語的翻譯B、基于深層語法的翻譯C、基于淺層語法的翻譯D、基于貝葉斯公式【正確答案】:D129.類腦計算系統(tǒng)從“()”向“()”逐步演進(jìn)A、專業(yè)、通用B、靜態(tài)、動態(tài)C、單一、多樣D、簡單、復(fù)雜【正確答案】:A解析:
機(jī)器學(xué)習(xí)在向分布式隱私保護(hù)方向演進(jìn)。130.彩色圖像中,每個像素點(diǎn)通常采用()表示色彩值A(chǔ)、一個值B、二個值C、三個值D、四個值【正確答案】:C解析:
在分類、跟蹤、檢測等高等級計算機(jī)視覺任務(wù)中,Dropout操作被廣泛用于降低模型在訓(xùn)練集上過擬合的風(fēng)險131.模型出現(xiàn)過擬合,以下何種措施無法降低過擬合現(xiàn)象A、添加正則化項B、降低模型復(fù)雜度C、減少訓(xùn)練數(shù)據(jù)量D、使用Dropout【正確答案】:C解析:
BineryCrossEntropy可作為二分類問題的loss函數(shù)132.欠擬合通常是由于(___)而造成的。A、權(quán)值學(xué)習(xí)迭代次數(shù)足夠多B、學(xué)習(xí)能力低下C、訓(xùn)練集過多模型復(fù)雜D、數(shù)據(jù)有噪聲【正確答案】:B解析:
見算法解析133.下面哪項操作能實現(xiàn)跟神經(jīng)網(wǎng)絡(luò)中Dropout的類似效果?A、BoostingBaggingC、StackingD、Mapping【正確答案】:B134.L1和L2正則化是傳統(tǒng)機(jī)器學(xué)習(xí)常用來減少泛化誤差的方法,以下關(guān)于兩者的說法正確的是:A、L1正則化可以做特征選擇B、L1和L2正則化均可做特征選擇C、L2正則化可以做特征選擇D、L1和L2正則化均不可做特征選擇【正確答案】:A135.為了增強(qiáng)網(wǎng)絡(luò)的表達(dá)能力,我們需要()來將線性函數(shù)轉(zhuǎn)換為非線性函數(shù)。A、損失函數(shù)B、指數(shù)函數(shù)C、三角函數(shù)D、激活函數(shù)【正確答案】:D解析:
見算法解析136.建立一個模型,通過這個模型根據(jù)已知的變量值來預(yù)測其他某個變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)?A、根據(jù)內(nèi)容檢索B、建模描述C、預(yù)測建模D、尋找模式和規(guī)則【正確答案】:C解析:
自動程序設(shè)計,是采用自動化手段進(jìn)行程序設(shè)計的技術(shù)和過程。奴設(shè)計自然語言理解,答案選C137.主成分分析法是通過變量變換的方法把相關(guān)的變量變?yōu)槿舾桑ǎ┑淖兞俊?。A、相聯(lián)系B、相互矛盾C、不相關(guān)D、相等【正確答案】:C解析:
正則化是為防止過擬合
138.在一個神經(jīng)網(wǎng)絡(luò)中,知道每一個神經(jīng)元的權(quán)重和偏差是最重要的一步。如果知道了神經(jīng)元準(zhǔn)確的權(quán)重和偏差,便可以近似任何函數(shù),但怎么獲知每個神經(jīng)的權(quán)重和偏移呢?A、搜索每個可能的權(quán)重和偏差組合,直到得到最佳值B、賦予一個初始值,然后檢查跟最佳值的差值,不斷迭代調(diào)整權(quán)重C、隨機(jī)賦值,聽天由命D、以上都不正確的【正確答案】:B139.下列關(guān)于深度學(xué)習(xí)說法錯誤的是A、LSTM在一定程度上解決了傳統(tǒng)RNN梯度消失或梯度爆炸的問題B、CNN相比于全連接的優(yōu)勢之一是模型復(fù)雜度低,緩解過擬合C、只要參數(shù)設(shè)置合理,深度學(xué)習(xí)的效果至少應(yīng)優(yōu)于隨機(jī)算法D、隨機(jī)梯度下降法可以緩解網(wǎng)絡(luò)訓(xùn)練過程中陷入鞍點(diǎn)的問題【正確答案】:C解析:
相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)通常會取得更好效果140.在RNN中,目前使用最廣泛的模型便是()模型,該模型能夠更好地建模長序列。A、SLTMB、SLMTC、LSMTD、LSTM【正確答案】:D解析:
SIFT特征是基于物體上的一些局部外觀的興趣點(diǎn)而與影像的大小和旋轉(zhuǎn)無關(guān)。141.機(jī)器感知研究如何用機(jī)器或計算機(jī)模擬,延伸和擴(kuò)展()的感知或認(rèn)知能力。A、機(jī)器B、機(jī)器人C、計算機(jī)D、人【正確答案】:D142.我們在訓(xùn)練神經(jīng)網(wǎng)絡(luò)過程中,使用梯度下降法不斷更新哪種數(shù)值,進(jìn)而使得損失函數(shù)最小化?A、樣本數(shù)目B、特征值C、超參數(shù)D、參數(shù)【正確答案】:D143.關(guān)于遞歸函數(shù)基例的說明,以下選項中錯誤的是A、遞歸函數(shù)必須有基例B、遞歸函數(shù)的基例不再進(jìn)行遞歸C、每個遞歸函數(shù)都只能有一個基例D、遞歸函數(shù)的基例決定遞歸的深度【正確答案】:C144.關(guān)于Boosting,Bagging和隨機(jī)森林,以下說法錯誤的是(___)A、從偏差-方差分解的角度看,Boosting主要關(guān)注降低偏差B、從偏差-方差分解的角度看,Bagging主要關(guān)注降低方差C、隨機(jī)森林簡單、容易實現(xiàn)、計算開銷小D、Boosting不能基于泛化性能相當(dāng)弱的學(xué)習(xí)器構(gòu)建出很強(qiáng)的集成【正確答案】:D解析:
見算法解析145.常見的圖像預(yù)處理方法不包括(____)。A、圖像降噪B、圖像增強(qiáng)C、圖像尺寸歸一化D、圖像標(biāo)注【正確答案】:D解析:
將一副圖像進(jìn)行分割后,分割出的區(qū)域彼此之間不可以重疊。146.損失函數(shù)反映了神經(jīng)網(wǎng)絡(luò)的目標(biāo)輸出和實際輸出的誤差,在深度學(xué)習(xí)中常用的損失函數(shù)是:A、指數(shù)損失函數(shù)B、均方損失函數(shù)C、對數(shù)損失函數(shù)D、Hinge損失函數(shù)【正確答案】:B147.如果強(qiáng)行限制輸出層的分布是標(biāo)準(zhǔn)化的,可能會導(dǎo)致某些特征模式的丟失,所以在標(biāo)準(zhǔn)化之后,BatchNorm會緊接著對數(shù)據(jù)做縮放和()A、平移B、刪除C、移動D、收斂【正確答案】:A解析:
池化是使用某一位置的相鄰輸出的總體統(tǒng)計特征來代替網(wǎng)絡(luò)在該位置的輸出148.邏輯回歸的損失函數(shù)是下列哪一種?()A、平方損失函數(shù)B、對數(shù)損失函數(shù)C、HingeLoss0-1損失函數(shù)D、絕對值損失函數(shù)【正確答案】:B149.決策樹所形成的分類邊界有一個明顯特點(diǎn),它的分類邊界由若干個(___)分段組成。A、與坐標(biāo)軸平行B、與坐標(biāo)軸垂直C、與坐標(biāo)軸重合D、過坐標(biāo)原點(diǎn)【正確答案】:A解析:
見算法解析150.()曲線以precision、recall為橫縱坐標(biāo)AP曲線B、PR曲線C、mAP曲線D、RoI曲線【正確答案】:B解析:
見算法解析151.在語音識別中,按照從微觀到宏觀的順序排列正確的是()。A、幀-狀態(tài)-音素-單詞B、幀-音素-狀態(tài)-單詞C、音素-幀-狀態(tài)-單詞D、幀-音素-單詞-狀態(tài)【正確答案】:A152.算法性能顯著不同時,需要進(jìn)行(___)來進(jìn)一步區(qū)分各算法。A、后續(xù)檢驗B、Friedman檢驗C、交叉驗證t檢驗D、McNemar檢驗【正確答案】:A解析:
見算法解析153.()城市大腦目前已在杭州、蘇州、上海、衢州、澳門、馬來西亞等城市和國家落地,覆蓋交通、平安、市政建設(shè)、城市規(guī)劃等領(lǐng)域,是目前全球最大規(guī)模的人工智能公共系統(tǒng)之一。A、浪潮云B、華為云C、阿里云D、海爾云【正確答案】:C解析:
語音是一種典型的無結(jié)構(gòu)序列數(shù)據(jù)。154.DilatedConvolution意思是?A、空洞卷積B、黑洞卷積C、細(xì)節(jié)卷積D、返向卷積【正確答案】:A解析:
見算法解析155.元宇宙(Metaverse)一詞最早出現(xiàn)在()小說中。A、雪崩B、真名實姓C、深淵上的火D、天淵【正確答案】:A156.在國內(nèi)計算機(jī)視覺領(lǐng)域,(
)和人臉識別是主要研究方向。A、靜態(tài)圖像識別B、動態(tài)圖像識別C、動靜態(tài)圖像識別D、全身識別【正確答案】:C解析:
因為RNN的權(quán)重存在累乘效應(yīng),如果使用dropout的話,會破壞RNN的學(xué)習(xí)過程。157.下列哪個應(yīng)用領(lǐng)域不屬于人工智能應(yīng)用?A、人工神經(jīng)網(wǎng)絡(luò)B、自動控制C、自然語言學(xué)習(xí)D、專家系統(tǒng)【正確答案】:B解析:
生物特征識別技術(shù),是指通過計算機(jī)利用人體所固有的生理特征(指紋、虹膜、面相、DNA等)或行為特征(步態(tài)、擊鍵習(xí)慣等)來進(jìn)行個人身份鑒定的技術(shù)。步態(tài)識別、人臉識別、虹膜識別運(yùn)用的都是生物特征,文本識別不屬于生物特征識別。答案選C158.生物特征識別技術(shù)不包括(
)。A、體感交互B、指紋識別C、人臉識別D、虹膜識別【正確答案】:A解析:
弱人工智能是指不能制造出真正地推理和解決問題的智能機(jī)器,這些機(jī)器只不過看起來像是智能的,但是并不真正擁有智能,也不會有自主意識。認(rèn)知智能是指機(jī)器具有主動思考和理解的能力,不用人類事先編程就可以實現(xiàn)自我學(xué)習(xí),有目的推理并與人類自然交互。人類有語言,才有概念、推理,所以概念、意識、觀念等都是人類認(rèn)知智能的表現(xiàn),機(jī)器實現(xiàn)以上能力還有漫長的路需要探索。答案選D。159.xgboost在代價函數(shù)里加入了(),用于控制模型的復(fù)雜度A、正則項B、非線性C、激活函數(shù)D、特征變換【正確答案】:A解析:
主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過線性變換將向量投影到低維空間。160.fasterRCNN用于生成候選框proposal的模塊名稱()A、RPNB、CNNC、ResNetD、RoIpooling【正確答案】:A解析:
mAP表示算法處理每張照片時間。161.在處理序列數(shù)據(jù)時,較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是A、CNNB、LSTMC、GRUD、RNN【正確答案】:D解析:
集成方法分類為:Bagging(并行訓(xùn)練):隨機(jī)森林,Boosting(串行訓(xùn)練):Adaboost,GBDT:XgBoost,Stacking,Blending162.Iou表示的是()A、兩個框之間的重疊程度B、兩個框的總面積C、兩個框的相對大小D、一個框面積與周長比值【正確答案】:A解析:
見算法解析163.下面對梯度下降方法描述不正確的是A、梯度下降算法是一種使得損失函數(shù)最小化的方法B、梯度反方向是函數(shù)值下降最快方向C、梯度方向是函數(shù)值下降最快方向D、梯度下降算法用來優(yōu)化深度學(xué)習(xí)模型的參數(shù)【正確答案】:C164.測試集應(yīng)盡可能與訓(xùn)練集(___)。A、相容B、相等C、互斥D、包含【正確答案】:C解析:
見算法解析165.圖像識別任務(wù)可以分為三個層次,根據(jù)處理內(nèi)容的抽象性,從低到高依次為?A、圖像分析,圖像處理,圖像理解B、圖像分析,圖像理解,圖像處理C、圖像處理,圖像分析,圖像理解D、圖像理解,圖像分析,圖像處理【正確答案】:C166.馬爾可夫性質(zhì)強(qiáng)調(diào)在每一個動作狀態(tài)序列中,下一個狀態(tài)與()有關(guān)。A、外部影響B(tài)、主體內(nèi)因C、歷史狀態(tài)D、當(dāng)前狀態(tài)【正確答案】:D167.用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務(wù)?A、根據(jù)內(nèi)容檢索B、建模描述C、預(yù)測建模D、尋找模式和規(guī)則【正確答案】:A解析:
聚類是無監(jiān)督學(xué)習(xí)方法的一種,可以用來處理無標(biāo)簽的數(shù)據(jù)集。168.可以對Pytorch框架進(jìn)行網(wǎng)絡(luò)結(jié)構(gòu)等數(shù)據(jù)可視化的工具是A、VisdomB、FlaskC、VueD、以上選項均不正確【正確答案】:A169.欠擬合會出現(xiàn)高()問題A、標(biāo)準(zhǔn)差B、方差C、偏差D、平方差【正確答案】:C解析:
過擬合會出現(xiàn)高方差問題170.考慮以下問題:假設(shè)我們有一個5層的神經(jīng)網(wǎng)絡(luò),這個神經(jīng)網(wǎng)絡(luò)在使用一個4GB顯存顯卡時需要花費(fèi)3個小時來完成訓(xùn)練。而在測試過程中,單個數(shù)據(jù)需要花費(fèi)2秒的時間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評分是0.2和0.3時,分別在第2層和第4層添加Dropout,那么新架構(gòu)的測試所用時間會變?yōu)槎嗌??A、少于2sB、大于2sC、仍是2sD、說不準(zhǔn)【正確答案】:C171.神經(jīng)元之間的每個連接都有()權(quán)重。A、一個B、兩個C、多個D、無【正確答案】:A解析:
高層的特征是低層特征的組合,從低層到高層的特征表達(dá)越來越抽象和概念化,也即越來越能表現(xiàn)語義或者意圖。172.語音理解是指利用()等人工智能技術(shù)進(jìn)行語句自動識別和語意理解。A、聲樂和心理B、合成和分析C、知識表達(dá)和組織D、字典和算法【正確答案】:C173.如果問題存在最優(yōu)解,則下面幾種搜索算法中,哪一個必然可以得到該最優(yōu)解A、廣度優(yōu)先搜索B、深度優(yōu)先搜索C、有界深度優(yōu)先搜索D、啟發(fā)式搜索【正確答案】:A解析:
產(chǎn)生式系統(tǒng)的推理包括正向、逆向、雙向推理174.以下哪個關(guān)于監(jiān)督式學(xué)習(xí)的說法是正確的?A、決策樹是一種監(jiān)督式學(xué)習(xí)B、監(jiān)督式學(xué)習(xí)不可以使用交叉驗證進(jìn)行訓(xùn)練C、監(jiān)督式學(xué)習(xí)是一種基于規(guī)則的算法D、監(jiān)督式學(xué)習(xí)不需要標(biāo)簽就可以訓(xùn)練【正確答案】:A175.蒙特卡羅強(qiáng)化學(xué)習(xí)算法的本質(zhì),是通過多次嘗試后求平均來作為期望累計獎賞的金絲,但它在求平均時是采用哪種方式進(jìn)行?A、逐一式B、循環(huán)式C、分組式D、批處理【正確答案】:D解析:
基于線性變換來進(jìn)行降維的方法稱為線性降維法。非線性降維是基于核技巧對線性降維方法進(jìn)行“核化”176.以下哪種神經(jīng)網(wǎng)絡(luò)技術(shù)可以用于語音識別的處理A、卷積神經(jīng)網(wǎng)絡(luò)B、循環(huán)神經(jīng)網(wǎng)絡(luò)C、深層神經(jīng)網(wǎng)絡(luò)D、淺層神經(jīng)網(wǎng)絡(luò)【正確答案】:B解析:
人臉活體檢測主要是通過識別活體上的生理信息來進(jìn)行,它把生理信息作為生命特征來區(qū)分用照片、硅膠、塑料等非生命物質(zhì)偽造的生物特征來照片攻擊、視頻攻擊和3D模型攻擊177.元宇宙本質(zhì)上是對現(xiàn)實世界的虛擬化、數(shù)字化過程,它基于()提供沉浸式體驗。A、擴(kuò)展現(xiàn)實技術(shù)B、區(qū)塊鏈技術(shù)C、數(shù)字孿生技術(shù)D、云計算【正確答案】:A178.()是使用某一位置的相鄰輸出的總體統(tǒng)計特征來代替網(wǎng)絡(luò)在該位置的輸出A、卷積B、約化C、池化D、批歸一化【正確答案】:C解析:
輸出通道的數(shù)目通常也被稱作卷積核的個數(shù)179.以下關(guān)于算法的說法中,不正確的是A、機(jī)器學(xué)習(xí)算法分為有監(jiān)督、半監(jiān)督和無監(jiān)督三種B、卷積神經(jīng)網(wǎng)絡(luò)是重要的遷移學(xué)習(xí)算法C、決策樹算法屬于監(jiān)督學(xué)習(xí)類別D、K-Means是屬于無監(jiān)督學(xué)習(xí)算法【正確答案】:B180.人工智能產(chǎn)業(yè)鏈主要包括:基礎(chǔ)技術(shù)支撐,(),人工智能應(yīng)用。A、智能平臺建設(shè)B、大數(shù)據(jù)C、互聯(lián)網(wǎng)D、人工智能技術(shù)【正確答案】:D解析:
ResNet網(wǎng)絡(luò)是參考了VGG19網(wǎng)絡(luò),在其基礎(chǔ)上進(jìn)行了修改,并通過短路機(jī)制加入了殘差單元181.人工智能平臺應(yīng)支持資源橫向擴(kuò)展和系統(tǒng)平滑升級,資源擴(kuò)展和系統(tǒng)升級過程應(yīng)不影響現(xiàn)有訓(xùn)練任務(wù)和()服務(wù)。A、識別B、判斷C、推理D、提供【正確答案】:C解析:
主要應(yīng)用182.下列哪個模型屬于無監(jiān)督學(xué)習(xí)A、KNN分類B、邏輯回歸C、DBSCAND、決策樹【正確答案】:C183.對于神經(jīng)網(wǎng)絡(luò)的說法,下面正確的是:1.增加神經(jīng)網(wǎng)絡(luò)層數(shù),可能會增加測試數(shù)據(jù)集的分類錯誤率2.減少神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小測試數(shù)據(jù)集的分類錯誤率3.增加神經(jīng)網(wǎng)絡(luò)層數(shù),總是能減小訓(xùn)練數(shù)據(jù)集的分類錯誤率A、1B、1和3C、1和2D、$2【正確答案】:A184..
混沌度(Perplexity)是一種常見的應(yīng)用在使用深度學(xué)習(xí)處理NLP問題過程中的評估技術(shù),關(guān)于混沌度,哪種說法是正確的?A、混沌度沒什么影響B(tài)、混沌度越低越好C、混沌度越高越好D、混沌度對于結(jié)果的影響不一定【正確答案】:B185.()技術(shù)在促進(jìn)數(shù)字孿生實施方面有巨大潛力。A、機(jī)器學(xué)習(xí)B、強(qiáng)化學(xué)習(xí)C、深度學(xué)習(xí)D、監(jiān)督學(xué)習(xí)【正確答案】:C解析:
基于數(shù)據(jù)驅(qū)動型的傳統(tǒng)人工智能,大多建立在“數(shù)據(jù)中立、算法公正和程序正義”三要素基礎(chǔ)之上186.()適合連續(xù)特征,它假設(shè)每個特征對于每個類都符合正態(tài)分布。A、GaussianNBBernoulliNBC、MultinomialNBD、BaseDiscreteNB【正確答案】:A解析:
Scikit-Learn中accuracy_score可以實現(xiàn)計算模型準(zhǔn)確率。187.根據(jù)邊的性質(zhì)不同,概率圖模型可大致分為兩類:第一類是使用有向無環(huán)圖表示變量間的依賴關(guān)系,稱為有向圖模型或貝葉斯網(wǎng)(Bayesiannetwork);第二類是使用無向圖表示變量間的相關(guān)關(guān)系,稱為(___)。A、赫布網(wǎng)B、拉普拉斯網(wǎng)C、馬爾科夫網(wǎng)D、塞繆爾網(wǎng)【正確答案】:C解析:
見算法解析188.類別不平衡指分類任務(wù)中不同類別的訓(xùn)練樣例數(shù)目(___)的情況。A、沒有差別B、差別很大C、差別很小D、以上都不正確【正確答案】:B解析:
見算法解析189.關(guān)于常用評分函數(shù)描述錯誤的為(___)A、基于信息論準(zhǔn)則;B、學(xué)習(xí)問題看做為數(shù)據(jù)壓縮任務(wù);C、學(xué)習(xí)目標(biāo)為以最短編碼長度描述訓(xùn)練數(shù)據(jù)模型;D、編碼位數(shù)僅為自身所需的編碼位數(shù);【正確答案】:D解析:
見算法解析190.反向傳播算法一開始計算什么內(nèi)容的梯度,之后將其反向傳播?A、預(yù)測結(jié)果與樣本標(biāo)簽之間的誤差B、各個輸入樣本的平方差之和C、各個網(wǎng)絡(luò)權(quán)重的平方差之和D、都不對【正確答案】:A191.卷積神經(jīng)網(wǎng)絡(luò)做圖像分類任務(wù)通常不包含:A、卷積操作B、池化操作C、全連接層D、均方誤差損失函數(shù)【正確答案】:D解析:
深度學(xué)習(xí)系統(tǒng)中,參數(shù)數(shù)量非常龐大不會必然導(dǎo)致運(yùn)算精度必然高192.數(shù)據(jù)科學(xué)家可能會同時使用多個算法(模型)進(jìn)行預(yù)測,并且最后把這些算法的結(jié)果集成起來進(jìn)行最后的預(yù)測(集成學(xué)習(xí)),以下對集成學(xué)習(xí)說法正確的是()A、單個模型之間有高相關(guān)性B、單個模型之間有低相關(guān)性C、在集成學(xué)習(xí)中使用“平均權(quán)重”而不是“投票”會比較好D、單個模型都是用的一個算法【正確答案】:B193.Skip-gram在實際操作中,使用一個()(一般情況下,長度是奇數(shù)),從左到右開始掃描當(dāng)前句子。A、過濾器B、滑動窗口C、篩選器D、掃描器【正確答案】:B解析:
見算法解析194.元宇宙的本質(zhì)是將現(xiàn)實世界進(jìn)行()、虛擬化,元宇宙將成為虛擬世界與現(xiàn)實世界共存的第二空間[5]。A、智能化&B、&標(biāo)準(zhǔn)化&C、&數(shù)字化D、云端化【正確答案】:C195.在分類學(xué)習(xí)中,提升方法通過反復(fù)修改訓(xùn)練數(shù)據(jù)的(),構(gòu)建一系列基本分類器并將它們線性組合,形成一個強(qiáng)分類器。A、偏差B、方差C、采樣樣本D、權(quán)值分布【正確答案】:D解析:
讀取一行的python方法是.readline()196.以下哪種問題主要采用無監(jiān)督學(xué)習(xí)方法?A、頻繁項挖掘B、股價預(yù)測C、圖像分類D、文本情感分析【正確答案】:A解析:
Adaboost屬于集成學(xué)習(xí)197.A*搜索算法何時是最優(yōu)的?()A、到目標(biāo)結(jié)點(diǎn)的耗散是一個可采納啟發(fā)式B、到目標(biāo)結(jié)點(diǎn)的耗散可任意選擇C、不存在求解問題的最優(yōu)的a*搜索算法D、以上描述都不對【正確答案】:A198.“文檔”是待處理的數(shù)據(jù)對象,它由一組詞組成,這些詞在文檔中不計順序的額,例如一篇論文、一個網(wǎng)頁都可以看做一個文檔;這樣的表示方式稱為(___)?A、語句B、詞袋C、詞海D、詞塘【正確答案】:B解析:
見算法解析199.命名實體識別任務(wù)是識別出人名、地名和組織機(jī)構(gòu)名這三類命名實體,如果用1來標(biāo)注人名,0標(biāo)注其他,那么“HarryPotterandHermioneGrangerinventedanewspell”這句話中,Potter、and這兩個單詞應(yīng)該標(biāo)注為:A、0,1B、1,1C、1,0D、0,0【正確答案】:C解析:
自然語言中的詞語需要轉(zhuǎn)化為計算機(jī)可以記錄處理的數(shù)據(jù)結(jié)構(gòu),通常會把自然語言中的詞語轉(zhuǎn)化為向量。200.傳統(tǒng)的機(jī)器學(xué)習(xí)方法包括監(jiān)督學(xué)習(xí)、無監(jiān)督學(xué)習(xí)和半監(jiān)督學(xué)習(xí),其中監(jiān)督學(xué)習(xí)是學(xué)習(xí)給定標(biāo)簽的數(shù)據(jù)集。請問標(biāo)簽為離散的類型,稱為分類,標(biāo)簽為連續(xù)的類型,稱為什么?A、給定標(biāo)簽B、離散C、分類D、回歸【正確答案】:D解析:
修正線性單元是非線性的激活函數(shù)201.DBSCAN在最壞情況下的時間復(fù)雜度是()。A、O(m)B、O(m2)C、O(logm)D、O(m*logm)【正確答案】:B202.Boosting的本質(zhì)實際上是一個加法模型,通過改變訓(xùn)練樣本()學(xué)習(xí)多個分類器并進(jìn)行一些線性組合A、權(quán)重B、分布C、概率D、數(shù)量【正確答案】:A解析:
SVM的基本思想是間隔最大化來得到最優(yōu)分離超平面203.()采用多種樂器的音頻數(shù)據(jù),可融合多種國家、樂曲風(fēng)格和樂器音色的特征,創(chuàng)作音樂作品。A、XLNetB、GoogleNetC、MuseNetD、AlexNet【正確答案】:C解析:
對比學(xué)習(xí)的核心訓(xùn)練信號是圖片的“可區(qū)分性”。模型需要區(qū)分兩個輸入是來自于同一圖片的不同視角,還是來自完全不同的兩張圖片。204.以下程序的輸出是()?array=np.array([[1,2,3],[4,5,6],[7,8,9],[10,11,12]]);print(array.shape)A、(4,3)B、(3,4)C、3D、$4【正確答案】:A解析:
見算法解析205.下列哪項不是構(gòu)建知識圖譜用到的主要技術(shù)A、詞性標(biāo)注B、實體鏈接C、關(guān)系抽取D、命名實體識別【正確答案】:A206.深度學(xué)習(xí)中的不同最優(yōu)化方式,如SGD,ADAM下列說法中正確的是A、在實際場景下,應(yīng)盡量使用ADAM,避免使用SGDB、同樣的初始學(xué)習(xí)率情況下,ADAM的收斂速度總是快于SGD方法C、相同超參數(shù)數(shù)量情況下,比起自適應(yīng)的學(xué)習(xí)率調(diào)整方式,SGD加手動調(diào)節(jié)通常會取得更好效果D、同樣的初始學(xué)習(xí)率情況下,ADAM比SGD容易過擬合【正確答案】:C解析:
圖像處理中無損壓縮的目的是濾除圖像中的冗余信號207.主成分分析是一種數(shù)據(jù)降維和去除相關(guān)性的方法,它通過()將向量投影到低維空間。A、線性變換B、非線性變換C、拉布拉斯變換D、z變換【正確答案】:A解析:
梯度爆炸一般出現(xiàn)在深層網(wǎng)絡(luò)和權(quán)值初始化值太大的情況下208.深度學(xué)習(xí)系統(tǒng)訓(xùn)練過程通常需要輸入:A、特征值B、標(biāo)簽C、特征值和標(biāo)簽D、預(yù)測值【正確答案】:C解析:
人工神經(jīng)網(wǎng)絡(luò)受生物神經(jīng)網(wǎng)絡(luò)啟發(fā)209.循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)【正確答案】:C解析:
卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。210.下面關(guān)于Jarvis-Patrik(JP)聚類算法的說法不正確的是()。A、JP聚類擅長處理噪聲和離群點(diǎn),并且能夠處理不同大小、形狀和密度的簇。B、JP算法對高維數(shù)據(jù)效果良好,尤其擅長發(fā)現(xiàn)強(qiáng)相關(guān)對象的緊致簇。C、JP聚類是基于SNN相似度的概念。D、JP聚類的基本時間復(fù)雜度為O(m)。【正確答案】:D211.在用戶洞察環(huán)節(jié),銀行業(yè)企業(yè)普遍面臨對消費(fèi)者數(shù)據(jù)開發(fā)不足的問題,AI技術(shù)的加持能夠?qū)崿F(xiàn)更深層次的客戶洞察,基于多維度的用戶數(shù)據(jù)構(gòu)建(),實現(xiàn)更精準(zhǔn)的用戶觸達(dá)。A、用戶畫像B、數(shù)據(jù)模型C、用戶標(biāo)簽D、用戶場景【正確答案】:A解析:
精準(zhǔn)營銷與個性化推薦系統(tǒng)是零售行業(yè)內(nèi)應(yīng)用最為廣泛、效果最為顯著的人工智能技術(shù),線上線下的零售巨頭都在運(yùn)用此技術(shù)幫助進(jìn)行交叉銷售、向上銷售、提高復(fù)購率。212.卷積神經(jīng)網(wǎng)絡(luò)(convolu-tionalneuralnetwork,CNN),是一種專門用來處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。A、網(wǎng)格結(jié)構(gòu)B、數(shù)組結(jié)構(gòu)C、序列結(jié)構(gòu)D、表格結(jié)構(gòu)【正確答案】:A解析:
Transformer中拋棄了傳統(tǒng)的CNN和RNN,整個網(wǎng)絡(luò)結(jié)構(gòu)完全是由Attention機(jī)制組成。213.下列哪項關(guān)于模型能力的描述是正確的(指模型能近似復(fù)雜函數(shù)的能力)A、隱層層數(shù)增加,模型能力增加B、Dropout的比例增加,模型能力增加C、學(xué)習(xí)率增加,模型能力增加D、都不正確【正確答案】:A214.在中期圖像識別技術(shù)(2003-2012)中,索引的經(jīng)典模型是()。A、口袋模型B、詞袋模型C、膠囊模型D、增量模型【正確答案】:B解析:
早期圖像識別技術(shù)中存在的主要問題是全局特征丟掉了圖像細(xì)節(jié)。215.在技術(shù)層面,人工智能正在從云計算向()延伸,未來將形成云計算與()協(xié)同發(fā)展的態(tài)勢,為人工智能提供更強(qiáng)大的基礎(chǔ)設(shè)施。A、分布式計算B、邊緣計算C、密集計算D、可信計算【正確答案】:B216.以下兩種描述分別對應(yīng)哪兩種對分類算法的評價標(biāo)準(zhǔn)?
(a)警察抓小偷,描述警察抓的人中有多少個是小偷的標(biāo)準(zhǔn)。
(b)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A、Precision,RecallB、Recall,PrecisionC、Precision,ROCD、Recall,ROC【正確答案】:A解析:
關(guān)聯(lián)規(guī)則就是有關(guān)聯(lián)的規(guī)則,形式是這樣定義的:兩個不相交的非空集合X、Y,如果有X→Y,就說X→Y是一條關(guān)聯(lián)規(guī)則。在題目的例子中,我們發(fā)現(xiàn)購買啤酒就一定會購買尿布,{啤酒}→{尿布}就是一條關(guān)聯(lián)規(guī)則。217.前饋神經(jīng)網(wǎng)絡(luò)是一種簡單的神經(jīng)網(wǎng)絡(luò),各神經(jīng)元分層排列,是目前應(yīng)用最廣泛,發(fā)展最迅速的人工神經(jīng)網(wǎng)絡(luò)之一。以下關(guān)于前饋神經(jīng)網(wǎng)絡(luò)說法正確的是:A、具備計算能力的神經(jīng)元與上下兩層相連B、其輸入節(jié)點(diǎn)具備計算能力C、同一層神經(jīng)元相互連接D、層間信息只沿個方向傳遞【正確答案】:D218.下列算法,哪項能處理非線性問題()A、標(biāo)準(zhǔn)SVMB、多項式回歸C、線性回歸D、神經(jīng)元模型【正確答案】:B解析:
卷積在BERT中沒有使用219.以下不屬于聚類算法的是()。A、K均值B、SANC、AprioriD、Jarvis-Patrik(JP)【正確答案】:C220.下列哪項不是SVM的優(yōu)勢A、可以和核函數(shù)結(jié)合B、通過調(diào)參可以往往可以得到很好的分類效果C、訓(xùn)練速度快D、泛化能力好【正確答案】:C解析:
高斯核函數(shù)將特征映射到無窮維221.隨著大數(shù)據(jù)、()、量子計算等新技術(shù)的快速發(fā)展,人類社會已經(jīng)步入了第四次工業(yè)革命時代A、片上存儲B、芯片設(shè)計C、人工智能D、泛在互聯(lián)【正確答案】:C解析:
以上都是人工智能發(fā)展預(yù)測。222.以下對于標(biāo)稱屬性說法不正確的是A、標(biāo)稱屬性的值是一些符號或事物的名稱,每種值代表某種類別、編碼或狀態(tài)。B、標(biāo)稱值并不具有有意義的順序,且不是定量的C、對于給定對象集,找出這些屬性的均值、中值沒有意義。D、標(biāo)稱屬性通過將數(shù)值量的值域劃分有限個有序類別,把數(shù)值屬性離散化得來?!菊_答案】:D223.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個步驟的任務(wù)?A、頻繁模式挖掘B、分類和預(yù)測C、數(shù)據(jù)預(yù)處理D、數(shù)據(jù)流挖掘【正確答案】:C解析:
精確率是針對我們預(yù)測結(jié)果而言的,它表示的是預(yù)測為正的樣本中有多少是真正的正樣本。而召回率是針對我們原來的樣本而言的,它表示的是樣本中的正例有多少被預(yù)測正確了。224.模型庫功能要求為:模型測試包括模型部署、()測試和服務(wù)管理,模型測試服務(wù)發(fā)布應(yīng)支持向?qū)J?,宜支持一鍵自動發(fā)布測試服務(wù),模型測試服務(wù)宜支持單卡內(nèi)存級分配。A、在線B、離線C、自動D、手動【正確答案】:A解析:
主要應(yīng)用225.關(guān)于梯度下降算法描述正確的是:A、梯度下降算法就是不斷的更新w和b的值B、梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值C、梯度下降算法就是不斷尋找損失函數(shù)的最大值D、梯度下降算法就是不斷更新學(xué)習(xí)率【正確答案】:A解析:
權(quán)重和偏置不是超參數(shù)226.半監(jiān)督學(xué)習(xí)不包括A、直推學(xué)習(xí)B、純半監(jiān)督學(xué)習(xí)C、主動學(xué)習(xí)D、圖半監(jiān)督學(xué)習(xí)【正確答案】:C解析:
見算法解析227.Softmax算法中溫度趨近于0時Softmax將趨于(___)A、僅探索B、僅利用C、全探索D、全利用【正確答案】:B解析:
見算法解析228.如果我們用了一個過大的學(xué)習(xí)速率會發(fā)生什么?A、神經(jīng)網(wǎng)絡(luò)會收斂B、不好說C、都不對D、神經(jīng)網(wǎng)絡(luò)不會收斂【正確答案】:D229.關(guān)于反向傳播,以下說法錯誤的是?A、反向傳播只能在前饋神經(jīng)網(wǎng)絡(luò)中運(yùn)用B、反向傳播可以結(jié)合梯度下降算法更新網(wǎng)絡(luò)權(quán)重C、反向傳播會經(jīng)過激活函數(shù)D、反向傳播指的是誤差通過網(wǎng)絡(luò)反向傳播【正確答案】:A230.NMS算法中文名為()A、非極大值抑制B、非極小值抑制C、極大值抑制D、極小值抑制【正確答案】:A解析:
見算法解析231.特征是描述樣本的特性的維度,關(guān)于其在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)的可解釋性,以下說法正確的是:A、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性強(qiáng),而在深度學(xué)習(xí)可解釋性弱B、特征在傳統(tǒng)機(jī)器學(xué)習(xí)可解釋性弱,而在深度學(xué)習(xí)可解釋性強(qiáng)C、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均弱D、特征在傳統(tǒng)機(jī)器學(xué)習(xí)和深度學(xué)習(xí)可解釋性均強(qiáng)【正確答案】:A解析:
應(yīng)增加訓(xùn)練數(shù)據(jù)以降低過擬合232.前饋型神經(jīng)網(wǎng)絡(luò)的中各個層之間是()的,反饋型神經(jīng)網(wǎng)絡(luò)中各個層之間是()的。A、有環(huán)B、有環(huán)C、有環(huán)D、無環(huán)E、無環(huán)F、有環(huán)【正確答案】:C233.平臺中人工智能算法在支撐業(yè)務(wù)應(yīng)用時,應(yīng)充分考慮算法計算精度突然降低、計算結(jié)果出錯、計算結(jié)果超時等狀況下對()造成的不利影響。A、業(yè)務(wù)系統(tǒng)B、網(wǎng)站C、電力系統(tǒng)D、業(yè)務(wù)流程【正確答案】:A解析:
主要應(yīng)用234.()是用來評估神經(jīng)網(wǎng)絡(luò)的計算模型對樣本的預(yù)測值和真實值之間的誤差大小。A、損失函數(shù)B、優(yōu)化函數(shù)C、反向傳播D、梯度下降【正確答案】:A235.自動識別系統(tǒng)屬于人工智能哪個應(yīng)用領(lǐng)域?()A、自然語言系統(tǒng)B、機(jī)器學(xué)習(xí)C、專家系統(tǒng)D、人類感官模擬【正確答案】:D236.scikit-learn用于訓(xùn)練模型的函數(shù)接口為()A、Fit()B、fit()C、Train()D、train()【正確答案】:B解析:
gensim主要用來以無監(jiān)督的方式從原始的非結(jié)構(gòu)化文本當(dāng)中來學(xué)習(xí)到文本隱藏層的主題向量表達(dá)。237.在有監(jiān)督學(xué)習(xí)中,我們?nèi)绾问褂镁垲惙椒ǎ?.我們可以先創(chuàng)建聚類類別,然后在每個類別上用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)2.我們可以使用聚類“類別id”作為一個新的特征項,然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)3.在進(jìn)行監(jiān)督學(xué)習(xí)之前,我們不能新建聚類類別4.我們不可以使用聚類“類別id”作為一個新的特征項,然后再用監(jiān)督學(xué)習(xí)分別進(jìn)行學(xué)習(xí)A、2和4B、1和2C、3和4D、1和3【正確答案】:B解析:
NLP的功能強(qiáng)大,可以從文本內(nèi)容提取特征與有效性息,可以實現(xiàn)情感分析,問答系統(tǒng),機(jī)器翻譯238.模型庫存放訓(xùn)練出的()模型或采購來的第三方算法模型。A、實體B、算法C、數(shù)據(jù)D、對象【正確答案】:B解析:
例如在生產(chǎn)與采購環(huán)節(jié),典型的AI應(yīng)用場景包括智能質(zhì)檢,利用機(jī)器視覺等AI技術(shù)可代替人力或者協(xié)助人力完成對缺陷商品進(jìn)行識別。239.機(jī)器學(xué)習(xí)中,模型需要輸入什么來訓(xùn)練自身,預(yù)測未知?A、人工程序B、神經(jīng)網(wǎng)絡(luò)C、訓(xùn)練算法D、歷史數(shù)據(jù)【正確答案】:D解析:
Xgboost屬于集成學(xué)習(xí)算法中的Boosting算法類別,240.下列哪個不是激活函數(shù)()。A、sigmodB、reluC、tanhD、hidden【正確答案】:D解析:
學(xué)習(xí)率是CNN網(wǎng)絡(luò)的超參數(shù)。241.下面哪個敘述是對的?Dropout對一個神經(jīng)元隨機(jī)屏蔽輸入權(quán)重Dropconnect對一個神經(jīng)元隨機(jī)屏蔽輸入和輸出權(quán)重A、1是對的,2是錯的B、都是對的C、1是錯的,2是對的D、都是錯的【正確答案】:D242.關(guān)于學(xué)習(xí)率初始值設(shè)定描述正確的是()A、學(xué)習(xí)率是網(wǎng)絡(luò)自己學(xué)習(xí)得到的B、學(xué)習(xí)率不同場景是相同的C、學(xué)習(xí)率是根據(jù)不同場景,人為設(shè)定的D、學(xué)習(xí)率不是人為設(shè)定的【正確答案】:C解析:
softmax函數(shù)一般用在多分類問題中,它是對邏輯斯蒂回歸logistic的一種推廣,也被稱為多項式邏輯斯蒂回歸模型。243.循環(huán)神經(jīng)網(wǎng)絡(luò)中,假設(shè)輸入是一個32*32*3的圖像,3表示RGB三通道,卷積核的結(jié)構(gòu)是5*5*3,共6個不同的卷積核,一個卷積核產(chǎn)生一個featuremap,則輸出的featuremap矩陣的結(jié)構(gòu)是()。A、27*27*3B、28*28*3C、27*27*6D、28*28*6【正確答案】:D解析:
循環(huán)神經(jīng)網(wǎng)絡(luò)(recurrentneuralnetwork,RNN),是一種用于處理具有類似()的數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。244.Scikit-Learn中()可以實現(xiàn)計算模型準(zhǔn)確率。A、accuracy_scoreB、accuracyC、f1_scoreD、f2_score【正確答案】:A解析:
DBSCAN算法將“簇”定義為:由密度可達(dá)關(guān)系導(dǎo)出的最大的密度相連樣本集合。245.關(guān)于語言建模任務(wù),以下描述不正確的是:A、語言建模任務(wù)指的是給定前一個單詞去預(yù)測文本中的下一個單詞。B、可能是比較簡單的語言處理任務(wù),具體的實際應(yīng)用場景包括:智能鍵盤、電子郵件回復(fù)建議、拼寫自動更正等。C、比較經(jīng)典的方法基于n-grams。D、不可使用平滑處理不可見的n-grams。【正確答案】:D246.語言模型的作用是:A、查看一句話成為一句“人話”的概率B、查看一句話是英
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。
最新文檔
- 二零二五版物流倉儲設(shè)施建設(shè)與運(yùn)營合同2篇
- 二零二五年度節(jié)能工廠租賃合同編制要則3篇
- 二零二五版旅游度假區(qū)基礎(chǔ)設(shè)施建設(shè)項目包工合同范本2篇
- 二零二五年度飛機(jī)銷售合同附帶飛行員培訓(xùn)及考核協(xié)議3篇
- 二零二五年度公寓裝修及設(shè)施配套合同3篇
- 二零二五版出口貨物安全檢驗合同規(guī)定與流程3篇
- 二零二五年度汽車租賃合同解除與終止范本匯編3篇
- 二零二五版汽車維修擔(dān)保書之擔(dān)保函與擔(dān)保合同3篇
- 二零二五版別墅窗簾設(shè)計、安裝及智能家居集成合同3篇
- 二零二五年度高級管家雇傭合同范本3篇
- 第三十六屆全國電力行業(yè)風(fēng)力發(fā)電運(yùn)行檢修職業(yè)技能競賽基礎(chǔ)理論題庫附有答案
- 2024年紀(jì)檢監(jiān)察綜合業(yè)務(wù)知識題庫含答案(研優(yōu)卷)
- 科室醫(yī)療質(zhì)量與安全管理小組工作制度
- 中華民族共同體概論課件第五講大一統(tǒng)與中華民族共同體初步形成(秦漢時期)
- 初二生地會考試卷及答案-文檔
- 私營企業(yè)廉潔培訓(xùn)課件
- 施工單位值班人員安全交底和要求
- 中國保險用戶需求趨勢洞察報告
- 數(shù)字化轉(zhuǎn)型指南 星展銀行如何成為“全球最佳銀行”
- 中餐烹飪技法大全
- 靈芝孢子油減毒作用課件
評論
0/150
提交評論