人工智能基礎(chǔ)(習(xí)題卷20)_第1頁(yè)
人工智能基礎(chǔ)(習(xí)題卷20)_第2頁(yè)
人工智能基礎(chǔ)(習(xí)題卷20)_第3頁(yè)
人工智能基礎(chǔ)(習(xí)題卷20)_第4頁(yè)
人工智能基礎(chǔ)(習(xí)題卷20)_第5頁(yè)
已閱讀5頁(yè),還剩56頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶(hù)提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能基礎(chǔ)人工智能基礎(chǔ)(習(xí)題卷20)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能基礎(chǔ)第1部分:?jiǎn)雾?xiàng)選擇題,共131題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.人工智能處在感知智能階段的表現(xiàn)是什么?A)機(jī)器開(kāi)始像人類(lèi)一樣能理解、思考與決策B)機(jī)器開(kāi)始像人類(lèi)一樣會(huì)計(jì)算,傳遞信息C)機(jī)器開(kāi)始看懂和聽(tīng)懂,做出判斷,采取一些簡(jiǎn)單行動(dòng)答案:C解析:[單選題]2.下面對(duì)集成學(xué)習(xí)模型中的弱學(xué)習(xí)者描述錯(cuò)誤的是()。A)他們經(jīng)常不會(huì)過(guò)擬合B)他們通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問(wèn)題C)他們通常會(huì)過(guò)擬合答案:C解析:弱學(xué)習(xí)者是問(wèn)題的特定部分。所以他們通常不會(huì)過(guò)擬合,這也就意味著弱學(xué)習(xí)者通常擁有低方差和高偏差。[單選題]3.無(wú)監(jiān)督的建模技術(shù)有()、關(guān)聯(lián)分析、預(yù)報(bào)三類(lèi)A)聚合B)離散C)相關(guān)性分析D)聚類(lèi)答案:D解析:[單選題]4.機(jī)器學(xué)習(xí)的實(shí)質(zhì)在于?A)想B)找規(guī)律C)理解D)判斷答案:B解析:[單選題]5.以下屬于回歸算法的評(píng)價(jià)指標(biāo)是?A)召回率B)混淆矩陣C)均方誤差D)準(zhǔn)確率答案:C解析:[單選題]6.當(dāng)前RPA流程的常見(jiàn)開(kāi)發(fā)方式不包括()。A)可視化開(kāi)發(fā)B)錄制開(kāi)發(fā)C)代碼開(kāi)發(fā)D)對(duì)話(huà)開(kāi)發(fā)答案:D解析:[單選題]7.下列關(guān)于不確定性知識(shí)描述錯(cuò)誤的是()A)不確定性知識(shí)是不可以精確表示的B)專(zhuān)家知識(shí)通常屬于不確定性知識(shí)C)不確定性知識(shí)是經(jīng)過(guò)處理過(guò)的知識(shí)D)不確定性知識(shí)的事實(shí)與結(jié)論的關(guān)系不是簡(jiǎn)單的?是?或?不是?答案:D解析:[單選題]8.數(shù)字圖像處理的研究?jī)?nèi)容不包括()。A)圖像數(shù)字化B)圖像增強(qiáng)C)圖像分割D)數(shù)字圖像存儲(chǔ)答案:D解析:[單選題]9.由C++源程序文件編譯而成的目標(biāo)文件的默認(rèn)擴(kuò)展名為A)cppB)exeC)objD)lik答案:C解析:[單選題]10.以下哪些選項(xiàng)為真?A)線性回歸誤差值必須正態(tài)分布,但是在Logistic回歸的情況下,情況并非如此B)邏輯回歸誤差值必須正態(tài)分布,但是在線性回歸的情況下,情況并非如此C)線性回歸和邏輯回歸誤差值都必須正態(tài)分布D)線性回歸和邏輯回歸誤差值都不能正態(tài)分布答案:A解析:[單選題]11.()負(fù)責(zé)HDFS數(shù)據(jù)存儲(chǔ)。A)NameNodeB)JobtrackerC)DataNodeD)SecondaryNameNode答案:C解析:Hadoop中NameNode節(jié)點(diǎn)作為Master節(jié)點(diǎn),對(duì)集群進(jìn)行管理;SecondaryNameNode節(jié)點(diǎn)在于分擔(dān)NameNode的壓力而設(shè)置;JobTracker是為了跟蹤作業(yè)運(yùn)行的情況而設(shè)置的節(jié)點(diǎn)。[單選題]12.關(guān)于用4V來(lái)表示大數(shù)據(jù)的主要特征,描述錯(cuò)誤的是A)大數(shù)據(jù)的時(shí)間分布往往不均勻,近幾年生成數(shù)據(jù)的占比最高B)?如何從海量數(shù)據(jù)中洞見(jiàn)(洞察)出有價(jià)值的數(shù)據(jù)?是數(shù)據(jù)科學(xué)的重要課題之一C)數(shù)據(jù)類(lèi)型的多樣性往往導(dǎo)致數(shù)據(jù)的異構(gòu)性,進(jìn)而加大數(shù)據(jù)處理的復(fù)雜性,對(duì)數(shù)據(jù)處理能力提出了更高要求D)數(shù)據(jù)價(jià)值與數(shù)據(jù)量之間存在線性關(guān)系答案:D解析:[單選題]13.人工智能應(yīng)用研究的兩個(gè)最重要最廣泛領(lǐng)域?yàn)椋ǎ〢)專(zhuān)家系統(tǒng)、自動(dòng)規(guī)劃B)專(zhuān)家系統(tǒng)、機(jī)器學(xué)習(xí)C)機(jī)器學(xué)習(xí)、智能控制D)機(jī)器學(xué)習(xí)、自然語(yǔ)言理解答案:D解析:[單選題]14.機(jī)器人的各部分組成中,作用相當(dāng)于人的大腦的部分是()。A)驅(qū)動(dòng)系統(tǒng)B)控制系統(tǒng)C)感知系統(tǒng)D)機(jī)械系統(tǒng)答案:B解析:[單選題]15.知識(shí)發(fā)現(xiàn)和數(shù)據(jù)挖掘的目的是()。A)從數(shù)據(jù)集中抽取和精化一般規(guī)律或模式B)對(duì)數(shù)據(jù)集中的數(shù)據(jù)進(jìn)行分類(lèi)C)對(duì)數(shù)據(jù)集中的數(shù)據(jù)進(jìn)行聚類(lèi)D)訓(xùn)練數(shù)據(jù)并進(jìn)行推理答案:A解析:[單選題]16.()學(xué)派認(rèn)為未知參數(shù)與其他變量一樣,都是隨機(jī)變量,因此參數(shù)估計(jì)和變量推斷能統(tǒng)一在推斷框架下進(jìn)行。A)貝葉斯B)珀?duì)朇)馬爾可夫D)切比雪夫答案:A解析:[單選題]17.下列不屬于框架中設(shè)置的常見(jiàn)槽的是()A)ISA槽B)if-then槽C)AKO槽D)Instance槽答案:B解析:[單選題]18.關(guān)于深度優(yōu)先搜索策略,下列說(shuō)法錯(cuò)誤的是()。A)當(dāng)搜索到某一個(gè)狀態(tài)時(shí),它所有的子狀態(tài)以及子狀態(tài)的后裔狀態(tài)都必須先于該狀態(tài)的兄弟狀態(tài)被搜索B)為了保證找到解,應(yīng)選擇合適的寬度限制值,或采取不斷加大寬度限制值的辦法,反復(fù)搜索,直到找到解C)深度優(yōu)先搜索不能保證第一次搜索到的某個(gè)狀態(tài)時(shí)的路徑是到這個(gè)狀態(tài)的最短路徑D)對(duì)任何狀態(tài)而言,以后的搜索有可能找到另一條通向它的路徑。如果路徑的長(zhǎng)度對(duì)解題很關(guān)鍵的話(huà),當(dāng)算法多次搜索到同一個(gè)狀態(tài)時(shí),它應(yīng)該保留最短路徑答案:B解析:的兄弟狀態(tài)被搜索反復(fù)搜索,直到找到解解題很關(guān)鍵的話(huà),當(dāng)算法多次搜索到同一個(gè)狀態(tài)時(shí),它應(yīng)該保留最短路徑[單選題]19.sigmod激活函數(shù)在神經(jīng)網(wǎng)絡(luò)中可以將神經(jīng)元計(jì)算數(shù)值變化到以下哪個(gè)范圍內(nèi)?A)(-1,0)B)(0,1)C)(-1,1)D)(-0.5,0.5)答案:B解析:[單選題]20.在廢棄階段,廢棄銷(xiāo)毀使用目的不復(fù)存在或者有更好解決方法替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、()以及系統(tǒng)整體的廢棄銷(xiāo)毀過(guò)程。A)算法B)模型C)程序D)算法模型答案:D解析:在廢棄階段,廢棄銷(xiāo)毀使用目的不復(fù)存在或者有更好解決方法替換的人工智能系統(tǒng),主要包括數(shù)據(jù)、算法模型以及系統(tǒng)整體的廢棄銷(xiāo)毀過(guò)程。[單選題]21.基于Bagging的集成學(xué)習(xí)代表算法有()。A)AdaboostB)GBDTC)XGBooSTD)隨機(jī)森林答案:D解析:基于Boosting的集成學(xué)習(xí)算法的集成學(xué)習(xí)代表算法包含Adaboost,GBDT,XGBooST,隨機(jī)森林是基于Bagging。[單選題]22.在大規(guī)模的語(yǔ)料中,挖掘詞的相關(guān)性是一個(gè)重要的問(wèn)題。以下不能用于確定兩個(gè)詞的相關(guān)性的是()。A)互信息B)最大嫡C)卡方檢驗(yàn)D)最大似然比答案:B解析:最大矯為尋找最優(yōu)模型的方法,并不能度量相似性。[單選題]23.25%4的計(jì)算結(jié)果是A)2B)6C)1D)6,25答案:C解析:[單選題]24.目前百度?人臉識(shí)別?能夠識(shí)別的年齡最大跨度可達(dá)_____。A)5B)10C)20D)30答案:D解析:[單選題]25.無(wú)人車(chē)的前置雷達(dá)傳感器可以準(zhǔn)確的得到汽車(chē)的()。A)速度B)定位C)能耗D)時(shí)間答案:A解析:[單選題]26.循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度變快③.占用內(nèi)存少④.所有權(quán)值都共享同一個(gè)值A(chǔ))①③④B)①②③C)①③④D)①②④答案:B解析:循環(huán)神經(jīng)網(wǎng)絡(luò)優(yōu)于全連接網(wǎng)絡(luò)的一個(gè)原因是循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)了權(quán)值共享,那么權(quán)值共享的好處有:①.模型參數(shù)變少②.運(yùn)算速度變快③.占用內(nèi)存少[單選題]27.RPA執(zhí)行器通過(guò)()請(qǐng)求方式進(jìn)行交互通信。A)DNSB)FTPC)IPv6D)HTTP答案:D解析:[單選題]28.a=np.arange(1,10),print(a[2:8:2][::-1])輸出結(jié)果是()A)[357]B)7C)[753]D)[43]答案:C解析:[單選題]29.()對(duì)應(yīng)于實(shí)際問(wèn)題的已知信息。A)結(jié)果B)條件C)初始狀態(tài)D)狀態(tài)空間答案:C解析:[單選題]30.輸入序列[2,4,6,3,5],一維卷積核[0,1],步長(zhǎng)為1,卷積后的序列為X,則X[1]等于A)2B)4C)6D)3答案:C解析:[單選題]31.由于文件讀寫(xiě)時(shí)可能產(chǎn)生IOError,一旦出錯(cuò),后面的f.close()就不會(huì)調(diào)用。所以,為了保證無(wú)論是否出錯(cuò)都能正確地關(guān)閉文件,使用________來(lái)實(shí)現(xiàn)?A)try...finallyB)try...catchC)try...elseD)try…with答案:A解析:[單選題]32.以()為中心是數(shù)據(jù)產(chǎn)品區(qū)別于其他類(lèi)型產(chǎn)品的本質(zhì)特征A)客戶(hù)B)分析C)資源D)數(shù)據(jù)答案:D解析:[單選題]33.下列()不是多艾真體系統(tǒng)的模型A)bdi模型B)協(xié)商模型C)聯(lián)合規(guī)劃模型D)自協(xié)調(diào)模型答案:C解析:[單選題]34.()是受到對(duì)鳥(niǎo)類(lèi)群體行為研究結(jié)果都啟發(fā)。A)蟻群算法B)蜂群算法C)魚(yú)群算法D)粒子群優(yōu)化答案:D解析:[單選題]35.下列圖像邊緣檢測(cè)算子中抗噪性能最好的是()。A)梯度算子B)Prewitt算子C)RobertsD)Laplacian答案:B解析:Prewitt算子是一種一階微分算子的邊緣檢測(cè),利用像素點(diǎn)上下、左右鄰點(diǎn)的灰度差,在邊緣處達(dá)到極值檢測(cè)邊緣,去掉部分偽邊緣,對(duì)噪聲具有平滑作用。[單選題]36.特征選擇是一個(gè)重要的()過(guò)程,在現(xiàn)實(shí)機(jī)器學(xué)習(xí)任務(wù)中,獲得數(shù)據(jù)之后通常先進(jìn)行特征選擇,此后再訓(xùn)練學(xué)習(xí)器。A)數(shù)據(jù)預(yù)處理B)數(shù)據(jù)清洗C)數(shù)據(jù)選擇D)數(shù)據(jù)分析答案:A解析:[單選題]37.在Python2.7中,下列哪種是Unicode編碼的書(shū)寫(xiě)方式?A)a=?中文?B)a=r?中文?C)a=u?中文?D)a=b?中文?答案:C解析:[單選題]38.下述()不是知識(shí)的特征。A)復(fù)雜性和明確性B)進(jìn)化和相對(duì)性C)客觀性和依附性D)可重用性和共享性答案:A解析:[單選題]39.()算法是分類(lèi)算法。A)DBSCANB)C4.5C)K-MeanD)EM答案:B解析:C4.5是分類(lèi)算法;DBSCAN.K-Mean、EM是聚類(lèi)算法。[單選題]40.人工智能平臺(tái)建設(shè)完成后,模型向端側(cè)設(shè)備的下發(fā),可以由()直接管理現(xiàn)場(chǎng)設(shè)備模型服務(wù)作為最終方案。A)業(yè)務(wù)應(yīng)用系統(tǒng)主站B)人工智能平臺(tái)C)邊側(cè)設(shè)備D)物聯(lián)管理平臺(tái)答案:D解析:[單選題]41.截止到今年,在人工智能發(fā)展歷程中總共經(jīng)歷了()次起落A)1B)3C)2D)4答案:C解析:[單選題]42.以下不屬于監(jiān)督學(xué)習(xí)的算法是A)k近鄰B)樸素貝葉斯C)支持向量機(jī)D)DBSCAN答案:D解析:[單選題]43.下列程序段執(zhí)行后,輸出結(jié)果是()。n=1s=1whilen<5:s=s*nn=n+1Print(s)A)24B)10C)120D)15答案:A解析:[單選題]44.輸入圖片大小為37x37,經(jīng)過(guò)第一層卷積(thenumberoffilters=25,kemelsize=5x5,padding=valiD.stride=l)與池化層maxpooling(kemelsize=3x3,padding=valid),輸出特征圖大小為()。A)10xB)11C)12x12D)13x答案:B解析:(37-5+1)/3=11。[單選題]45.隨著生活質(zhì)量的提高,自動(dòng)干手機(jī)已進(jìn)入家庭,洗手后將濕手靠近自動(dòng)干手機(jī)機(jī)內(nèi)的傳感器,便驅(qū)動(dòng)干手機(jī)電熱器加熱,有熱空氣從機(jī)內(nèi)噴出,將濕手烘于手靠近干手機(jī)能使傳感器工作是因?yàn)?)。A)改變了濕度B)改變了溫度C)改變了磁場(chǎng)D)改變了電容答案:D解析:[單選題]46.()規(guī)模呈指數(shù)級(jí)增長(zhǎng),可能達(dá)到數(shù)十億的頂點(diǎn)和數(shù)萬(wàn)億的邊,且還在不斷增長(zhǎng)A)結(jié)構(gòu)化數(shù)據(jù)B)圖數(shù)據(jù)C)大數(shù)據(jù)D)云端數(shù)據(jù)答案:B解析:圖數(shù)據(jù)規(guī)模呈指數(shù)級(jí)增長(zhǎng),可能達(dá)到數(shù)十億的頂點(diǎn)和數(shù)萬(wàn)億的邊,且還在不斷增長(zhǎng)[單選題]47.假設(shè)您已在數(shù)據(jù)集上擬合了一個(gè)復(fù)雜的回歸模型。現(xiàn)在,您正在使用Ridge回歸,并調(diào)整參數(shù)人以減少其復(fù)雜性。下面的描述哪個(gè)表達(dá)了偏差和方差與義的關(guān)系()。A)在4非常小的情況下,偏差低,方差低B)在義非常小的情況下,偏差低,方差高C)在人非常小的情況下,偏差高,方差低D)在義非常小的情況下,偏差低,方差低答案:B解析:人很小,則意味著模型比較復(fù)雜,在這種情況下,會(huì)產(chǎn)生偏差低且方差高的結(jié)果,模型會(huì)對(duì)數(shù)據(jù)過(guò)擬合。[單選題]48.哪一個(gè)是終止一個(gè)前臺(tái)進(jìn)程可能用到的命令和操作()。A)killB)<Ctrl>+CC)shutdownD)halt答案:B解析:[單選題]49.()主要用來(lái)存放領(lǐng)域?qū)<姨峁┑膶?zhuān)門(mén)知識(shí)。A)知識(shí)庫(kù)B)專(zhuān)家?guī)霤)數(shù)據(jù)庫(kù)D)文件庫(kù)答案:A解析:[單選題]50.ROIAlign在哪個(gè)模型被采用()A)fastRCNNB)fasterRCNNC)maskRCNND)YOLOv3答案:C解析:ROIAlign在maskRCNN被采用[單選題]51.下列關(guān)于線性回歸分析中的殘差說(shuō)法正確的是()。A)殘差均值總是為零B)殘差均值總是約等于零C)殘差均值總是大于零D)以上答案都不正確答案:A解析:線性回歸分析中,目標(biāo)是殘差最小化。殘差平方和是關(guān)于參數(shù)的函數(shù),為了求殘差極小值,令殘差關(guān)于參數(shù)的偏導(dǎo)數(shù)為零,會(huì)得到殘差和為零,即殘差均值為零。[單選題]52.半監(jiān)督學(xué)習(xí)不包括A)直推學(xué)習(xí)B)純半監(jiān)督學(xué)習(xí)C)主動(dòng)學(xué)習(xí)D)圖半監(jiān)督學(xué)習(xí)答案:C解析:[單選題]53.變量選擇是用來(lái)選擇最好的判別器子集,如果要考慮模型效率,我們應(yīng)該做哪些變量選擇的考慮?:1.多個(gè)變量其實(shí)有相同的用處2.變量對(duì)于模型的解釋有多大作用3.特征攜帶的信息4.交叉驗(yàn)證A)1和4B)1,2和3C)1,3和4D)以上所有答案:C解析:這題的題眼是考慮模型效率,所以不要考慮選項(xiàng)2[單選題]54.下列哪些不是目前機(jī)器學(xué)習(xí)所面臨的問(wèn)題是()。A)測(cè)試集的規(guī)模B)維度災(zāi)難C)特征工程D)過(guò)擬合答案:A解析:目前,機(jī)器學(xué)習(xí)領(lǐng)域所面臨的主要挑戰(zhàn)包括過(guò)擬合(。verfiring)、維度災(zāi)難(Curse。fDimensi。nality)、特征工程(FeatureEngineeringX算法的可擴(kuò)展性(Scalability)和模型集成。[單選題]55.被稱(chēng)為?神經(jīng)網(wǎng)絡(luò)之父?和?人工智能教父?的是()。A)辛頓B)赫布C)明斯基D)魯梅爾哈特答案:A解析:[單選題]56.對(duì)于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是()A)軟間隔B)硬間隔C)核函數(shù)D)以上選項(xiàng)均不正確答案:C解析:對(duì)于線性不可分的數(shù)據(jù),支持向量機(jī)的解決方式是核函數(shù)[單選題]57.在處理序列數(shù)據(jù)時(shí),較容易出現(xiàn)梯度消失現(xiàn)象的深度學(xué)習(xí)模型是A)CNNB)LSTMC)GRUD)RNN答案:D解析:RNN(RecurrentNeuralNetwork)是一類(lèi)用于處理序列數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)。RNN存在一些問(wèn)題梯度較容易出現(xiàn)衰減或爆炸(BPTT)-梯度爆炸[單選題]58.單個(gè)Agent的結(jié)構(gòu)按屬性可以分為多個(gè)類(lèi)別,下列不屬于其中的是()A)反應(yīng)式體系結(jié)構(gòu)B)慎思式體系結(jié)構(gòu)C)混合式體系結(jié)構(gòu)D)單體式體系結(jié)構(gòu)答案:D解析:[單選題]59.關(guān)于聚類(lèi)說(shuō)法錯(cuò)誤的是()A)在無(wú)監(jiān)督學(xué)習(xí)任務(wù)中,研究最多、應(yīng)用最廣的是聚類(lèi)B)聚類(lèi)可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),但不能作為其他學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程C)聚類(lèi)分析的目標(biāo)是組內(nèi)的對(duì)象之間是相似的,不同組中的對(duì)象是不同的D)組內(nèi)的相似性越大,組間差別越大,聚類(lèi)就越好答案:B解析:聚類(lèi)可作為一個(gè)單獨(dú)過(guò)程,用于找尋數(shù)據(jù)內(nèi)在的分布結(jié)構(gòu),可以作為其他學(xué)習(xí)任務(wù)的前驅(qū)過(guò)程[單選題]60.決定人工神經(jīng)網(wǎng)絡(luò)性能的要素不包含()A)神經(jīng)元的特性B)神經(jīng)元之間相互連接的形式--拓?fù)浣Y(jié)構(gòu)C)為適應(yīng)環(huán)境而改善性能的學(xué)習(xí)規(guī)則D)非線性激勵(lì)函數(shù)答案:D解析:[單選題]61.當(dāng)前自動(dòng)駕駛技術(shù)的發(fā)展現(xiàn)狀是什么?A)已經(jīng)實(shí)現(xiàn)了真正意義上的無(wú)人駕駛B)尚不完善,仍然需要人的手動(dòng)干預(yù)C)技術(shù)上已經(jīng)比較成熟,可以處理復(fù)雜的交通狀況D)技術(shù)上已經(jīng)非常成熟,行駛過(guò)程中已經(jīng)不需要人的干預(yù)了答案:B解析:[單選題]62.無(wú)人駕駛的攝像頭,是利用什么技術(shù)來(lái)做出判斷的?A)圖像識(shí)別B)人臉識(shí)別C)語(yǔ)音識(shí)別D)文字識(shí)別答案:A解析:[單選題]63.()是指為最小化總體風(fēng)險(xiǎn),只需在每個(gè)樣本上選擇能使特定條件風(fēng)險(xiǎn)最小的類(lèi)別標(biāo)記。A)支持向量機(jī)B)間隔最大化C)線性分類(lèi)器D)貝葉斯判定準(zhǔn)則答案:D解析:[單選題]64.機(jī)器學(xué)習(xí)不包括()。A)監(jiān)督學(xué)習(xí)B)強(qiáng)化學(xué)習(xí)C)非監(jiān)督學(xué)習(xí)D)群體學(xué)習(xí)答案:D解析:[單選題]65.機(jī)器學(xué)習(xí)與科學(xué)計(jì)算的結(jié)合,即()和()的融合計(jì)算,為科學(xué)研究提供了新的手段和范式,成為了前沿計(jì)算的典型代表。A)數(shù)據(jù)、機(jī)理B)模型、策略C)數(shù)據(jù)、策略D)機(jī)理、模型答案:A解析:機(jī)器學(xué)習(xí)與科學(xué)計(jì)算的結(jié)合,即數(shù)據(jù)、機(jī)理的融合計(jì)算,為科學(xué)研究提供了新的手段和范式,成為了前沿計(jì)算的典型代表。[單選題]66.基于Boosting的集成學(xué)習(xí)代表算法不包含()。A)AdaboostB)GBDTC)XGBooSTD)隨機(jī)森林答案:D解析:基于Boosting的集成學(xué)習(xí)代表算法包含Adaboost、GBDT,XGBooST,隨機(jī)森林是基于Bagging的集成學(xué)習(xí)算法。[單選題]67.人工智能的概念最早由()于1950年提出,同時(shí)提出了一個(gè)機(jī)器智能的測(cè)試模型。A)明斯基B)扎德C)圖靈D)馮.諾依曼答案:C解析:[單選題]68.下列對(duì)無(wú)人機(jī)系統(tǒng)用電池描述中,對(duì)于類(lèi)型、單體電壓、充放電特性、用途描述正確的是()。A)鋰聚合物,基本無(wú)記憶效應(yīng)、過(guò)放漲肚、大電流放電,適用于動(dòng)力電源B)鉛酸蓄電池,有記憶效應(yīng)、大電流放電,廉價(jià)適用于啟動(dòng)電源C)鎳氫電池,無(wú)記憶效應(yīng)、大電流放電,適用于設(shè)備電源D)堿性電池,不可充電,適用于無(wú)人機(jī)練習(xí)機(jī)答案:A解析:[單選題]69.循環(huán)神經(jīng)網(wǎng)絡(luò)的英語(yǔ)簡(jiǎn)寫(xiě)是:A)CNNB)RNNC)DNND)CTC答案:B解析:循環(huán)神經(jīng)網(wǎng)絡(luò)的英語(yǔ)簡(jiǎn)寫(xiě)是RNN[單選題]70.LVW屬于哪種特征選擇方法(___)A)包裹式B)啟發(fā)式C)嵌入式D)過(guò)濾式答案:A解析:[單選題]71.Python中的變量var如果包含字符串的內(nèi)容,下面哪種數(shù)據(jù)類(lèi)型不可能創(chuàng)建var?A)listB)stringC)charD)dict答案:C解析:char只能存儲(chǔ)一個(gè)字符[單選題]72.在機(jī)場(chǎng)或車(chē)站安裝安防系統(tǒng),通過(guò)查詢(xún)目標(biāo)人像數(shù)據(jù)尋找數(shù)據(jù)中是否存在重點(diǎn)人口基本信息,來(lái)抓捕在逃案犯,采用的人工智能技術(shù)是()A)人臉記憶B)人臉?biāo)阉鰿)人臉識(shí)別D)人臉認(rèn)知答案:C解析:[單選題]73.已知dic1={'A':1,'B':2,'C':3,'D':4}下列代碼哪個(gè)是修改dic1的數(shù)據(jù)?A)x=dic1['A']B)dic1['E']=5C)dic1['A']=5D)dic1['A']+5答案:C解析:[單選題]74.在德國(guó)漢諾威CeBIT展會(huì)開(kāi)幕式上,阿里巴巴集團(tuán)執(zhí)行主席馬云發(fā)布并現(xiàn)場(chǎng)演示了人臉識(shí)別支付技術(shù)。其中利用計(jì)算機(jī)對(duì)物理對(duì)象進(jìn)行分類(lèi),在錯(cuò)誤概率*小的條件下,使識(shí)別的結(jié)果盡量與客觀物體相符合的方法主要屬于人工智能的分支學(xué)科()A)神經(jīng)網(wǎng)絡(luò)B)數(shù)據(jù)挖掘C)機(jī)器學(xué)習(xí)D)模式識(shí)別答案:D解析:[單選題]75.模式識(shí)別的一般過(guò)程包括對(duì)待識(shí)別事物采集樣本、數(shù)字化樣本信息、提取數(shù)字特征、學(xué)習(xí)和識(shí)別,其核心是()A)采集樣本和數(shù)字化信息B)數(shù)字化樣本信息和提取數(shù)字特征C)提取數(shù)字特征和學(xué)習(xí)D)學(xué)習(xí)和識(shí)別答案:C解析:[單選題]76.下列協(xié)作方法,不是多智能體系統(tǒng)的協(xié)作方法的是()A)合同網(wǎng)協(xié)作方法B)市場(chǎng)機(jī)制協(xié)作方法C)黑板模型協(xié)作方法D)自由貿(mào)易協(xié)作方法答案:D解析:[單選題]77.檢測(cè)一元正態(tài)分布中的離群點(diǎn),屬于異常檢測(cè)中的基于()的離群點(diǎn)檢測(cè)。A)統(tǒng)計(jì)方法B)鄰近度C)密度D)機(jī)器學(xué)習(xí)技術(shù)答案:A解析:略。[單選題]78.人工智能誕生于什么地方?()A)達(dá)特茅斯B)倫敦C)紐約D)拉斯維加斯答案:A解析:[單選題]79.在框架結(jié)構(gòu)中,一個(gè)()用于描述對(duì)象相應(yīng)屬性的一個(gè)方面。A)側(cè)面B)域C)槽D)值答案:A解析:[單選題]80.?數(shù)字化服務(wù)?要深入落實(shí)()的服務(wù)理念,踐行新時(shí)代?雙滿(mǎn)意?工程,提升用戶(hù)體驗(yàn)。A)以技術(shù)為中心B)以能源轉(zhuǎn)型為中心C)以客戶(hù)為中心D)以電力交易為中心答案:C解析:[單選題]81.常用的圖像特征包括A)顏色特征B)形狀特征C)紋理特征D)像素特征答案:D解析:[單選題]82.從給定的句子、段落中識(shí)別人名、地名、機(jī)構(gòu)名、專(zhuān)有名詞的過(guò)程稱(chēng)為?A)詞干提取B)停用詞C)詞形還原D)命名實(shí)體識(shí)別答案:D解析:命名實(shí)體識(shí)別,是指識(shí)別文本中具有特定意義的實(shí)體,主要包括人名、地名、機(jī)構(gòu)名、專(zhuān)有名詞等[單選題]83.()是專(zhuān)家系統(tǒng)與領(lǐng)域?qū)<?、知識(shí)工程師、一般用戶(hù)之間進(jìn)行交互的界面。A)人機(jī)接口B)知識(shí)庫(kù)C)解釋機(jī)構(gòu)D)輸入界面答案:A解析:[單選題]84.在人臉?lè)诸?lèi)的實(shí)驗(yàn)中描述錯(cuò)的選項(xiàng)是()。A)利用PYTHON程序B)輸入圖像是較清晰的幾M圖片C)同樣特征的圖像輸出放在同一個(gè)文件夾中D)一幅輸入圖片可以有多張人臉答案:B解析:[單選題]85.數(shù)據(jù)科學(xué)基本原則中,?基于數(shù)據(jù)的智能?的主要特點(diǎn)是()。A)數(shù)據(jù)簡(jiǎn)單、但算法簡(jiǎn)單B)數(shù)據(jù)復(fù)雜、但算法簡(jiǎn)單C)數(shù)據(jù)簡(jiǎn)單、但算法復(fù)雜D)數(shù)據(jù)復(fù)雜、但算法復(fù)雜答案:B解析:數(shù)據(jù)科學(xué)對(duì)?智能的實(shí)現(xiàn)方式?有了新的認(rèn)識(shí)--從?基于算法的智能?到?基于數(shù)據(jù)的智能?過(guò)渡。?基于數(shù)據(jù)的智能?的重要特點(diǎn)是?數(shù)據(jù)復(fù)雜,但算法簡(jiǎn)單?。[單選題]86.以下關(guān)于邏輯回歸說(shuō)法不正確的是A)logistic回歸本質(zhì)上是線性回歸B)邏輯回歸支持二分類(lèi)和多分類(lèi)問(wèn)題,但不支持連續(xù)特征C)logistic回歸在特征到結(jié)果的映射中加入了一層函數(shù)映射,即先把特征線性求和,然后使用函數(shù)g(z)作為假設(shè)函數(shù)來(lái)預(yù)測(cè)。D)邏輯回歸支持二分類(lèi)和多分類(lèi)問(wèn)題,支持類(lèi)別特征,但類(lèi)別特征在字符串索引后需要進(jìn)行one-hot算子處理。答案:B解析:[單選題]87.考慮以下問(wèn)題:假設(shè)我們有一個(gè)5層的神經(jīng)網(wǎng)絡(luò),這個(gè)神經(jīng)網(wǎng)絡(luò)在使用一個(gè)4GB顯存顯卡時(shí)需要花費(fèi)3個(gè)小時(shí)來(lái)完成訓(xùn)練。而在測(cè)試過(guò)程中,單個(gè)數(shù)據(jù)需要花費(fèi)2秒的時(shí)間。如果我們現(xiàn)在把架構(gòu)變換一下,當(dāng)評(píng)分是0.2和0.3時(shí),分別在第2層和第4層添加Dropout,那么新架構(gòu)的測(cè)試所用時(shí)間會(huì)變?yōu)槎嗌??A)少于2sB)大于2sC)仍是2sD)說(shuō)不準(zhǔn)答案:C解析:[單選題]88.()是實(shí)現(xiàn)人工智能的?引擎?。A)算法B)數(shù)據(jù)C)計(jì)算能力D)語(yǔ)音識(shí)別答案:A解析:[單選題]89.以下說(shuō)法中錯(cuò)誤的是()A)SVM對(duì)噪聲(如來(lái)自其他分部的噪聲樣本)具備魯棒性B)在adaoost算法中,所有被分錯(cuò)樣本的權(quán)重更新比例不相同C)boosting和bagging都是組合多個(gè)分類(lèi)器投票的方法,二者都是根據(jù)單個(gè)分類(lèi)器的正確率確定其權(quán)重D)給定n個(gè)數(shù)據(jù)點(diǎn),如果其中一半用于訓(xùn)練,一半用戶(hù)測(cè)試,則訓(xùn)練誤差和測(cè)試誤差之間的差別會(huì)隨著n的增加而減少的答案:C解析:[單選題]90.如果線性回歸模型中的隨機(jī)誤差存在異方差性,那么參數(shù)的。LS估計(jì)量是()。A)無(wú)偏的,有效的B)無(wú)偏的,非有效的C)有偏的,有效的D)有偏的,非有效的答案:B解析:OLS即普通最小二乘法,由高斯-馬爾可夫定理可知,在給定經(jīng)典線性回歸的假定下,最小二乘估計(jì)量是具有最小方差的線性無(wú)偏估計(jì)量。根據(jù)證明過(guò)程可知,隨機(jī)誤差中存在異方差性不會(huì)影響其無(wú)偏性,而有效性證明中涉及同方差性,即異方差性會(huì)影響參數(shù)。LS估計(jì)量的有效性,得到的參數(shù)估計(jì)量不是有效估計(jì)量。[單選題]91.按照人類(lèi)語(yǔ)言功能的不同層次,語(yǔ)音合成可以分為三個(gè)層次,不包括()。A)從文字到語(yǔ)音的合成B)從思想到語(yǔ)音的合成C)從概念到語(yǔ)音的合成D)從意向到語(yǔ)音的合成答案:B解析:[單選題]92.下面哪個(gè)描述不屬于邱琦-圖靈論題所包含的意思()A)凡是可計(jì)算的函數(shù)都可以用圖靈機(jī)計(jì)算B)任何計(jì)算,如果存在一個(gè)有效過(guò)程,它就能被圖靈機(jī)實(shí)現(xiàn)C)有些數(shù)學(xué)問(wèn)題是不可求解的(圖靈不可停機(jī)的)D)任何表達(dá)力足夠強(qiáng)的(遞歸可枚舉)形式系統(tǒng)同時(shí)滿(mǎn)足一致性和完備性答案:D解析:[單選題]93.下列核函數(shù)特性描述錯(cuò)誤的是(___)A)只要一個(gè)對(duì)稱(chēng)函數(shù)所對(duì)應(yīng)的核矩陣半正定,就能稱(chēng)為核函數(shù);B)核函數(shù)選擇作為支持向量機(jī)的最大變數(shù);C)核函數(shù)將影響支持向量機(jī)的性能;D)核函數(shù)是一種降維模型;答案:D解析:[單選題]94.關(guān)于Apriori算法的原理敘述錯(cuò)誤的是()。A)Apriori算法通常使用先驗(yàn)知識(shí)或者假設(shè)B)如果某個(gè)項(xiàng)集是頻繁的,那么它的所有子集也是頻繁的C)如果一個(gè)項(xiàng)集是非頻繁集,那么它的所有超集也是非頻繁的D)Apriori算法不可以用來(lái)發(fā)現(xiàn)頻繁集答案:D解析:Apriori算法可以用來(lái)發(fā)現(xiàn)頻繁集。[單選題]95.以下屬于考慮詞語(yǔ)位置關(guān)系的模型有()。A)詞向量模型B)詞袋模型C)詞的分布式表示D)TF-IDF答案:A解析:詞向量模型考慮通過(guò)中間詞預(yù)測(cè)鄰近詞,需要考慮詞語(yǔ)順序位置。[單選題]96._____是百度AI人臉對(duì)比的接口。A)client.matchB)client.detectC)client.searchD)client.faceDelete答案:A解析:[單選題]97.數(shù)據(jù)集增強(qiáng)對(duì)()是特別有效的方法,圖像是高維的并包括各種巨大的變化因素,其中有許多可以輕易地模擬。A)對(duì)象識(shí)別B)圖像識(shí)別C)對(duì)象讀取D)圖像讀取答案:A解析:[單選題]98.以下兩種描述分別對(duì)應(yīng)哪兩種對(duì)分類(lèi)算法的評(píng)價(jià)標(biāo)準(zhǔn)?(2)描述有多少比例的小偷給警察抓了的標(biāo)準(zhǔn)。A)精確率B)召回率C)ROCD)AUC答案:B解析:[單選題]99.一段音頻的采樣率是16kHz,量化位是16位,則該音頻的比特率是()。A)128kb/sB)48kb/sC)256kb/sD)512kb/s答案:D解析:[單選題]100.機(jī)器學(xué)習(xí)的三要素為()。①數(shù)據(jù)②算法③模型④策略A)①③B)②③④C)①②④D)①②③④答案:B解析:[單選題]101.常用的路徑規(guī)劃算法有A*算法等,A*算法公式是F(n)=g(n)+h(n)中的g(n)代表的含義是()。A)距離起點(diǎn)的代價(jià)B)距離終點(diǎn)的代價(jià)C)當(dāng)前節(jié)點(diǎn)的代價(jià)D)未來(lái)節(jié)點(diǎn)的代價(jià)答案:A解析:[單選題]102.()用語(yǔ)音方式輸出用戶(hù)想要的信息。A)語(yǔ)音識(shí)別B)語(yǔ)音分析C)語(yǔ)音合成D)語(yǔ)音理解答案:C解析:[單選題]103.力傳感器通常不會(huì)安裝在以下哪個(gè)位置()。A)機(jī)座B)手指指尖C)機(jī)器人腕部D)關(guān)節(jié)驅(qū)動(dòng)器軸上答案:A解析:[單選題]104.關(guān)于遺傳算法的初始種群規(guī)模,下面說(shuō)法錯(cuò)誤的是()A)群體規(guī)模太小,遺傳算法的優(yōu)化性能不太好,易陷入局部最優(yōu)解。B)群體規(guī)模太大,計(jì)算復(fù)雜C)若群體規(guī)模為M,則遺傳操作可從這M個(gè)個(gè)體中生成和檢測(cè)M3個(gè)模式,并在此基礎(chǔ)上能夠不斷形成和優(yōu)化積木塊,直到找到最優(yōu)解D)為便于獲取到最優(yōu)解,初始群體規(guī)模應(yīng)該越大越好答案:D解析:[單選題]105.在Python文件操作中,使用關(guān)鍵字()可以在文件訪問(wèn)后自動(dòng)將其關(guān)閉。A)assertB)breakC)nonlocalD)with答案:D解析:在Python文件操作中,使用關(guān)鍵字with可以在文件訪問(wèn)后自動(dòng)將其關(guān)閉。[單選題]106.強(qiáng)化學(xué)習(xí)的回報(bào)值一個(gè)重要特點(diǎn)是具有()。A)客觀性B)主體性C)超前性D)滯后性答案:D解析:[單選題]107.2016年3月,人工智能程序()在韓國(guó)首爾以4:1的比分戰(zhàn)勝的人類(lèi)圍棋冠軍李世石。A)AlphaGoB)DeepMindC)DeepblueD)AlphaGoZero答案:A解析:[單選題]108.()不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類(lèi)型的神經(jīng)網(wǎng)絡(luò)。A)感知機(jī)B)神經(jīng)元C)神經(jīng)系統(tǒng)D)誤差逆?zhèn)鞑ゴ鸢?D解析:誤差逆?zhèn)鞑?errorBackPr。pagati。n,BP)算法不僅可用于多層前饋神經(jīng)網(wǎng)絡(luò),還可用于其他類(lèi)型的神經(jīng)網(wǎng)絡(luò),如訓(xùn)練遞歸神經(jīng)網(wǎng)絡(luò)[PinedA.1987]。[單選題]109.已知a={?fruits?:pear,?animals?:dog,?vegetables?:carrot},則a[?animals?]的值為()A)pearB)dogC)carrotD)以上選項(xiàng)均不正確答案:B解析:[單選題]110.在其他條件不變的前提下,()容易引起機(jī)器學(xué)習(xí)中的過(guò)擬合問(wèn)題。A)增加訓(xùn)練集量B)減少神經(jīng)網(wǎng)絡(luò)隱藏層節(jié)點(diǎn)數(shù)C)刪除稀疏的特征D)SVM算法中使用高斯核/RBF核代替線性核答案:D解析:神經(jīng)網(wǎng)絡(luò)減少隱藏層節(jié)點(diǎn),就是在減少參數(shù),只會(huì)將訓(xùn)練誤差變高,不會(huì)導(dǎo)致過(guò)擬合。D選項(xiàng)中SVM高斯核函數(shù)比線性核函數(shù)模型更復(fù)雜,容易過(guò)擬合。[單選題]111.計(jì)算機(jī)接收到的數(shù)字圖像是由()組成的。A)色彩B)分辨率C)像素點(diǎn)D)粒度答案:C解析:[單選題]112.()不屬于特征選擇的標(biāo)準(zhǔn)方法。A)嵌入B)過(guò)濾C)包裹D)抽樣答案:D解析:特征選擇的三種方法分別是過(guò)濾式(filter)、包裹式(wrapper)和嵌入式(embedded)。[單選題]113.感知機(jī)描述錯(cuò)誤的是:(___)A)感知機(jī)根據(jù)正確的程度進(jìn)行權(quán)重調(diào)整;B)輸入層接收外界輸入信號(hào)傳遞給輸出層;C)輸出層是M-P神經(jīng)元;D)感知機(jī)能容易實(shí)現(xiàn)邏輯與、或、非運(yùn)算;答案:A解析:[單選題]114.Inception模塊可以并行執(zhí)行多個(gè)具有不同尺度的卷積運(yùn)算或池化操作,下列網(wǎng)絡(luò)運(yùn)用Inception的是()A)VGGB)GoogLeNetC)fast-RCNND)faster-RCNN答案:B解析:Inception模塊可以并行執(zhí)行多個(gè)具有不同尺度的卷積運(yùn)算或池化操作,下列網(wǎng)絡(luò)運(yùn)用Inception的是GoogLeNet[單選題]115.在深度學(xué)習(xí)中,我們經(jīng)常會(huì)遇到收斂到locahninimum,下面不屬于解決localminimum問(wèn)題的方法是()。A)隨機(jī)梯度下降B)設(shè)置MonentumC)設(shè)置不同初始值D)增大batch答案:D解析:增大batchsize無(wú)法解決l。calminimum問(wèn)題。[單選題]116.numpy數(shù)組的ndim屬性是()?A)數(shù)組的維度B)各維度大小的元組C)行數(shù)D)列數(shù)答案:A解析:[單選題]117.計(jì)算機(jī)軟件系統(tǒng)分系統(tǒng)軟件和應(yīng)用軟件兩大類(lèi),其中系統(tǒng)軟件的核心是()A)數(shù)據(jù)庫(kù)管理系統(tǒng)B)操作系統(tǒng)C)程序語(yǔ)言系統(tǒng)D)財(cái)務(wù)管理系統(tǒng)答案:B解析:[單選題]118.在Python程序中,已知x=2,y=1,當(dāng)執(zhí)行語(yǔ)句y+=x*2,y的值是()A)3B)4C)5D)6答案:C解析:[單選題]119.關(guān)于梯度下降算法描述正確的是:A)梯度下降算法就是不斷的更新w和b的值B)梯度下降算法就是不斷的更新w和b的導(dǎo)數(shù)值C)梯度下降算法就是不斷尋找損失函數(shù)的最大值D)梯度下降算法就是不斷更新學(xué)習(xí)率答案:A解析:梯度下降算法就是不斷的更新w和b的值[單選題]120.Word2Vec提出了哪兩個(gè)算法訓(xùn)練詞向量?A)COBWSoftmaxB)Softmax、CBOWC)CBOW、Skip-gramDD)Skip-gramCOBWC答案:C解析:Word2Vec提出了兩個(gè)算法訓(xùn)練詞向量[單選題]121.對(duì)長(zhǎng)度為n的線性表作快速排序,在最壞情況下,比較次數(shù)為_(kāi)__________。A)n(n-1)/2B)n(n-1)C)n-1D)n答案:A解析:[單選題]122.以下哪種不屬于機(jī)器人觸覺(jué)()。A)視覺(jué)B)壓覺(jué)C)力覺(jué)D)滑覺(jué)答案:A解析:[單選題]123.一般而言,在個(gè)體學(xué)習(xí)器性能相差較大時(shí)宜使用(),而在個(gè)體學(xué)習(xí)器性能相近時(shí)宜使用()。A)簡(jiǎn)單平均法,加權(quán)平均法B)加權(quán)平均法,簡(jiǎn)單平均法C)簡(jiǎn)單平均法,簡(jiǎn)單平均法D)加權(quán)平均法,加權(quán)平均法答案:B解析:[單選題]124.matpltlib中繪制圖形,通過(guò)更改繪圖框的尺寸來(lái)設(shè)置相等的縮放比例的參數(shù)是()。A)scaledB)equalC)autoD)normal答案:A解析:[單選題]125.以下圖像分割方法中,不屬于基于圖像灰度分布的閾值方法的是()。A)類(lèi)間最大距離法B)最大類(lèi)間、內(nèi)方差比法C)p-參數(shù)法D)區(qū)域生長(zhǎng)法答案:B解析:[單選題]126.黨中央提出加快數(shù)字化發(fā)展,推進(jìn)()和產(chǎn)業(yè)數(shù)字化轉(zhuǎn)型,建設(shè)?數(shù)字中國(guó)?。A)數(shù)字產(chǎn)業(yè)化B)數(shù)字網(wǎng)絡(luò)化C)數(shù)字智能化D)智能產(chǎn)業(yè)化答案:A解析:[單選題]127.知識(shí)獲取的正確過(guò)程是()A)抽取知識(shí)、知識(shí)的轉(zhuǎn)換、知識(shí)的輸入、知識(shí)的檢測(cè)B)知識(shí)的檢測(cè)、知識(shí)的轉(zhuǎn)換、知識(shí)的輸入、抽取知識(shí)C)知識(shí)的轉(zhuǎn)換、抽取知識(shí)、知識(shí)的檢測(cè)D)知識(shí)的輸入、抽取知識(shí)、知識(shí)的轉(zhuǎn)換、知識(shí)的檢測(cè)答案:A解析:[單選題]128.一個(gè)真正的通用人工智能系統(tǒng)應(yīng)具備處理()問(wèn)題的能力。A)全局性B)局部性C)專(zhuān)業(yè)性D)統(tǒng)一性答案:A解析:[單選題]129.樣本數(shù)據(jù)類(lèi)別未知,需要根據(jù)樣本間的相似性對(duì)樣本集進(jìn)行分類(lèi)的是()A)監(jiān)督學(xué)習(xí)B)非監(jiān)督學(xué)習(xí)C)訓(xùn)練D)測(cè)試答案:B解析:[單選題]130.關(guān)于集成學(xué)習(xí),下列說(shuō)法錯(cuò)誤的是A)集成學(xué)習(xí)一定能提升個(gè)體學(xué)習(xí)器的性能B)Bagging方法中,個(gè)體學(xué)習(xí)器之間彼此獨(dú)立C)Boosting是一種重視錯(cuò)誤樣本的學(xué)習(xí)方法D)Boosting方法中,個(gè)體學(xué)習(xí)器存在強(qiáng)依賴(lài)答案:A解析:[單選題]131.關(guān)于正態(tài)分布,下列說(shuō)法錯(cuò)誤的是A)正態(tài)分布具有集中性和對(duì)稱(chēng)性B)正態(tài)分布的均值和方差能夠決定正態(tài)分布的位置和形態(tài)C)正態(tài)分布的偏度為0,峰度為1D)標(biāo)準(zhǔn)正態(tài)分布的均值為0,方差為1E)新一代技術(shù)平臺(tái)F)新一代信息技術(shù)和服務(wù)業(yè)態(tài)G)新一代服務(wù)業(yè)態(tài)H)新一代信息技術(shù)答案:B解析:第2部分:多項(xiàng)選擇題,共54題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]132.狀態(tài)空間搜索策略有哪些?A)博弈搜索B)盲目搜索C)啟發(fā)式搜索D)剪枝搜索答案:BC解析:[多選題]133.下列哪幾項(xiàng)屬于基于物品的協(xié)同過(guò)濾算法?()A)用戶(hù)購(gòu)買(mǎi)了周杰倫的CD《七里香》,商家給用戶(hù)推薦周杰倫的《依然范特西》B)用戶(hù)A是一位入門(mén)跑友,商家給用戶(hù)A推薦跑友圈非?;鸬囊浑p跑鞋C)用戶(hù)購(gòu)買(mǎi)了青山剛昌的《名偵探柯南》,商家給用戶(hù)推薦柯南道爾的《福爾摩斯探案集》D)用戶(hù)購(gòu)買(mǎi)了一只新手機(jī),商家給用戶(hù)推薦手機(jī)貼膜和手機(jī)套答案:ACD解析:[多選題]134.ASIC芯片的優(yōu)勢(shì)包括()。A)通用性強(qiáng)B)高性能C)低功耗D)小體積答案:BCD解析:[多選題]135.下面關(guān)于決策樹(shù)的說(shuō)法,正確的是:A)決策樹(shù)有二叉樹(shù)和多叉樹(shù)B)建立決策樹(shù)模型的時(shí)候,可能不需要用到數(shù)據(jù)集中的所有特征來(lái)建立決策樹(shù)節(jié)點(diǎn)的分裂規(guī)則C)決策樹(shù)子節(jié)點(diǎn)分裂時(shí),選擇的是最優(yōu)的特征進(jìn)行分裂D)決策樹(shù)只能用于分類(lèi)答案:ABC解析:[多選題]136.利用RPA技術(shù)能實(shí)現(xiàn)的場(chǎng)景功能是A)物體自動(dòng)搬運(yùn)B)數(shù)據(jù)遷移和數(shù)據(jù)輸入C)從不同文件中提取數(shù)據(jù)D)發(fā)票處理答案:BCD解析:[多選題]137.下列現(xiàn)象屬于乘性噪聲有()。A)電視光柵的退化B)二值圖像上的椒鹽噪聲C)信道傳輸受擾D)膠片材料的退化答案:AD解析:乘性噪聲是信道特征隨機(jī)變化引起的噪聲,因此電視光柵和膠片材料的退化屬于乘性噪聲,而椒鹽噪聲、傳輸受干擾屬于加性噪聲。[多選題]138.中國(guó)工.程院在2015年啟動(dòng)《中國(guó)人工智能2.0發(fā)展戰(zhàn)略研究》,人工智能從1.0越變?yōu)?.0,主要表現(xiàn)在.()A)從人工知識(shí)表達(dá)技術(shù)到大數(shù)據(jù)驅(qū)動(dòng)知識(shí)學(xué)習(xí)回B)從處理類(lèi)型単一的數(shù)據(jù)到跨媒體認(rèn)知、學(xué)習(xí)和推理C)從追求?機(jī)器智能?邁向人機(jī)混合的?増強(qiáng)智能?D)從機(jī)器人到白主無(wú)人系統(tǒng)答案:ABCD解析:[多選題]139.關(guān)于Python語(yǔ)言的浮點(diǎn)數(shù)類(lèi)型,以下選項(xiàng)中描述正確的是A)浮點(diǎn)數(shù)類(lèi)型表示帶有小數(shù)的類(lèi)型B)Python語(yǔ)言要求所有浮點(diǎn)數(shù)必須帶有小數(shù)部分C)小數(shù)部分不可以為0D)浮點(diǎn)數(shù)類(lèi)型與數(shù)學(xué)中實(shí)數(shù)的概念一致答案:ABD解析:[多選題]140.下列關(guān)于Ridge回歸,說(shuō)法正確的是()?A)若λ=0,則等價(jià)于一般的線性回歸B)若λ=0,則不等價(jià)于一般的線性回歸C)若λ=+∞,則得到的權(quán)重系數(shù)很小,接近于零D)若λ=+∞,則得到的權(quán)重系數(shù)很大,接近與無(wú)窮大答案:AC解析:[多選題]141.神經(jīng)元分為三種不同類(lèi)型的層次:A)輸入層B)隱藏層C)傳輸層D)輸出層答案:ABD解析:[多選題]142.下列選項(xiàng)屬于靜態(tài)圖缺點(diǎn)的是()A)代碼編寫(xiě)較為簡(jiǎn)潔和方便B)計(jì)算圖構(gòu)建很長(zhǎng)時(shí)間后才提示錯(cuò)誤C)無(wú)法使用pdb或print語(yǔ)句調(diào)試執(zhí)行D)控制流與Python不同,造成一定的學(xué)習(xí)門(mén)檻答案:BCD解析:[多選題]143.數(shù)據(jù)挖掘算法的組件包括()。A)模型或模型結(jié)構(gòu)B)評(píng)分函數(shù)C)優(yōu)化和搜索方法D)數(shù)據(jù)管理策略答案:ABCD解析:數(shù)據(jù)挖掘算法的組件包括模型或模型結(jié)構(gòu)、評(píng)分函數(shù)、優(yōu)化和搜索方法、數(shù)據(jù)管理策略。[多選題]144.一個(gè)完整的人工神經(jīng)網(wǎng)絡(luò)包括()。A)一層輸入層B)多層分析層C)多層隱藏層D)兩層輸出層答案:AC解析:五、判斷[多選題]145.關(guān)于K-means聚類(lèi)算法說(shuō)法正確的是()A)對(duì)大數(shù)據(jù)集有較高的效率并且具有可伸縮性。B)是一種無(wú)監(jiān)督學(xué)習(xí)方法。C)k值無(wú)法自動(dòng)獲取,初始聚類(lèi)中心隨機(jī)選擇。D)初始聚類(lèi)中心的選擇對(duì)聚類(lèi)結(jié)果影響不大。答案:ABC解析:[多選題]146.自然語(yǔ)言處理研究的難點(diǎn)有()A)歧義B)未知詞C)錯(cuò)詞D)詞庫(kù)答案:ABC解析:[多選題]147.以下描述中屬于Analytics2.0的主要特點(diǎn)的是()。A)側(cè)重嵌入式分析B)重視非結(jié)構(gòu)化數(shù)據(jù)的分析C)以決策支持為主要目的D)注重解釋性分析和預(yù)測(cè)性分析答案:BCD解析:著名管理學(xué)家Th。masHDavemp。rt于2013年在《哈佛商業(yè)論壇(HarvardBusinessReview))上發(fā)表一篇題為《第三代分析學(xué)(Analytics3.0)》的論文,將數(shù)據(jù)分析的方法、技術(shù)和工具--分析學(xué)(Analytics)分為三個(gè)不同時(shí)代--商務(wù)智能時(shí)代、大數(shù)據(jù)時(shí)代和數(shù)據(jù)富足供給時(shí)代,即Analytics1.0、Analytics2.0和Analytics3.0。其中,Analytics2.0的主要特點(diǎn)有分析活動(dòng)與數(shù)據(jù)的生成幾乎同步,強(qiáng)調(diào)數(shù)據(jù)分析的實(shí)時(shí)性;重視非結(jié)構(gòu)化數(shù)據(jù)的分析;以決策支持為主要目的;注重解釋性分析和預(yù)測(cè)性分析。[多選題]148.采用生理模擬和神經(jīng)計(jì)算方法的人工智能研究被稱(chēng)為()A)連接主義B)邏輯學(xué)派C)生理學(xué)派D)符號(hào)主義答案:AC解析:[多選題]149.關(guān)于冪律分布說(shuō)法正確的事()A)對(duì)集成學(xué)習(xí)影響較大B)基于相空間的距離進(jìn)行分類(lèi)與回歸的效果都變差C)對(duì)k-means影響不大D)概率模型為基礎(chǔ)的算法影響相對(duì)比較小答案:BD解析:[多選題]150.以下屬于文本預(yù)處理方法的是()。A)小寫(xiě)(lowercasing)B)提取詞干(stemming)C)詞形化(lemmatization)D)文字?jǐn)U充與詞嵌套答案:ABCD解析:[多選題]151.RPA總體架構(gòu)應(yīng)滿(mǎn)足什么要求A)RPA通用組件應(yīng)提供流程編排和流程執(zhí)行基礎(chǔ)能力引擎,通過(guò)成果庫(kù)統(tǒng)一管理RPA流程成果B)RPA執(zhí)行器運(yùn)行成果庫(kù)流程,模擬員工在業(yè)務(wù)系統(tǒng)和中臺(tái)/平臺(tái)的操作,代替或輔助員工進(jìn)行業(yè)務(wù)場(chǎng)景的流程自動(dòng)化操作C)RPA通用組件應(yīng)協(xié)同電力人工智能平臺(tái),以及語(yǔ)音識(shí)別、OCR、NLP、知識(shí)圖譜、人臉識(shí)別等組件,通過(guò)能力調(diào)用支撐RPA相關(guān)應(yīng)用需求D)總部和省公司的應(yīng)用成果可實(shí)現(xiàn)三級(jí)共享,應(yīng)支持地市公司運(yùn)行數(shù)據(jù)上報(bào)至省公司。答案:ABC解析:[多選題]152.對(duì)掃描的文檔做字符識(shí)別是,由于掃描件沒(méi)有擺放好,文字有角度,造成識(shí)別困難??墒褂孟旅娴哪男┘夹g(shù)手段進(jìn)行校正?A)灰度變換B)旋轉(zhuǎn)變換C)仿射變換D)透視變換答案:BCD解析:[多選題]153.面向?qū)ο蟮娜筇匦訟)封裝B)繼承C)多態(tài)D)獨(dú)立答案:ABC解析:[多選題]154.關(guān)于信息熵,下列說(shuō)法正確的是。A)變量的不確定性越大,熵也就越大B)一個(gè)系統(tǒng)越是有序,信息熵就越高C)信息熵也可以說(shuō)是系統(tǒng)有序化程度的一個(gè)度量D)信息熵是對(duì)信息源整體不確定性的度量答案:ACD解析:信息熵,描述信息源各可能事件發(fā)生的不確定性.來(lái)源于熱力學(xué)第二定律,一個(gè)系統(tǒng)越是有序,信息熵就越低;反之,一個(gè)系統(tǒng)越是混亂,信息熵就越高。所以,信息熵也可以說(shuō)是系統(tǒng)有序化程度的一個(gè)度量。答案ACD[多選題]155.在Hive架構(gòu)中支持對(duì)數(shù)據(jù)的操作有()。A)插入B)查詢(xún)C)刪除D)分析答案:BD解析:Hive提供簡(jiǎn)單的HiveQL查詢(xún)功能,可以較好地滿(mǎn)足基于數(shù)據(jù)倉(cāng)庫(kù)的統(tǒng)計(jì)分析需要。[多選題]156.下面對(duì)LDA判別分析的思想描述,正確的是()。A)同類(lèi)樣例的投影點(diǎn)盡可能近B)異類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)C)同類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)D)異類(lèi)樣例的投影點(diǎn)盡可能近答案:AB解析:LDA的思想非常樸素,即給定訓(xùn)練樣例集,設(shè)法將樣例投影到一條直線上,使得同類(lèi)樣例的投影點(diǎn)盡可能接近、異類(lèi)樣例的投影點(diǎn)盡可能遠(yuǎn)離。在對(duì)新樣本進(jìn)行分類(lèi)時(shí),將其投影到同樣的這條直線上,再根據(jù)投影點(diǎn)的位置來(lái)確定新樣本的類(lèi)別。[多選題]157.以下常用于處理離散特征的方法有()A)ImputerB)OneHotencoderC)NormalizerD)LabelEncoder答案:BD解析:[多選題]158.已測(cè)量級(jí)(MeasuredLevel)的主要特點(diǎn)包括()。A)已構(gòu)建了關(guān)鍵過(guò)程矩陣B)已定義了變革管理的正式流程C)已實(shí)現(xiàn)用定量化方式計(jì)算關(guān)鍵過(guò)程的質(zhì)量和效率D)關(guān)鍵過(guò)程的質(zhì)量和效率的管理涉及整個(gè)生命周期答案:ABCD解析:DMM的已測(cè)量級(jí)(MeasuredLevel):組織機(jī)構(gòu)已用?定量化?的方式管理其關(guān)鍵過(guò)程的執(zhí)行過(guò)程。主要特點(diǎn)如下:①已構(gòu)建了關(guān)鍵過(guò)程矩陣;②已定義了變革管理的正式流程;③已實(shí)現(xiàn)用定量化方式計(jì)算關(guān)鍵過(guò)程的質(zhì)量和效率;④關(guān)鍵過(guò)程的質(zhì)量和效率的管理涉及其全生命周期。[多選題]159.圖像數(shù)字化需要經(jīng)過(guò)的步驟包括()A)采樣B)裁剪C)量化D)旋轉(zhuǎn)答案:AC解析:[多選題]160.下面關(guān)于機(jī)器人目前發(fā)展進(jìn)化的說(shuō)法正確的是()。A)仍舊標(biāo)準(zhǔn)化程序的學(xué)習(xí)B)無(wú)法做到?頓悟?C)無(wú)法實(shí)現(xiàn)從?量變?到?質(zhì)變?D)具有自我意識(shí)答案:BCD解析:[多選題]161.因?yàn)闄C(jī)器在進(jìn)行人臉檢測(cè)、分析和識(shí)別的過(guò)程中需要對(duì)人臉圖像進(jìn)行(),所以皮膚顏色越深,面部的特征信息就越難提取,尤其是在一些暗光情況下,更加難以檢測(cè)和區(qū)分。A)變形B)預(yù)處理C)特征提取D)扭曲答案:BC解析:[多選題]162.下列是svm核函數(shù)的是()A)多項(xiàng)式核函數(shù)B)logistic核函數(shù)C)徑向基核函數(shù)D)sigmoid核函數(shù)答案:ACD解析:[多選題]163.下列屬于字符串匹配的分詞方法的是()。A)正向最大匹配法(由左到右的方向)B)逆向最大匹配法(由右到左的方向)C)最少切分(使每一句中切出的詞數(shù)最?。〥)雙向最大匹配法(進(jìn)行由左到右、由右到左兩次掃描)答案:ABCD解析:正向最大匹配、逆向最大匹配、最少切分、雙向最大匹配都屬于字符串匹配的常用方法。[多選題]164.設(shè)隨機(jī)變量X,Y獨(dú)立同分布,且X的分布函數(shù)為F(x),則Z=max{X,Y}的分布函數(shù)不可能是()。A)F(x)^2B)F(x)F(y)C)1-[1-F(x)]^2D)[1-F(x)][1-F(y)]答案:BCD解析:[多選題]165.BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)包含了()。A)卷積層B)輸入層C)隱層D)輸出層答案:BCD解析:[多選題]166.關(guān)于RPA開(kāi)發(fā)規(guī)范說(shuō)明正確的是A)統(tǒng)一全局,促進(jìn)團(tuán)隊(duì)協(xié)作B)規(guī)范個(gè)人開(kāi)發(fā)能力C)變量命名越多越好D)有助于知識(shí)傳遞,加快工作交接答案:ABD解析:[多選題]167.原則上RPA可應(yīng)用在各業(yè)務(wù)專(zhuān)業(yè)()類(lèi)的工作A)機(jī)械性B)重復(fù)性C)周期性D)無(wú)規(guī)則性答案:ABC解析:[多選題]168.以下說(shuō)法正確的是()。A)條件獨(dú)立性假設(shè)不成立時(shí),樸素貝葉斯分類(lèi)器仍有可能產(chǎn)生最優(yōu)貝葉斯分類(lèi)器B)在估計(jì)概率值時(shí)使用的拉普拉斯修正避免了因訓(xùn)練集樣本不充分而導(dǎo)致概率估值C)由于馬爾可夫鏈通常很快就能趨于平穩(wěn)分布,因此吉布斯采樣算法的收斂速度D)二分類(lèi)任務(wù)中兩類(lèi)數(shù)據(jù)滿(mǎn)足高斯分布且方差相同時(shí),線性判別分析產(chǎn)生貝葉斯最答案:ABD解析:由于馬爾可夫鏈通常需要很長(zhǎng)時(shí)間才能趨于平穩(wěn)分布,因此吉布斯采樣算法的收斂速度較慢。[多選題]169.下列哪項(xiàng)是關(guān)鍵詞歸一化技術(shù)?A)詞干提?。⊿temming)B)詞性標(biāo)注(PartofSpeech)C)命名實(shí)體識(shí)別(NamedEntityRecognition)D)詞形還原(Lemmatization)答案:AD解析:[多選題]170.傳統(tǒng)目標(biāo)檢測(cè)提取特征的方式有()A)SIFTB)HOGC)SVMD)Adaboost答案:AB解析:[多選題]171.下列描述正確的是A)類(lèi)中包含數(shù)據(jù)(屬性)和方法(或操作)類(lèi)是對(duì)象的實(shí)例類(lèi)中包含數(shù)據(jù)(屬性)和方法(或操作)B)類(lèi)是對(duì)象的實(shí)例C)類(lèi)中包含對(duì)數(shù)據(jù)的操作(方法)D)類(lèi)具有抽象性答案:ACD解析:將屬性、操作相似的對(duì)象歸結(jié)為類(lèi),也就是說(shuō),類(lèi)是具有共同屬性、共同方法的對(duì)象的集合。所以,類(lèi)是對(duì)象的抽象,它描述了屬于該對(duì)象類(lèi)型的所有對(duì)象的性質(zhì),而一個(gè)對(duì)象則是其對(duì)應(yīng)類(lèi)的一個(gè)實(shí)例。[多選題]172.公司數(shù)字化轉(zhuǎn)型框架為?3-6-3-4?,即依托(),實(shí)施(),運(yùn)用(),強(qiáng)化(),全力建設(shè)智慧國(guó)網(wǎng)。A)三大要素驅(qū)動(dòng)B)六大核心任務(wù)C)三類(lèi)轉(zhuǎn)型方式D)四個(gè)戰(zhàn)略保障答案:ABCD解析:[多選題]173.在訓(xùn)練神經(jīng)網(wǎng)絡(luò)來(lái)學(xué)習(xí)分類(lèi)任務(wù)前,應(yīng)優(yōu)先考慮()問(wèn)題。A)確定輸入層和輸出層的結(jié)點(diǎn)數(shù)目。B)選擇網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)C)初始化權(quán)值和偏置D)去掉有遺漏值的訓(xùn)練樣例,或用最合理的值來(lái)代替答案:ABCD解析:[多選題]174.大數(shù)據(jù)的處理需要經(jīng)過(guò)幾個(gè)流程?A)數(shù)據(jù)加工B)數(shù)據(jù)采集C)數(shù)據(jù)建模D)數(shù)據(jù)清洗答案:ABCD解析:[多選題]175.下列哪些是DataFrame的特點(diǎn)?A)表格型的數(shù)據(jù)結(jié)構(gòu),含有一組無(wú)序的列,每列可以是不同的值類(lèi)型B)既有行索引,也有列索引,可被看做有Series組成的字典C)與其他類(lèi)似的數(shù)據(jù)結(jié)構(gòu)相比(如R語(yǔ)言的datframe),DataFrame中面向行和面向列的操作基本上是平衡的D)數(shù)據(jù)一一個(gè)或多個(gè)二維塊存放,而不是列表、字典或別的一維數(shù)據(jù)結(jié)構(gòu)答案:BCD解析:[多選題]176.以下屬于角點(diǎn)提取的特征描述算法的有。A)CannyB)HOGC)SURFD)SIFT答案:BCD解析:對(duì)特征的描述有很多種方法和算子,常見(jiàn)的有SIFT特征描述算子、SURF特征描述算子、ORB特征描述算子、HOG特征描述、LBP特征描述以及Harr特征描述。Canny算法是多級(jí)邊緣檢測(cè)算法。答案BCD[多選題]177.人工智能大體可以分為()。A)機(jī)器人工智能B)專(zhuān)用人工智能C)通用人工智能D)推理人工智能E)學(xué)習(xí)人工智能答案:BC解析:[多選題]178.下面哪些屬于可視化高維數(shù)據(jù)技術(shù)()A)矩陣B)平行坐標(biāo)系C)星形坐標(biāo)D)散布圖E)Chernoff臉答案:ABCE解析:[多選題]179.狀態(tài)空間是利用()表示系統(tǒng)或問(wèn)題的有關(guān)知識(shí)的符號(hào)體系。A)狀態(tài)變量B)狀態(tài)符號(hào)C)操作符號(hào)D)操作變量E)數(shù)值答案:AC解析:[多選題]180.緊跟電力()等端到端關(guān)鍵技術(shù),積極參與總部5G行業(yè)標(biāo)準(zhǔn)體系制定工作,將核心技術(shù)攻關(guān)成果納入總部標(biāo)準(zhǔn)體系范疇,推動(dòng)電力行業(yè)5G標(biāo)準(zhǔn)體系完善工作。A)5B)網(wǎng)絡(luò)切片應(yīng)用C)通信終端D)邊緣計(jì)算E)大數(shù)據(jù)中心答案:ABC解析:第3部分:判斷題,共68題,請(qǐng)判斷題目是否正確。[判斷題]181.人工智能研究的先驅(qū)者認(rèn)為人的智能主要表現(xiàn)在人能學(xué)習(xí)知識(shí)和運(yùn)用知識(shí)上,知識(shí)是智能的基礎(chǔ)。于是學(xué)者們把專(zhuān)門(mén)的知識(shí)集、規(guī)則集和附加過(guò)程組成知識(shí)庫(kù),開(kāi)發(fā)出許多專(zhuān)家系統(tǒng)(英文縮寫(xiě)為ES),在領(lǐng)域獲得成功()。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]182.蟻群算法成功的運(yùn)用于連續(xù)優(yōu)化問(wèn)題上。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]183.R-CNN的系列算法分成兩個(gè)階段,先在圖像上產(chǎn)生候選區(qū)域,再對(duì)候選區(qū)域進(jìn)行分類(lèi)并預(yù)測(cè)目標(biāo)物體位置,它們通常被叫做兩階段檢測(cè)算法。SSD和YOLO算法則只使用一個(gè)網(wǎng)絡(luò)同時(shí)產(chǎn)生候選區(qū)域并預(yù)測(cè)出物體的類(lèi)別和位置,所以它們通常被叫做單階段檢測(cè)算法。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]184.數(shù)據(jù)處理包含五個(gè)部分:數(shù)據(jù)導(dǎo)入、數(shù)據(jù)形狀變換、數(shù)據(jù)集劃分、數(shù)據(jù)歸一化處理和封裝loaddata函數(shù)A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]185.信息量就是信息熵。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]186.物聯(lián)網(wǎng)采集到各類(lèi)信息后,直接對(duì)信息進(jìn)行識(shí)別和分析,來(lái)實(shí)現(xiàn)物與物、物與人的泛在連接。A)正確B)錯(cuò)誤答案:錯(cuò)解析:物聯(lián)網(wǎng)采集到各類(lèi)信息后,需要通過(guò)各類(lèi)可能的網(wǎng)絡(luò)接入,實(shí)現(xiàn)物與物、物與人的泛在連接[判斷題]187.數(shù)據(jù)預(yù)處理在實(shí)際的數(shù)據(jù)挖掘項(xiàng)目中是花費(fèi)時(shí)間最長(zhǎng)也是最為繁瑣的步驟。()A)正確B)錯(cuò)誤答案:對(duì)解析:略[判斷題]188.?智能硬件之父?是多倫多大學(xué)教授史蒂夫曼恩(SteveMann)。()A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]189.Python內(nèi)置字典是無(wú)序的,如果需要一個(gè)可以記住元素插入順序的字典,可以使用collections.OrderedDict。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]190.Python中單下劃線_foo可以直接用于?frommoduleimport*?A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]191.?如果x是金屬,則x能導(dǎo)電?,?銅是金屬?可以推出?銅能導(dǎo)電?。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]192.當(dāng)作為條件表達(dá)式時(shí),空值、空字符串、空列表、空元組、空字典、空集合、空迭代對(duì)象以及任意形式的數(shù)字0都等價(jià)于False。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]193.人工智能算法設(shè)計(jì)與優(yōu)化需要以海量?jī)?yōu)質(zhì)數(shù)據(jù)資源為基礎(chǔ)。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]194.設(shè)P(Y|theta)為觀測(cè)數(shù)據(jù)的似然函數(shù),thetai為EM算法得到的參數(shù)估計(jì)序列,P(Y|thetai)為對(duì)應(yīng)的似然函數(shù)序列,則P(Y|thetai)是單調(diào)遞減的。A)正確B)錯(cuò)誤答案:錯(cuò)解析:設(shè)P(Y|theta)為觀測(cè)數(shù)據(jù)的似然函數(shù),thetai為EM算法得到的參數(shù)估計(jì)序列,P(Y|thetai)為對(duì)應(yīng)的似然函數(shù)序列,則P(Y|thetai)是單調(diào)遞增的。[判斷題]195.數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測(cè)數(shù)據(jù)等任務(wù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]196.pip命令也支持?jǐn)U展名為.whl的文件直接安裝Python擴(kuò)展庫(kù)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]197.在解決函數(shù)優(yōu)化問(wèn)題時(shí),基因遺傳算法的全局性不好,容易陷入局部最優(yōu)值。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]198.數(shù)據(jù)體現(xiàn)業(yè)務(wù)本質(zhì)和內(nèi)涵,遵從業(yè)務(wù)的邏輯和關(guān)聯(lián)關(guān)系,依據(jù)業(yè)務(wù)才能更好實(shí)現(xiàn)對(duì)數(shù)據(jù)的全生命周期統(tǒng)一管理。()A)正確B)錯(cuò)誤答案:對(duì)解析:略[判斷題]199.文字錯(cuò)誤率指語(yǔ)音內(nèi)容標(biāo)注錯(cuò)誤,只要有一個(gè)字錯(cuò),該條語(yǔ)音就算錯(cuò)。A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]200.在以連接主義為基礎(chǔ)的神經(jīng)網(wǎng)絡(luò)中,每個(gè)節(jié)點(diǎn)都能表達(dá)特定的意義。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]201.高斯模型就是用高斯密度函數(shù)精確地量化事物,將一個(gè)事物分解為若干個(gè)基于伯努利分布的模型。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]202.softmax的結(jié)果求和為1。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]203.強(qiáng)化學(xué)習(xí)的基本模型就是個(gè)體-環(huán)境的交互。個(gè)體/智能體(agent)就是能夠采取一系列行動(dòng)并且期望獲得較高收益或者達(dá)到某一目標(biāo)的部分,A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]204.人工智能會(huì)受到運(yùn)算能力高低的影響A)正確B)錯(cuò)誤答案:對(duì)解析:人工智能會(huì)受到運(yùn)算能力高低的限制[判斷題]205.機(jī)器人之父是圖靈。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]206.AI作為決策系統(tǒng)的前提是信息采集和自動(dòng)化實(shí)施要完備A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]207.Docker可以讓開(kāi)發(fā)者打包他們的應(yīng)用以及依賴(lài)包到一個(gè)輕量級(jí)、可移植的容器中,然后發(fā)布到任何流行的Linux機(jī)器上,也可以實(shí)現(xiàn)虛擬化。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]208.1943年,神經(jīng)網(wǎng)絡(luò)的開(kāi)山之作《Alogicalcalculusofideasimmanentinnervousactivity》,由沃倫.麥卡洛克和沃爾特.皮茨完成。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]209.一個(gè)卷積核對(duì)應(yīng)于檢測(cè)一種類(lèi)型的特征A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]210.Saas是一種基于互聯(lián)網(wǎng)提供軟件服務(wù)的應(yīng)用模式。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]211.特征提取技術(shù)并不依賴(lài)于特定的領(lǐng)域。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:特征提取技術(shù)一般與領(lǐng)域相關(guān)。[判斷題]212.人工智能芯片擁有巨大的產(chǎn)業(yè)價(jià)值和戰(zhàn)略地位A)正確B)錯(cuò)誤答案:對(duì)解析:正確[判斷題]213.np.ones不可以創(chuàng)建全為1的數(shù)組A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]214.當(dāng)數(shù)據(jù)集過(guò)大時(shí),受數(shù)據(jù)挖掘算法的復(fù)雜度或空間復(fù)雜度的限制,需要對(duì)數(shù)據(jù)集抽樣才能對(duì)其進(jìn)行有效的分析處理,抽樣的方式包括,隨機(jī)抽樣、分層抽樣、等軸抽樣法、整群抽樣法、漸進(jìn)抽樣法。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]215.機(jī)器翻譯屬于自然語(yǔ)言處理技術(shù)的典型應(yīng)用。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]216.Sigmoid是神經(jīng)網(wǎng)絡(luò)中最常用到的一種激活函數(shù),除非當(dāng)梯度太大導(dǎo)致激活函數(shù)被彌散,這叫作神經(jīng)元飽和,這就是為什么ReLU會(huì)被提出來(lái),因?yàn)镽eLU可以使得梯度在正向時(shí)輸出值與原始值一樣。這意味著在神經(jīng)網(wǎng)絡(luò)中ReLU單元永遠(yuǎn)不會(huì)飽和。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]217.自動(dòng)化處理技術(shù)除了自動(dòng)化抓取界面信息、鍵盤(pán)和鼠標(biāo)模擬技術(shù),還包括office自動(dòng)化、對(duì)Windows原生應(yīng)用的自動(dòng)化、電子郵件的自動(dòng)化。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]218.Python中,常說(shuō)的變量類(lèi)型是指變量指向的對(duì)象的數(shù)據(jù)類(lèi)型A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]219.Spark本身并沒(méi)有提供分布式文件系統(tǒng),因此Spark的分析大多依賴(lài)于Hadoop的分布式文件系統(tǒng)HDFS。()A)正確B)錯(cuò)誤答案:對(duì)解析:略[判斷題]220.梯度下降算法是最常用也是最有效的神經(jīng)網(wǎng)絡(luò)的優(yōu)化辦法,完全可以滿(mǎn)足不同類(lèi)型的需求。()A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]221.圖像特征庫(kù)提取算是種降維的思想,可以有效降低圖像數(shù)據(jù)的數(shù)據(jù)量A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]222.機(jī)器學(xué)習(xí)對(duì)噪音數(shù)據(jù)具有高承受能力,并能對(duì)未經(jīng)過(guò)訓(xùn)練的數(shù)據(jù)具有分類(lèi)能力,但其需要很長(zhǎng)的訓(xùn)練時(shí)間,因而對(duì)于有足夠長(zhǎng)訓(xùn)練時(shí)間的應(yīng)用更合適。A)正確B)錯(cuò)誤答案:對(duì)解析:0[判斷題]223.目標(biāo)檢測(cè)相對(duì)于圖像分類(lèi)的作用是要得到目標(biāo)的坐標(biāo)A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]224.在paddle環(huán)境下指定第一張GPU的命令為paddle.device.set_device('GPU:1')A)正確B)錯(cuò)誤答案:錯(cuò)解析:在paddle環(huán)境下指定第一張GPU的命令為paddle.device.set_device('GPU:0')[判斷題]225.介導(dǎo)現(xiàn)實(shí)在虛擬世界、現(xiàn)

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶(hù)所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶(hù)上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶(hù)上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶(hù)因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論