人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第1頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第2頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第3頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第4頁(yè)
人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)_第5頁(yè)
已閱讀5頁(yè),還剩19頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

試卷科目:人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)(習(xí)題卷3)PAGE"pagenumber"pagenumber/SECTIONPAGES"numberofpages"numberofpages人工智能機(jī)器學(xué)習(xí)技術(shù)練習(xí)第1部分:?jiǎn)雾?xiàng)選擇題,共62題,每題只有一個(gè)正確答案,多選或少選均不得分。[單選題]1.支持向量機(jī)可以解決()A)分類問(wèn)題B)回歸問(wèn)題C)分類問(wèn)題和回歸問(wèn)題答案:C解析:[單選題]2.假設(shè)有n組數(shù)據(jù)集,每組數(shù)據(jù)集中,x的平均值都是9,x的方差都是11,y的平均值都是7.50,x與y的相關(guān)系數(shù)都是0.816,擬合的線性回歸方程都是y=3.00+0.500*x。那么這n組數(shù)據(jù)集是否一樣?A)一樣B)不一樣C)無(wú)法確定答案:C解析:[單選題]3.下列哪個(gè)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)會(huì)發(fā)生權(quán)重共享?A)卷積神經(jīng)網(wǎng)絡(luò)B)循環(huán)神經(jīng)網(wǎng)絡(luò)C)全連接神經(jīng)網(wǎng)絡(luò)D)選項(xiàng)A和B答案:D解析:[單選題]4.人工智能未來(lái)發(fā)展的三個(gè)層次包括(A)弱人工智能B)強(qiáng)人工智能C)超人工智自D)以上全對(duì),答案:D解析:[單選題]5.線性回歸能完成的任務(wù)是A)預(yù)測(cè)離散值B)預(yù)測(cè)連續(xù)值C)分類D)聚類答案:B解析:[單選題]6.有監(jiān)督的學(xué)習(xí)和無(wú)監(jiān)督的學(xué)習(xí)的根本區(qū)別在于()A)學(xué)習(xí)過(guò)程是否需要人工干預(yù)B)學(xué)習(xí)樣本是否需要人工標(biāo)記C)學(xué)習(xí)結(jié)果是否需要人工解釋D)學(xué)習(xí)參數(shù)是否需要人工設(shè)置答案:B解析:[單選題]7.?以下關(guān)于訓(xùn)練集、驗(yàn)證集和測(cè)試集說(shuō)法不正確的是()。A)驗(yàn)證集用于調(diào)整模型參數(shù)B)測(cè)試集是純粹是用于測(cè)試模型泛化能力C)以上說(shuō)法都不對(duì)D)訓(xùn)練集是用來(lái)訓(xùn)練以及評(píng)估模型性能答案:D解析:[單選題]8.核矩陣是(__)的。A)沒(méi)有規(guī)律B)半正定C)正定D)樣本矩陣答案:B解析:[單選題]9.下圖是兩個(gè)不同β0、β1對(duì)應(yīng)的邏輯回歸模型(綠色和黑色):關(guān)于兩個(gè)邏輯回歸模型中的β0、β1值,下列說(shuō)法正確的是?注意:y=β0+β1*x,β0是截距,β1是權(quán)重系數(shù)。A)綠色模型的β1比黑色模型的β1大B)綠色模型的β1比黑色模型的β1小C)兩個(gè)模型的β1相同D)以上說(shuō)法都不對(duì)答案:B解析:邏輯回歸模型最終還要經(jīng)過(guò)Sigmoid非線性函數(shù),Sigmoid是增函數(shù),其圖形與上圖中的黑色模型相近。黑色模型是增函數(shù),說(shuō)明其β1>0,綠色模型是減函數(shù),說(shuō)明其β1<0。所以,得出結(jié)論:綠色模型的β1比黑色模型的β1小。[單選題]10.以下關(guān)于大數(shù)據(jù)分析說(shuō)法錯(cuò)誤的是A)Python和R雖然都能用于數(shù)據(jù)分析,但它們相互獨(dú)立,不能互相調(diào)用B)云計(jì)算為大數(shù)據(jù)分析提供了便利C)數(shù)據(jù)分析可以用于銷售、營(yíng)銷、客戶服務(wù)等企業(yè)應(yīng)用中D)數(shù)據(jù)分析可以用于廣告、教育、政府等特定行業(yè)應(yīng)用中答案:A解析:[單選題]11.隱馬爾可夫模型是一種著名的(__)模型。A)無(wú)向圖B)有向圖C)樹(shù)形圖D)環(huán)形圖答案:B解析:[單選題]12.以下哪個(gè)步驟不是機(jī)器學(xué)習(xí)所需的預(yù)處理工作()。A)數(shù)值屬性的標(biāo)準(zhǔn)化B)變量相關(guān)性分析C)異常值分析D)與用戶討論分析需求答案:D解析:[單選題]13.有如下數(shù)據(jù)集,則頻繁3-項(xiàng)集為:class="fr-ficfr-dibcursor-hover"A){O,K,E}B){M,U,E}C){N,K,O}D){Y,U,E}答案:A解析:[單選題]14.使用似然函數(shù)的目的是()。A)求解目標(biāo)函數(shù)B)得到最優(yōu)數(shù)據(jù)樣本C)找到最適合數(shù)據(jù)的參數(shù)D)改變目標(biāo)函數(shù)分布答案:C解析:似然估計(jì)是一種確定模型參數(shù)值的方法。確定參數(shù)值的過(guò)程,是找到能最大化模型產(chǎn)生真實(shí)觀察數(shù)據(jù)可能性的那一組參數(shù)。[單選題]15.()是基于TopicModel的關(guān)鍵詞抽取。A)TF-IDFB)TextRankC)LDAD)PCA答案:C解析:[單選題]16.計(jì)算Numpy中元素個(gè)數(shù)的方法是()。A)np.sqrt()B)np.size()C)np.identity()D)np.nid()答案:B解析:[單選題]17.關(guān)于支持向量機(jī)SVM,下列說(shuō)法錯(cuò)誤的是()A)L2正則項(xiàng),作用是最大化分類間隔,使得分類器擁有更強(qiáng)的泛化能力B)Hinge損失函數(shù),作用是最小化經(jīng)驗(yàn)分類錯(cuò)誤C)分類間隔為1/||w||,||w||代表向量的模D)當(dāng)參數(shù)C越小時(shí),分類間隔越大,分類錯(cuò)誤越多,趨于欠學(xué)習(xí)答案:C解析:A正確??紤]加入正則化項(xiàng)的原因:想象一個(gè)完美的數(shù)據(jù)集,y>1是正類,y<-1是負(fù)類,決策面y=0,加入一個(gè)y=-30的正類噪聲樣本,那么決策面將會(huì)變?歪?很多,分類間隔變小,泛化能力減小。加入正則項(xiàng)之后,對(duì)噪聲樣本的容錯(cuò)能力增強(qiáng),前面提到的例子里面,決策面就會(huì)沒(méi)那么?歪?了,使得分類間隔變大,提高了泛化能力。B正確。C錯(cuò)誤。間隔應(yīng)該是2/||w||才對(duì),后半句應(yīng)該沒(méi)錯(cuò),向量的模通常指的就是其二范數(shù)。D正確??紤]軟間隔的時(shí)候,C對(duì)優(yōu)化問(wèn)題的影響就在于把a(bǔ)的范圍從[0,+inf]限制到了[0,C]。C越小,那么a就會(huì)越小,目標(biāo)函數(shù)拉格朗日函數(shù)導(dǎo)數(shù)為0可以求出w=求和,a變小使得w變小,因此間隔2/||w||變大[單選題]18.下列關(guān)于F1值的計(jì)算正確的是(__)。A)F1值=正確率*召回率*/(正確率+召回率)B)F1值=正確率*召回率*2/(正確率+召回率)C)F1值=正確率*2/(正確率+召回率)D)F1值=召回率*2/(正確率+召回率)答案:B解析:[單選題]19.下列神經(jīng)網(wǎng)絡(luò)的組織特性描述錯(cuò)誤的是A)可以模擬生物神經(jīng)系統(tǒng)B)面向真實(shí)世界物體C)面向仿真環(huán)境物體D)作出交互反應(yīng)答案:C解析:[單選題]20.下列哪個(gè)不屬于常用的文本分類的特征選擇算法?A)卡方檢驗(yàn)值B)互信息C)信息增益D)主成分分析答案:D解析:[單選題]21.下面不屬于農(nóng)業(yè)的有(__)。A)farmersB)farmlogsC)prosperaD)uber答案:D解析:[單選題]22.信息熵的值越小,則該樣本集合的純度(__)。A)越低B)越高C)沒(méi)有影響D)自由變化答案:B解析:[單選題]23.如果對(duì)相同的數(shù)據(jù)進(jìn)行邏輯回歸,將花費(fèi)更少的時(shí)間,并給出比較相似的精度(也可能不一樣),怎么辦?(假設(shè)在龐大的數(shù)據(jù)集上使用Logistic回歸模型??赡苡龅揭粋€(gè)問(wèn)題,Logistic回歸需要很長(zhǎng)時(shí)間才能訓(xùn)練。)A)降低學(xué)習(xí)率,減少迭代次數(shù)B)降低學(xué)習(xí)率,增加迭代次數(shù)C)提高學(xué)習(xí)率,增加迭代次數(shù)D)增加學(xué)習(xí)率,減少迭代次數(shù)答案:D解析:如果在訓(xùn)練時(shí)減少迭代次數(shù),就能花費(fèi)更少的時(shí)間獲得相同的精度,但需要增加學(xué)習(xí)率。[單選題]24.下列()不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。A)與同一時(shí)期其他數(shù)據(jù)對(duì)比B)可視化C)基于模板的方法D)主觀興趣度量答案:A解析:[單選題]25.?SVM中的代價(jià)參數(shù)C表示什么?A)交叉驗(yàn)證的次數(shù)B)以上都不對(duì)C)用到的核函數(shù)D)在分類準(zhǔn)確性和模型復(fù)雜度之間的權(quán)衡答案:D解析:[單選題]26.根據(jù)某個(gè)詞所連接所有詞匯的權(quán)重,重新計(jì)算該詞匯的權(quán)重,然后把重新計(jì)算的權(quán)重傳遞下去。直到這種變化達(dá)到均衡態(tài),權(quán)重?cái)?shù)值不再發(fā)生改變。這種關(guān)鍵詞提取算法叫做()。A)TF-IDFB)TextRankC)LDAD)PCA答案:B解析:[單選題]27.設(shè)在工業(yè)檢測(cè)中工件的圖像受到零均值不相關(guān)噪聲的影響。如果工件采集裝置每秒可采集25幅圖,要采用圖像平均方法將噪聲的方差減少為單幅圖像的1/10,那么工件需保持多長(zhǎng)時(shí)間固定在采集裝置前?A)1sB)4sC)10sD)25s答案:B解析:[單選題]28.已知表test(name)的記錄如下,TomTom_greenTomlyLily代碼select*fromtestwherenamerlike'tom.*'的結(jié)果有幾條記錄A)1B)2C)3D)0答案:C解析:[單選題]29.假設(shè)一共有10篇文檔,其中某個(gè)詞A在其中10篇文章中都出現(xiàn)過(guò),另一個(gè)詞B只在其中3篇出現(xiàn)。根據(jù)逆文檔頻率,()比較關(guān)鍵。A)無(wú)B)AC)BD)A和B答案:C解析:[單選題]30.下列樸素貝葉斯估計(jì)描述錯(cuò)誤的是A)采用屬性條件獨(dú)立性假設(shè);B)假設(shè)屬性之間相互獨(dú)立;C)為了避免條件概率是所以屬性上的聯(lián)合概率;D)假設(shè)屬性之間是相關(guān)的;答案:D解析:[單選題]31.以下名稱中不屬于?屬性張成的空間?的是(___)。A)屬性空間B)樣本空間C)輸入空間D)對(duì)偶空間答案:D解析:[單選題]32.馬爾可夫隨機(jī)場(chǎng)有一組(__),這是定義在變量子集上的非負(fù)實(shí)函數(shù),主要用于定義概率分布函數(shù)。A)損失函數(shù)B)優(yōu)化函數(shù)C)激活函數(shù)D)勢(shì)函數(shù)答案:D解析:[單選題]33.(__)在訓(xùn)練的每一輪都要檢查當(dāng)前生成的基學(xué)習(xí)器是否滿足基本條件。A)支持向量機(jī)B)Boosting算法C)貝葉斯分類器D)神經(jīng)網(wǎng)絡(luò)答案:B解析:[單選題]34.下列算法中屬于圖象平滑處理的是︰A)梯度銳化B)直方圖均衡C)中值濾波D)Laplacian增強(qiáng)答案:C解析:[單選題]35.以下說(shuō)法中:①一個(gè)機(jī)器學(xué)習(xí)模型,如果有較高準(zhǔn)確率,總是說(shuō)明這個(gè)分類器是好的;②如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低;③如果增加模型復(fù)雜度,那么模型的訓(xùn)練錯(cuò)誤率總是會(huì)降低,正確的是()。A)1B)2C)3D)1、3答案:C解析:如果增加模型復(fù)雜度,那么模型的測(cè)試錯(cuò)誤率總是會(huì)降低,訓(xùn)練錯(cuò)誤率可能降低,也可能增高。[單選題]36.下面不屬于大數(shù)據(jù)4V特性有()。A)容量大B)類型多C)速度快D)應(yīng)用價(jià)值高答案:D解析:[單選題]37.數(shù)據(jù)科學(xué)家經(jīng)常使用多個(gè)算法進(jìn)行預(yù)測(cè),并將多個(gè)機(jī)器學(xué)習(xí)算法的輸出(稱為?集成學(xué)習(xí)?)結(jié)合起來(lái),以獲得比所有個(gè)體模型都更好的更健壯的輸出。則下列說(shuō)法正確的是?A)基本模型之間相關(guān)性高B)基本模型之間相關(guān)性低C)集成方法中,使用加權(quán)平均代替投票方法D)基本模型都來(lái)自于同一算法答案:B解析:本題考查的是集成學(xué)習(xí)的基本原理。集成學(xué)習(xí),顧名思義,通過(guò)將多個(gè)單個(gè)學(xué)習(xí)器集成/組合在一起,使它們共同完成學(xué)習(xí)任務(wù)。舉個(gè)例子來(lái)說(shuō)明,假如你有T個(gè)朋友,每個(gè)朋友向你預(yù)測(cè)推薦明天某支股票會(huì)漲還是會(huì)跌,那么你該選擇哪個(gè)朋友的建議呢?第一種方法是從T個(gè)朋友中選擇一個(gè)最受信任,對(duì)股票預(yù)測(cè)能力最強(qiáng)的人,直接聽(tīng)從他的建議就好。這是一種普遍的做法,對(duì)應(yīng)的就是validation的思想,即選擇犯錯(cuò)誤最小的模型。第二種方法,如果每個(gè)朋友在股票預(yù)測(cè)方面都是比較厲害的,都有各自的專長(zhǎng),那么就同時(shí)考慮T個(gè)朋友的建議,將所有結(jié)果做個(gè)投票,一人一票,最終決定出對(duì)該支股票的預(yù)測(cè)。這種方法對(duì)應(yīng)的是uniformly思想。第三種方法,如果每個(gè)朋友水平不一,有的比較厲害,投票比重應(yīng)該更大一些,有的比較差,投票比重應(yīng)該更小一些。那么,仍然對(duì)T個(gè)朋友進(jìn)行投票,只是每個(gè)人的投票權(quán)重不同。這種方法對(duì)應(yīng)的是non-uniformly的思想。第四種方法與第三種方法類似,但是權(quán)重不是固定的,根據(jù)不同的條件,給予不同的權(quán)重。比如如果是傳統(tǒng)行業(yè)的股票,那么給這方面比較厲害的朋友較高的投票權(quán)重,如果是服務(wù)行業(yè),那么就給這方面比較厲害的朋友較高的投票權(quán)重。以上所述的這四種方法都是將不同人不同意見(jiàn)融合起來(lái)的方式,這就是集成思想,即把多個(gè)基本模型結(jié)合起來(lái),得到更好的預(yù)測(cè)效果。通常來(lái)說(shuō),基本模型之間的相關(guān)性越低越好,因?yàn)槊總€(gè)模型有各自的特長(zhǎng),集成起來(lái)才更加強(qiáng)大。[單選題]38.下面關(guān)于支持向量機(jī)(SVM)的描述錯(cuò)誤的是()?A)是一種監(jiān)督式學(xué)習(xí)的方法B)可用于多分類的問(wèn)題C)是一種生成式模型D)支持非線性的核函數(shù)答案:C解析:[單選題]39.要想創(chuàng)建一個(gè)3*4的數(shù)組,下列選項(xiàng)正確的是()。A)np.arange(12).reshape(4,3)B)np.arange(12).reshape(3,4)C)np.arange(7).reshape(4,3)D)np.arange(7).reshape(3,4)答案:B解析:[單選題]40.集成學(xué)習(xí)中基分類器的選擇如何,學(xué)習(xí)效率通常越好()A)分類器相似B)都為線性分類器C)都為非線性分類器D)分類器多樣,差異大答案:D解析:[單選題]41.以下開(kāi)源軟件中經(jīng)常被用作消息隊(duì)列的是哪個(gè)A)KafkaB)MongoDBC)HadoopD)Spark答案:A解析:[單選題]42.以下對(duì)k-means聚類算法解釋正確的是()A)能自動(dòng)識(shí)別類的個(gè)數(shù),隨即挑選初始點(diǎn)為中心點(diǎn)計(jì)算B)能自動(dòng)識(shí)別類的個(gè)數(shù),不是隨即挑選初始點(diǎn)為中心點(diǎn)計(jì)算C)不能自動(dòng)識(shí)別類的個(gè)數(shù),隨即挑選初始點(diǎn)為中心點(diǎn)計(jì)算D)不能自動(dòng)識(shí)別類的個(gè)數(shù),不是隨即挑選初始點(diǎn)為中心點(diǎn)計(jì)算答案:C解析:[單選題]43.集成學(xué)習(xí)中,每個(gè)基分類器的正確率的最低要求()A)50%以上B)60%以上C)70%以上D)80%以上答案:A解析:[單選題]44.下列哪個(gè)不屬于特征的類型A)關(guān)鍵特征B)冗余特征C)相關(guān)特征D)無(wú)關(guān)特征答案:A解析:[單選題]45.當(dāng)圖像通過(guò)信道傳輸時(shí),噪聲一般與()無(wú)關(guān)。A)信道傳輸?shù)馁|(zhì)量B)出現(xiàn)的圖像信號(hào)C)是否有中轉(zhuǎn)信道的過(guò)程D)圖像在信道前后的處理答案:B解析:[單選題]46.下列數(shù)據(jù)集適用于隱馬爾可夫模型的是?A)基因數(shù)據(jù)B)影評(píng)數(shù)據(jù)C)股票市場(chǎng)價(jià)格D)以上所有答案:D解析:本題考查的是隱馬爾可夫模型適用于解決哪類問(wèn)題。隱馬爾可夫模型(HiddenMarkovModel,HMM)是關(guān)于時(shí)序的概率模型,描述一個(gè)隱藏的馬爾可夫鏈隨機(jī)生成不可觀測(cè)的狀態(tài)隨機(jī)序列,再由各個(gè)狀態(tài)生成一個(gè)觀察而產(chǎn)生觀測(cè)隨機(jī)序列的過(guò)程。因此,隱馬爾可夫模型適用于解決時(shí)間序列問(wèn)題。[單選題]47.下面關(guān)于使用hive的描述中不正確的是?A)hive中的join查詢只支持等值鏈接,不支持非等值連接B)hive的表一共有兩種類型,內(nèi)部表和外部表C)hive默認(rèn)倉(cāng)庫(kù)路徑為/user/hive/warehouse/D)hive支持?jǐn)?shù)據(jù)刪除和修改答案:B解析:[單選題]48.下面哪些說(shuō)法正確?A)線性退化系統(tǒng)一定具有相加性B)具有相加性的退化系統(tǒng)也具有一定的一致性C)具有一致性的退化系統(tǒng)也具有位置(空間)不變性D)具有位置(空間)不變性的退化系統(tǒng)是線性的答案:D解析:[單選題]49.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:A)1比特B)2.6比特C)3.2比特D)3.8比特答案:B解析:[單選題]50.下面兩張圖展示了兩個(gè)擬合回歸線(A和B),原始數(shù)據(jù)是隨機(jī)產(chǎn)生的?,F(xiàn)在,我想要計(jì)算A和B各自的殘差之和。注意:兩種圖中的坐標(biāo)尺度一樣。關(guān)于A和B各自的殘差之和,下列說(shuō)法正確的是?A)A比B高B)A比B小C)A與B相同D)以上說(shuō)法都不對(duì)答案:C解析:A和B中各自的殘差之和應(yīng)該是相同的。線性回歸模型的損失函數(shù)為:J=(XW-Y)(XW-Y)/m對(duì)損失函數(shù)求導(dǎo),并令?J=0,即可得到XW-Y=0,即殘差之和始終為零[單選題]51.在抽樣估計(jì)中,隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大,這一性質(zhì)稱為()。A)無(wú)偏性B)有效性C)及時(shí)性D)一致性答案:D解析:一致性是指隨著樣本容量的增大,樣本統(tǒng)計(jì)量接近總體參數(shù)的概率就越大。對(duì)于給定的偏差控制水平,兩者間偏差高于此控制水平的可能性越小。[單選題]52.以下描述不正確的是()。A)信息是客觀的存在B)數(shù)據(jù)等于數(shù)值C)顯性知識(shí)能夠清晰的表述和有效的轉(zhuǎn)移D)智慧是人類超出知識(shí)的那一部分能力答案:B解析:[單選題]53.操作中,能夠在神經(jīng)網(wǎng)絡(luò)中引入非線性的是(A)隨機(jī)梯度下降B)ReLU函數(shù)C)卷積函數(shù)D)以上都不正確答案:B解析:[單選題]54.多層感知機(jī)方法中,可用作神經(jīng)元的非線性激活函數(shù)()A)logisticB)范數(shù)C)線性內(nèi)積D)加權(quán)求和答案:A解析:[單選題]55.Matplotlib主要是用哪種語(yǔ)言編寫(xiě)的?()正確回答A)PythonB)javaC)C++D)C答案:A解析:[單選題]56.下列哪種歸納學(xué)習(xí)采用符號(hào)表示方式?A)經(jīng)驗(yàn)歸納學(xué)習(xí)B)遺傳算法C)聯(lián)接學(xué)習(xí)D)強(qiáng)化學(xué)習(xí)答案:A解析:[單選題]57.關(guān)于L1、L2正則化下列說(shuō)法正確的是?A)L2正則化能防止過(guò)擬合,提升模型的泛化能力,但L1做不到這點(diǎn)B)L2正則化技術(shù)又稱為L(zhǎng)assoRegularizationC)L1正則化得到的解更加稀疏D)L2正則化得到的解更加稀疏答案:C解析:[單選題]58.以下描述不正確的是(__)。A)干凈數(shù)據(jù)是相對(duì)于?臟數(shù)據(jù)?的一種提法B)整齊數(shù)據(jù)是相對(duì)于?亂數(shù)據(jù)?的一種提法C)存在缺失值的數(shù)據(jù)是亂數(shù)據(jù)D)數(shù)據(jù)質(zhì)量有問(wèn)題是臟數(shù)據(jù)答案:C解析:第2部分:多項(xiàng)選擇題,共17題,每題至少兩個(gè)正確答案,多選或少選均不得分。[多選題]59.在強(qiáng)化學(xué)習(xí)中,主體和環(huán)境之間交互的要素有()A)狀態(tài)B)動(dòng)作C)回報(bào)D)強(qiáng)化答案:ABC解析:[多選題]60.下列描述正確的是()A)進(jìn)程(Process)是程序的一次執(zhí)行過(guò)程B)線程(Thread)是比進(jìn)程更小的執(zhí)行單位C)線程不可共享相同的內(nèi)存單元D)在同一個(gè)應(yīng)用程序中可以有多個(gè)線程同時(shí)執(zhí)行答案:ABD解析:[多選題]61.關(guān)于Zookeeper選舉機(jī)制,說(shuō)法正確的有()A)優(yōu)先檢查ZXID,ZXID比較大的服務(wù)器優(yōu)先作為L(zhǎng)eaderB)如果ZXID相同,那么就比較myid,myid較大的服務(wù)器作為L(zhǎng)eader服務(wù)器C)集群的每個(gè)服務(wù)器收到投票后,首先判斷該投票的有效性,如檢查是否是本輪投票,是否來(lái)自LOOKING狀態(tài)的服務(wù)器D)每次投票后,服務(wù)器都會(huì)統(tǒng)計(jì)投票信息,判斷是否已經(jīng)有過(guò)半機(jī)器接受到相同的投票信息答案:ABCD解析:[多選題]62.下列關(guān)于自助法描述錯(cuò)誤的是(__)。A)自助法在數(shù)據(jù)集較大、難以有效劃分訓(xùn)練集或測(cè)試集是很有用B)自助法能從初始數(shù)據(jù)集中產(chǎn)生多個(gè)不同的訓(xùn)練集C)自助法產(chǎn)生的數(shù)據(jù)集沒(méi)有改變初始數(shù)據(jù)集的分布D)在初始數(shù)據(jù)量足夠時(shí),留出法和交叉驗(yàn)證法較自助法更為常用答案:AC解析:[多選題]63.線性判別分析是一種(___)算法。A)有監(jiān)督B)無(wú)監(jiān)督C)分類D)降維答案:AD解析:[多選題]64.下面屬于范數(shù)規(guī)則化的作用的是()。A)保證模型盡可能的簡(jiǎn)單,避免過(guò)擬合B)約束模型特征C)最小化問(wèn)題D)最大化問(wèn)題答案:AB解析:[多選題]65.下面屬于大數(shù)據(jù)4V特性有()。A)VolumeB)VarietyC)ValueD)Velocity答案:ABCD解析:[多選題]66.常用的樣本距離計(jì)算方法有()A)歐式距離B)余弦距離C)曼哈頓距離D)閔可夫斯基距離答案:ABCD解析:[多選題]67.多分類學(xué)習(xí)最經(jīng)典的拆分策略有__。A)一對(duì)一B)一對(duì)其余C)多對(duì)多D)多對(duì)一答案:ABC解析:[多選題]68.以下描述錯(cuò)誤的是:A)SVM是這樣一個(gè)分類器,他尋找具有最小邊緣的超平面,因此它也經(jīng)常被稱為最小邊緣分類器(minimalmarginclassifier)B)在聚類分析當(dāng)中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。C)在決策樹(shù)中,隨著樹(shù)中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗(yàn)誤差開(kāi)始增大,這是出現(xiàn)了模型擬合不足的問(wèn)題。D)聚類分析可以看作是一種非監(jiān)督的分類。答案:ABC解析:[多選題]69.機(jī)器學(xué)習(xí)中L1正則化和L2正則化的區(qū)別是?A)使用L1可以得到稀疏的權(quán)值B)使用L1可以得到平滑的權(quán)值C)使用L2可以得到稀疏的權(quán)值D)使用L2可以得到平滑的權(quán)值答案:AD解析:[多選題]70.RDD有哪些缺陷A)不支持細(xì)粒度的寫(xiě)和更新操作(如網(wǎng)絡(luò)爬蟲(chóng))B)基于內(nèi)存的計(jì)算C)擁有schema信息D)不支持增量迭代計(jì)算答案:AD解析:[多選題]71.給定兩個(gè)特征向量,以下哪些方法可以計(jì)算這兩個(gè)向量相似度?()A)歐式距離B)夾角余弦(Cosine)C)信息熵D)曼哈頓距離答案:ABD解析:[多選題]72.關(guān)于Zookeeper的Watcher,說(shuō)法正確的有()A)無(wú)論服務(wù)端還是客戶端,一旦一個(gè)Watcher被觸發(fā),Zookeeper都會(huì)將其從相應(yīng)的存儲(chǔ)中移除B)Watcher通知非常簡(jiǎn)單,只會(huì)告訴客戶端發(fā)生了事件,并不會(huì)說(shuō)明事件的具體內(nèi)容C)Watcher通知不僅會(huì)告訴客戶端發(fā)生了事件,還會(huì)說(shuō)明事件的具體內(nèi)容D)無(wú)論是客戶端還是服務(wù)端,一旦一個(gè)Watcher被觸發(fā),Zookeeper都不會(huì)將其從對(duì)應(yīng)的存儲(chǔ)中移除答案:AB解析:[多選題]73.下列哪些是zookeeper的選舉算法?()A)basicpaxosB)fastpaxosC)FastLeaderElectionD)AuthLeaderElection答案:CD解析:[多選題]74.影響K近鄰算法分類效果的因素有A)K的取值B)距離計(jì)算方式C)樣本的數(shù)量D)樣本的稀疏程度答案:AB解析:[多選題]75.HadoopH框架的缺陷有()A)MRM編程框架的限制B)過(guò)多的磁盤(pán)操作,缺乏對(duì)分布式內(nèi)存的支持C)無(wú)法高效低支持迭代式計(jì)算D)海量的數(shù)據(jù)存儲(chǔ)答案:ABC解析:第3部分:判斷題,共12題,請(qǐng)判斷題目是否正確。[判斷題]76.如果增加多層感知機(jī)(MultilayerPerceptron)的隱藏層層數(shù),分類誤差便會(huì)減小。這種陳述正確還是錯(cuò)誤?A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]77.機(jī)器學(xué)習(xí)算法在圖像識(shí)別領(lǐng)域的性能表現(xiàn)可能會(huì)超過(guò)人類。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]78.Tensorflow是等下最流行的深度學(xué)習(xí)框架之一A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]79.列表是不可變對(duì)象,支持在原處修改。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]80.超參數(shù)選擇不當(dāng),會(huì)對(duì)模型有較大的負(fù)面影響,所以在參數(shù)調(diào)整策略方面,所有超參數(shù)都同等重要。A)正確B)錯(cuò)誤答案:錯(cuò)解析:[判斷題]81.使用支持向量機(jī)進(jìn)行分類時(shí),雖然可以利用非線性變換處理非線性分類問(wèn)題,但使用非線性變換時(shí)又面臨新著存儲(chǔ)空間和計(jì)算資源開(kāi)銷過(guò)大的問(wèn)題。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]82.線性模型的誤差可以理解為真實(shí)樣本點(diǎn)與預(yù)測(cè)樣本點(diǎn)之間的距離A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]83.機(jī)器學(xué)習(xí)的學(xué)習(xí)方式是通過(guò)獲得經(jīng)驗(yàn)或歷史數(shù)據(jù)不斷改進(jìn)提高做某項(xiàng)任務(wù)的表現(xiàn)。A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]84.P(AB)表示的是事件A與事件B同時(shí)發(fā)生的概率,P(A|B)表示的是事件B已經(jīng)發(fā)生的條件下,事件A發(fā)生的概率A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]85.一個(gè)貝葉斯網(wǎng)由結(jié)構(gòu)和參數(shù)兩個(gè)部分構(gòu)成A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]86.馬爾可夫隨機(jī)場(chǎng)(MarkovRandomField,簡(jiǎn)稱MRF)是典型的馬爾科夫網(wǎng),這是一種著名的無(wú)向圖模型。?A)正確B)錯(cuò)誤答案:對(duì)解析:[判斷題]87.AGNES算法分為單鏈接、全鏈接、均鏈接算法A)正確B)錯(cuò)誤答案:對(duì)解析:第4部分:?jiǎn)柎痤},共9題,請(qǐng)?jiān)诳瞻滋幪顚?xiě)正確答案。[問(wèn)答題]88.Pandas中的()方法可以根據(jù)索引或字段對(duì)數(shù)據(jù)進(jìn)行分組。答案:groupby解析:[問(wèn)答題]89.簡(jiǎn)述什么是k-flo

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論