大數(shù)據(jù)競賽理論題每日一側(cè)-9月29日附有答案_第1頁
大數(shù)據(jù)競賽理論題每日一側(cè)-9月29日附有答案_第2頁
大數(shù)據(jù)競賽理論題每日一側(cè)-9月29日附有答案_第3頁
大數(shù)據(jù)競賽理論題每日一側(cè)-9月29日附有答案_第4頁
大數(shù)據(jù)競賽理論題每日一側(cè)-9月29日附有答案_第5頁
免費(fèi)預(yù)覽已結(jié)束,剩余19頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

大數(shù)據(jù)競賽理論題每日一側(cè)-9月29日[復(fù)制]您的姓名:[填空題]*_________________________________1.卷積神經(jīng)網(wǎng)絡(luò)能通過卷積以及池化等操作將不同種類的鳥歸為一類,下列關(guān)于卷積神經(jīng)網(wǎng)絡(luò)能達(dá)到該效果的原因的描述不正確的是()。[單選題]*A.同樣模式的內(nèi)容(如鳥嘴)在圖像不同位置可能出現(xiàn)B.池化之后的圖像主體內(nèi)容基本不變C.不同種類鳥的相同部位(如鳥嘴)形狀相似D.池化作用能使不同種類鳥變得相似(正確答案)答案解析:特征維數(shù)的減少并不會讓之前的特征丟失。2.常見的圖像預(yù)處理方法不包括()[單選題]*A.圖像降噪B.圖像增強(qiáng)C.圖像尺寸歸一化D.圖像標(biāo)注(正確答案)答案解析:圖像預(yù)處理的主要目的是消除圖像中無關(guān)的信息,恢復(fù)有用的真實信息,主要包括去噪、對比度增強(qiáng)。圖像尺寸歸一化也是為了增強(qiáng)對比度。圖像標(biāo)注是圖像處理方法。3.下列關(guān)于Python語言特點的描述錯誤的是()。[單選題]*A.Python語言是非開源語言(正確答案)B.Python語言是跨平臺語言C.Python語言是多模型語言D.Python語言是腳本語言答案解析:Python是免費(fèi)開源的編程語言。4.python字符串切片時,S[0,10]下標(biāo)的取值范圍為()。[單選題]*A.[0,10]B.(0,10)C.[0,10)(正確答案)D.(0,10]答案解析:切片為左閉右開。5.與HMM和MEMM模型相比,CRF模型的優(yōu)勢不包含()[單選題]*A.特征靈活B.速度快(正確答案)C.可容納較多上下文信息D.全局最優(yōu)答案解析:CRF模型的優(yōu)點①與HMM相比,CRF沒有HMM那樣嚴(yán)格的獨立性假設(shè)條件,因而可以容納任意的上下文信息,特征設(shè)計靈活;②與MEMM相比,由于CRF計算全局最優(yōu)輸出節(jié)點的條件概率,還克服了MEMM模型標(biāo)記偏置的缺點。CRF模型的缺點:訓(xùn)練代價大,復(fù)雜度高。6.對文本數(shù)據(jù)處理通常采用()核函數(shù)。[單選題]*A.多項式B.SigmoidC.線性(正確答案)D.拉普拉斯7.對連續(xù)圖像的離散化采樣決定了圖像的()[單選題]*A.空間分辨率(正確答案)B.時間分辨率C.地面分辨率D.灰度值答案解析:連續(xù)圖像變?yōu)殡x散圖像需要每隔一定距離取一次樣,這里的一定距離就是采樣距離,采樣距離越大,像素點越少,圖像越模糊,反之亦然。8.列表中可以放()個字符串。[單選題]*A.1B.255C.無限個(正確答案)D.由用戶自己定義答案解析:列表中的元素個數(shù)不限制。9.在深度學(xué)習(xí)中,我們經(jīng)常會遇到收斂到localminimum,下列不屬于解決localminimum問題的方法是()。[單選題]*A.隨機(jī)梯度下降B.設(shè)置MomentumC.設(shè)置不同初始值D.增大batchsize(正確答案)答案解析:增大batchsize無法解決localminimum問題。10.屬于卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用方向的是()。[單選題]*A.圖像分類B.目標(biāo)檢測C.圖像語義分割D.以上答案都正確(正確答案)答案解析:卷積神經(jīng)網(wǎng)絡(luò)應(yīng)用于圖像分類、目標(biāo)檢測及圖像語義分割。11.HBase依靠()存儲底層數(shù)據(jù)。[單選題]*A.HDFS(正確答案)B.HadoopC.MemoryD.MapReduce答案解析:HBase位于結(jié)構(gòu)化存儲層,HDFS為HBase提供了高可靠性的底層存儲支持。12.隨機(jī)森林中的隨機(jī)是指()[單選題]*A.隨便構(gòu)建樹模B.隨機(jī)選擇一個樹模型C.隨機(jī)選擇多個樹模型D.在構(gòu)建每個樹模型時隨機(jī)選擇樣本和特征(正確答案)答案解析:隨機(jī)森林里的隨機(jī)包含的意思是樣本隨機(jī)、特征隨機(jī)、參數(shù)隨機(jī)、模型隨機(jī)(ID3,C4.5)。13.二值圖像中的分支點的連接數(shù)為()。[單選題]*A.0B.1C.2D.3(正確答案)答案解析:二值圖像中連接數(shù)為0的像素為孤立點或內(nèi)點。連接數(shù)為1的像素為端點或邊界點,連接數(shù)為2的像素為連接點,連接數(shù)為3的像素為分支點。14.下列不屬于模型集成方法的是()。[單選題]*A.直接集成法B.增強(qiáng)法C.堆疊法D.遞歸法(正確答案)答案解析:模型集成方法包括直接集成法、自助法、隨機(jī)森林、增強(qiáng)法和堆疊法等。15.下列關(guān)于Python內(nèi)存管理的說法錯誤的是()。[單選題]*A.變量不必事先聲明B.變量無須先創(chuàng)建和賦值而直接使用(正確答案)C.變量無須指定類型D.可以使用del釋放資源答案解析:Python變量需要事先聲明并賦值才能使用。16.給定詞匯表如下:{Bob,ok,likes,football,car}。則下面句子Boblikesfootball的詞袋模型表示為()。[單選題]*A.[11100]B.[10110](正確答案)C.[10010]D.[01101]答案解析:統(tǒng)計句子(Boblikesfootball)中每個詞出現(xiàn)的數(shù)量,并查看這些詞在給定詞匯表中的數(shù)量和位置,按照給定詞匯表出現(xiàn)的順序排列,得出一個向量即為答案。17.Python中用()快捷鍵表示運(yùn)行當(dāng)前程序。[單選題]*A.Ctrl+F10B.Ctrl+Alt+F10C.Shift+F10D.Ctrl+Shift+F10(正確答案)答案解析:Python中表示運(yùn)行當(dāng)前程序的快捷鍵是Ctrl+Shift+F10。18.一般而言,在個體學(xué)習(xí)器性能相差較大與個體學(xué)習(xí)器性能相近時宜分別使

用()。[單選題]*A.簡單平均法,加權(quán)平均法B.加權(quán)平均法,簡單平均法(正確答案)C.簡單平均法,簡單平均法D.加權(quán)平均法,加權(quán)平均法19.采用模板[-11]主要檢測()方向的邊緣。[單選題]*A.水平B.450C.垂直(正確答案)D.1350答案解析:[-11]是用右邊的像素減去左邊的像素,當(dāng)左右像素差別大也就是存在垂直方向邊緣時,模板作用在圖像上的值會較大。20.下列關(guān)于Python的說法不正確的是()。[單選題]*A.Python是一門面向?qū)ο蟮慕忉屝猿绦蛟O(shè)計語言B.Python程序可以在IDLE和pycharm里進(jìn)行開發(fā)C.Python功能很強(qiáng)大,可以編寫網(wǎng)頁和游戲D.Python只能在Windows系統(tǒng)下編寫(正確答案)答案解析:Python在Windows、Linux、Mac等系統(tǒng)下均可編寫。21.Python安裝擴(kuò)展庫常用的是()工具。[單選題]*A.pyinstallB.pip(正確答案)C.popD.post22.輸人圖像為32x32,經(jīng)過步長為1、不進(jìn)行padding、卷積核為5x5的卷積層后,得到的特征圖尺寸是()。[單選題]*A.28x28(正確答案)B.27X27C.29x29D.32x32答案解析:(32+0-5)/1+1=28.23.()是Spark的核心數(shù)據(jù)結(jié)構(gòu)。[單選題]*A.彈性分布式數(shù)據(jù)集(正確答案)B.列表C.元組D.字典答案解析:彈性分布式數(shù)據(jù)集(RDD)是Spark的核心數(shù)據(jù)結(jié)構(gòu)。24.數(shù)據(jù)科學(xué)基本原則中,基于數(shù)據(jù)的智能的主要特點是()。[單選題]*A.數(shù)據(jù)簡單,但算法簡單B.數(shù)據(jù)復(fù)雜,但算法簡單(正確答案)C.數(shù)據(jù)簡單,但算法復(fù)雜D.數(shù)據(jù)復(fù)雜,但算法復(fù)雜答案解析:數(shù)據(jù)科學(xué)對智能的實現(xiàn)方式有了新的認(rèn)識一從基于算法的智能到基于數(shù)據(jù)的智能過渡?;跀?shù)據(jù)的智能的重要特點是數(shù)據(jù)復(fù)雜,但算法簡單。25.MapReduce計算框架的輸人數(shù)據(jù)結(jié)構(gòu)是()。[單選題]*A.key-value(正確答案)B.input-outputC.map-reduceD.key-column答案解析:MapReduce計算框架的輸入是鍵值對,即key-value。26.在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為()。[單選題]*A.頻繁子集挖掘B.頻繁子圖挖掘(正確答案)C.頻繁數(shù)據(jù)項挖掘D.頻繁模式挖掘答案解析:頻繁子圖挖掘是指在圖集合中挖掘公共子結(jié)構(gòu)。27.Python運(yùn)算符中用來計算集合并集的是()。[單選題]*A.|(正確答案)B.&C.||D.+答案解析:Python運(yùn)算符中用來計算集合并集的是|28.下列說法不正確的是()。[單選題]*A.卷積神經(jīng)網(wǎng)絡(luò)主要用于目標(biāo)識別、圖像分割等方面B.循環(huán)神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)C.長短時記憶神經(jīng)網(wǎng)絡(luò)主要用于處理序列數(shù)據(jù)D.長短時記憶神經(jīng)網(wǎng)絡(luò)是和循環(huán)神經(jīng)網(wǎng)絡(luò)完全不同的一種新型神經(jīng)網(wǎng)絡(luò)(正確答案)答案解析:長短時記憶神經(jīng)網(wǎng)絡(luò)是一種改進(jìn)的循環(huán)神經(jīng)網(wǎng)絡(luò)。29.下列關(guān)于MapReduce說法不正確的是()。[單選題]*A.MapReduce是一種計算框架B.MapReduce來源于Google的學(xué)術(shù)論文C.MapReduce程序只能用java語言編寫(正確答案)D.MapReduce隱藏了并行計算的細(xì)節(jié),方便使用答案解析:MapReduce程序可用多種語言編寫,如Ruby、Python、Java等。30.通常落伍者是影響MapReduce總執(zhí)行時間的主要影響因素之一,為此MapReduce采用()機(jī)制來解決。[單選題]*A.分布式計算B.惰性計算C.推測性執(zhí)行的任務(wù)備份(正確答案)D.先進(jìn)先出答案解析:MapReduce采用推測性執(zhí)行的任務(wù)備份機(jī)制,當(dāng)作業(yè)中大多數(shù)的任務(wù)都已經(jīng)完成時,系統(tǒng)在幾個空閑的節(jié)點上調(diào)度執(zhí)行剩余任務(wù)的備份,并在多個Worker上同時進(jìn)行相同的剩余任務(wù)。31.關(guān)聯(lián)規(guī)則的評價指標(biāo)是()。[單選題]*A.均方誤差、均方根誤差B.Kappa統(tǒng)計、顯著性檢驗C.支持度、置信度(正確答案)D.平均絕對誤差、相對誤差答案解析:支持度、置信度是關(guān)聯(lián)規(guī)則的評價指標(biāo)。32.常用的灰度內(nèi)插值法不包括()。[單選題]*A.最近鄰內(nèi)插法B.三次內(nèi)插法C.雙線性內(nèi)插值法D.三次樣條插值法(正確答案)答案解析:常用的灰度內(nèi)插值法有最近鄰內(nèi)插法、三次內(nèi)插法、雙線性內(nèi)插值法。33.下列關(guān)于計算機(jī)編程語言的說法錯誤的是()。[單選題]*A.編程語言是用于書寫計算機(jī)程序的語言B.計算機(jī)語言可分為機(jī)器語言、匯編語言、高級語言C.計算機(jī)能識別和執(zhí)行所有編程語言寫的程序(正確答案)D.C/C++、pascal、java、Python都屬于高級編程語言答案解析:只有機(jī)器語言才能被計算機(jī)直接識別,Python等高級語言源程序不能直接運(yùn)行,必須翻譯成機(jī)器語言才能執(zhí)行。34.在多元線性回歸模型中,若某個解釋變量對其余解釋變量的判定系數(shù)接近于1,則表明模型中存在()。[單選題]*A.異方差B.序列相關(guān)C.多重共線性(正確答案)D.高擬合優(yōu)度35.為了降低MapReduce兩個階段之間的數(shù)據(jù)傳遞量,一般采用()函數(shù)對map階段的輸出進(jìn)行處理。[單選題]*A.sort()B.combiner()(正確答案)C.join()D.gather()答案解析:為了降低數(shù)據(jù)傳遞量,采用combiner()函數(shù)對map()函數(shù)的數(shù)據(jù)結(jié)果進(jìn)行合并處理。36.神經(jīng)網(wǎng)絡(luò)感知機(jī)只有()神經(jīng)元進(jìn)行激活函數(shù)處理,即只擁有一層功能神經(jīng)元。[單選題]*A、輸出層(正確答案)B.輸入層C.感知層D.網(wǎng)絡(luò)層答案解析:神經(jīng)網(wǎng)絡(luò)感知機(jī)由兩層神經(jīng)元組成,輸入層接收外界輸入信號以后傳遞給輸出層,其中,僅輸出層進(jìn)行激活函數(shù)處理。37.對文本數(shù)據(jù)處理通常采用()核函數(shù)。[單選題]*A.多項式B.SigmoidC.線性(正確答案)D.拉普拉斯38.arr=np.arange(9).reshape(3,3),使數(shù)組arr交換列1和列2的操作是()。[單選題]*A.arr[:,[1,0,2]](正確答案)B.arr[:,[1,0,3]]C.arr[:,[1,0,1]]D.arr[:,[1,0]]答案解析:交換前兩列相當(dāng)于依次選取2、1、3列。39.a=1,b=2,c=3,則下列表達(dá)式結(jié)果為True的是()。[單選題]*A.a>=bor(c+5)%3==1B.not(a==1andb!=c)C.notaandb==cD.aanda+b>=c(正確答案)答案解析:注意優(yōu)先級。40.下列關(guān)于深度學(xué)習(xí)中sigmoid函數(shù)的說法錯誤的是()[單選題]*A.存在梯度爆炸的問題(正確答案)B.不是關(guān)于原點對稱C.計算exp比較耗時D.存在梯度消失的問題答案解析:sigmoid函數(shù)存在的是梯度消失問題。41.下列說法中:①R-Squared和AdjustedR-squared都是遞增的;②R-Squared是常量的,AdjustedR-squared是遞增的;③R-Squared是遞減的,AdjustedR-squared也是遞減的;④R-Squared是遞減的,AdjustedR-squared是遞增的。對于線性回歸模型,包括附加變量在內(nèi),可能正確的是()。[單選題]*A.①②B.①③C.②④D.以上都不是(正確答案)答案解析:R-squared不能決定系數(shù)估計和預(yù)測偏差。每次在模型中加入預(yù)測器,R-squared遞增或不變。42.下列關(guān)于情感分析的描述正確的是()。[單選題]*A.情感分析的難點是語句太長導(dǎo)致精度降低(正確答案)B.為了降低復(fù)雜度,循環(huán)神經(jīng)網(wǎng)絡(luò)無須添加LSTM結(jié)構(gòu)C.對文本進(jìn)行停用詞處理不可以提高情感分析的計算精度D.對文本進(jìn)行無關(guān)詞處理不可以提高情感分析的計算精度43.使用pip工具查看當(dāng)前已安裝的Python擴(kuò)展庫的完整命令是()。[單選題]*A.pipupdateB.piplist(正確答案)C.pipinstallD.pipshowall答案解析:使用pip工具查看當(dāng)前已安裝的Python擴(kuò)展庫的完整命令piplist.44.下列不屬于深度學(xué)習(xí)內(nèi)容的是()。[單選題]*A.深度置信網(wǎng)絡(luò)B.受限玻爾茲曼機(jī)C.卷積神經(jīng)網(wǎng)絡(luò)D.貝葉斯學(xué)習(xí)(正確答案)答案解析:貝葉斯學(xué)習(xí)屬于傳統(tǒng)的機(jī)器學(xué)習(xí)算法。45.Spark的()組件用于支持實時計算需求。[單選題]*A.SparkSQLB.SparkStreaming(正確答案)C.SparkGraphXD.SparkMLLib答案解析:SparkStreaming組件用于實時處理。46.下列關(guān)于集成學(xué)習(xí)模型中弱學(xué)習(xí)者的描述錯誤的是()。[單選題]*A.經(jīng)常不會過擬合B.通常帶有高偏差,所以其并不能解決復(fù)雜學(xué)習(xí)問題C.通常會過擬合(正確答案)D.通常擁有低方差答案解析:弱學(xué)習(xí)者是問題的特定部分。所以他們通常不會過擬合,這也就意味著弱學(xué)習(xí)者通常擁有低方差和高偏差。47.下列關(guān)于Boosting算法的描述錯誤的是()[單選題]*A.可將強(qiáng)學(xué)習(xí)器降為弱學(xué)習(xí)器(正確答案)B.從初始訓(xùn)練集訓(xùn)練基學(xué)習(xí)器C.對訓(xùn)練樣本分布進(jìn)行調(diào)整D.做錯的訓(xùn)練樣本多次訓(xùn)練答案解析:Boosting是一種集成學(xué)習(xí)算法,由一系列基本分類器按照不同的權(quán)重組合成為一個強(qiáng)分類器。48.可用作數(shù)據(jù)挖掘分析中的關(guān)聯(lián)規(guī)則算法有()。[單選題]*A.機(jī)器學(xué)習(xí)、對數(shù)回歸、關(guān)聯(lián)模式B.K均值法、SOM機(jī)器學(xué)習(xí)C.Apriori算法、FP-Tree算法(正確答案)D.RBF機(jī)器學(xué)習(xí)、K均值法、機(jī)器學(xué)習(xí)答案解析:關(guān)聯(lián)規(guī)則包括Apriori、FP-Tree等算法。49.a=[1,2,3.4,5],切片時如果要取[2,3.4],則下列結(jié)果正確的是()[單選題]*A.a[1:4]B.a[-2:]C.a[1:-1](正確答案)D.a[::2]答案解析:此題應(yīng)注意是“3.4”而不是“3,4”,因此有以下取法:a[1:3]、a[1:-1]。50.當(dāng)構(gòu)建一個神經(jīng)網(wǎng)絡(luò)進(jìn)行圖片的語義分割時,通常采用的順序是()。[單選題]*A.先用卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用反卷積神經(jīng)網(wǎng)絡(luò)得到輸出(正確答案)B.先用反卷積神經(jīng)網(wǎng)絡(luò)處理輸入,再用卷積神經(jīng)網(wǎng)絡(luò)得到輸出C.不能確定答案解析:處理圖片需要先使用卷積神經(jīng)網(wǎng)絡(luò)對圖像局部特征進(jìn)行提取和分割,然后反卷積還原圖像信息,卷積類似于編碼,反卷積類似于解碼。51.彩色圖像增強(qiáng)時,()處理可以采用RGB。[單選題]*A.直方圖均衡化B.同態(tài)濾波C.均值濾波(正確答案)D.中值濾波答案解析:RGB是彩色圖像的三通道像素值,均值濾波進(jìn)行的是線性操作,不影響原本圖像的相對亮度。52.在Windows系統(tǒng)中,關(guān)閉Python終端會話常用的快捷鍵是()。[單選題]*A.Ctrl+CB.Ctrl+DC.Ctrl+ED.Ctrl+Z(正確答案)答案解析:在Windows系統(tǒng)中,關(guān)閉Python終端會話常用快捷鍵是Ctrl+Z。53.相對于HadoopMapReduce1.0,Spark的特點不包括()[單選題]*A.速度快B.并發(fā)多(正確答案)C.通用性D.易用性答案解析:相較于HadoopMapReduce,Spark的特點為速度快、通用性和易用性。54.通過K-means算法進(jìn)行聚類分析后得出的聚類結(jié)果的特征是()。[單選題]*A.同一聚類中的對象間相似度高,不同聚類中的對象間相似度高B.同一聚類中的對象間相似度高,不同聚類中的對象間相似度低(正確答案)C.同一聚類中的對象間相似度低,不同聚類中的對象間相似度低D.同一聚類中的對象間相似度低,不同聚類中的對象間相似度高55.對數(shù)值型輸出,最常見的結(jié)合策略是()。[單選題]*A.投票法B.平均法(正確答案)C.學(xué)習(xí)法D.排序法56.在MapReduce中,reduce()函數(shù)可以將()值相同的輸入進(jìn)行合并處理。[單選題]*A.inputB.key(正確答案)C.valueD.number答案解析:reduce()函數(shù)根據(jù)key值合并value值。57.運(yùn)行下面程序的輸出的結(jié)果是()。x=np.arange(32).reshape(8,4)print(x[[-4,-2,-1,-7]])"[單選題]*A.[[16171819][24252627][28293031][4567]](正確答案)B.[[16171819][891011][4567][28293031]C.[[891011][4567]]D.error答案解析:二維數(shù)組只傳入一個列表進(jìn)行索引時,是對行進(jìn)行選取。58.若arr=np.array([[1,2,3],[4,5,6],[7,8,9]]),則arr[:2,1:]的輸出是()[單選題]*A.([[2,3],[5,6]])(正確答案)B.([[1][6]])C.([[5,6],[8,9]])D.([[1,2],[4,5]])答案解析:索引時如果不指定冒號旁邊的數(shù)值,則默認(rèn)從開頭開始或至結(jié)尾結(jié)束,此處為前兩行后兩列。59.下列關(guān)于Python注釋的描述錯誤的是()。[單選題]*A.Python注釋語句不被解釋器過濾掉,也不被執(zhí)行(正確答案)B.注釋可以輔助程序調(diào)試C.注釋可用于標(biāo)明作者和版權(quán)信息D.注釋用于解釋代碼原理或者用途答案解析:Python注釋語句會被解釋器過濾掉,不被執(zhí)行。60.詞袋模型中的文本向量每個元素表示該詞的()。[單選題]*A.頻率(正確答案)B.順序C.含義D.語義關(guān)系答案解析:詞袋模型是最基礎(chǔ)的文本表示模型,就是把每一篇文章看成一袋子單詞,并忽略每個詞出現(xiàn)的順序。每篇文章可以表示成一個長向量,向量中的每一維代表一個單詞,而該維對應(yīng)的權(quán)重代表這個詞在文章中的重要程度,重要程度是由頻率來衡量的。61.大數(shù)據(jù)處理流程可以概括為()。*A.數(shù)據(jù)分析與挖掘(正確答案)B.數(shù)據(jù)采集(正確答案)C.數(shù)據(jù)儲存(正確答案)D.結(jié)果展示(正確答案)62.下列對模型性能提高有幫助的有()。*A.數(shù)據(jù)預(yù)處理(正確答案)B.特征工程(正確答案)C.機(jī)器學(xué)習(xí)算法(正確答案)D.模型集成(正確答案)答案解析:數(shù)據(jù)預(yù)處理、特征工程、機(jī)器學(xué)習(xí)算法、模型集成均可提高模型性能。63.下列關(guān)于reduce函數(shù)功能的描述正確的有()。*A.合并value值,形成較小集合(正確答案)B.采用迭代器將中間值提供給reduce()函數(shù)(正確答案)C.map()函數(shù)處理后結(jié)果才會傳輸給reduce()函數(shù)(正確答案)D.內(nèi)存中不會存儲大量的value值(正確答案)64.下列關(guān)于負(fù)荷Python的模塊的說法正確的有()。*A.模塊能夠用來有邏輯地組織Python代碼段(正確答案)B.Python擁有豐富的模塊,不支持自定義模塊C.把相關(guān)的代碼分配到一個模塊里能讓代碼更好用、更易懂(正確答案)D.模塊能定義函數(shù)、類和變量,模塊里也能包含可執(zhí)行的代碼(正確答案)65.下面定義函數(shù)正確的有()。*A.defcalc(*numbers):sum=0forninnumbers:sum=sumtn*nreturnsum(正確答案)B.defcalc(**numbers):sum=0forninnumbers:sum=sum+n*nreturnsum(正確答案)C.defcalc(**numbers,n):sum=0forninnumbers:sum=sum+n*nreturmnsumD.defcalc(**numbers,n=0):sum=0forninnumbers:sum=sum+n*nreturnsum答案解析:函數(shù)不定長參數(shù)*args和**kwargs只能放在形參的末尾,因此AB正確,CD錯誤。66.假設(shè)目標(biāo)遍歷的類別非常不平衡,即主要類別占據(jù)了訓(xùn)練數(shù)據(jù)的99%,假設(shè)現(xiàn)在模型在訓(xùn)練集上表現(xiàn)為99%的準(zhǔn)確度,那么下列說法正確的有()。*A.準(zhǔn)確度并不適合衡量不平衡類別問題(正確答案)B.準(zhǔn)確度適合衡量不平衡類別問題C.精確度和召回率適合于衡量不平衡類別問題(正確答案)D.精確度和召回率不適合衡量不平衡類別問題答案解析:精確度和召回率適合于衡量不平衡類別問題,準(zhǔn)確度并不適合衡量不平衡類別問題。67.下列中屬于MapReduce特征的有()*A.以主從結(jié)構(gòu)的形式運(yùn)行(正確答案)B.容錯機(jī)制的復(fù)雜性(正確答案)C.任務(wù)備份機(jī)制的必要性(正確答案)D.數(shù)據(jù)存儲位置固定答案解析:數(shù)據(jù)存儲位置具有多樣性,并非固定,所以D錯。68.下列函數(shù)屬于二元通用函數(shù)(binaryuniversalfunctions)的有()。*A.add(正確答案)B.substract(正確答案)C.multiply(正確答案)D.power(正確答案)答案解析:二元函數(shù)是指函數(shù)方程式中包含兩個自變量,ABCD都滿足。69.Numpy支持的統(tǒng)計函數(shù)有()。*A.min(正確答案)B.max(正確答案)C.median(正確答案)D.mean(正確答案)答案解析:這些都是Numpy支持的統(tǒng)計函數(shù)。70.()是scipy.stats可實現(xiàn)的連續(xù)隨機(jī)變量方法。*A.rVS(正確答案)B.pdf(正確答案)C.ppf(正確答案)D.cdf(正確答案)答案解析:Scipy基礎(chǔ)知識。71.與全連接的DNN,CNN的優(yōu)勢有()。*A.參數(shù)更少(正確答案)B.泛化更好(正確答案)C.訓(xùn)練更快(正確答案)D.更容易搭建答案解析:DNN直接對數(shù)據(jù)做加權(quán)線性連接,CNN則是移動卷積核,并對圖像中的各區(qū)域做卷積操作。因此,DNN更容易搭建,D錯誤。72.在數(shù)據(jù)科學(xué)中,計算模式發(fā)生了根本性的變化--從集中式計算、分布式計算、網(wǎng)格計算等傳統(tǒng)計算過渡至云計算,有一定的代表性的是Google云計算三大技術(shù),這三大技術(shù)包括()。*A.HadoopYARN資源管理器B.GFS分布式存儲系統(tǒng)(正確答案)C.MapReduce分布式處理技術(shù)(正確答案)D.BigTable分布式數(shù)據(jù)庫(

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論