大數(shù)據(jù)分析及應(yīng)用知到智慧樹章節(jié)測試課后答案2024年秋云南大學_第1頁
大數(shù)據(jù)分析及應(yīng)用知到智慧樹章節(jié)測試課后答案2024年秋云南大學_第2頁
大數(shù)據(jù)分析及應(yīng)用知到智慧樹章節(jié)測試課后答案2024年秋云南大學_第3頁
大數(shù)據(jù)分析及應(yīng)用知到智慧樹章節(jié)測試課后答案2024年秋云南大學_第4頁
大數(shù)據(jù)分析及應(yīng)用知到智慧樹章節(jié)測試課后答案2024年秋云南大學_第5頁
免費預(yù)覽已結(jié)束,剩余7頁可下載查看

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進行舉報或認領(lǐng)

文檔簡介

大數(shù)據(jù)分析及應(yīng)用知到智慧樹章節(jié)測試課后答案2024年秋云南大學第一章單元測試

大數(shù)據(jù)的英文描述是()

A:HeavydataB:LargedataC:GreatdataD:Bigdata

答案:Bigdata下面最大的儲存單位是()

A:PBB:KBC:GBD:TB

答案:PB大數(shù)據(jù)之父是()

A:維克托·邁爾-舍恩伯格B:查爾斯·巴赫曼C:姚期智D:詹姆斯·高斯林

答案:維克托·邁爾-舍恩伯格大數(shù)據(jù)的特點包括()

A:VarietyB:ValueC:VolumeD:Velocity

答案:Variety;Value;Volume;Velocity第一次正式提出大數(shù)據(jù)概念和第一次用社會調(diào)查的方式分析大數(shù)據(jù)對人們生活影響的期刊是()和()

A:PNASB:ScienceC:NatureD:Cell

答案:Science;Nature大數(shù)據(jù)是只和互聯(lián)網(wǎng)相關(guān)的計算機技術(shù)。

A:對B:錯

答案:錯企業(yè)中大部分的數(shù)據(jù)都是非結(jié)構(gòu)化數(shù)據(jù)。

A:錯B:對

答案:對大數(shù)據(jù)技術(shù)的基礎(chǔ)是由阿里巴巴首先提出的。

A:對B:錯

答案:錯大數(shù)據(jù)人才需要數(shù)學、統(tǒng)計學、數(shù)學分析、商業(yè)分析和自然語言處理的多方面的學習。

A:對B:錯

答案:對大數(shù)據(jù)對網(wǎng)絡(luò)安全沒有威脅。

A:對B:錯

答案:錯

第二章單元測試

目前,企業(yè)的數(shù)據(jù)架構(gòu)存在的最大比例問題是()

A:資源利用率低B:高耗能C:運營成本高D:拓展性差

答案:拓展性差目前,企業(yè)數(shù)據(jù)分析處理面臨的主要問題是缺少數(shù)據(jù)全方位分析方法。

A:錯B:對

答案:對地圖導航根據(jù)以往的行程記錄,繪制了最優(yōu)路程,標明了可能堵車的地點,這表現(xiàn)了大數(shù)據(jù)分析理念中的()

A:注重相關(guān)性而不是因果性B:注重相對性而不是絕對性C:注重全體而不是局部D:注重效率而不是準確

答案:注重相關(guān)性而不是因果性最早提出大數(shù)據(jù)研發(fā)計劃的國家是()

A:法國B:中國C:日本D:美國

答案:美國大數(shù)據(jù)可能被運用的行業(yè)有()

A:教育B:金融C:農(nóng)業(yè)D:醫(yī)療

答案:教育;金融;農(nóng)業(yè);醫(yī)療2015年9月18日云南省啟動我國首個大數(shù)據(jù)綜合試驗區(qū)的建設(shè)工作。

A:對B:錯

答案:錯大數(shù)據(jù)的價值密度很高。

A:錯B:對

答案:錯日本政府將IT產(chǎn)業(yè),尤其是大數(shù)據(jù)及云計算作為促進經(jīng)濟增長,解決內(nèi)部矛盾一個關(guān)鍵。

A:對B:錯

答案:對非結(jié)構(gòu)化數(shù)據(jù)對企業(yè)也富有價值。

A:對B:錯

答案:對企業(yè)的日數(shù)據(jù)生成量可達到1TB。

A:對B:錯

答案:對

第三章單元測試

HDFS中文件存儲的基本節(jié)點是()

A:DataNodeB:WholeNodeC:NameNodeD:BaseNode

答案:DataNode下面不屬于ETL的功能是()

A:抽取B:轉(zhuǎn)換C:翻譯D:加載

答案:翻譯自然語言處理的范疇包括()

A:關(guān)聯(lián)分析B:離群值檢測C:機器翻譯D:中文自動分詞

答案:機器翻譯;中文自動分詞ApacheHadoop所涉及的核心技術(shù)包括()

A:HDFSB:EMCC:MapReduceD:Hbase

答案:HDFS;MapReduce;HbaseHDFS的主要結(jié)構(gòu)包括()

A:ClientB:ServerC:DataNodeD:NameNode

答案:Client;DataNode;NameNode下列算法中屬于聚類算法的是()

A:AprioriB:K-meansC:DBSCAND:k-distance

答案:K-means;DBSCANHadoop可以運行在任何普通的PC機上。

A:對B:錯

答案:對Client是獲取分布式文件的應(yīng)用程序

A:錯B:對

答案:對Hadoop是一種集中式存儲和計算技術(shù)。

A:錯B:對

答案:錯聚類之前的樣本沒有類別

A:對B:錯

答案:對

第四章單元測試

Modeler在2009年被()收購后對產(chǎn)品的性能和功能進行了大幅度的改進和提升。

A:微軟B:IBMC:谷歌D:蘋果

答案:IBMModeler數(shù)據(jù)挖掘功能將復雜的統(tǒng)計方法和()技術(shù)結(jié)合到一起。

A:機器學習B:軟件工程C:信息安全D:大數(shù)據(jù)

答案:機器學習Modeler可以將模型保存為()的通用格式,支持對其進行二次開發(fā)。

A:PMMLB:PKLC:CKPTD:PB

答案:PMML下面()是基本數(shù)據(jù)流的節(jié)點。

A:變量文件節(jié)點B:選擇節(jié)點C:導出節(jié)點D:導入節(jié)點

答案:變量文件節(jié)點;選擇節(jié)點;導出節(jié)點Modeler中的常用節(jié)點選項面板包括:()。

A:字段選項B:圖形選項C:記錄選項D:建模選項E:源

答案:字段選項;圖形選項;記錄選項;建模選項;源Modeler和Statistics是相互獨立的兩個數(shù)據(jù)分析軟件。

A:錯B:對

答案:錯Modeler可以對可變長度記錄進行數(shù)據(jù)的處理。

A:錯B:對

答案:對Modeler能通過第三方提供開放的ODBC與其他數(shù)據(jù)庫連接。

A:對B:錯

答案:對Modeler不支持生成散點圖、分布圖等來反映數(shù)據(jù)的特征。

A:錯B:對

答案:錯Modeler支持數(shù)據(jù)挖掘CRISP-DM的標準流程。

A:對B:錯

答案:對

第五章單元測試

協(xié)方差分析中,如果兩個變量的變化趨勢一致,那么這兩個變量之間的協(xié)方差就是()。

A:正值B:負值C:不清楚D:0

答案:正值在抽樣調(diào)查中,如果樣本數(shù)量N為()時,就稱為大樣本。

A:N>=20B:N>=50C:N>=30D:N>=100

答案:N>=30在統(tǒng)計調(diào)查中,()誤差是由觀察、測量或計算等原因所造成的。

A:登記性誤差B:隨機性誤差C:抽樣誤差D:系統(tǒng)誤差

答案:登記性誤差常見的數(shù)據(jù)變換操作包括()。

A:規(guī)范化B:平滑C:屬性構(gòu)造D:數(shù)據(jù)規(guī)約E:聚集

答案:規(guī)范化;平滑;屬性構(gòu)造;數(shù)據(jù)規(guī)約;聚集平滑處理在科學研究中廣泛使用,常用方法有()。

A:單純移動平均B:聚類法C:加權(quán)移動平均D:濾波法

答案:單純移動平均;加權(quán)移動平均;濾波法維數(shù)歸約的主要方法有()。

A:逐步向后刪除B:逐步向前選擇C:逐步向前刪除D:逐步向后選擇

答案:逐步向后刪除;逐步向前選擇抽樣極限又稱置信區(qū)間,是指一定概率下抽樣誤差的真實范圍。

A:錯B:對

答案:錯數(shù)據(jù)規(guī)約是指在盡可能保持數(shù)據(jù)原貌的前提下,最大限度地精簡屬性數(shù)量。

A:對B:錯

答案:錯聚集也稱為數(shù)據(jù)匯總,用來構(gòu)建數(shù)據(jù)立方體。

A:對B:錯

答案:對在概率論和統(tǒng)計學中,協(xié)方差用于衡量兩個變量的平均誤差。

A:對B:錯

答案:錯

第六章單元測試

在計算機領(lǐng)域,()用來描述數(shù)據(jù)的起源或者出處。

A:緣由B:溯源C:來源D:源頭

答案:溯源由于采集設(shè)備異常,造成接收的數(shù)據(jù)取值不合理,是屬于()類型的數(shù)據(jù)質(zhì)量問題。

A:缺少完整性約束B:噪聲數(shù)據(jù)C:數(shù)據(jù)失效D:空值

答案:噪聲數(shù)據(jù)數(shù)據(jù)質(zhì)量的相關(guān)技術(shù)中,()被用來檢查文件系統(tǒng)或者數(shù)據(jù)庫中數(shù)據(jù)的過程。

A:數(shù)據(jù)剖析B:數(shù)據(jù)采集C:數(shù)據(jù)集成D:數(shù)據(jù)清潔

答案:數(shù)據(jù)剖析在四種數(shù)據(jù)集成技術(shù)中,()技術(shù)可以實現(xiàn)對各個數(shù)據(jù)源數(shù)據(jù)的抽取、清洗、轉(zhuǎn)換和復制。

A:基于數(shù)據(jù)倉庫的數(shù)據(jù)集成模型B:基于中間件的數(shù)據(jù)集成模型C:MPP數(shù)據(jù)庫存儲與處理架構(gòu)D:聯(lián)邦數(shù)據(jù)庫系統(tǒng)結(jié)構(gòu)

答案:基于數(shù)據(jù)倉庫的數(shù)據(jù)集成模型數(shù)據(jù)剖析的分類是()。

A:非結(jié)構(gòu)化數(shù)據(jù)B:多源數(shù)據(jù)C:單源數(shù)據(jù)D:結(jié)構(gòu)化數(shù)據(jù)

答案:多源數(shù)據(jù);單源數(shù)據(jù)針對“空值”的數(shù)據(jù)清潔方法有()。

A:全局變量填充B:均值填充C:概率統(tǒng)計值填充D:人工填寫

答案:全局變量填充;均值填充;概率統(tǒng)計值填充;人工填寫數(shù)據(jù)溯源追蹤的主要方法有標注法和反向查詢法。

A:錯B:對

答案:對AHP質(zhì)量評估方法一般是應(yīng)用于質(zhì)量指標權(quán)重值的確定。

A:對B:錯

答案:對數(shù)據(jù)質(zhì)量的定性評估主要依靠支持者的主觀判斷。

A:錯B:對

答案:錯綜合評估方法結(jié)合了定性評估和定量評估的優(yōu)點,適用范圍更廣泛。

A:對B:錯

答案:對

第七章單元測試

使用交互式的和可視化的技術(shù),對數(shù)據(jù)進行探索屬于數(shù)據(jù)挖掘的()任務(wù)?

A:預(yù)測建模B:建模描述C:尋找模式和規(guī)則D:探索性數(shù)據(jù)分析

答案:探索性數(shù)據(jù)分析英文單詞縮寫KDD表示()含義?

A:動態(tài)知識發(fā)現(xiàn)B:領(lǐng)域知識發(fā)現(xiàn)C:數(shù)據(jù)挖掘與知識發(fā)現(xiàn)D:文檔知識發(fā)現(xiàn)

答案:數(shù)據(jù)挖掘與知識發(fā)現(xiàn)以下()操作會降低Apriori算法的挖掘效率。

A:支持度閾值增大B:事務(wù)數(shù)減少C:減小硬盤讀寫速率D:項數(shù)減少

答案:減小硬盤讀寫速率尋找數(shù)據(jù)集中的關(guān)系是為了尋找精確、方便并且有價值地總結(jié)出數(shù)據(jù)的某一特征的表示,這個過程包括了以下()步驟?

A:選擇一個算法過程使評分函數(shù)最優(yōu)B:決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞C:決定用什么樣的數(shù)據(jù)管理原則以高效地實現(xiàn)算法D:決定要使用的表示的特征和結(jié)構(gòu)

答案:選擇一個算法過程使評分函數(shù)最優(yōu);決定如何量化和比較不同表示擬合數(shù)據(jù)的好壞;決定用什么樣的數(shù)據(jù)管理原則以高效地實現(xiàn)算法;決定要使用的表示的特征和結(jié)構(gòu)下面列出的條目中,(

)是數(shù)據(jù)倉庫的基本特征。

A:數(shù)據(jù)倉庫是面向主題的B:數(shù)據(jù)倉庫是面向事務(wù)的C:數(shù)據(jù)倉庫的數(shù)據(jù)是集成的D:數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的E:數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的

答案:數(shù)據(jù)倉庫是面向主題的;數(shù)據(jù)倉庫的數(shù)據(jù)是集成的;數(shù)據(jù)倉庫的數(shù)據(jù)是相對穩(wěn)定的;數(shù)據(jù)倉庫的數(shù)據(jù)是反映歷史變化的關(guān)聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項集代表的規(guī)則。

A:錯B:對

答案:錯給定關(guān)聯(lián)規(guī)則AàB,意味著:若A發(fā)生,B也會發(fā)生。

A:對B:錯

答案:錯Apriori算法產(chǎn)生的關(guān)聯(lián)規(guī)則總是確定的

A:對B:錯

答案:對對于項集來說,置信度沒有意義。

A:錯B:對

答案:對數(shù)據(jù)挖掘的目標不在于數(shù)據(jù)采集策略,而在于對于已經(jīng)存在的數(shù)據(jù)進行模式的發(fā)掘。

A:對B:錯

答案:對

第八章單元測試

關(guān)于相關(guān)系數(shù),下面不正確的描述是

A:當r=0時,表示兩變量間無相關(guān)B:當0≤|r|≤1時,表示兩變量不完全相關(guān)C:兩變量之間的相關(guān)關(guān)系是單相關(guān)D:如果自變量增長引起因變量的相應(yīng)增長,就形成正相關(guān)關(guān)系

答案:當r=0時,表示兩變量間無相關(guān)當x按一定數(shù)額增加時,y也近似地按一定數(shù)額隨之增加,那么可以說x與y之間存在()關(guān)系

A:直線負相關(guān)B:曲線正相關(guān)C:直線正相關(guān)D:曲線負相關(guān)

答案:直線正相關(guān)評價直線相關(guān)關(guān)系的密切程度,當r在0.5~0.8之間時,表示()。

A:中等相關(guān)B:低度相關(guān)C:高度相關(guān)D:無相關(guān)

答案:中等相關(guān)身高和體重之間的關(guān)系是()

A:共變關(guān)系B:嚴格的依存關(guān)系C:函數(shù)關(guān)系D:無關(guān)系

答案:共變關(guān)系下列關(guān)系中,屬于正相關(guān)關(guān)系的是()

A:產(chǎn)品與單位成本B:正常商品的價格和需求量C:商品的零售額和流通費率D:身高與體重

答案:身高與體重當所有的觀察值y都落在直線yc=a+bx上時,則x與y之間的相關(guān)系數(shù)為()

A:-1B:0C:r=1D:r=0

答案:r=1兩變量X和Y的相關(guān)系數(shù)為0.8,則其回歸直線的判定系數(shù)為()

A:0.64B:0.5C:0.8D:0.9

答案:0.64在完成了構(gòu)造與評價一個回歸模型后,我們可以()

A:估計未來所需樣本的容量B:計算相關(guān)系數(shù)和判定系數(shù)C:以給定的因變量的值估計自變量的值D:以給定的自變量的值估計因變量的值

答案:以給定的自變量的值估計因變量的值在回歸分析中,兩個變量()

A:因變量是隨機變量B:都不是隨機變量C:自變量是隨機變量D:都是隨機變量

答案:因變量是隨機變量以下指標恒為正的是()

A:相關(guān)系數(shù)rB:截距aC:斜率bD:復相關(guān)系數(shù)

答案:復相關(guān)系數(shù)

第九章單元測試

科學可視化主要關(guān)注的是()維現(xiàn)象的可視化。

A:二維B:一維C:N維D:三維

答案:三維不同用戶對數(shù)據(jù)可視化的認知有所區(qū)別,設(shè)計人員認為可視化是()。

A:信息編碼方式B:表述想法的工具C:漂亮的視覺表現(xiàn)D:用戶情感的表示

答案:漂亮的視覺表現(xiàn)作為電商企業(yè),以下()圖可以有效地提供不同商品的銷售和趨勢情況。

A:條形圖和線圖的組合圖B:熱力圖C:平行坐標圖D:氣泡圖

答案:條形圖和線圖的組合圖數(shù)據(jù)可視化分為()與()兩個方向。

A:科學可視化B:信息可視化C:內(nèi)容可視化D:圖像可視化

答案:科學可視化;信息可視化下面屬于數(shù)據(jù)類別的是()。

A:關(guān)系B:序列C:位置D:數(shù)量

答案:關(guān)系;序列;位置;數(shù)量數(shù)據(jù)可視化是借助于圖形化手段,清晰有效地傳達與溝通信息。

A:對B:錯

答案:對氣泡圖只能夠表示3個變量之間的關(guān)系。

A:對B:錯

答案:錯平行坐標圖是利用色塊大小,顏色來傳達信息的。

A:錯B:對

答案:對熱力

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權(quán)或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論