數(shù)據(jù)挖掘技術(shù)與應(yīng)用復(fù)習(xí)題_第1頁(yè)
數(shù)據(jù)挖掘技術(shù)與應(yīng)用復(fù)習(xí)題_第2頁(yè)
數(shù)據(jù)挖掘技術(shù)與應(yīng)用復(fù)習(xí)題_第3頁(yè)
數(shù)據(jù)挖掘技術(shù)與應(yīng)用復(fù)習(xí)題_第4頁(yè)
數(shù)據(jù)挖掘技術(shù)與應(yīng)用復(fù)習(xí)題_第5頁(yè)
已閱讀5頁(yè),還剩7頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

一、單選選擇題1.某超市研究銷售紀(jì)錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會(huì)購(gòu)買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?(A)

A.關(guān)聯(lián)規(guī)則發(fā)現(xiàn)B.聚類

C.分類D.自然語(yǔ)言處理

2.將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個(gè)步驟的任務(wù)?(C)

A.頻繁模式挖掘B.分類和預(yù)測(cè)C.數(shù)據(jù)預(yù)處理D.數(shù)據(jù)流挖掘

3.什么是KDD?(A)

A.數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)B.領(lǐng)域知識(shí)發(fā)現(xiàn)

C.文檔知識(shí)發(fā)現(xiàn)D.動(dòng)態(tài)知識(shí)發(fā)現(xiàn)

4.使用交互式的和可視化的技術(shù),對(duì)數(shù)據(jù)進(jìn)行探索屬于數(shù)據(jù)挖掘的哪一類任務(wù)?(A)

A.探索性數(shù)據(jù)分析B.建模描述

C.預(yù)測(cè)建模D.尋找模式和規(guī)則

5.建立一個(gè)模型,通過這個(gè)模型根據(jù)已知的變量值來(lái)預(yù)測(cè)其他某個(gè)變量值屬于數(shù)據(jù)挖掘的哪一類任務(wù)?(C)

A.根據(jù)內(nèi)容檢索B.建模描述

C.預(yù)測(cè)建模D.尋找模式和規(guī)則

6.用戶有一種感興趣的模式并且希望在數(shù)據(jù)集中找到相似的模式,屬于數(shù)據(jù)挖掘哪一類任務(wù)?(A)

A.根據(jù)內(nèi)容檢索B.建模描述

C.預(yù)測(cè)建模D.尋找模式和規(guī)則

7.下面哪種不屬于數(shù)據(jù)預(yù)處理的方法?(D)

A.變量代換B.離散化C.聚集D.估計(jì)遺漏值

8.假設(shè)12個(gè)銷售價(jià)格記錄組已經(jīng)排序如下:5,10,11,13,15,35,50,55,72,92,204,215使用如下每種方法將它們劃分成四個(gè)箱。等頻(等深)劃分時(shí),15在第幾個(gè)箱子內(nèi)?(B)

A.第一個(gè)B.第二個(gè)C.第三個(gè)D.第四個(gè)

9.上題中,等寬劃分時(shí)(寬度為50),15又在哪個(gè)箱子里?(A)

A.第一個(gè)B.第二個(gè)C.第三個(gè)D.第四個(gè)10.在上題中,屬于定量的屬性類型是:(C)

A.標(biāo)稱B.序數(shù)C.區(qū)間D.相異

11.只有非零值才重要的二元屬性被稱作:(C)

A.計(jì)數(shù)屬性B.離散屬性C.非對(duì)稱的二元屬性D.對(duì)稱屬性12.下面不屬于創(chuàng)建新屬性的相關(guān)方法的是:(B)

A.特征提取B.特征修改C.映射數(shù)據(jù)到新的空間D.特征構(gòu)造

13.考慮值集{1、2、3、4、5、90},其截?cái)嗑担╬=20%)是(C)

A.2B.3C.3.5D.5

14.下面哪個(gè)屬于映射數(shù)據(jù)到新的空間的方法?(A)

A.傅立葉變換B.特征加權(quán)C.漸進(jìn)抽樣D.維歸約

15.熵是為消除不確定性所需要獲得的信息量,投擲均勻正六面體骰子的熵是:(B)

A.1比特B.2.6比特C.3.2比特D.3.8比特

16.一所大學(xué)內(nèi)的各年紀(jì)人數(shù)分別為:一年級(jí)200人,二年級(jí)160人,三年級(jí)130人,四年級(jí)110人。則年級(jí)屬性的眾數(shù)是:(A)

A.一年級(jí)B.二年級(jí)C.三年級(jí)D.四年級(jí)

17.下列哪個(gè)不是專門用于可視化時(shí)間空間數(shù)據(jù)的技術(shù):(B)

A.等高線圖B.餅圖C.曲面圖D.矢量場(chǎng)圖

18.在抽樣方法中,當(dāng)合適的樣本容量很難確定時(shí),可以使用的抽樣方法是:(D)

A.有放回的簡(jiǎn)單隨機(jī)抽樣B.無(wú)放回的簡(jiǎn)單隨機(jī)抽樣C.分層抽樣D.漸進(jìn)抽樣

19.數(shù)據(jù)倉(cāng)庫(kù)是隨著時(shí)間變化的,下面的描述不正確的是(C)

A.數(shù)據(jù)倉(cāng)庫(kù)隨時(shí)間的變化不斷增加新的數(shù)據(jù)內(nèi)容;

B.捕捉到的新數(shù)據(jù)會(huì)覆蓋原來(lái)的快照;

C.數(shù)據(jù)倉(cāng)庫(kù)隨事件變化不斷刪去舊的數(shù)據(jù)內(nèi)容;

D.數(shù)據(jù)倉(cāng)庫(kù)中包含大量的綜合數(shù)據(jù),這些綜合數(shù)據(jù)會(huì)隨著時(shí)間的變化不斷地進(jìn)行重新綜合.

20.關(guān)于基本數(shù)據(jù)的元數(shù)據(jù)是指:(D)

A.基本元數(shù)據(jù)與數(shù)據(jù)源,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)集市和應(yīng)用程序等結(jié)構(gòu)相關(guān)的信息;

B.基本元數(shù)據(jù)包括與企業(yè)相關(guān)的管理方面的數(shù)據(jù)和信息;

C.基本元數(shù)據(jù)包括日志文件和簡(jiǎn)歷執(zhí)行處理的時(shí)序調(diào)度信息;

D.基本元數(shù)據(jù)包括關(guān)于裝載和更新處理,分析處理以及管理方面的信息.

21.下面關(guān)于數(shù)據(jù)粒度的描述不正確的是:(C)

A.粒度是指數(shù)據(jù)倉(cāng)庫(kù)小數(shù)據(jù)單元的詳細(xì)程度和級(jí)別;

B.數(shù)據(jù)越詳細(xì),粒度就越小,級(jí)別也就越高;

C.數(shù)據(jù)綜合度越高,粒度也就越大,級(jí)別也就越高;

D.粒度的具體劃分將直接影響數(shù)據(jù)倉(cāng)庫(kù)中的數(shù)據(jù)量以及查詢質(zhì)量.

22.有關(guān)數(shù)據(jù)倉(cāng)庫(kù)的開發(fā)特點(diǎn),不正確的描述是:(A)

A.數(shù)據(jù)倉(cāng)庫(kù)開發(fā)要從數(shù)據(jù)出發(fā);

B.數(shù)據(jù)倉(cāng)庫(kù)使用的需求在開發(fā)出去就要明確;

C.數(shù)據(jù)倉(cāng)庫(kù)的開發(fā)是一個(gè)不斷循環(huán)的過程,是啟發(fā)式的開發(fā);

D.在數(shù)據(jù)倉(cāng)庫(kù)環(huán)境中,并不存在操作型環(huán)境中所固定的和較確切的處理流,數(shù)據(jù)倉(cāng)庫(kù)中數(shù)據(jù)分析和處理更靈活,且沒有固定的模式

23.在有關(guān)數(shù)據(jù)倉(cāng)庫(kù)測(cè)試,下列說法不正確的是:(D)

A.在完成數(shù)據(jù)倉(cāng)庫(kù)的實(shí)施過程中,需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)進(jìn)行各種測(cè)試.測(cè)試工作中要包括單元測(cè)試和系統(tǒng)測(cè)試.

B.當(dāng)數(shù)據(jù)倉(cāng)庫(kù)的每個(gè)單獨(dú)組件完成后,就需要對(duì)他們進(jìn)行單元測(cè)試.

C.系統(tǒng)的集成測(cè)試需要對(duì)數(shù)據(jù)倉(cāng)庫(kù)的所有組件進(jìn)行大量的功能測(cè)試和回歸測(cè)試.

D.在測(cè)試之前沒必要制定詳細(xì)的測(cè)試計(jì)劃.

24.OLAP技術(shù)的核心是:(D)

A.在線性;

B.對(duì)用戶的快速響應(yīng);

C.互操作性.

D.多維分析;

25.關(guān)于OLAP的特性,下面正確的是:(D)

(1)快速性(2)可分析性(3)多維性(4)信息性(5)共享性

A.(1)(2)(3)

B.(2)(3)(4)

C.(1)(2)(3)(4)

D.(1)(2)(3)(4)(5)

26.設(shè)X={1,2,3}是頻繁項(xiàng)集,則可由X產(chǎn)生__(C)__個(gè)關(guān)聯(lián)規(guī)則。

A.4B.5C.6D.7

27.概念分層圖是__(B)__圖。

A.無(wú)向無(wú)環(huán)B.有向無(wú)環(huán)C.有向有環(huán)D.無(wú)向有環(huán)

28.頻繁項(xiàng)集、頻繁閉項(xiàng)集、最大頻繁項(xiàng)集之間的關(guān)系是:(C)

A.頻繁項(xiàng)集頻繁閉項(xiàng)集=最大頻繁項(xiàng)集

B.頻繁項(xiàng)集=頻繁閉項(xiàng)集最大頻繁項(xiàng)集

C.頻繁項(xiàng)集頻繁閉項(xiàng)集最大頻繁項(xiàng)集

D.頻繁項(xiàng)集=頻繁閉項(xiàng)集=最大頻繁項(xiàng)集

29.考慮下面的頻繁3-項(xiàng)集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定數(shù)據(jù)集中只有5個(gè)項(xiàng),采用合并策略,由候選產(chǎn)生過程得到4-項(xiàng)集不包含(C)

A.1,2,3,4B.1,2,3,5C.1,2,4,5D.1,3,4,5

30.下面選項(xiàng)中t不是s的子序列的是(C)

A.s=<{2,4},{3,5,6},{8}>t=<{2},{3,6},{8}>

B.s=<{2,4},{3,5,6},{8}>t=<{2},{8}>

C.s=<{1,2},{3,4}>t=<{1},{2}>

D.s=<{2,4},{2,4}>t=<{2},{4}>

31.在圖集合中發(fā)現(xiàn)一組公共子結(jié)構(gòu),這樣的任務(wù)稱為(B)

A.頻繁子集挖掘B.頻繁子圖挖掘C.頻繁數(shù)據(jù)項(xiàng)挖掘D.頻繁模式挖掘

32.下列度量不具有反演性的是(D)

A.系數(shù)B.幾率C.Cohen度量D.興趣因子

33.下列__(A)__不是將主觀信息加入到模式發(fā)現(xiàn)任務(wù)中的方法。

A.與同一時(shí)期其他數(shù)據(jù)對(duì)比

B.可視化

C.基于模板的方法

D.主觀興趣度量

34.下面購(gòu)物籃能夠提取的3-項(xiàng)集的最大數(shù)量是多少(C)

ID購(gòu)買項(xiàng)

1牛奶,啤酒,尿布

2面包,黃油,牛奶

3牛奶,尿布,餅干

4面包,黃油,餅干

5啤酒,餅干,尿布

6牛奶,尿布,面包,黃油

7面包,黃油,尿布

8啤酒,尿布

9牛奶,尿布,面包,黃油

10啤酒,餅干

A.1B.2C.3D.4

35.以下哪些算法是分類算法,A.DBSCANB.C4.5C.K-MeanD.EM(B)

36.以下哪些分類方法可以較好地避免樣本的不平衡問題,A.KNNB.SVMC.BayesD.神經(jīng)網(wǎng)絡(luò)(A)

37.決策樹中不包含一下哪種結(jié)點(diǎn),A.根結(jié)點(diǎn)(rootnode)B.內(nèi)部結(jié)點(diǎn)(internalnode)C.外部結(jié)點(diǎn)(externalnode)D.葉結(jié)點(diǎn)(leafnode)(C)

38.以下哪項(xiàng)關(guān)于決策樹的說法是錯(cuò)誤的(C)

A.冗余屬性不會(huì)對(duì)決策樹的準(zhǔn)確率造成不利的影響

B.子樹可能在決策樹中重復(fù)多次

C.決策樹算法對(duì)于噪聲的干擾非常敏感

D.尋找最佳決策樹是NP完全問題

39.在基于規(guī)則分類器的中,依據(jù)規(guī)則質(zhì)量的某種度量對(duì)規(guī)則排序,保證每一個(gè)測(cè)試記錄都是由覆蓋它的“最好的”規(guī)格來(lái)分類,這種方案稱為(B)

A.基于類的排序方案

B.基于規(guī)則的排序方案

C.基于度量的排序方案

D.基于規(guī)格的排序方案。

40.以下哪些算法是基于規(guī)則的分類器(A)

A.C4.5B.KNNC.NaiveBayesD.ANN

41.如果規(guī)則集R中不存在兩條規(guī)則被同一條記錄觸發(fā),則稱規(guī)則集R中的規(guī)則為(C);

A.無(wú)序規(guī)則B.窮舉規(guī)則C.互斥規(guī)則D.有序規(guī)則

42.如果對(duì)屬性值的任一組合,R中都存在一條規(guī)則加以覆蓋,則稱規(guī)則集R中的規(guī)則為(B)A.無(wú)序規(guī)則B.窮舉規(guī)則C.互斥規(guī)則D.有序規(guī)則

43.如果允許一條記錄觸發(fā)多條分類規(guī)則,把每條被觸發(fā)規(guī)則的后件看作是對(duì)相應(yīng)類的一次投票,然后計(jì)票確定測(cè)試記錄的類標(biāo)號(hào),稱為(A)

A.無(wú)序規(guī)則B.窮舉規(guī)則C.互斥規(guī)則D.有序規(guī)則

44.考慮兩隊(duì)之間的足球比賽:隊(duì)0和隊(duì)1。假設(shè)65%的比賽隊(duì)0勝出,剩余的比賽隊(duì)1獲勝。隊(duì)0獲勝的比賽中只有30%是在隊(duì)1的主場(chǎng),而隊(duì)1取勝的比賽中75%是主場(chǎng)獲勝。如果下一場(chǎng)比賽在隊(duì)1的主場(chǎng)進(jìn)行隊(duì)1獲勝的概率為(C)

A.0.75B.0.35C.0.4678D.0.5738

45.以下關(guān)于人工神經(jīng)網(wǎng)絡(luò)(ANN)的描述錯(cuò)誤的有(A)

A.神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練數(shù)據(jù)中的噪聲非常魯棒B.可以處理冗余特征C.訓(xùn)練ANN是一個(gè)很耗時(shí)的過程D.至少含有一個(gè)隱藏層的多層神經(jīng)網(wǎng)絡(luò)

46.通過聚集多個(gè)分類器的預(yù)測(cè)來(lái)提高分類準(zhǔn)確率的技術(shù)稱為(A)

A.組合(ensemble)B.聚集(aggregate)C.合并(combination)D.投票(voting)

47.簡(jiǎn)單地將數(shù)據(jù)對(duì)象集劃分成不重疊的子集,使得每個(gè)數(shù)據(jù)對(duì)象恰在一個(gè)子集中,這種聚類類型稱作(B)A.層次聚類B.劃分聚類C.非互斥聚類D.模糊聚類

48.在基本K均值算法里,當(dāng)鄰近度函數(shù)采用(A)的時(shí)候,合適的質(zhì)心是簇中各點(diǎn)的中位數(shù)。

A.曼哈頓距離B.平方歐幾里德距離C.余弦距離D.Bregman散度49.(C)將兩個(gè)簇的鄰近度定義為不同簇的所有點(diǎn)對(duì)的平均逐對(duì)鄰近度,它是一種凝聚層次聚類技術(shù)。

A.MIN(單鏈)B.MAX(全鏈)C.組平均D.Ward方法

50.(D)將兩個(gè)簇的鄰近度定義為兩個(gè)簇合并時(shí)導(dǎo)致的平方誤差的增量,它是一種凝聚層次聚類技術(shù)。

A.MIN(單鏈)B.MAX(全鏈)C.組平均D.Ward方法

51.DBSCAN在最壞情況下的時(shí)間復(fù)雜度是(B)。

A.O(m)B.O(m2)C.O(logm)D.O(m*logm)

52.在基于圖的簇評(píng)估度量表里面,如果簇度量為proximity(Ci,C),簇權(quán)值為mi,那么它的類型是(C)。

A.基于圖的凝聚度B.基于原型的凝聚度C.基于原型的分離度D.基于圖的凝聚度和分離度

53.關(guān)于K均值和DBSCAN的比較,以下說法不正確的是(A)。

A.K均值丟棄被它識(shí)別為噪聲的對(duì)象,而DBSCAN一般聚類所有對(duì)象。

B.K均值使用簇的基于原型的概念,而DBSCAN使用基于密度的概念。

C.K均值很難處理非球形的簇和不同大小的簇,DBSCAN可以處理不同大小和不同形狀的簇。

D.K均值可以發(fā)現(xiàn)不是明顯分離的簇,即便簇有重疊也可以發(fā)現(xiàn),但是DBSCAN會(huì)合并有重疊的簇。

54.以下是哪一個(gè)聚類算法的算法流程:①構(gòu)造k-最近鄰圖。②使用多層圖劃分算法劃分圖。③repeat:合并關(guān)于相對(duì)互連性和相對(duì)接近性而言,最好地保持簇的自相似性的簇。④until:不再有可以合并的簇。(C)。

A.MSTB.OPOSSUMC.ChameleonD.Jarvis-Patrick(JP)

二、簡(jiǎn)答題(本題共5題,每題6分,共30分)1.多維數(shù)據(jù)模型上的OLAP操作包括哪些?答案:上卷、下鉆、切片和切塊、轉(zhuǎn)軸、其它OLAP操作2.什么是數(shù)據(jù)清理?答案:數(shù)據(jù)清理例程可以用于填充遺漏的值,平滑數(shù)據(jù),找出局外者并糾正數(shù)據(jù)的不一致性3.什么是數(shù)據(jù)集成?答案:數(shù)據(jù)集成將多個(gè)數(shù)據(jù)源中的數(shù)據(jù)結(jié)合成、存放在一個(gè)一致的數(shù)據(jù)存儲(chǔ),如數(shù)據(jù)倉(cāng)庫(kù)中。這些源可能包括多個(gè)數(shù)據(jù)庫(kù)、數(shù)據(jù)方或一般文件。4.什么是數(shù)據(jù)歸約?答案:數(shù)據(jù)歸約技術(shù),如數(shù)據(jù)方聚集、維歸約、數(shù)據(jù)壓縮、數(shù)值歸約和離散化都可以用來(lái)得到數(shù)據(jù)的歸約表示,而使得信息內(nèi)容的損失最小。5.什么是數(shù)據(jù)挖掘?答案:數(shù)據(jù)挖掘就是從大量的、不完全的、有噪聲的、模糊的、隨機(jī)的實(shí)際應(yīng)用數(shù)據(jù)中,提取隱含在其中的人們事先不知道的,但又有潛在有用的信息和知識(shí)的過程。6.什么是關(guān)聯(lián)規(guī)則?什么是強(qiáng)關(guān)聯(lián)規(guī)則?強(qiáng)關(guān)聯(lián)規(guī)則都是有趣的嗎?答案:關(guān)聯(lián)規(guī)則:關(guān)聯(lián)規(guī)則挖掘?qū)ふ医o定數(shù)據(jù)集中項(xiàng)之間的有趣聯(lián)系。強(qiáng)關(guān)聯(lián)規(guī)則:同時(shí)滿足用戶定義的最小置信度閾值和最小支持度閾值的關(guān)聯(lián)規(guī)則稱為強(qiáng)關(guān)聯(lián)規(guī)則。都是有趣的7.什么是數(shù)據(jù)集市?答案:數(shù)據(jù)及時(shí)包含企業(yè)范圍數(shù)據(jù)的一個(gè)子集,對(duì)于特定的用戶是有用的。其范圍限于選定主題。8.典型的數(shù)據(jù)挖掘系統(tǒng)有哪幾個(gè)主要成分?答案:數(shù)據(jù)庫(kù)、數(shù)據(jù)倉(cāng)庫(kù)、萬(wàn)維網(wǎng)或其他信息庫(kù);數(shù)據(jù)庫(kù)或數(shù)據(jù)倉(cāng)庫(kù)服務(wù)器;知識(shí)庫(kù);數(shù)據(jù)挖掘引擎;模式評(píng)估模塊;用戶界面9.從軟件工程的觀點(diǎn)來(lái)看,數(shù)據(jù)倉(cāng)庫(kù)的設(shè)計(jì)和構(gòu)造包含哪些步驟?答案:規(guī)劃、需求研究、問題分析、倉(cāng)庫(kù)設(shè)計(jì)、數(shù)據(jù)集成和測(cè)試,最后,配置數(shù)據(jù)倉(cāng)庫(kù)。10.臟數(shù)據(jù)形成的原因有哪些?答案:濫用縮寫詞、數(shù)據(jù)輸入錯(cuò)誤、數(shù)據(jù)中的內(nèi)嵌控制信息、不同的慣用語(yǔ)、重復(fù)記錄、丟失值、拼寫變化、不同的計(jì)量單位、過時(shí)的編碼。11.?dāng)?shù)據(jù)清理時(shí),對(duì)空缺值有哪些處理方法?答案:忽略元祖、人工填寫遺漏值、使用一個(gè)全局常量填充遺漏值、使用屬性的平均值填充遺漏值、使用與給定元祖屬同一類的所有樣本的平均值、使用最可能的值填充遺漏值12.什么是數(shù)據(jù)變換?包括哪些內(nèi)容?答案:數(shù)據(jù)變換將數(shù)據(jù)轉(zhuǎn)換成適合于挖掘的形式。包括內(nèi)容有,平滑、聚集、數(shù)據(jù)泛化、規(guī)范化、屬性構(gòu)造13.?dāng)?shù)據(jù)歸約的策略包括哪些?答案:數(shù)據(jù)方聚集、維歸約、數(shù)據(jù)壓縮、數(shù)值壓縮、離散化和概念分層14.提高數(shù)據(jù)挖掘算法效率有哪幾種思路?答案:減少對(duì)數(shù)據(jù)的掃描次數(shù);縮小產(chǎn)生的候選項(xiàng)集;改進(jìn)對(duì)候選項(xiàng)集的支持度計(jì)算方法15.什么決定所使用的數(shù)據(jù)挖掘功能?答案:挖掘什么類型的知識(shí)是非常重要的,因?yàn)檫@決定使用什么數(shù)據(jù)挖掘功能。知識(shí)類型包括概念描述(特征和區(qū)別)、關(guān)聯(lián)、分類、預(yù)測(cè)、聚類和演變分析三、填空題(每題2分)1、數(shù)據(jù)倉(cāng)庫(kù)就是一個(gè)面向主題的、集成的、相對(duì)穩(wěn)定的、反映歷史變化的數(shù)據(jù)集合。2、數(shù)據(jù)倉(cāng)庫(kù)按照其開發(fā)過程,其關(guān)鍵環(huán)節(jié)包括數(shù)據(jù)抽取、數(shù)據(jù)存儲(chǔ)與管理和數(shù)據(jù)表現(xiàn)等。3、數(shù)據(jù)抽取的兩個(gè)常見類型是靜態(tài)抽取和增量抽取。靜態(tài)抽取用于最初填充數(shù)據(jù)倉(cāng)庫(kù),增量抽取用于進(jìn)行數(shù)據(jù)倉(cāng)庫(kù)的維護(hù)。4、維度表一般又主鍵、分類層次和描述屬性組成。對(duì)于主鍵可以選擇兩種方式:一種是采用自然鍵,另一種是采用代理鍵。5、分類器設(shè)計(jì)階段包含三個(gè)過程:劃分?jǐn)?shù)據(jù)集、分類器構(gòu)造和分類器測(cè)試。6、支持向量機(jī)中常用的核函數(shù)有多項(xiàng)式核函數(shù)、徑向基核函數(shù)和S型核函數(shù)。7、層次聚類方法包括凝聚型和分解型兩中層次聚類方法。8、分類問題中常用的評(píng)價(jià)準(zhǔn)則有精確度、查全率和查準(zhǔn)率和集合均值。四、分析題(每題10分)1.

數(shù)據(jù)挖掘的分類方法有哪些,請(qǐng)?jiān)敿?xì)闡述之答案:分類方法歸結(jié)為四種類型:1)基于距離的分類方法:距離的計(jì)算方法有多種,最常用的是通過計(jì)算每個(gè)類的中心來(lái)完成,在實(shí)際的計(jì)算中往往用距離來(lái)表征,距離越近,相似性越大,距離越遠(yuǎn),相似性越小。2)決策樹分類方法:決策樹(DecisionTree)的每個(gè)內(nèi)部結(jié)點(diǎn)表示在一個(gè)屬性上的測(cè)試,每個(gè)分枝代表一個(gè)測(cè)試輸出,而每個(gè)樹葉結(jié)點(diǎn)代表類或類分布。樹的最頂層結(jié)點(diǎn)是根結(jié)點(diǎn)。3)貝葉斯分類方法:設(shè)X是類標(biāo)號(hào)未知的數(shù)據(jù)樣本。設(shè)H為某種假定,如數(shù)據(jù)樣本X屬于某特定的類C。對(duì)于分類問題,我們希望確定P(H|X),即給定觀測(cè)數(shù)據(jù)樣本X,假定H成立的概率。規(guī)則歸納方法:規(guī)則歸納有四種策略:減法、加法,先加后減、先減后加策略。a)減法策略:以具體例子為出發(fā)點(diǎn),對(duì)例子進(jìn)行推廣或泛化,推廣即減除條件(屬性值)或減除合取項(xiàng)(為了方便,我們不考慮增加析取項(xiàng)的推廣),使推廣后的例子或規(guī)則不覆蓋任何反例。b)加法策略:

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論