數(shù)據(jù)挖掘智慧樹知到期末考試答案2024年_第1頁
數(shù)據(jù)挖掘智慧樹知到期末考試答案2024年_第2頁
數(shù)據(jù)挖掘智慧樹知到期末考試答案2024年_第3頁
數(shù)據(jù)挖掘智慧樹知到期末考試答案2024年_第4頁
數(shù)據(jù)挖掘智慧樹知到期末考試答案2024年_第5頁
已閱讀5頁,還剩18頁未讀 繼續(xù)免費閱讀

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

數(shù)據(jù)挖掘智慧樹知到期末考試答案2024年數(shù)據(jù)挖掘給定由兩次運行K均值產(chǎn)生的兩個不同的簇集,誤差的平方和最大的那個應該被視為較優(yōu)。()

A:對B:錯答案:錯一維空間的7個點123891025,根據(jù)劃分方法聚類質(zhì)量評價準則,設置k為2時,(1,2,3)(8,9,10,25)聚類的系數(shù)E值為34.5。()

A:對B:錯答案:錯所謂特征選擇,是指從數(shù)據(jù)中,選擇有代表性的屬性。()

A:對B:錯答案:對假設兩只股票A和B具有在1個星期的以下值:(2,5),(3,8),(5,10),(4,11),(6,14)。如果股票都受到同行業(yè)的趨勢,他們的價格協(xié)方差是1.2。()

A:錯B:對答案:錯數(shù)據(jù)挖掘的目標不在于數(shù)據(jù)采集策略,而在于對于已經(jīng)存在的數(shù)據(jù)進行模式的發(fā)掘。()

A:對B:錯答案:對數(shù)據(jù)庫中某屬性缺失值比較多時,數(shù)據(jù)清理可以采用忽略元組的方法。()

A:錯B:對答案:錯樣品是數(shù)據(jù)對象的別名。()

A:錯B:對答案:對數(shù)據(jù)清洗即將來自多個數(shù)據(jù)源的數(shù)據(jù)組合成一個連貫的數(shù)據(jù)源。()

A:對B:錯答案:錯對于決策樹,某一屬性劃分的一個分支中包含C1類別的數(shù)據(jù)有3條,C2類別的數(shù)據(jù)有3條,請計算該屬性劃分時,該分支的數(shù)據(jù)基尼GINI值為0.5。()

A:錯B:對答案:對對于決策樹,某一屬性劃分的一個分支中包含C1類別的數(shù)據(jù)有0條,C2類別的數(shù)據(jù)有6條,請計算該屬性劃分時,該分支的數(shù)據(jù)基尼GINI值為0.5。()

A:對B:錯答案:錯序數(shù)類型數(shù)據(jù)的可以計算其均值。()

A:對B:錯答案:錯一所學校里面有60%的男生(boy),40%的女生(girl)。男生總是穿長褲(pants),女生則一半穿長褲一半穿裙子。隨機選取一個穿長褲的學生,他(她)是女生的概率是0.5。()

A:錯B:對答案:錯屬性的別名也可稱為實例。()

A:錯B:對答案:錯數(shù)據(jù)預處理主要包括數(shù)據(jù)清洗、數(shù)據(jù)集成、數(shù)據(jù)規(guī)約、數(shù)據(jù)變換和離散化四個步驟。()

A:錯B:對答案:對對于決策樹,某一屬性劃分的一個分支中包含C1類別的數(shù)據(jù)有0條,C2類別的數(shù)據(jù)有6條,請計算該屬性劃分時,該分支的數(shù)據(jù)信息熵值為0。()

A:錯B:對答案:對在logistic分類中,L1正則化和L2正則化的引入為了解決訓練過擬合的問題。()

A:對B:錯答案:對將原始數(shù)據(jù)進行維度規(guī)約,數(shù)值規(guī)約屬于頻繁模式挖掘步驟的任務。()

A:錯B:對答案:錯在決策樹中,隨著樹中結(jié)點數(shù)變得太大,即使模型的訓練誤差還在繼續(xù)減低,但是檢驗誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。()

A:錯B:對答案:錯數(shù)據(jù)可視化方法主要包括直方圖、柱狀圖、箱線圖、散點圖等方法。()

A:錯B:對答案:對關聯(lián)規(guī)則挖掘過程是發(fā)現(xiàn)滿足最小支持度的所有項集代表的規(guī)則。()

A:對B:錯答案:錯那種數(shù)據(jù)變換的方法將數(shù)據(jù)沿概念分層向上匯總(

)

A:數(shù)據(jù)概化B:規(guī)范化C:平滑D:聚集答案:數(shù)據(jù)概化哪種圖形顯示方法常用于描述兩個變量間的依賴模式?(

)

A:分位數(shù)圖B:LOESS曲線C:散布圖D:直方圖答案:LOESS曲線下列哪一種操作實現(xiàn)了和神經(jīng)網(wǎng)絡中Dropout類似的效果?(

)

A:堆疊(Stacking)B:BoostingC:其余選項都不正確D:Bagging答案:Bagging分析顧客消費行業(yè),以便有針對性的向其推薦感興趣的服務,屬于(

)問題。

A:關聯(lián)規(guī)則挖掘B:分類與回歸C:時序預測D:聚類分析答案:關聯(lián)規(guī)則挖掘下列哪一項屬于特征學習算法(representation

learning

algorithm)?(

)

A:都不屬于B:神經(jīng)網(wǎng)絡C:K近鄰算法D:隨機森林答案:神經(jīng)網(wǎng)絡增加卷積核的大小對于改進卷積神經(jīng)網(wǎng)絡的效果是必要的嗎?(

)

A:不知道B:沒聽說過C:是D:否答案:否(

)的目的縮小數(shù)據(jù)的取值范圍,使其更適合于數(shù)據(jù)挖掘算法的需要,并且能夠得到和原始數(shù)據(jù)相同的分析結(jié)果。

A:數(shù)據(jù)歸約B:數(shù)據(jù)變換C:數(shù)據(jù)清洗D:數(shù)據(jù)集成答案:數(shù)據(jù)歸約下列幾種數(shù)據(jù)挖掘功能中,(

)被廣泛的應用于股票價格走勢分析(

)

A:關聯(lián)分析B:演變分析C:分類和預測D:聚類分析答案:演變分析下列哪個描述是正確的?(

A:分類是無指導的學習,聚類是有指導的學習B:分類和聚類都是無指導的學習C:分類和聚類都是有指導的學習

D:分類是有指導的學習,聚類是無指導的學習答案:分類是有指導的學習,聚類是無指導的學習購物籃分析的核心是(

)

A:挖掘關聯(lián)規(guī)則B:統(tǒng)計熱銷商品C:收集購物籃數(shù)據(jù)D:優(yōu)化商品擺放位置答案:挖掘關聯(lián)規(guī)則設X={1,2,3}是頻繁項集,則可由X產(chǎn)生(

)個關聯(lián)規(guī)則。(

)

A:5B:4C:6D:7答案:6以下哪個指標不是表示對象間的相似度和相異度。(

)

A:Manhattan距離B:Minkowski距離C:Eula距離D:Euclidean距離答案:Eula距離下面哪種數(shù)據(jù)預處理技術可以用來平滑數(shù)據(jù),消除數(shù)據(jù)噪聲?

(

)

A:數(shù)據(jù)清理B:數(shù)據(jù)集成C:數(shù)據(jù)歸約D:數(shù)據(jù)變換答案:數(shù)據(jù)歸約聚類質(zhì)量評估系數(shù)僅衡量“覆蓋面”的度量指標是(

)。

A:輪廓系數(shù)B:召回率C:F值D:正確率答案:召回率下面關于數(shù)據(jù)粒度的描述不正確的是:

A:粒度是指數(shù)據(jù)倉庫小數(shù)據(jù)單元的詳細程度和級別;B:粒度的具體劃分將直接影響數(shù)據(jù)倉庫中的數(shù)據(jù)量以及查詢質(zhì)量.分析和處理更靈活,且沒有固定的模式C:數(shù)據(jù)綜合度越高,粒度也就越大,級別也就越高;D:數(shù)據(jù)越詳細,粒度就越小,級別也就越高;答案:數(shù)據(jù)綜合度越高,粒度也就越大,級別也就越高;檢測一元正態(tài)分布中的離群點,屬于異常檢測中的基于(

)的離群點檢測。

A:統(tǒng)計方法B:鄰近度C:聚類技術D:密度答案:統(tǒng)計方法對于分類任務,我們不是將神經(jīng)網(wǎng)絡中的隨機權重初始化,而是將所有權重設為零。下列哪項是正確的?(

)

A:神經(jīng)網(wǎng)絡模型可以訓練,但所有的神經(jīng)元最終將識別同樣的事情B:沒有任何問題,神經(jīng)網(wǎng)絡模型將正常訓練C:神經(jīng)網(wǎng)絡模型不會進行訓練,因為沒有凈梯度變化D:這些均不會發(fā)生答案:神經(jīng)網(wǎng)絡模型可以訓練,但所有的神經(jīng)元最終將識別同樣的事情下面關于支持向量機(SVM)的描述錯誤的是?(

A:是一種監(jiān)督式學習的方法B:可用于多分類的問題C:支持非線性的核函數(shù)D:是一種生成式模型答案:是一種生成式模型如果我們使用的學習率太大該怎么辦?(

)

A:不確定B:網(wǎng)絡將收斂C:網(wǎng)絡將無法收斂答案:網(wǎng)絡將無法收斂根據(jù)顧客的收入和職業(yè)情況,預測他們在計算機設備上的花費,所使用的相應數(shù)據(jù)挖掘功能是(

)

A:分類和預測B:演變分析C:關聯(lián)分析D:概念描述答案:分類和預測可用作數(shù)據(jù)挖掘分析中的關聯(lián)規(guī)則算法有(

)。

A:決策樹、對數(shù)回歸、關聯(lián)模式

B:K均值法、SOM神經(jīng)網(wǎng)絡

C:Apriori算法、FP-Tree算法

D:RBF神經(jīng)網(wǎng)絡、K均值法、決策樹答案:Apriori算法下面那種數(shù)據(jù)挖掘方法可以用來檢測孤立點?(

)

A:分類和預測B:演變分析C:概念描述D:聚類分析答案:聚類分析根據(jù)關聯(lián)分析中所涉及的抽象層,可以將關聯(lián)規(guī)則分類為:

(

)

A:單層關聯(lián)規(guī)則B:布爾關聯(lián)規(guī)則C:多層關聯(lián)規(guī)則D:多維關聯(lián)規(guī)則答案:單層關聯(lián)規(guī)則###多層關聯(lián)規(guī)則什么是影響神經(jīng)網(wǎng)絡的深度選擇的因素?(

A:神經(jīng)網(wǎng)絡的類型,例如:多層感知機(Multi-Layer

Perceptrons,

MLP),卷積神經(jīng)網(wǎng)絡(Convolutional

Neural

Networks,

CNN)B:輸入數(shù)據(jù)C:輸出函數(shù)映射D:學習率E:計算能力,即硬件和軟件能力答案:學習率###神經(jīng)網(wǎng)絡的類型###計算能力,即硬件和軟件能力###輸入數(shù)據(jù)基本的聚類方法可以分為(

A:密度方法B:劃分方法C:層次方法D:網(wǎng)格方法答案:層次方法神經(jīng)網(wǎng)絡模型(Neural

Network)因受人類大腦的啟發(fā)而得名,神經(jīng)網(wǎng)絡由許多神經(jīng)元(Neuron)組成,每個神經(jīng)元接受一個輸入,對輸入進行處理后給出一個輸出。請問下列關于神經(jīng)元的描述中,哪幾項是正確的?(

A:每個神經(jīng)元可以有多個輸入和多個輸出B:每個神經(jīng)元可以有多個輸入和一個輸出C:每個神經(jīng)元可以有一個輸入和多個輸出D:每個神經(jīng)元可以有一個輸入和一個輸出答案:每個神經(jīng)元可以有一個輸入和一個輸出###每個神經(jīng)元可以有一個輸入和多個輸出###每個神經(jīng)元可以有多個輸入和一個輸出###每個神經(jīng)元可以有多個輸入和多個輸出Apriori算法所面臨的主要的挑戰(zhàn)包括:

(

)

A:會產(chǎn)生大量的候選項集B:會消耗大量的內(nèi)存C:對候選項集的支持度計算非常繁瑣D:要對數(shù)據(jù)進行多次掃描答案:會產(chǎn)生大量的候選項集###要對數(shù)據(jù)進行多次掃描二元變量可以使用(

)來衡量相異度。

A:歐氏距離B:Jaccard系數(shù)C:簡單匹配系數(shù)D:平均偏差答案:簡單匹配系數(shù)###Jaccard系數(shù)數(shù)據(jù)清理的目的是處理數(shù)據(jù)中的(

A:空缺值B:不一致數(shù)據(jù)C:敏感數(shù)據(jù)D:噪聲數(shù)據(jù)答案:不一致數(shù)據(jù)###噪聲數(shù)據(jù)###空缺值增大卷積核的大小必然會提高卷積神經(jīng)網(wǎng)絡的性能。(

A:對B:錯答案:錯數(shù)據(jù)規(guī)范化指將數(shù)據(jù)按比例縮放(如更換大單位),使之落入一個特定的區(qū)域(如0-1)以提高數(shù)據(jù)挖掘效率的方法。規(guī)范化的常用方法有:最大-最小規(guī)范化、零-均值規(guī)范化、小數(shù)定標規(guī)范化。(

A:對B:錯答案:對1`、如果增加多層感知機(Multilayer

Perceptron)的隱層層數(shù),測試集的分類錯誤會減小。(

A:錯B:對答案:錯在監(jiān)督學習任務中,輸出層中的神經(jīng)元的數(shù)量應該與類的數(shù)量(其中類的數(shù)量大于2)匹配。(

A:錯B:對答案:錯DIANA算法是典型的分裂層次聚類方法。(

A:錯B:對答案:對支持向量機的準確率一定沒有神經(jīng)網(wǎng)絡的好。(

A:對B:錯答案:錯提升卷積核(convolutional

kernel)的大小會顯著提升卷積神經(jīng)網(wǎng)絡的性能。(

A:錯B:對答案:錯聚類分析可以看作是一種非監(jiān)督的分類。(

A:對B:錯答案:對輪廓系數(shù)衡量聚類質(zhì)量好壞的思想是比較數(shù)據(jù)點的簇內(nèi)和簇間距離。(

A:對B:錯答案:對K-Medians聚類過程中初始質(zhì)心是隨機選取的。(

A:錯B:對答案:對相異性矩陣反應了數(shù)據(jù)項之間的相似性。(

A:錯B:對答案:對聚類是指將物理或抽象對象的集合分組成為由類似的對象組成的多個類的過程。

A:錯誤B:正確答案:正確孤立點在數(shù)據(jù)挖掘時總是被視為異常、無用數(shù)據(jù)而丟棄。

A:正確B:錯誤答案:錯誤Y

=

ax^2

+

bx

+

c(二次多項式)這個方程可以用具有線性閾值的單個隱層的神經(jīng)網(wǎng)絡表示。(

A:正確B:錯誤答案:錯誤決策樹方法通常用于關聯(lián)規(guī)則挖掘。(

A:對B:錯答案:錯InceptionV2版本修改Inception的內(nèi)部計算邏輯提高網(wǎng)絡的表達能力。

A:對B:錯答案:對兩個點之間的距離可以計算,而簇之間的距離不能計算。

A:錯B:對答案:錯ID采用整數(shù)表示時,不能看作分類屬性。

A:錯誤B:正確答案:錯誤貝葉斯網(wǎng)絡不能用于分類。

A:錯B:對答案:錯在聚類分析中,簇內(nèi)的相似性越大,簇間的差別越大,聚類的效果就越差。

A:對B:錯答案:錯密度聚類算法對半徑參數(shù)是敏感的。

A:正確B:錯誤答案:正確支持度小于等于置信度。

A:錯誤B:正確答案:正確星型模型和雪花型模型僅包括一個事實表。

A:錯B:對答案:錯聚類探索數(shù)據(jù)的內(nèi)在結(jié)構,而分類是建立屬性和類別之間的映射關系。

A:正確B:錯誤答案:正確支持度和置信度均大于指定閾值的關聯(lián)規(guī)則一定是有意義的。

A:錯誤B:正確答案:錯誤貝葉斯網(wǎng)絡是一種定性描述變量間依賴關系的模型。

A:對B:錯答案:錯K-中心點算法使用簇間中心距離,而不是最大距離。

A:錯B:對答案:錯貝葉斯網(wǎng)絡中每個節(jié)點的條件概率定量描述了變量間的依賴程度。

A:對B:錯答案:對離群點可能是有意義的數(shù)據(jù)。

A:對B:錯答案:錯信息熵為0時,不確定性最大。

A:錯B:對答案:錯數(shù)據(jù)劃分是決策樹分類的重要思想,信息增益度量了屬性節(jié)點對樣本的劃分效果。

A:對B:錯答案:對FP算法中構建FP樹的目的是存儲候選項集。

A:錯誤B:正確答案:錯誤關聯(lián)規(guī)則的前項和后項組成的項集可以是不頻繁的。

A:錯B:對答案:錯K-Means算法使用簇間均值距離,而不是中心距離。

A:正確B:錯誤答案:錯誤與劃分聚類相比,K-means算法對離群點是不敏感的。

A:錯誤B:正確答案:錯誤某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買啤酒的人很大概率也會購買尿布,這種屬于數(shù)據(jù)挖掘的哪類問題?

A:關聯(lián)規(guī)則發(fā)現(xiàn)

B:聚類C:自然語言處理D:分類答案:關聯(lián)規(guī)則發(fā)現(xiàn)設3項集是{a,b,c}是頻繁項集,則下列一定是頻繁項集的是

A:{c,d}B:{a,b}C:{a,d}D:{b,d}答案:{a,b}在ID3算法中信息增益是指

A:條件熵減少的程度最大B:信息的增加效益C:熵增加的程度最大D:信息的溢出程度答案:信息的增加效益設有一個回歸方程為y=3-2x,則變量x增加一個單位時

A:y平均減少2.5個單位B:y平均減少2個單位C:y平均增加2.5個單位D:y平均增加2個單位答案:y平均減少2個單位Apriori算法Hash樹中存儲的是

A:剪枝后的候選項集合B:剪枝前的候選項集合C:所有3項集D:頻繁項集答案:剪枝后的候選項集合選出如下是OLAP多維數(shù)據(jù)分析的操作

A:鉆取B:轉(zhuǎn)換C:旋轉(zhuǎn)D:切片和切塊答案:鉆取###切片和切塊###旋轉(zhuǎn)CF樹的參數(shù)--空間閾值τ用于限制()。

A:葉節(jié)點的大小B:非葉節(jié)點的大小C:葉節(jié)點里的子簇的大小答案:葉節(jié)點里的子簇的大小下列哪個算法屬于密度聚類算法?()。

A:K-modesB:DIANAC:DBSCAND:PAM答案:DBSCAN下面哪種情況不會影響K-means聚類的效果?()

A:數(shù)據(jù)點密度分布不均B:數(shù)據(jù)點呈非凸形狀分布C:數(shù)據(jù)中有異常點存在D:數(shù)據(jù)點呈圓形狀分布答案:數(shù)據(jù)點呈圓形狀分布一組數(shù)據(jù)的最小值為12,000,最大值為98,000,利用最小最大規(guī)范化將數(shù)據(jù)規(guī)范到[0,1],則73,000規(guī)范化的值為:()

A:0.845B:0.716C:0.612D:0.513答案:0.716數(shù)據(jù)庫中某屬性缺失值比較多時,數(shù)據(jù)清理采用的方法()

A:各項說法均有誤B:盒狀圖法C:忽略元組D:平均值填充答案:平均值填充假定用于分析的數(shù)據(jù)包含屬性age。數(shù)據(jù)元組中age的值如下(按遞增序):13,15,16,16,19,20,20,21,22,22,25,25,25,30,33,33,35,35,36,40,45,46,52,70,問題:使用按箱平均值平滑方法對上述數(shù)據(jù)進行平滑,箱的深度為3。第二個箱子值為:()

A:26.8B:27.9C:22.6D:18.3答案:3運用云計算、數(shù)據(jù)挖掘以及模糊識別等人工智能技術,對海量的數(shù)據(jù)和信息進行分析和處理,對物體實施智能化的控制,指的是()

A:互聯(lián)網(wǎng)B:全面感知C:可靠傳遞D:智能處理答案:智能處理身高和體重分別是什么類型()

A:身高離散、體重離散B:身高離散、體重連續(xù)C:身高連續(xù)、體重連續(xù)D:身高連續(xù)、體重離散答案:身高連續(xù)、體重連續(xù)數(shù)據(jù)挖掘算法主要有聚類算法、關聯(lián)算法、決策樹算法和回歸分析等,各種算法用于解決不同的實際問題,某分行擬通過對縣域機構數(shù)量與存款市場競爭力的相關性分析,進而建立兩者之間的函數(shù)表達式,用新思維拓展縣域市場,提升縣域存款的市場競爭力。則可以采用的是:()

A:決策樹算法B:關聯(lián)算法C:聚類分析D:回歸分析答案:回歸分析哪一項是一個觀測值,它與其他觀測值的差別如此之大,以至于懷疑它是由不同的機制產(chǎn)生的。()

A:質(zhì)心B:離群點C:邊界點D:核心點答案:離群點NaveBayes是一種特殊的Bayes分類器,特征變量是X,類別標簽是C,它的一個假定是:()

A:各類別的先驗概率P是相等的B:特征變量X的各個維度是類別條件獨立隨機變量C:以0為均值,sqr(2)/2為標準差的正態(tài)分布D:P(X|C)是高斯分布答案:特征變量X的各個維度是類別條件獨立隨機變量標稱類型數(shù)據(jù)的可以實現(xiàn)數(shù)學計算()

A:均值B:眾數(shù)C:中位數(shù)D:方差答案:眾數(shù)印度電影《寶萊塢機器人之戀》中的機器人七弟采用的智能算法最有可能是以下哪一種()

A:窮舉算法B:神經(jīng)網(wǎng)絡C:遺傳算法D:模擬退火答案:神經(jīng)網(wǎng)絡“飛機必須飛得比山高”表示()

A:知識B:信息C:數(shù)據(jù)D:智慧答案:智慧在無人駕駛時,希望程序能夠根據(jù)路況決策汽車的方向盤的旋轉(zhuǎn)角度,那么該任務是?()

A:分類B:聚類C:回歸D:降維答案:回歸某超市研究銷售紀錄數(shù)據(jù)后發(fā)現(xiàn),買面包的人很大概率也會購買牛奶,這種屬于數(shù)據(jù)挖掘的哪類問題:()

A:聚類B:關聯(lián)規(guī)則發(fā)現(xiàn)C:自然語言處理D:分類答案:關聯(lián)規(guī)則發(fā)現(xiàn)將原始數(shù)據(jù)進行維度規(guī)約,數(shù)值規(guī)約是在以下哪個步驟的任務?()

A:分類與預測B:頻繁模式挖掘C:數(shù)據(jù)流挖掘D:數(shù)據(jù)預處理答案:數(shù)據(jù)預處理時間序列合適的建模方法有:()。

A:一元時間序列B:離散型時間序列C:序列的分布規(guī)律D:多元時間序列E:連續(xù)型時間序列答案:一元時間序列###多元時間序列###序列的分布規(guī)律###離散型時間序列###連續(xù)型時間序列下列哪些算法屬于層次聚類算法?()。

A:CUREB:AgnesC:BIRCHD:DIANA答案:Agnes###BIRCH###CURE###DIANABIRCH算法的主要缺點有()。

A:聚類的結(jié)果可能和真實的類別分布不同B:對高維特征的數(shù)據(jù)聚類效果不好C:無法識別噪聲數(shù)據(jù)D:BIRCH算法在整個過程中一旦中斷,一切必須從頭再來答案:BIRCH算法AprioriSome算法的優(yōu)缺點()。

A:適用于任何數(shù)據(jù)集B:AprioriSome會產(chǎn)生比較多的候選,可能在回溯階段前就占滿內(nèi)存。C:AprioriSome跳躍式計算候選,會在某種程度上減少遍歷數(shù)據(jù)集次數(shù)D:對于較低的支持度,數(shù)據(jù)集中有較長的大序列的情況下,采用AprioriSome比較好。答案:AprioriSome跳躍式計算候選,會在某種程度上減少遍歷數(shù)據(jù)集次數(shù)###AprioriSome會產(chǎn)生比較多的候選,可能在回溯階段前就占滿內(nèi)存###對于較低的支持度,數(shù)據(jù)集中有較長的大序列的情況下,采用AprioriSome比較好GSP算法存在的問題()。

A:只適用于小規(guī)模數(shù)據(jù)集B:對長序列模式的處理效率比較低C:需要對序列數(shù)據(jù)集進行多次掃描D:當序列數(shù)據(jù)集比較大時,容易生成龐大的候選序列答案:對長序列模式的處理效率比較低###當序列數(shù)據(jù)集比較大時,容易生成龐大的候選序列###需要對序列數(shù)據(jù)集進行多次掃描DBSCAN算法的優(yōu)點有()。

A:能夠識別出噪聲點B:可以發(fā)現(xiàn)任意形狀的簇C:對于數(shù)據(jù)集中樣本的順序不敏感D:不需要事先知道要形成的簇的數(shù)量答案:不需要事先知道要形成的簇的數(shù)量;可以發(fā)現(xiàn)任意形狀的簇;能夠識別出噪聲點;對于數(shù)據(jù)集中樣本的順序不敏感噪聲數(shù)據(jù)(不正確的值)的成因有()。

A:數(shù)據(jù)收集工具的問題B:數(shù)據(jù)輸入時的人為/計算機錯誤C:其他D:數(shù)據(jù)傳輸中產(chǎn)生的錯誤答案:數(shù)據(jù)傳輸中產(chǎn)生的錯誤###數(shù)據(jù)收集工具的問題###數(shù)據(jù)輸入時的人為/計算機錯誤下列哪些是分類算法?()。

A:ID3B:DIANAC:C4.5D:KNN答案:C4.5###ID3###KNN多維數(shù)據(jù)模型最典型的數(shù)據(jù)模式包括()。

A:星型模式B:雪花模式C:網(wǎng)狀模式D:事實星座模式答案:事實星座模式###星型模式###雪花模式可以用來刻畫簇間距離的有()()。

A:最大距離B:平均距離C:中心距離D:最小距離答案:最小距離###最大距離###平均距離###中心距離處理空缺值的主要方法有()。

A:使用一個全局常量填補空缺值B:使用與給定元組屬同一類的所有樣本的平均值。C:使用屬性的平均值填補空缺值。D:忽略元組答案:忽略元組;使用一個全局常量填補空缺值;使用屬性的平均值填補空缺值。;使用與給定元組屬同一類的所有樣本的平均值。樸素貝葉斯分類器對什么數(shù)據(jù)具有較好的分類效果()。

A:離散數(shù)據(jù)B:連續(xù)數(shù)據(jù)C:函數(shù)依賴的數(shù)據(jù)D:完全獨立的數(shù)據(jù)答案:函數(shù)依賴的數(shù)據(jù)###完全獨立的數(shù)據(jù)數(shù)據(jù)挖掘是從具有什么特點的數(shù)據(jù)中,提取隱含在其中的、人們事先不知道的、但又是潛在有用的信息和知識的過程。()

A:海量的B:模糊的C:不完全的D:有噪聲的答案:有噪聲的可以用來刻畫簇內(nèi)距離的有()()。

A:簇的內(nèi)徑B:簇的直徑C:簇的中心距離和D:簇的平均距離答案:簇的中心距離和###簇的內(nèi)徑###簇的平均距離###簇的直徑AprioriSome算法可以看作是AprioriAll算法的改進,具體過程分為兩個階段:()。

A:凝聚B:分裂C:回溯階段D:前推階段答案:前推階段###回溯階段分箱方法有()。

A:按箱中值平滑B:按箱平均值平滑C:按箱邊界平滑D:聚類答案:按箱平均值平滑;按箱中值平滑;按箱邊界平滑數(shù)據(jù)不一致性的成因:()。

A:人為B:機器C:不同的數(shù)據(jù)源D:違反了函數(shù)依賴性答案:不同的數(shù)據(jù)源###違反了函數(shù)依賴性數(shù)據(jù)歸約的策略有()。

A:數(shù)據(jù)立方體聚集B:維歸約C:數(shù)據(jù)壓縮D:數(shù)值歸約答案:數(shù)值歸約###數(shù)據(jù)壓縮###數(shù)據(jù)立方體聚集###維歸約KNN算法的優(yōu)缺點()。

A:KNN對于隨機分布的數(shù)據(jù)集分類效果較差,對于類內(nèi)間距小,類間間距大的數(shù)據(jù)集分類效果好,而且對于邊界不規(guī)則的數(shù)據(jù)效果較好。B:K值的選取非常重要C:KNN對于樣本不均衡的數(shù)據(jù)效果不好,需要進行改進D:KNN算法是最簡單有效的分類算法,且容易實現(xiàn)答案:KNN算法是最簡單有效的分類算法,且容易實現(xiàn);KNN對于隨機分布的數(shù)據(jù)集分類效果較差,對于類內(nèi)間距小,類間間距大的數(shù)據(jù)集分類效果好,而且對于邊界不規(guī)則的數(shù)據(jù)效果較好。;KNN對于樣本不均衡的數(shù)據(jù)效果不好,需要進行改進;K值的選取非常重要互聯(lián)網(wǎng)本身具有什么樣的特征,這種屬性特征給數(shù)據(jù)搜集、整理、研究帶來了革命性的突破。()

A:互動性B:數(shù)字化C:共享D:快速性答案:互動性###數(shù)字化人從出生到長大的過程中,是如何認識事物的,下列說法錯誤的是()

A:聚類過程B:先分類,后聚類C:先聚類,后分類D:分類過程答案:先聚類,后分類下面哪個屬于數(shù)據(jù)的屬性類型:()

A:區(qū)間B:序數(shù)C:相異D:標稱答案:相異下面哪種情況會影響K-means聚類的效果?()

A:數(shù)據(jù)點呈圓形狀分布B:數(shù)據(jù)中有異常點存在C:數(shù)據(jù)點呈非凸形狀分布D:數(shù)據(jù)點密度分布不均答案:數(shù)據(jù)點呈圓形狀分布數(shù)據(jù)挖掘的預測建模任務主要包括哪幾大類問題?()

A:模式匹配B:回歸C:模式發(fā)現(xiàn)D:分類答案:分類數(shù)據(jù)縮減主要包括如下()

A:降數(shù)據(jù)B:降維C:數(shù)據(jù)壓縮D:分類答案:降維###降數(shù)據(jù)###數(shù)據(jù)壓縮決策樹的父節(jié)點和子節(jié)點的熵的大小關系是什么,下列說法錯誤的是()

A:決策樹的父節(jié)點更大B:兩者相等C:子節(jié)點的熵更大D:根據(jù)具體情況而定答案:兩者相等###決策樹的父節(jié)點更大###根據(jù)具體情況而定下面哪些數(shù)據(jù)挖掘算法不需要做數(shù)據(jù)歸一化處理:()

A:線性回歸B:決策樹C:樸素貝葉斯D:K均值答案:決策樹###樸素貝葉斯下面哪些屬于基于劃分的聚類算法。()

A:K-meansB:K-modesC:K中心點D:K-means++答案:K-means;K-modes;K-means++;K中心點簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,使得每個數(shù)據(jù)對象恰在一個子集中,下列哪些不屬于這種聚類類型()

A:非互斥聚類B:劃分聚類C:模糊聚類D:層次聚類答案:層次聚類###模糊聚類###非互斥聚類在現(xiàn)實世界的數(shù)據(jù)中,元組在某些屬性上缺少值是常有的。描述處理該問題的各種方法有()

A:使用屬性的平均值填充空缺值B:忽略元組C:使用最可能的值填充空缺值D:使用與給定元組屬同一類的所有樣本的平均值E:使用一個全局常量填充空缺值答案:使用與給定元組屬同一類的所有樣本的平均值###使用屬性的平均值填充空缺值###使用最可能的值填充空缺值###忽略元組數(shù)據(jù)清理中,處理缺失值的方法是()

A:成對刪除B:整例刪除C:估算D:變量刪除答案:估算###變量刪除###成對刪除###整例刪除DBSCAN算法對噪聲和離群點非常敏感。()

A:對B:錯答案:對OLAP就是數(shù)據(jù)挖掘。()

A:錯誤B:正確答案:錯誤數(shù)據(jù)挖掘的對象可以是任何類型的數(shù)據(jù)源。()

A:錯誤B:正確答案:正確分裂的層次聚類算法采用自頂向下的策略,它首先將所有對象置于一個簇中,然后逐漸細分為越來越小的簇,直到達到了某個終結(jié)條件。()

A:錯B:對答案:對分類階段要做的工作是分類規(guī)則的評估和分類規(guī)則的應用。()

A:錯誤B:正確答案:正確數(shù)據(jù)挖掘就是從數(shù)據(jù)集中識別出有效的、新穎的、潛在有用的,以及最終可理解的模式的非平凡過程。()

A:錯B:對答案:對數(shù)據(jù)挖掘只能應用在數(shù)據(jù)庫上。()

A:對B:錯答案:錯即使是同一個數(shù)據(jù)集,如果k選擇不同,k-means算法聚類結(jié)果可能完全不一樣。()

A:錯誤B:正確答案:正確數(shù)據(jù)挖掘的任務有關聯(lián)分析、聚類分析、分類分析、異常分析、特異群組分析和演變分析等。()

A:錯誤B:正確答案:正確給定全局項集I和交易數(shù)據(jù)集D,對于I的非空項集I1,若其支持度小于或等于最小支持度閾值,則稱I1為頻繁項集。()

A:錯誤B:正確答案:錯誤AGNES算法僅可用于規(guī)模相對較小的數(shù)據(jù)集。()

A:錯B:對答案:對凝聚的層次聚類算法代表算法是DIANA算法。()

A:正確B:錯誤答案:錯誤k-prototype算法可以對離散與數(shù)值屬性兩種混合的數(shù)據(jù)進行聚類。()

A:錯誤B:正確答案:正確CF樹是隨著數(shù)據(jù)點的插入而動態(tài)創(chuàng)建的,因此該方法是增量的。()

A:錯B:對答案:對特征提取要兼顧特征的全面性和獨立性。()

A:錯誤B:正確答案:正確噪聲和離群點給聚類過程帶來的影響之一,是會產(chǎn)生空簇。()

A:錯誤B:正確答案:正確可以把數(shù)據(jù)分析分為以下4個層次:數(shù)據(jù)統(tǒng)計,OLAP,數(shù)據(jù)挖掘,大數(shù)據(jù)。()

A:正確B:錯誤答案:正確凝聚的層次聚類算法是一種自底向上的策略,初始時先將每個對象作為一個簇,然后合并這些原子簇為越來越大的簇,直到某個終結(jié)條件被滿足。()

A:錯B:對答案:對k-modes算法實現(xiàn)了對離散數(shù)據(jù)的快速聚類。()

A:對B:錯答案:對數(shù)據(jù)挖掘所得到的信息應具有先知,有效和實用三個特征。()

A:錯B:對答案:對對于神經(jīng)網(wǎng)絡的說法,

下面正確的是:

(

)

(1)增加神經(jīng)網(wǎng)絡層數(shù),

可能會增加測試數(shù)據(jù)集的分類錯誤率

(2)

減少神經(jīng)網(wǎng)絡層數(shù),

總是能減小測試數(shù)據(jù)集的分類錯誤率

(3)

增加神經(jīng)網(wǎng)絡層數(shù),

總是能減小訓練數(shù)據(jù)集的分類錯誤率

A:(1)和

(3)B:(1)C:(2)D:(1)和

(2)答案:AI參考:正確答案是:(A)和(3)。\n\n解釋:神經(jīng)網(wǎng)絡是一種復雜模型,可以有很多不同的變種,層數(shù)是其最重要的特性之一。當增加神經(jīng)網(wǎng)絡層數(shù)時,可以提高模型的表現(xiàn)能力,因此在理論上會降低訓練數(shù)據(jù)集的分類錯誤率,而有些情況下,雖然可能不會明顯改善分類效果,但是也能夠減少測試數(shù)據(jù)集的分類錯誤率。因此,(1)和(3)都是正確的。而減少神經(jīng)網(wǎng)絡層數(shù)可能會降低模型的表現(xiàn)能力,因此不能總是減小測試數(shù)據(jù)集的分類錯誤率,(2)不正確。所以答案為A。'關于數(shù)據(jù)的屬性,下列說法錯誤的是

A:所有員工的ID是標稱型的屬性B:長度是比率型的數(shù)值屬性C:區(qū)間型的數(shù)值屬性的差值是有意義的D:區(qū)間型的數(shù)值屬性的比率是有意義的答案:AI參考:關于數(shù)據(jù)的屬性,下列說法錯誤的是B:長度是比率型的數(shù)值屬性。\n\n比率型數(shù)值屬性通常用于描述數(shù)值之間的相對大小關系,如員工工資的差距等。而長度屬性通常用于描述數(shù)值的絕對大小,如員工人數(shù)、年齡范圍等。因此,選項B中的“長度是比率型的數(shù)值屬性”是不正確的。其他選項A、C、D都是正確的,其中A和D描述了區(qū)間型數(shù)值屬性的特點和意義,C則說明了區(qū)間型數(shù)值屬性的差值是有意義的。'有關多元線性回歸分析的敘述中正確的是

A:各選項都不對B:因變量與多個自變量呈現(xiàn)多項式關系C:自變量與多個因變量呈現(xiàn)線性關系D:因變量與多個自變量呈現(xiàn)線性關系答案:AI參考:有關多元線性回歸分析的敘述中正確的是:D:因變量與多個自變量呈現(xiàn)線性關系。\n\n多元線性回歸分析是一種統(tǒng)計方法,用于分析因變量與多個自變量之間的線性關系。在這個過程中,因變量與多個自變量呈現(xiàn)線性關系,即它們之間的函數(shù)關系是線性的。雖然自變量和因變量之間可能存在非線性的關系,但在多元線性回歸分析中,我們通常假設它們是線性的。因此,選項D是正確的描述。'下列哪個描述是正確的?

A:分類和聚類都是無指導的學習B:分類是有指導的學習,聚類是無指導的學習C:分類和聚類都是有指導的學習D:分類是無指導的學習,聚類是有指導的學習答案:AI參考:答案是B:分類是有指導的學習,聚類是無指導的學習。\n\n分類是有指導的學習,需要明確的目標和已知的類別標簽,通過觀察樣本的特征進行學習并分類到相應的類別中。而聚類是無指導的學習,不需要明確的類別標簽,通過觀察樣本的特征自動將其歸到相似的群體中。因此,B選項是正確的。'如果用hash樹存儲3-項集{abc},{bde},{def},采用hash函數(shù)h(p)=pmod3,那么哪兩個項集能存儲在同一個分支?

A:{abc}{bde}B:{abc}{def}C:{bde}{def}答案:AI參考:選項C:{bde}{def}能夠存儲在同一個分支。\n\n原因如下:\n\n假設將所有項集存儲在一個Hash樹的根節(jié)點下,節(jié)點i的位置是由該節(jié)點的所有子節(jié)點的Hash值計算出來的,這些子節(jié)點的位置關系會隨著父節(jié)點的遞歸,使得父子節(jié)點的Hash值不斷增大,即:每個節(jié)點只會沿著同一側(cè)路徑繼續(xù)插入下去。因此,只要父子節(jié)點的Hash值相同,它們就一定會在同一側(cè)。\n\n對于題目中的三個項集,它們的Hash值分別為0、2和3。對于項集{abc}和{bde},它們的Hash值都在父節(jié)點的右側(cè)(2>0),所以它們能夠存儲在同一個分支;而對于項集{def}和{bde},它們的Hash值在父節(jié)點的左側(cè)(3<2),所以它們無法存儲在同一個分支。\n\n因此,正確答案是選項C:{bde}{def}能夠存儲在同一個分支。'在一次試驗中,測得(x,y)的四組值分別是(1,2),(2,3),(3,4),(4,5),則y與x之間的回歸方程是

A:y=2x+1B:y=x+1C:y=x+2D:y=x-1答案:AI參考:答案選B,因為在一組試驗中,值之間的數(shù)量比較多,但具體的數(shù)在研究的意義不是很大,此時我們需要觀察數(shù)字變化的規(guī)律。題干中的(1,2),(2,3),(3,4),(4,5)兩兩成對,所研究的量分別處于相對的量級,滿足回歸直線方程研究的意義,只有選項B中的斜率為正。其他的均不能很好表達兩者的關系。\n即在這四組值當中我們就可以看出來選B:y=x+1。因為這些數(shù)里面,第一個數(shù)字都比第二個數(shù)字大一所以整體來說的話y都會比x大一也就是加了1的關系。'對于決策樹,下列說法正確的是

A:信息增益用于建立決策樹時沒有任何缺陷B:當應用不平衡樣本建立決策樹時,不但要關注準確率,還要關注靈敏度C:對樣本不平衡問題建立決策樹時,不需要關注所有樣本的準確率D:過擬合的決策樹不影響分類性能答案:AI參考:正確選項是B:當應用不平衡樣本建立決策樹時,不但要關注準確率,還要關注靈敏度。\n\n決策樹是一種常用的分類算法,其優(yōu)點包括易于理解和實現(xiàn),并且能夠直觀地展示分類結(jié)果。然而,決策樹也存在一些缺點,如過度擬合和欠擬合,以及樣本不平衡問題。\n\n對于選項A,信息增益是決策樹算法中常用的一個特征選擇方法,但在某些情況下,它可能會導致決策樹過于簡單或過于復雜,從而導致過度擬合或欠擬合。\n\n對于選項C,對樣本不平衡問題建立決策樹時,也需要關注所有樣本的準確率,尤其是少數(shù)類樣本的準確率。\n\n對于選項D,過擬合的決策樹會影響分類性能,因為它可能導致模型對訓練數(shù)據(jù)和測試數(shù)據(jù)的分類性能都較差。\n\n只有選項B是正確的,因為它強調(diào)了在應用不平衡樣本建立決策樹時,需要同時關注準確率和靈敏度。這是因為不平衡樣本可能會導致某些類別在決策樹中的生長速度過快,從而影響分類性能。為了解決這個問題,需要同時關注準確率和靈敏度,以確保決策樹的分類性能更加穩(wěn)定和可靠。'以下是4對頻繁2項集,找出不能連接的項集對

A:{ad}{ce}B:{ad}{ae}C:{cd}{ce}D:{be}{bf}答案:AI參考:這個問題的答案是C:{cd}{ce}。因為選項A和B中的項集對{ad}和{ce}和{ad}和{ae}都是可以連接的,而選項D中的項集對{be}和{bf}也是可以連接的。然而,選項C中的項集對{cd}和{ce}是不能連接的,因為它們包含相同的元素c,重復的元素是不能連接的。因此,選項C是唯一不能連接的項集對。'下列關于屬性類別描述正確的是?

A:用于描述ID的值是1,2,3等數(shù)值時,該ID是數(shù)值屬性B:標稱屬性含有序數(shù)信息C:區(qū)間屬性的比率是沒有意義的D:數(shù)值屬性可以離散成分類屬性答案:AI參考:正確選項是:A:用于描述ID的值是1,2,3等數(shù)值時,該ID是數(shù)值屬性;D:數(shù)值屬性可以離散成分類屬性。\n\n解釋:\n\nA選項描述的是數(shù)值屬性,即屬性值是數(shù)值類型的,例如ID的值是1,2,3等數(shù)值時。B選項描述的是標稱屬性,標稱屬性包含有序數(shù)信息,比如性別標簽"男","女","其他"。C選項描述的是區(qū)間屬性,區(qū)間屬性的比率是有意義的,描述了不同區(qū)間之間數(shù)值的比例關系。所以不正確。\n\n對于D選項,數(shù)值屬性可以被離散化或者分類化,例如年齡可以被離散化為幾個不同的年齡段。所以D選項是正確的。\n\n因此,A和D是本題中的正確選項。'下面是構成卷積神經(jīng)網(wǎng)絡的組成部分的是?

A:n個卷積層和池化層的組合組成B:輸出:一個全連結(jié)的多層感知機分類器構成C:輸入層答案:AI參考:正確選項是A:n個卷積層和池化層的組合組成。\n\n卷積神經(jīng)網(wǎng)絡(ConvolutionalNeuralNetworks,簡稱CNN)是一種深度學習模型,主要由卷積層、池化層(或叫下采樣層)和全連接層(或叫密集層)組成。其中,卷積層用于提取輸入數(shù)據(jù)的局部特征,池化層用于降低數(shù)據(jù)的維度,提高模型的泛化能力。因此,選項A中的n個卷積層和池化層的組合組成是構成卷積神經(jīng)網(wǎng)絡的正確組成部分。選項B中的多層感知機分類器是輸出層的一種,而選項C中的輸入層是所有神經(jīng)網(wǎng)絡模型都有的組成部分,但不是卷積神經(jīng)網(wǎng)絡的組成部分。'下列哪些是序數(shù)屬性?

A:成績{優(yōu),良,中,差}B:礦石硬度{高,中,低}C:性別{男,女}D:產(chǎn)品類別{電子產(chǎn)品,非電子產(chǎn)品}答案:AI參考:正確選項是:\n\nA:成績{優(yōu),良,中,差}和B:礦石硬度{高,中,低}\n\n序數(shù)屬性是對事物進行排序的屬性,也就是每個元素都有一個確定的順序編號。A選項中的成績是按照學生的表現(xiàn)進行排序的,B選項中的礦石硬度也是按照礦物的硬度和等級進行排序的。而C選項中的性別是一種分類屬性,不屬于序數(shù)屬性;D選項的產(chǎn)品類別是一種分類屬性,也不屬于序數(shù)屬性。'卷積網(wǎng)與循環(huán)網(wǎng)可以實現(xiàn)的功能包括

A:行為預測B:機器翻譯C:看圖說話D:預測答案:AI參考:正確選項為BCD,卷積網(wǎng)與循環(huán)網(wǎng)可以實現(xiàn)的功能包括機器翻譯、看圖說話、預測等。卷積網(wǎng)和循環(huán)網(wǎng)都是深度學習中的重要技術,其中卷積網(wǎng)主要用于圖像識別、語音識別等任務,循環(huán)網(wǎng)主要用于自然語言處理等任務。因此,選項BCD都是卷積網(wǎng)和循環(huán)網(wǎng)可以實現(xiàn)的功能。選項A行為預測是深度學習的一個應用領域,但并不是卷積網(wǎng)和循環(huán)網(wǎng)所特有的功能。'CF樹的參數(shù)--空間閾值越大,樹越()。

A:小B:不受影響C:大答案:AI參考:在CF樹中,空間閾值越大,樹的規(guī)模就越小。因此,正確答案是A:小。CF樹是一種自平衡的搜索樹,它能夠有效地在磁盤上進行搜索和排序操作??臻g閾值是CF樹的一個重要參數(shù),它決定了樹的最大規(guī)模。當空間閾值增大時,樹的規(guī)模會相應減小,因為較大的空間閾值會導致樹的高度增加,從而使得樹的規(guī)模減小。因此,選項B“不受影響”是不正確的。選項C“大”雖然與實際情況相符,但并非正確答案。'為建立分類模型而被分析的數(shù)據(jù)對象組成的()。

A:數(shù)據(jù)表B:訓練數(shù)據(jù)集C:測試數(shù)據(jù)集D:數(shù)據(jù)庫答案:AI參考:正確選項是【B:訓練數(shù)據(jù)集】。\n\n訓練數(shù)據(jù)集是用于建立分類模型而被分析的數(shù)據(jù)對象組成的集合。在建立分類模型的過程中,需要使用訓練數(shù)據(jù)集來訓練模型,以便對新的數(shù)據(jù)對象進行分類預測。測試數(shù)據(jù)集則用于評估模型的性能和準確性,通常不用于模型的訓練。數(shù)據(jù)表、數(shù)據(jù)庫和測試數(shù)據(jù)集雖然都可能包含用于分析的數(shù)據(jù)對象,但它們不是為了建立分類模型而被使用的。因此,B選項是正確答案。'聚類特征CF有個特性,即可以()。

A:求和B:求差值C

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論