版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
21/24大數(shù)據(jù)中的特征工程與選擇第一部分大數(shù)據(jù)特征工程概述 2第二部分特征工程在數(shù)據(jù)分析中的作用 4第三部分特征選擇方法概述 7第四部分過(guò)濾式特征選擇方法介紹 10第五部分包裝式特征選擇方法介紹 12第六部分嵌入式特征選擇方法介紹 14第七部分特征選擇方法的優(yōu)缺點(diǎn)對(duì)比 18第八部分特征工程在數(shù)據(jù)分析中的實(shí)踐應(yīng)用 21
第一部分大數(shù)據(jù)特征工程概述關(guān)鍵詞關(guān)鍵要點(diǎn)大數(shù)據(jù)特征工程概述
1.大數(shù)據(jù)特征工程概述:大數(shù)據(jù)特征工程是針對(duì)大數(shù)據(jù)進(jìn)行特征提取、特征選擇和特征降維等一系列操作,目的是將原始數(shù)據(jù)轉(zhuǎn)換成更緊湊、更有意義的特征表示,以便后續(xù)的數(shù)據(jù)分析、機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘任務(wù)能夠更有效地進(jìn)行。
2.大數(shù)據(jù)特征工程的目標(biāo):大數(shù)據(jù)特征工程的目標(biāo)在于:
-提高數(shù)據(jù)質(zhì)量,減少數(shù)據(jù)噪聲
-增強(qiáng)數(shù)據(jù)相關(guān)性,提高數(shù)據(jù)可解釋性
-降低數(shù)據(jù)維度,加快計(jì)算速度
3.大數(shù)據(jù)特征工程的挑戰(zhàn):大數(shù)據(jù)特征工程面臨著以下挑戰(zhàn):
-數(shù)據(jù)量巨大:大數(shù)據(jù)通常包含大量的數(shù)據(jù),這使得特征工程的計(jì)算復(fù)雜度非常高。
-數(shù)據(jù)類(lèi)型多樣:大數(shù)據(jù)中包含各種類(lèi)型的數(shù)據(jù),包括結(jié)構(gòu)化數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)、半結(jié)構(gòu)化數(shù)據(jù)等。
-數(shù)據(jù)分布不均衡:大數(shù)據(jù)中的數(shù)據(jù)通常分布不均衡,這使得特征工程的難度更大。
大數(shù)據(jù)特征工程的主要步驟
1.數(shù)據(jù)預(yù)處理:數(shù)據(jù)預(yù)處理是特征工程的第一步,包括數(shù)據(jù)清洗、數(shù)據(jù)轉(zhuǎn)換、數(shù)據(jù)標(biāo)準(zhǔn)化等操作,目的是將原始數(shù)據(jù)轉(zhuǎn)換成更適合特征工程處理的形式。
2.特征提?。禾卣魈崛∈翘卣鞴こ痰暮诵牟襟E,目的是從原始數(shù)據(jù)中提取出對(duì)后續(xù)分析任務(wù)有用的特征。特征提取的方法有很多,包括過(guò)濾法、包裝法和嵌入法等。
3.特征選擇:特征選擇是特征工程的另一個(gè)重要步驟,目的是從提取出來(lái)的特征中選擇出最優(yōu)的特征子集。特征選擇的方法有很多,包括過(guò)濾法、包裝法和嵌入法等。
4.特征降維:特征降維是特征工程的最后一步,目的是將選出的最優(yōu)特征子集降維到更低的維數(shù),以便后續(xù)的分析任務(wù)能夠更有效地進(jìn)行。特征降維的方法有很多,包括主成分分析法、奇異值分解法和線性判別分析法等。#大數(shù)據(jù)中的特征工程與選擇
大數(shù)據(jù)特征工程概述
一、特征工程概述
特征工程是機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘過(guò)程中一個(gè)重要的步驟,其目的是將原始數(shù)據(jù)轉(zhuǎn)換為更適合建模的特征,從而提高模型的性能。特征工程通常包括以下幾個(gè)步驟:
1.數(shù)據(jù)預(yù)處理:對(duì)原始數(shù)據(jù)進(jìn)行清洗、轉(zhuǎn)換和歸一化等處理,以消除噪聲、異常值和冗余信息,并使數(shù)據(jù)具有統(tǒng)一的格式和范圍。
2.特征選擇:從原始數(shù)據(jù)中選擇出與目標(biāo)變量相關(guān)性較強(qiáng)的特征,以減少特征的數(shù)量,提高模型的計(jì)算效率和性能。
3.特征轉(zhuǎn)換:對(duì)原始特征進(jìn)行轉(zhuǎn)換,使其更適合建模,如離散特征的獨(dú)熱編碼、連續(xù)特征的二值化或歸一化等。
4.特征構(gòu)造:根據(jù)原始特征創(chuàng)建新的特征,以捕獲數(shù)據(jù)中的潛在信息,如組合特征、聚合特征或派生特征等。
5.特征降維:將高維特征轉(zhuǎn)換為低維特征,以減少模型的計(jì)算復(fù)雜度和提高模型的性能,如主成分分析、奇異值分解或線性判別分析等。
二、大數(shù)據(jù)特征工程的挑戰(zhàn)
在大數(shù)據(jù)時(shí)代,特征工程面臨著以下幾個(gè)挑戰(zhàn):
1.數(shù)據(jù)量大:大數(shù)據(jù)環(huán)境下,數(shù)據(jù)量往往非常大,這給特征工程帶來(lái)了巨大的計(jì)算挑戰(zhàn)。
2.數(shù)據(jù)類(lèi)型復(fù)雜:大數(shù)據(jù)環(huán)境下,數(shù)據(jù)類(lèi)型往往非常復(fù)雜,包括結(jié)構(gòu)化數(shù)據(jù)、非結(jié)構(gòu)化數(shù)據(jù)和半結(jié)構(gòu)化數(shù)據(jù)等,這給特征工程帶來(lái)了很大的數(shù)據(jù)處理挑戰(zhàn)。
3.數(shù)據(jù)分布不均勻:大數(shù)據(jù)環(huán)境下,數(shù)據(jù)分布往往不均勻,這給特征工程帶來(lái)了很大的數(shù)據(jù)抽樣和樣本平衡挑戰(zhàn)。
4.特征數(shù)量多:大數(shù)據(jù)環(huán)境下,特征數(shù)量往往非常多,這給特征工程帶來(lái)了很大的特征選擇和特征降維挑戰(zhàn)。
三、大數(shù)據(jù)特征工程的解決方案
為了應(yīng)對(duì)大數(shù)據(jù)特征工程的挑戰(zhàn),需要采用以下幾種解決方案:
1.分布式計(jì)算:使用分布式計(jì)算框架,如Hadoop、Spark和Flink等,將特征工程任務(wù)分布到多個(gè)計(jì)算節(jié)點(diǎn)上執(zhí)行,以提高計(jì)算效率。
2.并行計(jì)算:使用并行計(jì)算技術(shù),如多線程和多進(jìn)程等,將特征工程任務(wù)分解成多個(gè)子任務(wù),并行執(zhí)行,以提高計(jì)算效率。
3.數(shù)據(jù)抽樣:在大數(shù)據(jù)環(huán)境下,可以對(duì)數(shù)據(jù)進(jìn)行抽樣,以減少特征工程的計(jì)算量和存儲(chǔ)空間。
4.特征選擇和特征降維:使用特征選擇和特征降維技術(shù),減少特征的數(shù)量,以提高模型的計(jì)算效率和性能。
5.使用合適的機(jī)器學(xué)習(xí)算法:在大數(shù)據(jù)環(huán)境下,需要選擇合適的機(jī)器學(xué)習(xí)算法,以應(yīng)對(duì)大數(shù)據(jù)特征工程的挑戰(zhàn)。第二部分特征工程在數(shù)據(jù)分析中的作用關(guān)鍵詞關(guān)鍵要點(diǎn)特征工程在數(shù)據(jù)分析中的作用
1.數(shù)據(jù)預(yù)處理:特征工程的第一步是數(shù)據(jù)預(yù)處理,包括數(shù)據(jù)清洗、數(shù)據(jù)格式轉(zhuǎn)換、數(shù)據(jù)標(biāo)準(zhǔn)化等。數(shù)據(jù)預(yù)處理可以提高數(shù)據(jù)的質(zhì)量,使數(shù)據(jù)更適合后續(xù)的分析。
2.特征選擇:特征選擇是選擇對(duì)目標(biāo)變量有影響的特征,并剔除冗余特征和噪聲特征。特征選擇可以提高模型的性能,并使模型更易于解釋。
3.特征轉(zhuǎn)換:特征轉(zhuǎn)換是將原始特征轉(zhuǎn)換為新的特征,以提高模型的性能。特征轉(zhuǎn)換可以包括特征離散化、特征標(biāo)準(zhǔn)化、特征非線性變換等。
4.特征降維:特征降維是將高維特征空間投影到低維特征空間,以減少模型的計(jì)算量和提高模型的性能。特征降維可以包括主成分分析、因子分析、線性判別分析等。
5.特征組合:特征組合是將多個(gè)特征組合成新的特征,以提高模型的性能。特征組合可以包括特征乘法、特征加法、特征拼接等。
6.特征工程在數(shù)據(jù)分析中的作用:特征工程在數(shù)據(jù)分析中起著至關(guān)重要的作用。特征工程可以提高數(shù)據(jù)的質(zhì)量,使數(shù)據(jù)更適合后續(xù)的分析;特征工程還可以選擇對(duì)目標(biāo)變量有影響的特征,并剔除冗余特征和噪聲特征,從而提高模型的性能;特征工程還可以將原始特征轉(zhuǎn)換為新的特征,以提高模型的性能;特征工程還可以將高維特征空間投影到低維特征空間,以減少模型的計(jì)算量和提高模型的性能;特征工程還可以將多個(gè)特征組合成新的特征,以提高模型的性能??偠灾卣鞴こ淌菙?shù)據(jù)分析中不可或缺的一部分,可以顯著提高模型的性能。一、特征工程在數(shù)據(jù)分析中的作用
特征工程是數(shù)據(jù)分析過(guò)程中一項(xiàng)重要的步驟,其主要作用如下:
1.提高模型性能
特征工程可以幫助數(shù)據(jù)分析師從原始數(shù)據(jù)中提取出更具區(qū)分性和信息性的特征,這些特征對(duì)于模型的訓(xùn)練和預(yù)測(cè)至關(guān)重要。通過(guò)特征工程,可以提高模型的準(zhǔn)確性和泛化能力,使其在新的數(shù)據(jù)上也能表現(xiàn)良好。
2.減少模型訓(xùn)練時(shí)間
特征工程可以幫助數(shù)據(jù)分析師減少模型訓(xùn)練所需的數(shù)據(jù)量,從而縮短模型的訓(xùn)練時(shí)間。這是因?yàn)樘卣鞴こ炭梢匀コ紨?shù)據(jù)中的冗余和噪聲信息,只保留與目標(biāo)變量相關(guān)的信息,從而使模型能夠更快地收斂。
3.增強(qiáng)模型的可解釋性
特征工程可以幫助數(shù)據(jù)分析師更好地理解模型的內(nèi)部機(jī)制,從而增強(qiáng)模型的可解釋性。這是因?yàn)樘卣鞴こ炭梢詫⒃紨?shù)據(jù)中的復(fù)雜信息抽象成更簡(jiǎn)單、更易于理解的形式,使得數(shù)據(jù)分析師能夠更輕松地識(shí)別模型的輸入和輸出之間的關(guān)系。
4.便于數(shù)據(jù)的存儲(chǔ)和管理
特征工程可以幫助數(shù)據(jù)分析師對(duì)數(shù)據(jù)進(jìn)行壓縮和降維,從而減少數(shù)據(jù)的存儲(chǔ)空間和管理成本。這是因?yàn)樘卣鞴こ炭梢匀コ紨?shù)據(jù)中的冗余和噪聲信息,只保留與目標(biāo)變量相關(guān)的信息,從而使數(shù)據(jù)量大大減少。
二、特征工程的主要步驟
特征工程的主要步驟包括:
1.數(shù)據(jù)預(yù)處理
數(shù)據(jù)預(yù)處理是特征工程的第一步,其主要目的是將原始數(shù)據(jù)轉(zhuǎn)換為適合模型訓(xùn)練和預(yù)測(cè)的形式。數(shù)據(jù)預(yù)處理包括數(shù)據(jù)清洗、數(shù)據(jù)轉(zhuǎn)換和數(shù)據(jù)歸一化等步驟。
2.特征提取
特征提取是特征工程的核心步驟,其主要目的是從原始數(shù)據(jù)中提取出具有區(qū)分性和信息性的特征。特征提取可以采用多種方法實(shí)現(xiàn),常用的方法包括過(guò)濾式特征選擇、包裹式特征選擇和嵌入式特征選擇等。
3.特征變換
特征變換是特征工程的最后一步,其主要目的是將提取出來(lái)的特征轉(zhuǎn)換為適合模型訓(xùn)練和預(yù)測(cè)的形式。特征變換可以采用多種方法實(shí)現(xiàn),常用的方法包括獨(dú)熱編碼、二值化和歸一化等。
三、特征工程的注意事項(xiàng)
在進(jìn)行特征工程時(shí),需要注意以下幾點(diǎn):
1.不要過(guò)度工程化
過(guò)度工程化是指對(duì)原始數(shù)據(jù)進(jìn)行過(guò)多的變換和處理,從而導(dǎo)致模型的性能下降。因此,在進(jìn)行特征工程時(shí),應(yīng)盡量避免過(guò)度工程化,只對(duì)原始數(shù)據(jù)進(jìn)行必要的變換和處理。
2.不要泄露信息
泄露信息是指在特征工程過(guò)程中引入與目標(biāo)變量相關(guān)的信息,從而導(dǎo)致模型的性能提高。泄露信息會(huì)導(dǎo)致模型的泛化能力下降,使其在新數(shù)據(jù)上表現(xiàn)不佳。因此,在進(jìn)行特征工程時(shí),應(yīng)盡量避免泄露信息。
3.不要忽略領(lǐng)域知識(shí)
領(lǐng)域知識(shí)是指對(duì)所研究領(lǐng)域的相關(guān)知識(shí)和經(jīng)驗(yàn)的了解。在進(jìn)行特征工程時(shí),應(yīng)充分利用領(lǐng)域知識(shí),以幫助選擇和提取出更具區(qū)分性和信息性的特征。第三部分特征選擇方法概述關(guān)鍵詞關(guān)鍵要點(diǎn)過(guò)濾式特征選擇方法
1.過(guò)濾式特征選擇方法是一種無(wú)需使用學(xué)習(xí)算法即可直接評(píng)估特征重要性的方法。
2.評(píng)估特征重要性的依據(jù)包括:特征與目標(biāo)變量的相關(guān)性、特征的方差、特征的互信息等。
3.過(guò)濾式特征選擇方法的優(yōu)點(diǎn)是計(jì)算簡(jiǎn)單、效率高,但其缺點(diǎn)是無(wú)法考慮特征之間的相互作用。
包裝式特征選擇方法
1.包裝式特征選擇方法是一種將特征選擇與學(xué)習(xí)算法結(jié)合起來(lái)的方法。
2.學(xué)習(xí)算法在這類(lèi)方法中作為評(píng)價(jià)函數(shù),通過(guò)不斷迭代選擇最優(yōu)的特征子集。
3.包裝式特征選擇方法的優(yōu)點(diǎn)是可以考慮特征之間的相互作用,但其缺點(diǎn)是計(jì)算復(fù)雜度高。
嵌入式特征選擇方法
1.嵌入式特征選擇方法將特征選擇過(guò)程嵌入到學(xué)習(xí)算法中。
2.這類(lèi)方法直接使用學(xué)習(xí)算法作為評(píng)價(jià)函數(shù),在學(xué)習(xí)過(guò)程中不斷調(diào)整特征權(quán)重,從而選擇最優(yōu)的特征子集。
3.嵌入式特征選擇方法兼具過(guò)濾式和包裝式的優(yōu)點(diǎn),計(jì)算效率相對(duì)較高,同時(shí)可以考慮特征之間的相互作用。
基于正則化的特征選擇方法
1.基于正則化的特征選擇方法通過(guò)在目標(biāo)函數(shù)中加入正則項(xiàng)來(lái)實(shí)現(xiàn)特征選擇。
2.正則項(xiàng)的目的是懲罰模型的復(fù)雜度,從而使得模型更加簡(jiǎn)單,從而減少模型對(duì)噪聲和無(wú)關(guān)特征的擬合。
3.基于正則化的特征選擇方法的優(yōu)點(diǎn)是簡(jiǎn)單有效,但其缺點(diǎn)是可能導(dǎo)致特征選擇的結(jié)果不穩(wěn)定。
基于樹(shù)模型的特征選擇方法
1.基于樹(shù)模型的特征選擇方法利用樹(shù)模型來(lái)選擇特征。
2.樹(shù)模型通過(guò)不斷地分裂數(shù)據(jù),將數(shù)據(jù)劃分為不同的子集,從而可以根據(jù)每個(gè)特征對(duì)數(shù)據(jù)劃分能力來(lái)評(píng)估特征的重要性。
3.基于樹(shù)模型的特征選擇方法的優(yōu)點(diǎn)是簡(jiǎn)單有效,并且可以處理高維數(shù)據(jù)。
面向特定任務(wù)的特征選擇方法
1.面向特定任務(wù)的特征選擇方法根據(jù)不同的任務(wù)需求來(lái)選擇特征。
2.例如,對(duì)于圖像分類(lèi)任務(wù),可以使用顏色、紋理、形狀等特征;對(duì)于文本分類(lèi)任務(wù),可以使用詞頻、詞向量等特征。
3.面向特定任務(wù)的特征選擇方法的優(yōu)點(diǎn)是能夠提高模型的性能,但其缺點(diǎn)是需要針對(duì)不同的任務(wù)設(shè)計(jì)不同的特征選擇方法。特征選擇方法概述
特征選擇是一種從原始數(shù)據(jù)集中選擇相關(guān)且非冗余特征的降維技術(shù)。特征選擇可以提高數(shù)據(jù)質(zhì)量、縮短模型訓(xùn)練時(shí)間、提高模型泛化性能。特征選擇方法主要有過(guò)濾法、包裹法、嵌入法。
#過(guò)濾法
過(guò)濾法是獨(dú)立于模型訓(xùn)練的特征選擇方法。過(guò)濾法根據(jù)每個(gè)特征本身的屬性對(duì)特征進(jìn)行選擇。常見(jiàn)過(guò)濾法包括:
-相關(guān)性選擇:基于特征與目標(biāo)變量之間的相關(guān)性選擇特征。相關(guān)性選擇方法包括皮爾遜相關(guān)系數(shù)、斯皮爾曼相關(guān)系數(shù)、肯德?tīng)栂嚓P(guān)系數(shù)等。
-方差選擇:基于特征的方差選擇特征。方差選擇方法包括方差選擇、信息增益、互信息等。
-基于距離的度量:基于特征之間的距離進(jìn)行選擇?;诰嚯x的特征選擇方法包括歐幾里得距離、余弦距離、曼哈頓距離等。
#包裹法
包裹法是一種基于模型訓(xùn)練過(guò)程的特征選擇方法。包裹法將特征選擇過(guò)程與模型訓(xùn)練過(guò)程結(jié)合起來(lái),通過(guò)選擇最優(yōu)的特征組合來(lái)提高模型的泛化性能。常見(jiàn)包裹法包括:
-向前選擇:從空集開(kāi)始,逐個(gè)添加特征,直到達(dá)到最優(yōu)的特征組合。
-向后選擇:從全特征集開(kāi)始,逐個(gè)刪除特征,直到達(dá)到最優(yōu)的特征組合。
-遞歸特征消除:從全特征集開(kāi)始,逐個(gè)移除重要性最小的特征,直到達(dá)到最優(yōu)的特征組合。
#嵌入法
嵌入法是一種在模型訓(xùn)練過(guò)程中進(jìn)行特征選擇的特征選擇方法。嵌入法將特征選擇過(guò)程嵌入到模型訓(xùn)練過(guò)程中,通過(guò)優(yōu)化模型的損失函數(shù)來(lái)選擇最優(yōu)的特征組合。常見(jiàn)嵌入法包括:
-L1正則化:L1正則化通過(guò)給模型的權(quán)重添加L1范數(shù)來(lái)實(shí)現(xiàn)特征選擇。L1正則化可以使模型的權(quán)重變稀疏,從而達(dá)到特征選擇的目的。
-L2正則化:L2正則化通過(guò)給模型的權(quán)重添加L2范數(shù)來(lái)實(shí)現(xiàn)特征選擇。L2正則化可以使模型的權(quán)重變平滑,從而達(dá)到特征選擇的目的。
-樹(shù)模型:樹(shù)模型通過(guò)分裂數(shù)據(jù)生成決策樹(shù),從而實(shí)現(xiàn)特征選擇。決策樹(shù)中的每個(gè)節(jié)點(diǎn)對(duì)應(yīng)一個(gè)特征,節(jié)點(diǎn)的純度越高,對(duì)應(yīng)的特征越重要。第四部分過(guò)濾式特征選擇方法介紹關(guān)鍵詞關(guān)鍵要點(diǎn)【過(guò)濾式特征選擇方法介紹】:
1.信息增益:測(cè)量特征與目標(biāo)變量之間的相關(guān)性,取值越高,相關(guān)性越強(qiáng)。
2.互信息:衡量特征與目標(biāo)變量之間的聯(lián)合概率分布,取值越高,相關(guān)性越強(qiáng)。
3.卡方檢驗(yàn):用于檢驗(yàn)特征與目標(biāo)變量之間的獨(dú)立性,卡方值越大,獨(dú)立性越弱,相關(guān)性越強(qiáng)。
【相關(guān)屬性選擇】:
過(guò)濾式特征選擇方法介紹
過(guò)濾式特征選擇方法是一種常用的特征選擇方法,它通過(guò)計(jì)算每個(gè)特征與標(biāo)簽之間的相關(guān)性或其他統(tǒng)計(jì)量來(lái)評(píng)估特征的重要性,然后根據(jù)這些統(tǒng)計(jì)量對(duì)特征進(jìn)行排序,選擇出最相關(guān)的特征。過(guò)濾式特征選擇方法的特點(diǎn)是計(jì)算簡(jiǎn)單,速度快,并且可以處理大規(guī)模的數(shù)據(jù)集。但是,過(guò)濾式特征選擇方法也有一些缺點(diǎn),例如它不能考慮特征之間的相關(guān)性,并且對(duì)噪聲數(shù)據(jù)敏感。
1.相關(guān)性度量
相關(guān)性度量是過(guò)濾式特征選擇方法中最常用的統(tǒng)計(jì)量。相關(guān)性度量衡量的是特征與標(biāo)簽之間的相關(guān)程度,相關(guān)性越高,說(shuō)明特征對(duì)預(yù)測(cè)標(biāo)簽的貢獻(xiàn)越大。常用的相關(guān)性度量包括:
*皮爾遜相關(guān)系數(shù):皮爾遜相關(guān)系數(shù)衡量的是兩個(gè)變量之間的線性相關(guān)程度,取值范圍為[-1,1]。皮爾遜相關(guān)系數(shù)為1表示兩個(gè)變量完全正相關(guān),皮爾遜相關(guān)系數(shù)為-1表示兩個(gè)變量完全負(fù)相關(guān),皮爾遜相關(guān)系數(shù)為0表示兩個(gè)變量之間沒(méi)有相關(guān)性。
*斯皮爾曼相關(guān)系數(shù):斯皮爾曼相關(guān)系數(shù)衡量的是兩個(gè)變量之間的單調(diào)相關(guān)程度,取值范圍為[-1,1]。斯皮爾曼相關(guān)系數(shù)為1表示兩個(gè)變量完全單調(diào)正相關(guān),斯皮爾曼相關(guān)系數(shù)為-1表示兩個(gè)變量完全單調(diào)負(fù)相關(guān),斯皮爾曼相關(guān)系數(shù)為0表示兩個(gè)變量之間沒(méi)有單調(diào)相關(guān)性。
*互信息:互信息衡量的是兩個(gè)變量之間的信息量,取值范圍為[0,無(wú)窮大]。互信息越大,說(shuō)明兩個(gè)變量之間包含的信息量越多。
2.信息增益
信息增益是過(guò)濾式特征選擇方法中另一種常用的統(tǒng)計(jì)量。信息增益衡量的是一個(gè)特征對(duì)預(yù)測(cè)標(biāo)簽的信息量貢獻(xiàn)。信息增益越大,說(shuō)明特征對(duì)預(yù)測(cè)標(biāo)簽的信息量貢獻(xiàn)越大。信息增益的計(jì)算公式如下:
```
信息增益(X,Y)=H(Y)-H(Y|X)
```
其中,H(Y)表示標(biāo)簽的信息熵,H(Y|X)表示在已知特征X的情況下標(biāo)簽的信息熵。
3.特征選擇算法
過(guò)濾式特征選擇方法通常使用貪婪算法或啟發(fā)式算法來(lái)選擇特征。貪婪算法每次選擇一個(gè)最相關(guān)的特征,直到達(dá)到預(yù)定的特征數(shù)量。啟發(fā)式算法則使用一些啟發(fā)式規(guī)則來(lái)選擇特征,例如使用隨機(jī)搜索或遺傳算法。
4.過(guò)濾式特征選擇方法的優(yōu)缺點(diǎn)
過(guò)濾式特征選擇方法的主要優(yōu)點(diǎn)是計(jì)算簡(jiǎn)單,速度快,并且可以處理大規(guī)模的數(shù)據(jù)集。但是,過(guò)濾式特征選擇方法也有一些缺點(diǎn),例如它不能考慮特征之間的相關(guān)性,并且對(duì)噪聲數(shù)據(jù)敏感。
5.過(guò)濾式特征選擇方法的應(yīng)用
過(guò)濾式特征選擇方法廣泛應(yīng)用于各種機(jī)器學(xué)習(xí)任務(wù)中,例如分類(lèi)、回歸、聚類(lèi)等。在這些任務(wù)中,過(guò)濾式特征選擇方法可以幫助選擇出最相關(guān)的特征,從而提高模型的性能。第五部分包裝式特征選擇方法介紹關(guān)鍵詞關(guān)鍵要點(diǎn)【包裝式特征選擇方法介紹】:
1.包裝式特征選擇方法:基于特定學(xué)習(xí)算法,構(gòu)建學(xué)習(xí)器,通過(guò)評(píng)估學(xué)習(xí)器的性能,選擇最優(yōu)的特征子集。
2.評(píng)估標(biāo)準(zhǔn)與學(xué)習(xí)算法相關(guān),比如分類(lèi)任務(wù)采用準(zhǔn)確率、召回率等,回歸任務(wù)采用均方誤差等。
3.對(duì)于大型數(shù)據(jù)集,包裝式方法計(jì)算量可能很大,但對(duì)于小規(guī)模數(shù)據(jù)集,包裝式方法往往能得到較好的結(jié)果。
【正則化】:
#包裝式特征選擇方法介紹
包裝式特征選擇方法是通過(guò)將特征選擇問(wèn)題建模為優(yōu)化問(wèn)題來(lái)進(jìn)行特征選擇的,其中目標(biāo)函數(shù)是特征子集的某種評(píng)價(jià)準(zhǔn)則。包裝式特征選擇方法可以分為兩類(lèi):基于貪心的方法和基于啟發(fā)式的方法。
基于貪心的包裝式特征選擇方法
基于貪心的包裝式特征選擇方法從一個(gè)空的特征子集開(kāi)始,然后通過(guò)迭代地添加或刪除特征來(lái)構(gòu)建特征子集。添加或刪除特征的準(zhǔn)則通常是基于目標(biāo)函數(shù)的值。常用的基于貪心的包裝式特征選擇方法包括:
*向前選擇(ForwardSelection):從一個(gè)空的特征子集開(kāi)始,然后通過(guò)迭代地添加對(duì)目標(biāo)函數(shù)貢獻(xiàn)最大的特征來(lái)構(gòu)建特征子集。當(dāng)目標(biāo)函數(shù)的值不再顯著提高時(shí),停止添加特征。
*向后選擇(BackwardSelection):從一個(gè)包含所有特征的特征子集開(kāi)始,然后通過(guò)迭代地刪除對(duì)目標(biāo)函數(shù)貢獻(xiàn)最小的特征來(lái)構(gòu)建特征子集。當(dāng)目標(biāo)函數(shù)的值不再顯著提高時(shí),停止刪除特征。
*雙向選擇(BidirectionalSelection):結(jié)合了向前選擇和向后選擇的優(yōu)點(diǎn)。從一個(gè)空的特征子集開(kāi)始,然后通過(guò)迭代地添加和刪除特征來(lái)構(gòu)建特征子集。當(dāng)目標(biāo)函數(shù)的值不再顯著提高時(shí),停止修改特征子集。
基于啟發(fā)式方法的包裝式特征選擇方法
基于啟發(fā)式方法的包裝式特征選擇方法通常使用元啟發(fā)式算法來(lái)搜索特征子集空間。常用的基于啟發(fā)式方法的包裝式特征選擇方法包括:
*遺傳算法(GeneticAlgorithm):是一種模擬生物進(jìn)化的算法,通過(guò)選擇、交叉和變異等操作來(lái)搜索特征子集空間。
*粒子群優(yōu)化(ParticleSwarmOptimization):是一種模擬鳥(niǎo)群覓食行為的算法,通過(guò)個(gè)體和種群的協(xié)作來(lái)搜索特征子集空間。
*蟻群優(yōu)化(AntColonyOptimization):是一種模擬螞蟻覓食行為的算法,通過(guò)信息素來(lái)引導(dǎo)螞蟻搜索特征子集空間。
包裝式特征選擇方法的優(yōu)缺點(diǎn)
包裝式特征選擇方法的主要優(yōu)點(diǎn)是,它可以找到最優(yōu)的特征子集,但缺點(diǎn)是,它通常計(jì)算成本高,并且當(dāng)特征數(shù)量較多時(shí),容易陷入局部最優(yōu)。
應(yīng)用
包裝式特征選擇方法廣泛應(yīng)用于各種機(jī)器學(xué)習(xí)任務(wù),包括分類(lèi)、回歸、聚類(lèi)等。它可以顯著提高機(jī)器學(xué)習(xí)模型的性能,并減少模型的復(fù)雜度。第六部分嵌入式特征選擇方法介紹關(guān)鍵詞關(guān)鍵要點(diǎn)過(guò)濾器方法
1.獨(dú)立于學(xué)習(xí)算法,利用各個(gè)特征的統(tǒng)計(jì)特性或其他屬性進(jìn)行評(píng)分,然后根據(jù)評(píng)分閾值或基于評(píng)分進(jìn)行排序,選擇得分最高的特征子集。
2.過(guò)濾器方法效率高且可解釋性強(qiáng),但缺乏考慮特征之間的相關(guān)性。
3.常見(jiàn)的過(guò)濾器方法包括卡方檢驗(yàn)、信息增益、互信息、相關(guān)系數(shù)等。
包裝器方法
1.將特征選擇過(guò)程嵌入到學(xué)習(xí)算法中,利用學(xué)習(xí)算法的性能作為特征子集優(yōu)化的標(biāo)準(zhǔn),反復(fù)選擇特征子集,直到找到可以使學(xué)習(xí)算法性能最優(yōu)的特征子集。
2.包裝器方法可以考慮特征之間的相關(guān)性,但計(jì)算量大,可解釋性差,且容易過(guò)擬合。
3.常見(jiàn)的包裝器方法包括遞歸特征消除、正向逐步選擇、反向逐步選擇、浮動(dòng)特征選擇等。
嵌入式方法
1.將特征選擇過(guò)程嵌入到學(xué)習(xí)算法的優(yōu)化過(guò)程中,利用學(xué)習(xí)算法的損失函數(shù)或其他優(yōu)化目標(biāo)作為特征子集優(yōu)化的標(biāo)準(zhǔn),同時(shí)優(yōu)化模型參數(shù)和特征權(quán)重。
2.嵌入式方法可以同時(shí)考慮特征與標(biāo)簽的相關(guān)性及特征之間的相關(guān)性,計(jì)算效率高,可解釋性強(qiáng),且不易過(guò)擬合。
3.常見(jiàn)的嵌入式方法包括L1正則化、L2正則化、樹(shù)模型(決策樹(shù)、隨機(jī)森林等)、彈性網(wǎng)絡(luò)正則化等。
元特征學(xué)習(xí)
1.將特征作為輸入,學(xué)習(xí)特征的重要性或相關(guān)性,然后利用學(xué)習(xí)到的重要性或相關(guān)性對(duì)特征進(jìn)行選擇。
2.元特征學(xué)習(xí)可以學(xué)習(xí)到復(fù)雜的關(guān)系,如特征之間的非線性關(guān)系,且不受特征類(lèi)型的限制。
3.常見(jiàn)的元特征學(xué)習(xí)方法包括決策樹(shù)、隨機(jī)森林、支持向量機(jī)、神經(jīng)網(wǎng)絡(luò)等。
穩(wěn)健特征選擇
1.在面對(duì)數(shù)據(jù)噪聲、異常值或數(shù)據(jù)分布變化等情況時(shí),對(duì)特征選擇結(jié)果具有魯棒性的特征選擇方法。
2.穩(wěn)健特征選擇方法可以確保特征選擇結(jié)果的穩(wěn)定性和可靠性,提高模型的泛化性能。
3.常見(jiàn)的穩(wěn)健特征選擇方法包括秩相關(guān)系數(shù)、互信息、相關(guān)性網(wǎng)絡(luò)等。
多目標(biāo)特征選擇
1.同時(shí)考慮多個(gè)目標(biāo),如分類(lèi)準(zhǔn)確率、回歸損失、特征數(shù)量等,對(duì)特征進(jìn)行選擇。
2.多目標(biāo)特征選擇可以找到兼顧多個(gè)目標(biāo)的特征子集,提高模型的綜合性能。
3.常見(jiàn)的多目標(biāo)特征選擇方法包括多目標(biāo)粒子群優(yōu)化、多目標(biāo)遺傳算法、多目標(biāo)模擬退火等。#嵌入式特征選擇方法介紹
嵌入式特征選擇方法將特征選擇過(guò)程集成到模型訓(xùn)練過(guò)程中,通過(guò)優(yōu)化模型性能來(lái)選擇最優(yōu)特征子集。這種方法可以避免獨(dú)立特征選擇過(guò)程中可能引入的誤差,并且通常能夠找到更優(yōu)的特征子集。
過(guò)濾式嵌入式特征選擇方法
過(guò)濾式嵌入式特征選擇方法將特征選擇過(guò)程與模型訓(xùn)練過(guò)程融為一體,通過(guò)計(jì)算每個(gè)特征與目標(biāo)變量的相關(guān)性或其他統(tǒng)計(jì)量來(lái)評(píng)估特征的重要性,然后選擇具有最高相關(guān)性或統(tǒng)計(jì)量的特征。常見(jiàn)的過(guò)濾式嵌入式特征選擇方法包括:
-L1正則化(LASSO):L1正則化是一種懲罰函數(shù),它將特征系數(shù)的絕對(duì)值添加到模型的損失函數(shù)中。當(dāng)L1正則化系數(shù)較大時(shí),特征系數(shù)將會(huì)被縮小,甚至變?yōu)?,從而實(shí)現(xiàn)特征選擇。
-L2正則化(Ridge):L2正則化是一種懲罰函數(shù),它將特征系數(shù)的平方值添加到模型的損失函數(shù)中。當(dāng)L2正則化系數(shù)較大時(shí),特征系數(shù)將會(huì)被縮小,但不會(huì)變?yōu)?,從而實(shí)現(xiàn)特征選擇。
-相關(guān)性過(guò)濾:相關(guān)性過(guò)濾是一種基于相關(guān)性的特征選擇方法。它通過(guò)計(jì)算每個(gè)特征與目標(biāo)變量的相關(guān)性,然后選擇具有最高相關(guān)性的特征。
-卡方檢驗(yàn):卡方檢驗(yàn)是一種基于卡方分布的特征選擇方法。它通過(guò)計(jì)算每個(gè)特征與目標(biāo)變量的卡方統(tǒng)計(jì)量,然后選擇具有最高卡方統(tǒng)計(jì)量的特征。
包裹式嵌入式特征選擇方法
包裹式嵌入式特征選擇方法將特征選擇過(guò)程視為一個(gè)優(yōu)化問(wèn)題,通過(guò)搜索所有可能的特征子集來(lái)找到最優(yōu)特征子集。常見(jiàn)的包裹式嵌入式特征選擇方法包括:
-向前選擇:向前選擇是一種貪婪的特征選擇方法。它從一個(gè)空特征子集開(kāi)始,然后逐個(gè)添加最優(yōu)特征,直到達(dá)到預(yù)定的特征子集大小或達(dá)到最優(yōu)模型性能。
-向后選擇:向后選擇是一種貪婪的特征選擇方法。它從一個(gè)包含所有特征的特征子集開(kāi)始,然后逐個(gè)去除最不優(yōu)特征,直到達(dá)到預(yù)定的特征子集大小或達(dá)到最優(yōu)模型性能。
-遞歸特征消除(RFE):RFE是一種基于權(quán)重的特征選擇方法。它首先訓(xùn)練一個(gè)模型,然后計(jì)算每個(gè)特征對(duì)模型預(yù)測(cè)結(jié)果的權(quán)重,然后去除權(quán)重最低的特征,并重新訓(xùn)練模型,重復(fù)此過(guò)程,直到達(dá)到預(yù)定的特征子集大小或達(dá)到最優(yōu)模型性能。
嵌入式特征選擇方法的優(yōu)缺點(diǎn)
嵌入式特征選擇方法具有以下優(yōu)點(diǎn):
-嵌入式特征選擇方法可以避免獨(dú)立特征選擇過(guò)程中可能引入的誤差。
-嵌入式特征選擇方法通常能夠找到更優(yōu)的特征子集。
嵌入式特征選擇方法具有以下缺點(diǎn):
-嵌入式特征選擇方法的計(jì)算開(kāi)銷(xiāo)通常比較大。
-嵌入式特征選擇方法可能難以解釋。第七部分特征選擇方法的優(yōu)缺點(diǎn)對(duì)比關(guān)鍵詞關(guān)鍵要點(diǎn)基于統(tǒng)計(jì)的特征選擇方法
1.相關(guān)系數(shù)法:該方法通過(guò)計(jì)算特征與目標(biāo)變量之間的相關(guān)系數(shù)來(lái)進(jìn)行特征選擇,相關(guān)系數(shù)的絕對(duì)值越大,表示特征與目標(biāo)變量之間的相關(guān)性越強(qiáng),特征越重要。
2.信息增益法:該方法通過(guò)計(jì)算特征對(duì)目標(biāo)變量的信息增益來(lái)進(jìn)行特征選擇,信息增益越大,表示特征對(duì)目標(biāo)變量的區(qū)分能力越強(qiáng),特征越重要。
3.卡方檢驗(yàn)法:該方法通過(guò)計(jì)算特征與目標(biāo)變量之間的卡方值來(lái)進(jìn)行特征選擇,卡方值越大,表示特征與目標(biāo)變量之間的相關(guān)性越強(qiáng),特征越重要。
基于機(jī)器學(xué)習(xí)的特征選擇方法
1.決策樹(shù)法:該方法通過(guò)構(gòu)建決策樹(shù)來(lái)進(jìn)行特征選擇,特征在決策樹(shù)中的重要性由其在決策樹(shù)中的位置和分裂次數(shù)決定,特征越重要,在決策樹(shù)中的位置越靠上,分裂次數(shù)越多。
2.隨機(jī)森林法:該方法通過(guò)構(gòu)建隨機(jī)森林來(lái)進(jìn)行特征選擇,特征在隨機(jī)森林中的重要性由其在隨機(jī)森林中被選為分裂特征的次數(shù)決定,特征被選為分裂特征的次數(shù)越多,特征越重要。
3.梯度提升樹(shù)法:該方法通過(guò)構(gòu)建梯度提升樹(shù)來(lái)進(jìn)行特征選擇,特征在梯度提升樹(shù)中的重要性由其在梯度提升樹(shù)中的分裂增益決定,分裂增益越大,特征越重要。
基于嵌入式特征選擇方法
1.L1正則化:該方法通過(guò)在目標(biāo)函數(shù)中加入L1正則化項(xiàng)來(lái)進(jìn)行特征選擇,L1正則化項(xiàng)會(huì)使特征的權(quán)重變小,甚至為0,從而實(shí)現(xiàn)特征選擇。
2.L2正則化:該方法通過(guò)在目標(biāo)函數(shù)中加入L2正則化項(xiàng)來(lái)進(jìn)行特征選擇,L2正則化項(xiàng)會(huì)使特征的權(quán)重變小,但不會(huì)為0,從而實(shí)現(xiàn)特征選擇。
3.彈性網(wǎng)絡(luò)正則化:該方法通過(guò)在目標(biāo)函數(shù)中加入彈性網(wǎng)絡(luò)正則化項(xiàng)來(lái)進(jìn)行特征選擇,彈性網(wǎng)絡(luò)正則化項(xiàng)結(jié)合了L1正則化和L2正則化的優(yōu)點(diǎn),可以實(shí)現(xiàn)更加有效的特征選擇。#特征選擇方法的優(yōu)缺點(diǎn)對(duì)比
#1.過(guò)濾式特征選擇
-優(yōu)點(diǎn):
-計(jì)算效率高,適用于大數(shù)據(jù)集。
-無(wú)需考慮特征之間的相關(guān)性。
-缺點(diǎn):
-可能丟棄一些有用的特征。
-無(wú)法考慮特征之間的相互作用。
#2.包裹式特征選擇
-優(yōu)點(diǎn):
-可以考慮特征之間的相關(guān)性和相互作用。
-可以找到最優(yōu)的特征子集。
-缺點(diǎn):
-計(jì)算效率低,不適用于大數(shù)據(jù)集。
-容易陷入局部最優(yōu)。
#3.嵌入式特征選擇
-優(yōu)點(diǎn):
-計(jì)算效率高,適用于大數(shù)據(jù)集。
-可以考慮特征之間的相關(guān)性和相互作用。
-缺點(diǎn):
-無(wú)法找到最優(yōu)的特征子集。
-對(duì)模型的依賴(lài)性較大。
#4.其他特征選擇方法
-遞歸特征消除法(RFE):
-是一種貪心算法,每次迭代都選擇一個(gè)最不重要的特征并將其從特征集合中刪除。
-優(yōu)點(diǎn):計(jì)算效率高,適用于大數(shù)據(jù)集。缺點(diǎn):容易陷入局部最優(yōu)。
-相關(guān)性分析法:
-通過(guò)計(jì)算特征之間的相關(guān)性來(lái)選擇特征。
-優(yōu)點(diǎn):可以考慮特征之間的相關(guān)性。缺點(diǎn):無(wú)法考慮特征之間的相互作用。
-信息增益法:
-通過(guò)計(jì)算特征對(duì)目標(biāo)變量的信息增益來(lái)選擇特征。
-優(yōu)點(diǎn):可以考慮特征對(duì)目標(biāo)變量的貢獻(xiàn)度。缺點(diǎn):容易陷入局部最優(yōu)。
#5.特征選擇方法的綜合比較
|特征選擇方法|計(jì)算效率|是否考慮特征相關(guān)性|是否考慮特征交互作用|容易陷入局部最優(yōu)|
||||||
|過(guò)濾式特征選擇|高|否|否|否|
|包裹式特征選擇|低|是|是|是|
|嵌入式特征選擇|高|是|是|否|
|其他特征選擇方法|中等|是|否|是|
特征選擇方法的選擇
在實(shí)際應(yīng)用中,特征選擇方法的選擇需要根據(jù)具體的問(wèn)題和數(shù)據(jù)集的特點(diǎn)來(lái)確定。一般來(lái)說(shuō),如果數(shù)據(jù)集較大,則可以選擇計(jì)算效率高的過(guò)濾式特征選擇方法。如果數(shù)據(jù)集較小,則可以選擇計(jì)算效率較低但性能較好的包裹式特征選擇方法。如果需要考慮特征之間的相關(guān)性和相互作用,則可以選擇嵌入式特征選擇方法或其他特征選擇方法。
#重要提示
本文內(nèi)容僅供參考,不構(gòu)成任何形式的建議。在實(shí)際應(yīng)用中,請(qǐng)務(wù)必根據(jù)具體的問(wèn)題和數(shù)據(jù)集的特點(diǎn)來(lái)選擇合適的特征選擇方法。第八部分特征工程在數(shù)據(jù)分析中的實(shí)踐應(yīng)用關(guān)鍵詞關(guān)鍵要點(diǎn)特征工程在欺詐檢測(cè)中的應(yīng)用
1.欺詐檢測(cè)概述:介紹欺詐的概念、類(lèi)型和特點(diǎn),強(qiáng)調(diào)其復(fù)雜性和挑戰(zhàn)性。
2.特征工程在欺詐檢測(cè)中的重要性:
-數(shù)據(jù)準(zhǔn)備和預(yù)處理:數(shù)據(jù)清洗、格式轉(zhuǎn)換、缺失值處理、異常值處理等。
-特征提取和轉(zhuǎn)換:統(tǒng)計(jì)特征、領(lǐng)域知識(shí)特征、交互特征、哈希特征等。
-特征降維和選擇:降維方法(如主成分分析、奇異值分解等)和特征選擇算法(如過(guò)濾法、包裹法、嵌入法等)。
3.特征工程在欺詐檢測(cè)中的實(shí)踐應(yīng)用案例:
-信用卡欺詐檢測(cè):通過(guò)分析信用卡交易數(shù)據(jù),識(shí)別可疑交易。
-保險(xiǎn)欺詐檢測(cè):通過(guò)分析保
溫馨提示
- 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 【名師一號(hào)】2020-2021學(xué)年北師大版高中數(shù)學(xué)必修3雙基限時(shí)練15
- 【全程復(fù)習(xí)方略】2020年高考政治一輪課時(shí)提升作業(yè)-必修1-第2課(廣東專(zhuān)供)
- 《產(chǎn)業(yè)發(fā)展報(bào)告》課件
- 【同步輔導(dǎo)】2021高中數(shù)學(xué)北師大版必修二導(dǎo)學(xué)案:《直線和圓的位置關(guān)系》
- 一本正經(jīng)造句三年級(jí)簡(jiǎn)單
- 2022中考分類(lèi)試題29選擇填空
- 大學(xué)英語(yǔ)聽(tīng)力
- 2025年0278南京搜貓數(shù)據(jù)技術(shù)有限公司
- 2025年0045廣東大倉(cāng)機(jī)器人科技有限公司
- 【案例6-3】胡潤(rùn)富豪榜順勢(shì)而生
- 論海瀾之家存貨管理的問(wèn)題、成因及其對(duì)策
- 醫(yī)院長(zhǎng)期醫(yī)囑單(模板)
- 班主任育人故事(通用17篇)
- 初二化學(xué)上冊(cè)知識(shí)點(diǎn)7篇
- 汽車(chē)保養(yǎng)與維護(hù)
- 2023-2024學(xué)年貴州省黔西南布依族苗族自治州貞豐縣三年級(jí)數(shù)學(xué)第一學(xué)期期末經(jīng)典模擬試題含答案
- 娛樂(lè)場(chǎng)所消防安全操作規(guī)程
- 社區(qū)服務(wù)中心
- 商業(yè)天然氣灶具用氣量明細(xì)
- 物業(yè)公司合規(guī)管理與風(fēng)險(xiǎn)防控全書(shū)
- 部編版五年級(jí)語(yǔ)文上冊(cè)作文總復(fù)習(xí)課件
評(píng)論
0/150
提交評(píng)論