VBBA方法用于電信客戶流失預(yù)測(cè)知識(shí)講解_第1頁
VBBA方法用于電信客戶流失預(yù)測(cè)知識(shí)講解_第2頁
VBBA方法用于電信客戶流失預(yù)測(cè)知識(shí)講解_第3頁
VBBA方法用于電信客戶流失預(yù)測(cè)知識(shí)講解_第4頁
VBBA方法用于電信客戶流失預(yù)測(cè)知識(shí)講解_第5頁
已閱讀5頁,還剩16頁未讀 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

1、Good is good, but better carries it.精益求精,善益求善。VBBA方法用于電信客戶流失預(yù)測(cè)-VBBA方法用于電信客戶流失預(yù)測(cè)冉建榮摘要:對(duì)于電信客戶流失預(yù)測(cè)問題,流失客戶相對(duì)于非流失客戶來說比例非常小,這種比率的嚴(yán)重失衡通常會(huì)污染預(yù)測(cè)模型,導(dǎo)致客戶流失預(yù)測(cè)效果大幅下降;另外,單一的統(tǒng)計(jì)學(xué)模型或人工智能模型用于客戶流失預(yù)測(cè)時(shí),存在對(duì)不同數(shù)據(jù)集模型的適應(yīng)性不同的問題。本文提出采用最優(yōu)算法投票(VBBA)方法來解決這些問題。文章用中國(guó)移動(dòng)某公司的客戶數(shù)據(jù)進(jìn)行實(shí)證研究,用ROC曲線對(duì)預(yù)測(cè)結(jié)果進(jìn)行評(píng)估,結(jié)果表明:采用最優(yōu)算法投票(VBBA)方法,其預(yù)測(cè)效果優(yōu)于任何單一算

2、法模型直接預(yù)測(cè)的效果,這為電信業(yè)客戶流失管理實(shí)踐提供了一套有效的提升客戶流失預(yù)測(cè)精度的方法。Abstract:Intelecomcustomerchurnprediction,customerchurnrateisaverysmallproportion,usuallythatwillpollutepredictionmodelandleadtoreducepredictioneffect;inaddition,singlestatisticalmodelorsingleartificialintelligencemodelisdifficulttosatisfyvariousdatum.So

3、,thisarticleproposesaVotingBasedontheBestArithmetic(VBBA)methodtosolvethoseproblems.ItconductsHYPERLINK/dict_result.aspx?searchword=%e8%bf%9b%e8%a1%8c%e5%ae%9e%e8%af%81%e7%a0%94%e7%a9%b6&tjType=sentence&style=&t=carries+out+practical+studyempiricalstudywithcustomerdataofaHYPERLINK/dict_result.aspx?s

4、earchword=%e5%ad%90%e5%85%ac%e5%8f%b8&tjType=sentence&style=&t=subsidiary+companysubsidiarycompanyofChinaMobileCommunicationsCorporation(CMCC),andassesspredictioneffectusingreceiveroperatingcharacteristiccurve(ROC).TheresultsshowthatthepredictioneffectofVBBAmethodisbetterthanthatofsinglearithmeticmo

5、del,soVBBAmethodiseffectualtoliftpredictionprecisionofcustomerchurnintelecommunicationcustomerchurnmanagement.關(guān)鍵詞:最優(yōu)算法投票客戶流失預(yù)測(cè)ROC曲線Keywords:VotingBasedontheBestArithmetic;CustomerChurnPrediction;ReceiverOperatingCharacteristicCurve(ROC)0引言客戶流失是指客戶終止與企業(yè)的服務(wù)合同或轉(zhuǎn)向其它公司提供的服務(wù)1。據(jù)中華人民共和國(guó)國(guó)家統(tǒng)計(jì)局統(tǒng)計(jì)數(shù)據(jù)表明,截止2011年12

6、月,中國(guó)移動(dòng)電話用戶數(shù)達(dá)9.86億戶,比去年同期增長(zhǎng)14.8%;固定電話用戶數(shù)達(dá)2.85億戶,比去年同期減少3.14%2,表明國(guó)內(nèi)電信市場(chǎng)逐漸趨于飽和。對(duì)電信運(yùn)營(yíng)企業(yè)來說,在這樣一個(gè)相對(duì)成熟的市場(chǎng)中競(jìng)爭(zhēng),防御性市場(chǎng)策略變得越來越重要。防御性市場(chǎng)策略重點(diǎn)關(guān)注的是如何減少客戶流失,而不是發(fā)展新客戶和誘使競(jìng)爭(zhēng)對(duì)手的客戶轉(zhuǎn)網(wǎng)3。Reichheld4研究表明,客戶保持率每提高5%,行業(yè)平均利潤(rùn)增加幅度在25%85%之間。另有研究表明,贏得一個(gè)新客戶所花費(fèi)的成本大約是保留一個(gè)老客戶所花費(fèi)成本的56倍5。因此,如何構(gòu)建適合于自己的客戶流失管理系統(tǒng),管理好客戶流失問題是各電信運(yùn)營(yíng)企業(yè)提高盈利能力的關(guān)鍵??蛻袅?/p>

7、失管理主要包括預(yù)測(cè)可能流失的客戶,客戶收益的評(píng)估及減少客戶流失的客戶保持策略及方法等幾方面6。本文以提高客戶流失預(yù)測(cè)精度為目標(biāo),提出基于最優(yōu)算法投票(VBBA,VotingBasedontheBestArithmetic)方法,對(duì)中國(guó)移動(dòng)某公司客戶數(shù)據(jù)進(jìn)行實(shí)證研究,并用ROC曲線對(duì)采用VBBA方法前后各算法模型的預(yù)測(cè)結(jié)果比較評(píng)估,結(jié)果表明VBBA方法能夠大幅度提高客戶流失預(yù)測(cè)效果。文章的組織結(jié)構(gòu)如下:第一部分介紹了客戶流失預(yù)測(cè)一般方法;第二部分提出VBBA方法的框架;第三部分用VBBA方法進(jìn)行實(shí)證研究;第四部分對(duì)研究結(jié)論作簡(jiǎn)單評(píng)述,并給出實(shí)踐建議。1相關(guān)研究評(píng)述由于客戶流失預(yù)測(cè)是客戶保持策略的

8、關(guān)鍵環(huán)節(jié),在電信客戶流失管理中具有十分重要的地位和作用,近年來受到越來越多的學(xué)者和電信運(yùn)營(yíng)管理人員的重視。一般來說,電信業(yè)客戶流失預(yù)測(cè)是利用客戶記錄的歷史數(shù)據(jù)對(duì)潛在的流失客戶進(jìn)行判斷的過程6。其研究方法一般分為統(tǒng)計(jì)學(xué)方法和人工智能方法。統(tǒng)計(jì)學(xué)方法包括決策樹(DecisionTree)、Logistic回歸(LogisticRegression)、貝葉斯分類器(BayesianClassifier)和聚類(Clustering)等,該類方法的主要優(yōu)點(diǎn)是對(duì)所構(gòu)建的模型可解釋性強(qiáng)。應(yīng)用這些統(tǒng)計(jì)學(xué)方法于電信客戶流失預(yù)測(cè),很多學(xué)者做了有價(jià)值的研究7-10。但統(tǒng)計(jì)學(xué)方法在處理大規(guī)模、高維度、含非線性關(guān)系的

9、客戶數(shù)據(jù)時(shí)效果并不理想,且不能保證學(xué)習(xí)和泛化能力,缺乏靈活性。因此,近年來越來越多的學(xué)者將學(xué)習(xí)能力強(qiáng),預(yù)測(cè)精度更高的人工智能方法引入客戶流失預(yù)測(cè)研究11-17。人工智能方法主要包括人工神經(jīng)網(wǎng)絡(luò)(ANN,ArtificialNeuralNetworks)、自組織映射(SOM,Self-organizingMap)、支持向量機(jī)(SVM,SupportVectorMachine)和進(jìn)化學(xué)習(xí)(EL,EvolutionaryLearning)算法等。不論是統(tǒng)計(jì)學(xué)方法還是人工智能方法,目前的研究目標(biāo)主要集中于單個(gè)算法(或改進(jìn)算法)對(duì)原始數(shù)據(jù)建?;?qū)讉€(gè)單一算法組合成混合模型用于原始數(shù)據(jù)建模。但由于電信客戶

10、流失預(yù)測(cè)所用數(shù)據(jù)復(fù)雜多變,很難找到普遍適用的最優(yōu)單一模型;另外,在客戶數(shù)據(jù)庫(kù)中,流失客戶的比例往往非常小,這可能污染模型,導(dǎo)致流失預(yù)測(cè)模型的預(yù)測(cè)效果大幅下降。鑒于此,本文提出基于最優(yōu)算法投票(VBBA,VotingBasedontheBestArithmetic)方法來系統(tǒng)性的解決這些問題。2VBBA方法的提出本文提出的最優(yōu)算法投票(VBBA,VotingBasedontheBestArithmetic)方法框架如圖1所示。主要分為選擇最優(yōu)算法和對(duì)最優(yōu)算法的預(yù)測(cè)結(jié)果組合投票兩部分。具體構(gòu)建過程如下:圖1最優(yōu)算法投票策略框架第1步:數(shù)據(jù)分區(qū)。將整理好的原始數(shù)據(jù)分成訓(xùn)練集和測(cè)試集兩部分,根據(jù)原始數(shù)

11、據(jù)樣本多少可以按50/50、60/40、70/30等比例劃分,但一般來說測(cè)試集數(shù)據(jù)不得少于總樣本的20%18。第2步:抽取訓(xùn)練子集。對(duì)于客戶流失預(yù)測(cè)等分類問題,由于流失率一般較低,流失客戶數(shù)和非流失客戶數(shù)嚴(yán)重失衡,導(dǎo)致大多數(shù)分類模型被污染,影響模型預(yù)測(cè)效果。為提高流失客戶在訓(xùn)練數(shù)據(jù)集中的比例,一般采用保留所有流失客戶數(shù)據(jù)的同時(shí),抽取部分非流失客戶數(shù)據(jù)組成訓(xùn)練子集,以平衡訓(xùn)練集中流失客戶和非流失客戶的比例。對(duì)非流失客戶數(shù)據(jù)多次隨機(jī)抽樣從而可以形成多個(gè)訓(xùn)練子集,記為n,n取奇數(shù)。一般建議將數(shù)據(jù)子集中流失客戶和非流失客戶比率平衡為20/8018。第3步:訓(xùn)練模型。選用多種(記為M)基本分類算法(如決

12、策樹、神經(jīng)網(wǎng)絡(luò)、邏輯回歸、支持向量機(jī)、粗糙集等)分別對(duì)n個(gè)訓(xùn)練子集建模。第4步:選擇最優(yōu)算法模型。對(duì)M個(gè)算法模型分別在n個(gè)訓(xùn)練子集的預(yù)測(cè)結(jié)果進(jìn)行比較評(píng)估,選取n次結(jié)果中平均精度最高、標(biāo)準(zhǔn)差最小的算法模型作為最優(yōu)模型。第5步:最優(yōu)模型組合投票。分別將n個(gè)最優(yōu)模型用于測(cè)試集,對(duì)預(yù)測(cè)結(jié)果采用少數(shù)服從多少的投票策略,得票數(shù)大于等于票的目標(biāo)類(即流失或非流失)作為對(duì)該客戶的預(yù)測(cè)結(jié)果。如:在9次預(yù)測(cè)中,對(duì)某客戶有5次(或5次以上)預(yù)測(cè)為流失,4次(或4次以下)預(yù)測(cè)為不流失,則最終投票結(jié)果為該客戶流失。3實(shí)證研究3.1研究數(shù)據(jù)及評(píng)估方法(1)研究數(shù)據(jù)本文以中國(guó)移動(dòng)某公司客戶數(shù)據(jù)作為研究對(duì)象。由于臨時(shí)卡客戶(

13、即購(gòu)買臨時(shí)卡將所含費(fèi)用用完即丟棄或換號(hào)的客戶)的消費(fèi)行為具有極大的不穩(wěn)定性,運(yùn)營(yíng)企業(yè)記錄的相關(guān)數(shù)據(jù)甚少,文章在研究時(shí)考慮先將此部分客戶排除。因此,我們隨機(jī)抽取該公司2012年13月一直在網(wǎng)的用戶25075戶,取其協(xié)議數(shù)據(jù)、消費(fèi)行為數(shù)據(jù)和賬單數(shù)據(jù),以2012年4月1日至2012年5月30日作為客戶流失判別窗口。對(duì)所提取客戶數(shù)據(jù)進(jìn)行清理、集成、變換、離散化等預(yù)處理后,得到數(shù)據(jù)有效樣本24862戶,占總樣本數(shù)的99.2%;其中,流失用戶2345戶,流失率9.4%。通過特征選擇方法對(duì)所有變量進(jìn)行篩選,得到與流失預(yù)測(cè)問題強(qiáng)相關(guān)的變量21個(gè)作為參與流失預(yù)測(cè)的特征變量,其中類別型特征變量4個(gè),數(shù)值型特征變量

14、17個(gè)。(2)評(píng)估方法本文選用Clementine12.0中的NeuralNet、C5.0、Logistic和SVM四種模型作為研究的基礎(chǔ)模型,采用ROC曲線(ReceiverOperatingCharacteristicCurve)19對(duì)預(yù)測(cè)結(jié)果進(jìn)行比較評(píng)估。ROC分析50年代起源于統(tǒng)計(jì)決策理論,廣泛應(yīng)用于分類器性能的評(píng)價(jià)20,21。流失預(yù)測(cè)問題實(shí)質(zhì)就是一個(gè)二元分類問題,因此可以借助ROC曲線來評(píng)價(jià)預(yù)測(cè)預(yù)測(cè)模型的預(yù)測(cè)效果。ROC曲線定義如下:假設(shè)有關(guān)于流失和非流失兩個(gè)類的混淆矩陣如表1所示。表1一個(gè)關(guān)于客戶流失預(yù)測(cè)問題的混淆矩陣實(shí)際狀態(tài)預(yù)測(cè)結(jié)果合計(jì)流失非流失流失A(真正)B(假負(fù))A+B非流

15、失C(假正)D(真負(fù))C+D合計(jì)A+CB+DA+B+C+D由上表可以計(jì)算如下參數(shù):,靈敏度即流失客戶被預(yù)測(cè)為流失客戶的比率。,特異度即非流失客戶被預(yù)測(cè)為非流失客戶的比率。ROC曲線是以真正率為縱坐標(biāo),假正率為橫坐標(biāo)繪制的曲線。ROC曲線越靠近左上角,則模型預(yù)測(cè)的準(zhǔn)確性就越高,可用曲線下方的面積(AreaUnderCurve,即AUC)度量預(yù)測(cè)效果,AUC的值一般在1.0和0.5之間,面積值越接近1.0的表示預(yù)測(cè)效果越好。一般:AUC在0.50.7時(shí)有較低準(zhǔn)確性,AUC在0.70.9時(shí)有一定準(zhǔn)確性,AUC在0.9以上時(shí)有較高準(zhǔn)確性。3.2單個(gè)模型用于客戶流失預(yù)測(cè)在建模之前我們將原始數(shù)據(jù)分區(qū)為訓(xùn)練

16、數(shù)據(jù)集和測(cè)試數(shù)據(jù)集,分別占比60%和40%。采用Clementine12.0中的NeuralNet、C5.0、Logistic和SVM四種模型用于分區(qū)后的原始數(shù)據(jù)建模。其中,C5.0模型選擇useboosting和cross-validate,其他為默認(rèn)選項(xiàng);NeuralNet模型選擇默認(rèn)選項(xiàng),即用quick算法;Logistic模型選擇binomial算法,其他為默認(rèn)選項(xiàng);SVM選擇默認(rèn)選項(xiàng)。用SPSS15.0中的ROC構(gòu)造方法對(duì)訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集的預(yù)測(cè)結(jié)果繪制ROC曲線并計(jì)算曲線下方面積(AUC)如表2所示。由表2可以看出,直接將四種基本模型用于原始數(shù)據(jù)的預(yù)測(cè)結(jié)果中,NeuralNet

17、的預(yù)測(cè)效果相對(duì)較好,但總體來說預(yù)測(cè)效果不理想。表2單個(gè)模型用于原始數(shù)據(jù)預(yù)測(cè)結(jié)果的AUC值模型訓(xùn)練集測(cè)試集NeuralNet0.8140.811C5.00.7900.755Logistic0.8140.808SVM0.8220.7093.3VBBA方法用于客戶流失預(yù)測(cè)(1)數(shù)據(jù)分區(qū)將原始數(shù)據(jù)分區(qū)為訓(xùn)練數(shù)據(jù)集和測(cè)試數(shù)據(jù)集,分別占比60%和40%(與3.2中分區(qū)方法同)。(2)抽取訓(xùn)練子集在占60%的訓(xùn)練數(shù)據(jù)集中,流失客戶和非流失客戶分別為1457戶和13615戶,按20/80的比率平衡數(shù)據(jù)集,則需從13615戶非流失客戶中隨機(jī)抽取5828戶()與1457戶流失客戶組成訓(xùn)練子集。其中抽取的5828戶

18、非流失客戶占非流失客戶總數(shù)的42.8%(),按此比例改變隨機(jī)種子再重復(fù)抽取8次,共得到9個(gè)訓(xùn)練子集。每次都按42.8%的比例從非流失客戶中隨機(jī)抽取,由于隨機(jī)種子的差異導(dǎo)致所得到的非流失客戶樣本數(shù)并不完全等于5828戶。各訓(xùn)練子集樣本數(shù)如表3所示。表39個(gè)訓(xùn)練子集樣本數(shù)統(tǒng)計(jì)樣本編號(hào)D1D2D3D4D5D6D7D8D9流失客戶樣本數(shù)145714571457145714571457145714571457非流失客戶樣本數(shù)579158865896580358335803579758995818樣本總數(shù)724873437353726072907260725473567275(3)訓(xùn)練模型選用SPSSCl

19、ementine12.0中的NeuralNet、C5.0、Logistic和SVM四種模型分別對(duì)9個(gè)訓(xùn)練子集進(jìn)行建模。在建模過程中,C5.0模型選擇useboosting和cross-validate,其他為默認(rèn)選項(xiàng);NeuralNet模型選擇默認(rèn)選項(xiàng),即用quick算法;Logistic模型選擇binomial算法,其他為默認(rèn)選項(xiàng);SVM選擇默認(rèn)選項(xiàng)。得到NeuralNet、C5.0、Logistic和SVM模型各9個(gè)。(4)選擇最優(yōu)模型分別將從9個(gè)訓(xùn)練子集訓(xùn)練得到的9個(gè)NeuralNet模型、9個(gè)C5.0模型、9個(gè)Logistic模型和9個(gè)SVM模型的預(yù)測(cè)結(jié)果輸出轉(zhuǎn)化成適合于SPSS15.

20、0的數(shù)據(jù)格式,采用SPSS15.0中構(gòu)建ROC曲線的方法繪制ROC曲線并計(jì)算得到ROC曲線下方面積(AUC)如表4所示。由表4可知:NeuralNet模型9次預(yù)測(cè)結(jié)果的平均AUC最大(0.846),表明其預(yù)測(cè)效果最優(yōu);SVM模型9次預(yù)測(cè)結(jié)果的AUC標(biāo)準(zhǔn)差最?。?.0039),表明其最為穩(wěn)定。我們?cè)诖艘灶A(yù)測(cè)效果作為首要評(píng)判條件,選用NeuralNet模型作為最優(yōu)模型。表4各模型對(duì)9個(gè)訓(xùn)練子集預(yù)測(cè)的評(píng)估結(jié)果模型D1D2D3D4D5D6D7D8D9平均標(biāo)準(zhǔn)差C5.00.8370.8430.8490.8410.8370.8390.8350.8470.8380.8410.0048NeuralNet0.8

21、450.8460.8410.8510.8510.8410.8450.8450.8510.8460.0040Logistic0.8470.8330.8360.8370.8350.8420.8350.8340.8400.8380.0045SVM0.7350.7420.7340.7370.7350.7330.7340.7340.7440.7360.0039(5)最優(yōu)模型組合投票將從9個(gè)訓(xùn)練子集得到的9個(gè)NeuralNet模型分別用于測(cè)試數(shù)據(jù)集,采用少數(shù)服從多數(shù)的投票策略對(duì)預(yù)測(cè)結(jié)果進(jìn)行綜合。在9次預(yù)測(cè)中,將有5次(或5次以上)預(yù)測(cè)結(jié)果為流失的客戶確定為流失客戶,其他為非流失客戶。采用ROC曲線對(duì)測(cè)試結(jié)

22、果進(jìn)行評(píng)估,得到ROC曲線下方面積(AUC)如表5所示。由表5可知:投票后的預(yù)測(cè)結(jié)果的AUC為0.855,高于9個(gè)模型預(yù)測(cè)結(jié)果的平均AUC值(0.846),表明采用少數(shù)服從多數(shù)的原則投票綜合后的預(yù)測(cè)效果明顯提高。表59個(gè)NeuralNet模型測(cè)試及投票的評(píng)估結(jié)果模型N1N2N3N4N5N6N7N8N9平均投票結(jié)果AUC0.8470.8310.8430.8550.8520.8330.8510.8540.8490.8460.8553.4比較評(píng)估由表2和表5結(jié)果可得到表6,由表6可知,通過采用VBBA方法后,對(duì)測(cè)試數(shù)據(jù)集預(yù)測(cè)結(jié)果的AUC值從單個(gè)模型中最優(yōu)的0.811(NeuralNet結(jié)果)提升為0

23、.855,表明預(yù)測(cè)效果有明顯提高。表6VBBA方法與單一模型的預(yù)測(cè)結(jié)果比較模型VBBAC5.0NeuralNetLogisticSVMAUC0.8550.7550.8110.8080.709另外,我們基于測(cè)試數(shù)據(jù)集的預(yù)測(cè)結(jié)果,分別構(gòu)建NeuralNet模型、C5.0模型、Logistic模型、SVM模型和VBBA方法的預(yù)測(cè)結(jié)果的ROC曲線,如圖2所示。從圖2可以直觀看出VBBA方法的ROC曲線明顯高于其它四種單一模型的ROC曲線,表明采用VBBA方法后,預(yù)測(cè)效果得到大幅提升。圖2VBBA方法與四種單一模型方法的預(yù)測(cè)結(jié)果ROC曲線對(duì)比4結(jié)論本文針對(duì)電信運(yùn)營(yíng)企業(yè)客戶流失預(yù)測(cè)時(shí)客戶數(shù)據(jù)中流失客戶和非

24、流失客戶比例嚴(yán)重失衡,可能影響大多數(shù)分類模型預(yù)測(cè)效果的問題,提出最優(yōu)算法投票(VBBA)方法框架,并用中國(guó)移動(dòng)某公司客戶數(shù)據(jù)進(jìn)行了實(shí)證研究,分別采用VBBA方法構(gòu)建流失預(yù)測(cè)混合模型和采用NeuralNet、C5.0、Logistic和SVM四種單一算法構(gòu)建流失預(yù)測(cè)模型,用SPSS15.0對(duì)實(shí)證結(jié)果數(shù)據(jù)進(jìn)行處理,并繪制ROC曲線進(jìn)行評(píng)估,結(jié)果表明:采用最優(yōu)算法投票方法后,其預(yù)測(cè)結(jié)果的ROC曲線下方面積(AUC)為0.855,優(yōu)于最優(yōu)算法模型9次預(yù)測(cè)結(jié)果的平均AUC值(0.846)和單個(gè)模型中預(yù)測(cè)效果最好的NeuralNet模型的預(yù)測(cè)結(jié)果AUC值(0.811)。這表明VBBA方法能夠大幅提高客戶流

25、失預(yù)測(cè)精度,對(duì)電信運(yùn)營(yíng)企業(yè)客戶流失實(shí)踐來說又提供了一套有效的方法。參考文獻(xiàn)1詹穆斯德阿克.企業(yè)的泛風(fēng)險(xiǎn)管理M.吉林人民出版社,2001:4659.2中華人民共和國(guó)國(guó)家統(tǒng)計(jì)局網(wǎng)站./tjsj/ndsj/2012/indexch.htm.3FornellC,WernerfeltB.Defensivemarketingstrategybycustomercomplaintmanagement:Atheoreticalanalysis.JournalofMarketingResearchJ.1987,24(4):337346.4ReichheldFF,SasserWE.Zerodefections:q

26、ualitycomestoservicesJ.HarvardBusinessReview,1990,9-10:105-111.5BhattacharyaCB.Whencustomersaremembers:customerretentioninpaidmembershipcontextsJ.JournaloftheAcademyofMarketingScience,1998,26(1):3144.6LianY,RichardHW,RobertD.PredictingcustomerbehaviorintelecommunicationsJ.IEEEIntelligentSystem,2004,

27、4:5058.7Chih-PingWei,ChiuIT.Turningtelecommunicationscalldetailstochurnprediction:adataminingapproachJ.ExpertSystemswithApplications,2002,23(2):103112.8KimHS,YoonCH.DeterminantsofsubscriberchurnandcustomerloyaltyintheKoreanmobiletelephonymarketJ.TelecommunicationsPolicy,2003,28(9):751765.9葉進(jìn),程澤凱,林士敏

28、.基于貝葉斯網(wǎng)絡(luò)的電信客戶流失預(yù)測(cè)分析J.計(jì)算機(jī)工程與應(yīng)用,2005,14:212214.10YangYM,HuiW,LeiL.Multi-dimensionalmodel-basedclusteringforuser-behaviorminingintelecommunicationsindustryC.Proceedingofthethirdinternationalconferenceonmachinelearningandcybernetics,shanghai,2004:2629.11Shin-YuanHung,DavidC.Yen,Hsiu-YuWang.Applyingdatam

29、iningtotelecomchurnmanagementJ.ExpertSystemswithApplications.2006.31:515524.12Wai-HoAu,KeithC.C.Chan,XinYao.AnovelevolutionarydataminingalgorithmwithapplicaionstoshurnpredictionJ.EvolutionaryComputation,IEEETransactions.2003,7(6):532545.13UltchA.Emergentself-organizingfeaturemapsusedforpredictionandpreventionofchurninmobilephonemarke

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

評(píng)論

0/150

提交評(píng)論