Python與機(jī)器學(xué)習(xí)(第2版)(微課版) 課件 項(xiàng)目05 鳶尾花分類分析_第1頁
Python與機(jī)器學(xué)習(xí)(第2版)(微課版) 課件 項(xiàng)目05 鳶尾花分類分析_第2頁
Python與機(jī)器學(xué)習(xí)(第2版)(微課版) 課件 項(xiàng)目05 鳶尾花分類分析_第3頁
Python與機(jī)器學(xué)習(xí)(第2版)(微課版) 課件 項(xiàng)目05 鳶尾花分類分析_第4頁
Python與機(jī)器學(xué)習(xí)(第2版)(微課版) 課件 項(xiàng)目05 鳶尾花分類分析_第5頁
已閱讀5頁,還剩111頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

項(xiàng)目背景|項(xiàng)目概述|學(xué)習(xí)目標(biāo)|任務(wù)實(shí)施步驟鳶尾花多分類分析【數(shù)據(jù)挖掘應(yīng)用】01101111011010111101010000101101010100111101背景先導(dǎo)項(xiàng)目概述項(xiàng)目學(xué)習(xí)目標(biāo)任務(wù)實(shí)施步驟01Background02BriefIntroduction03LearningObjectives04ImplementationSteps主要內(nèi)容鳶尾花無生命的花朵擁有了人的性格,有了自己的思想情感,產(chǎn)生了所謂的“花語”“鳶尾花,結(jié)彩多,連竿勸獻(xiàn)酒。此花開后百花死,百花開后鳶尾稀。”“獨(dú)有鳶尾花,一時偏好妝。金鴨灣頭戲,繡戶髻后香?!痹谖覈S脕硐笳饔颜x、愛情,代表前途無量、鵬程萬里、明察秋毫。認(rèn)識鳶尾花雜色鳶尾(versicolor)

山鳶尾(setosa)

維吉尼亞鳶尾(virginica)

0110111101101011110101111001001001011010101001001111010010110010111011010110100111101

什么是花瓣、花萼鳶尾花數(shù)據(jù)集輸出結(jié)果:output花瓣長度(PetalLength)花瓣寬度(PetalWidth)花萼長度(SepalLength)花萼寬度(SepalWidth)輸入特征:input鳶尾花類別雜色鳶尾(versicolor)山鳶尾(setosa)

維吉尼亞鳶尾(virginica)項(xiàng)目總體要求

鳶尾花多分類分析

本項(xiàng)目將基于“iris.csv”文件中的4項(xiàng)特征數(shù)據(jù)和分類結(jié)果,使用不同的機(jī)器學(xué)習(xí)算法做鳶尾花類別判定應(yīng)用,并進(jìn)一步評估不同模型的優(yōu)劣。項(xiàng)目三維目標(biāo)理解K近鄰、隨機(jī)森林、多層感知機(jī)、神經(jīng)網(wǎng)絡(luò)的基本概念及其原理;進(jìn)一步掌握數(shù)據(jù)分析與挖掘的流程,加深對模型建立與分析過程的理解;掌握NumPy、Pandas、sklearn、Matplotlib、TensorFlow的使用;掌握KNeighborsClassifier、RandomForestClassifier和MLPClassifier的相關(guān)參數(shù)意義及調(diào)參方法。

(阿里云大數(shù)據(jù)分析與應(yīng)用中級5.3.2)知識目標(biāo)能力目標(biāo)素質(zhì)目標(biāo)證項(xiàng)目三維目標(biāo)會使用sklearn包中KNeighborsClassifier、RandomForestClassifier和MLPClassifier類實(shí)現(xiàn)分類分析;

大數(shù)據(jù)工程技術(shù)人員國家職業(yè)技能標(biāo)準(zhǔn)中級6.3.2會使用Tensorflow設(shè)計(jì)和訓(xùn)練簡單的神經(jīng)網(wǎng)絡(luò)模型;會調(diào)整分類模型的參數(shù)實(shí)現(xiàn)分類效果的優(yōu)化。

大數(shù)據(jù)工程技術(shù)人員國家職業(yè)技能標(biāo)準(zhǔn)中級6.3.3知識目標(biāo)能力目標(biāo)素質(zhì)目標(biāo)崗011011110110101111010111100100001011010101001111101崗項(xiàng)目三維目標(biāo)厚植“中國特色”的傳統(tǒng)文化根脈,堅(jiān)定文化自信;善于觀察,增強(qiáng)學(xué)生對大自然及生活的熱愛;引導(dǎo)學(xué)生進(jìn)行精準(zhǔn)分類,細(xì)心改進(jìn)模型的參數(shù),盡心完成模型的優(yōu)化,培養(yǎng)精益求精的品質(zhì)意識。能力目標(biāo)素質(zhì)目標(biāo)知識目標(biāo)011011110110101111010111100100001011010101001111101鳶尾花分類分析任務(wù)流程數(shù)據(jù)獲取數(shù)據(jù)預(yù)處理分類分析模型評估與應(yīng)用明確目標(biāo)基于給定的花萼長度、花萼寬度、花瓣長度、花瓣寬度、鳶尾花類別等數(shù)據(jù)做鳶尾花類別判定應(yīng)用。數(shù)據(jù)獲取數(shù)據(jù)預(yù)處理分類分析模型評估與應(yīng)用明確目標(biāo)從本地文件iris.csv中讀取花萼長度、花萼寬度、花瓣長度、花瓣寬度、鳶尾花類別等原始數(shù)據(jù)。鳶尾花分類分析任務(wù)流程數(shù)據(jù)獲取數(shù)據(jù)預(yù)處理分類分析模型評估與應(yīng)用明確目標(biāo)1.標(biāo)簽映射:需將鳶尾花的三種類別分別映射為0、1和2鳶尾花分類分析任務(wù)流程數(shù)據(jù)獲取數(shù)據(jù)預(yù)處理分類分析模型評估與應(yīng)用明確目標(biāo)使用K近鄰實(shí)現(xiàn)鳶尾花分類使用隨機(jī)森林實(shí)現(xiàn)鳶尾花分類使用Tensorflow設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)鳶尾花分類使用多層感知機(jī)實(shí)現(xiàn)鳶尾花分類鳶尾花分類分析任務(wù)流程數(shù)據(jù)獲取數(shù)據(jù)預(yù)處理分類分析模型評估與應(yīng)用明確目標(biāo)圖形化展示各模型的分類結(jié)果

評估不同算法的優(yōu)劣分類模型應(yīng)用鳶尾花分類分析任務(wù)流程還在等什么?馬上動手實(shí)施鳶尾花多分類分析項(xiàng)目吧~1.認(rèn)識鳶尾花、鳶尾花數(shù)據(jù)集2.多分類項(xiàng)目的要求3.鳶尾花分類分析流程小結(jié)項(xiàng)目背景|項(xiàng)目概述|學(xué)習(xí)目標(biāo)|任務(wù)實(shí)施步驟觀影用戶聚類分析【數(shù)據(jù)挖掘應(yīng)用】01101111011010111101010000101101010100111101背景先導(dǎo)項(xiàng)目概述項(xiàng)目學(xué)習(xí)目標(biāo)任務(wù)實(shí)施步驟01Background02BriefIntroduction03LearningObjectives04ImplementationSteps主要內(nèi)容《戰(zhàn)國策·齊策三》:戰(zhàn)國時期,淳于髡向齊宣王連推了七位賢能之士:同類的鳥兒總聚在一起飛翔,同類的野獸總是聚在一起行動。人們要尋找柴胡、桔梗這類藥材,如果到水澤洼地去找,恐怕永遠(yuǎn)也找不到;要是到梁文山的背面去找,那就可以成車地找到。這是因?yàn)樘煜峦惖氖挛?,總是要相聚在一起的。什么是聚類分?用于比喻同類的東西常聚在一起,志同道合的人相聚成群,反之就分開什么是聚類分析?電子商務(wù)中的“人以群分、物以類聚”什么是聚類分析?聚類后同一類的數(shù)據(jù)盡可能聚集到一起不同類數(shù)據(jù)盡量分離沒有特定分成什么類別如何度量相同特征什么是聚類分析?聚類分析(clusteranalysis)將數(shù)據(jù)劃分成有意義的或有用的組(簇)電子商務(wù):聚類分析在電子商務(wù)中網(wǎng)站建設(shè)數(shù)據(jù)挖掘中也是很重要的一個方面,通過分組聚類出具有相似瀏覽行為的客戶,并分析客戶的共同特征,可以更好的幫助電子商務(wù)的用戶了解自己的客戶,向客戶提供更合適的服務(wù)。商業(yè):是細(xì)分市場的有效工具,同時也可用于研究消費(fèi)者行為,尋找新的潛在市場、選擇實(shí)驗(yàn)的市場。生物:用來動植物分類和對基因進(jìn)行分類,獲取對種群固有結(jié)構(gòu)的認(rèn)識。項(xiàng)目總體要求

觀影用戶聚類分析

以兩部電影的影評數(shù)據(jù)為藍(lán)本,對所對應(yīng)的觀影用戶進(jìn)行聚類,通過用戶群的細(xì)分以實(shí)現(xiàn)更為合理的客戶關(guān)系維護(hù)與管理。項(xiàng)目三維目標(biāo)理解無監(jiān)督學(xué)習(xí)、聚類的基本概念了解常用的聚類方法及其適用性

(阿里云大數(shù)據(jù)分析與應(yīng)用中級1.2.1)掌握sklearn包中常見聚類實(shí)現(xiàn)DBSCAN、KMeans的使用進(jìn)一步掌握數(shù)據(jù)分析與挖掘常用包NumPy、Pandas、sklearn、Matplotlib的使用方法知識目標(biāo)能力目標(biāo)素質(zhì)目標(biāo)證項(xiàng)目三維目標(biāo)會使用sklearn包中的DBSCAN、KMeans類實(shí)現(xiàn)聚類應(yīng)用

(重點(diǎn):阿里云大數(shù)據(jù)分析與應(yīng)用中級5.2.3)會調(diào)整聚類分析模型的參數(shù)實(shí)現(xiàn)分類效果的優(yōu)化(難點(diǎn):大數(shù)據(jù)工程技術(shù)人員國家職業(yè)技能標(biāo)準(zhǔn)中級6.3.2)會使用Matplotlib、seaborn等包實(shí)現(xiàn)聚類效果的可視化知識目標(biāo)能力目標(biāo)素質(zhì)目標(biāo)崗證011011110110101111010111100100001011010101001111101項(xiàng)目三維目標(biāo)物以類聚,人以群分,引導(dǎo)學(xué)生向最好的學(xué)習(xí),做更好的自己,縮小和優(yōu)秀同學(xué)間的差異不斷迭代,尋求最優(yōu)聚類質(zhì)心,引導(dǎo)學(xué)生在學(xué)習(xí)中不斷探索,培養(yǎng)精益求精的工匠精神分析聚類算法的優(yōu)缺點(diǎn),培養(yǎng)學(xué)生的辯證思維,更全面地認(rèn)識、解決問題能力目標(biāo)素質(zhì)目標(biāo)知識目標(biāo)011011110110101111010111100100001011010101001111101觀影用戶聚類分析流程數(shù)據(jù)讀取聚類分析模型可視化模型評估明確目標(biāo)以兩部電影的影評數(shù)據(jù)為藍(lán)本,對觀影用戶進(jìn)行聚類,通過用戶群的細(xì)分以實(shí)現(xiàn)更為合理的客戶關(guān)系維護(hù)與管理。數(shù)據(jù)讀取聚類分析模型可視化模型評估明確目標(biāo)從評分?jǐn)?shù)據(jù)文件(filmScore.csv)中讀取原始數(shù)據(jù)通過可視化理解原始數(shù)據(jù)觀影用戶聚類分析流程數(shù)據(jù)讀取聚類分析模型可視化模型評估明確目標(biāo)1.使用BDSCAN聚類確定質(zhì)心個數(shù)(簇的數(shù)量)2.使用K-Means對相似數(shù)據(jù)進(jìn)行聚類觀影用戶聚類分析流程數(shù)據(jù)讀取聚類分析模型可視化模型評估明確目標(biāo)使用可視化圖表展現(xiàn)所得模型觀影用戶聚類分析流程數(shù)據(jù)讀取聚類分析模型可視化模型評估明確目標(biāo)在K-Mean聚類分析方法中,對K的取值使用適當(dāng)?shù)闹笜?biāo)評估聚類模型優(yōu)劣觀影用戶聚類分析流程項(xiàng)目實(shí)施結(jié)果011011110110101111010111100100001011010101001111101得到分類模型還在等什么?馬上動手實(shí)施觀影用戶聚類分析項(xiàng)目吧~1.聚類分析的基本概念:clusteranalysis2.聚類分析的基本流程:小結(jié)DBSCAN聚類分析任務(wù)實(shí)施【數(shù)據(jù)挖掘應(yīng)用】課程觀影用戶聚類分析會使用sklearn包中的DBSCAN實(shí)現(xiàn)聚類分析應(yīng)用

重點(diǎn):阿里云大數(shù)據(jù)分析與應(yīng)用中級5.2.3會調(diào)整DBSCAN聚類分析模型的參數(shù)實(shí)現(xiàn)分類效果的優(yōu)化

難點(diǎn):大數(shù)據(jù)工程技術(shù)人員國家職業(yè)技能標(biāo)準(zhǔn)中級6.3.2會使用Matplotlib包實(shí)現(xiàn)聚類模型的可視化能力目標(biāo)證崗任務(wù)內(nèi)容任務(wù)工單引導(dǎo)問題任務(wù)評價標(biāo)準(zhǔn)任務(wù)解決方案代碼解析使用BDSCAN聚類確定質(zhì)心個數(shù)散點(diǎn)圖教學(xué)難點(diǎn)基于散點(diǎn)圖分析兩項(xiàng)數(shù)據(jù)的分布情況,判斷基于密度的聚類方法使用的可行性。接著,使用sklearn包中DBSCAN算法實(shí)現(xiàn)分析影評數(shù)據(jù)對用戶做聚類,并用圖表展現(xiàn)聚類結(jié)果。任務(wù)概述

任務(wù)描述:基于影評數(shù)據(jù)filmScore.csv,使用BDSCAN確定質(zhì)心個數(shù)。010010011001101010100100110110100101110101000100001011011101001010101101010011010010任務(wù)工單

任務(wù)要求任務(wù)概述最后結(jié)果數(shù)據(jù)源(1)聚類分析與分類分析有何區(qū)別?在數(shù)據(jù)挖掘流程上是否有不同?(2)常見的聚類分析方法有哪些?其適用情境有何不同?(3)基于密度的聚類算法原理是什么?DBSCAN是如何實(shí)現(xiàn)聚類的?(4)sklearn中是如何實(shí)現(xiàn)DBSCAN聚類分析方法的?寫出關(guān)鍵函數(shù)與實(shí)現(xiàn)步驟。(5)DBSCAN算法中關(guān)鍵參數(shù)有哪些?對結(jié)果有何影響?”

問題引導(dǎo):任務(wù)概述

任務(wù)評價:任務(wù)概述評價內(nèi)容評價要點(diǎn)分值分?jǐn)?shù)評定自我評價1.任務(wù)實(shí)施數(shù)據(jù)加載與分析3分?jǐn)?shù)據(jù)導(dǎo)入正確得1分,源數(shù)據(jù)分析與可視化展現(xiàn)完備得2分

模型訓(xùn)練2分模型構(gòu)建正確得1分,訓(xùn)練順利執(zhí)行得1分

聚類結(jié)果展現(xiàn)2分能準(zhǔn)確展現(xiàn)聚類結(jié)果得2分

2.參數(shù)調(diào)優(yōu)模型可視化并評估效果2分評估結(jié)果詳細(xì)得1分

3.任務(wù)總結(jié)依據(jù)任務(wù)實(shí)施情況總結(jié)結(jié)論1分總結(jié)內(nèi)容切中本任務(wù)的重點(diǎn)要點(diǎn)得1分

合計(jì)10分

任務(wù)解決方案

一、模型訓(xùn)練過程1、初始化分類器2、擬合fit3、預(yù)測predict4、準(zhǔn)確性評估#data中存儲了影評數(shù)據(jù)fromsklearn.cluster

importDBSCANy_pred=DBSCAN().fit_predict(data)

plt.scatter(data[0],data[1],c=y_pred)任務(wù)解決方案

二、模型可視化importmatplotlib.pyplotaspltfrompylabimportmpl#設(shè)置字體為SimHei,以顯示中文mpl.rcParams['font.sans-serif']=['SimHei']mpl.rcParams['axes.unicode_minus']=False#聚類結(jié)果的可視化plt.scatter(data['filmname1'],data['filmname2'],c=y_pred)plt.colorbar()plt.title(u'聚類結(jié)果(DBSCAN)')plt.show()任務(wù)解決方案

三、DBSCAN()參數(shù)調(diào)整#調(diào)用DBSCAN,確定質(zhì)心個數(shù)y_pred=DBSCAN(eps=1.3,min_samples=20).fit_predict(data)任務(wù)解決方案

四、模型可視化進(jìn)階importseaborn

assnsdbscan=DBSCAN()

dbscan.fit(data)

data['dbscan_label']=dbscan.labels_

g=sns.FacetGrid(data,hue='dbscan_label')

g.map(plt.scatter,0,1).add_legend()

plt.show()小結(jié)1.sklearn中如何實(shí)現(xiàn)DBSCAN算法?2.

如何調(diào)用sklearn中DBSCAN()實(shí)現(xiàn)觀影用戶聚類?3.

如何可視化聚類模型?稍安勿躁后續(xù)會有詳細(xì)說明與講解哦~隨機(jī)森林分類分析任務(wù)實(shí)施【數(shù)據(jù)挖掘應(yīng)用】課程鳶尾花分類分析熟練使用sklearn第三方包實(shí)現(xiàn)機(jī)器學(xué)習(xí)算法應(yīng)用;會應(yīng)用隨機(jī)森林算法實(shí)現(xiàn)分類分析;會使用RandomForestClassifier()對鳶尾花進(jìn)行分類分析與預(yù)測應(yīng)用。能力目標(biāo)主要內(nèi)容任務(wù)工單引導(dǎo)問題任務(wù)評價標(biāo)準(zhǔn)任務(wù)解決方案代碼解析使用隨機(jī)森林實(shí)現(xiàn)鳶尾花分類iris.csv教學(xué)難點(diǎn)任務(wù)工單基于前續(xù)任務(wù)得到的數(shù)據(jù),使用隨機(jī)森林算法實(shí)現(xiàn)鳶尾花類別判定,并區(qū)分兩個算法的異同。任務(wù)概述

基于花萼長度、花萼寬度、花瓣長度、花瓣寬度和鳶尾花類別數(shù)據(jù),使用隨機(jī)森林實(shí)現(xiàn)分類分析。010010011001101010100100110110100101110101000100001011011101001010101101010011010010

任務(wù)描述:數(shù)據(jù)源iris.csv顯示結(jié)果

任務(wù)要求任務(wù)概述隨機(jī)森林模型評估K近鄰算法(1)隨機(jī)森林與決策樹有何本質(zhì)上的異同?試結(jié)合該應(yīng)用說明其中的原理。(2)隨機(jī)森林在sklearn中是如何實(shí)現(xiàn)的?有哪些實(shí)現(xiàn)方法?(3)sklearn隨機(jī)森林的實(shí)現(xiàn)中主要參數(shù)有哪些?哪些參數(shù)會對本任務(wù)的識別結(jié)果產(chǎn)生重要影響?(4)如何比較兩種不同分類方法的優(yōu)劣?有哪些關(guān)鍵指標(biāo)?”

問題引導(dǎo):任務(wù)概述

任務(wù)評價:任務(wù)概述評價內(nèi)容評價要點(diǎn)分值分?jǐn)?shù)評定自我評價1.任務(wù)實(shí)施模型初始化3分導(dǎo)入正確得1分,模型選用正確得1分,模型構(gòu)建正確得1分

模型訓(xùn)練1分模型訓(xùn)練順利執(zhí)行得1分

模型預(yù)測1分歷史數(shù)據(jù)及預(yù)測結(jié)果展現(xiàn)得1分

2.效果評估模型可視化并評估效果3分能正確展現(xiàn)模型評估結(jié)果得2分,模型準(zhǔn)確率92%以上得1分

3.任務(wù)總結(jié)依據(jù)任務(wù)實(shí)施情況總結(jié)結(jié)論2分總結(jié)內(nèi)容切中本任務(wù)的重點(diǎn)要點(diǎn)得1分,能有效比較方法異同得1分

合計(jì)10分

任務(wù)解決方案核心部分代碼:fromsklearn.ensembleimportRandomForestClassifier#隨機(jī)森林分類預(yù)測clf=RandomForestClassifier(n_jobs=3)clf.fit(x_train,y_train[['Cluster']].values.ravel())y_pred=clf.predict(x_test)print("預(yù)測精確率:{:.2f}".format(clf.score(x_test,y_test[['Cluster']])))print(pd.crosstab(y_test['Cluster'],y_pred,rownames=['ActualValues'],colnames=['Prediction']))小結(jié)1.如何使用sklearn第三方包實(shí)現(xiàn)多分類分析?2.

如何調(diào)用RandomForestClassifier()實(shí)現(xiàn)鳶尾花分類分析?3.

如何對模型分類結(jié)果進(jìn)行評估?不急后續(xù)會有詳細(xì)說明與講解哦~K-Means聚類分析任務(wù)實(shí)施【數(shù)據(jù)挖掘應(yīng)用】課程觀影用戶聚類分析會使用sklearn包中的K-Means實(shí)現(xiàn)聚類分析應(yīng)用

重點(diǎn):阿里云大數(shù)據(jù)分析與應(yīng)用中級5.2.3會調(diào)整K-Menas聚類分析模型的參數(shù)實(shí)現(xiàn)分類效果的優(yōu)化

難點(diǎn):大數(shù)據(jù)工程技術(shù)人員國家職業(yè)技能標(biāo)準(zhǔn)中級6.3.2會使用評估指標(biāo)對K-Menas聚類分析結(jié)果進(jìn)行評價能力目標(biāo)證崗主要內(nèi)容任務(wù)工單引導(dǎo)問題任務(wù)評價標(biāo)準(zhǔn)任務(wù)解決方案代碼解析使用K-Means對觀影用戶進(jìn)行聚類質(zhì)心個數(shù)教學(xué)難點(diǎn)基于前續(xù)任務(wù)得到的數(shù)據(jù),即質(zhì)心個數(shù),使用K-Means算法實(shí)現(xiàn)觀影用戶的聚類,并區(qū)分兩個算法的異同。任務(wù)概述

任務(wù)描述:基于得到的K值,使用K-Means算法實(shí)現(xiàn)聚類分析。010010011001101010100100110110100101110101000100001011011101001010101101010011010010任務(wù)工單

任務(wù)要求任務(wù)概述最后結(jié)果前續(xù)任務(wù)的結(jié)果:k=3模型評估:不同K值(1)K-Means與DBSCAN聚類方法有何本質(zhì)上的異同?試結(jié)合該應(yīng)用說明其中的原理。(2)K-Means聚類分析方法在sklearn中是如何實(shí)現(xiàn)的?有哪些重要參數(shù)會對本任務(wù)的分類結(jié)果產(chǎn)生重要影響?(3)如何比較兩種不同聚類方法的優(yōu)劣?有哪些關(guān)鍵指標(biāo)?”

問題引導(dǎo):任務(wù)概述

任務(wù)評價:任務(wù)概述評價內(nèi)容評價要點(diǎn)分值分?jǐn)?shù)評定自我評價1.任務(wù)實(shí)施數(shù)據(jù)讀取與展現(xiàn)1分?jǐn)?shù)據(jù)讀取與可視化顯示正確得1分

模型初始化2分第三方包導(dǎo)入正確得1分,模型構(gòu)建正確得1分

模型訓(xùn)練與優(yōu)化2分模型訓(xùn)練能順利執(zhí)行得1分,會參數(shù)調(diào)優(yōu)得1分

2.效果評估聚類預(yù)測與可視化3分能正確展現(xiàn)聚類結(jié)果得3分

3.任務(wù)總結(jié)依據(jù)任務(wù)實(shí)施情況總結(jié)結(jié)論2分總結(jié)內(nèi)容切中本任務(wù)的重點(diǎn)要點(diǎn)得1分,能有效比較方法異同得1分

合計(jì)10分

任務(wù)解決方案

一、模型訓(xùn)練過程1、初始化分類器2、擬合fit3、預(yù)測predict4、準(zhǔn)確性評估from

sklearn.cluster

import

KMeans#數(shù)據(jù)存儲在data變量中

num_clusters=3

kmeans=KMeans(

n_clusters=num_clusters,)

kmeans.fit(data)任務(wù)解決方案

二、模型可視化#分類結(jié)果step_size=0.01x_values,y_values=np.meshgrid(np.arange(x_min,x_max,step_size),np.arange(y_min,y_max,step_size))predicted_labels

=kmeans.predict(np.c_[x_values.ravel(),y_values.ravel()])

predicted_labels=predicted_labels.reshape(x_values.shape)#可視化plt.figure()

plt.clf()

plt.imshow(predicted_labels,interpolation='nearest’,extent=(x_values.min(),x_values.max(),y_values.min(),y_values.max()),cmap=plt.cm.Spectral,aspect='auto',origin='lower')任務(wù)解決方案

二、模型可視化#顯示質(zhì)心

centroids=kmeans.cluster_centers_plt.scatter(centroids[:,0],centroids[:,1],marker='o',s=200,linewidths=3,color='k',zorder=10,facecolors='black’,edgecolors='white',alpha=0.9)任務(wù)解決方案

三、KMeans()參數(shù)調(diào)整num_clusters=2

kmeans=KMeans(init='K-Means++',n_clusters=num_clusters,n_init=10)

kmeans.fit(data)

n_init=1max_iter=10任務(wù)解決方案

四、K值的評估fromsklearnimportmetrics#計(jì)算Calinski-Harabasz分?jǐn)?shù)值,Calinski-Harabasz分?jǐn)?shù)值越大,則聚類效果越好metrics.calinski_harabaz_score(X,y_pred)70.238679616405246.9008430347095小結(jié)1.sklearn中如何實(shí)現(xiàn)K-Means算法?2.

如何調(diào)用sklearn中kmeans()實(shí)現(xiàn)觀影用戶聚類?3.

如何評估K-Means聚類模型?稍安勿躁后續(xù)會有詳細(xì)說明與講解哦~神經(jīng)網(wǎng)絡(luò)分類分析任務(wù)實(shí)施【數(shù)據(jù)挖掘應(yīng)用】課程鳶尾花分類分析會設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)分類分析;會使用Tensorflow實(shí)現(xiàn)設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)分類器;會運(yùn)用神經(jīng)網(wǎng)絡(luò)對鳶尾花進(jìn)行分類分析;會對神經(jīng)網(wǎng)絡(luò)的參數(shù)進(jìn)行調(diào)整和優(yōu)化。能力目標(biāo)主要內(nèi)容任務(wù)工單引導(dǎo)問題任務(wù)評價標(biāo)準(zhǔn)任務(wù)解決方案代碼解析使用Tensorflow設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)鳶尾花分類iris.csv教學(xué)難點(diǎn)任務(wù)工單神經(jīng)網(wǎng)絡(luò)分類器可以通過學(xué)習(xí)數(shù)據(jù)中的模式,對不同種類的數(shù)據(jù)進(jìn)行分類。現(xiàn)基于前續(xù)任務(wù)得到數(shù)據(jù)及分類結(jié)果,進(jìn)一步設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)并訓(xùn)練模型實(shí)現(xiàn)鳶尾花類別判定。最后,區(qū)分這三個算法的異同。任務(wù)概述

基于花萼長度、花萼寬度、花瓣長度、花瓣寬度和鳶尾花類別數(shù)據(jù),設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)分類器實(shí)現(xiàn)分類分析。010010011001101010100100110110100101110101000100001011011101001010101101010011010010

任務(wù)描述:數(shù)據(jù)源iris.csv顯示結(jié)果

任務(wù)要求任務(wù)概述神經(jīng)網(wǎng)絡(luò)模型評估K近鄰算法隨機(jī)森林(1)神經(jīng)網(wǎng)絡(luò)如何用來做分類分析的?結(jié)合應(yīng)用,說明其中的原理。(2)神經(jīng)網(wǎng)絡(luò)在TensorFlow中是如何靈活實(shí)現(xiàn)的?(3)在設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)時,結(jié)構(gòu)中哪些參數(shù)比較關(guān)鍵?(4)激活函數(shù)有何作用?其選取有何規(guī)律?學(xué)習(xí)率又該取值?(5)比較神經(jīng)網(wǎng)絡(luò)分類算法與前述兩種不同分類方法的優(yōu)劣,其優(yōu)勢體現(xiàn)在哪里?”

問題引導(dǎo):任務(wù)概述

任務(wù)評價:任務(wù)概述評價內(nèi)容評價要點(diǎn)分值分?jǐn)?shù)評定自我評價1.任務(wù)實(shí)施模型初始化4分導(dǎo)入正確得1分,模型設(shè)計(jì)正確得1分,模型構(gòu)建正確得1分,模型參數(shù)會修改得1分

模型訓(xùn)練2分模型訓(xùn)練順利執(zhí)行得1分,會正確調(diào)整參數(shù)得1分

2.效果評估模型評估報告展現(xiàn)2分能準(zhǔn)確解釋各個指標(biāo)的含義得1分,模型準(zhǔn)確率92%以上得1分

3.任務(wù)總結(jié)依據(jù)任務(wù)實(shí)施情況總結(jié)結(jié)論2分總結(jié)內(nèi)容切中本任務(wù)的重點(diǎn)要點(diǎn)得1分,能有效比較三種方法的異同得1分

合計(jì)10分

任務(wù)解決方案核心部分代碼:輸入與輸出importtensorflowastf#添加占位符,四個輸入x_data=tf.placeholder(shape=[None,4],dtype=tf.float32)#添加占位符,一個輸出y_target=tf.placeholder(shape=[None,1],dtype=tf.float32)4個輸入1個輸出任務(wù)解決方案核心部分代碼:#定義如何添加一個隱藏層的函數(shù)defadd_layer(input_layer,input_num,output_num):weights=tf.Variable(tf.random_normal(shape=[input_num,output_num]))biase=tf.Variable(tf.random_normal(shape=[output_num]))hidden_output=tf.nn.relu(tf.add(tf.matmul(input_layer,weights),biase))returnhidden_output任務(wù)解決方案核心部分代碼:神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)#定義三層隱藏層對應(yīng)的節(jié)點(diǎn)個數(shù)hidden_layer_nodes=[10,8,10]#

輸入層hidden_output=add_layer(x_data,4,hidden_layer_nodes[0])#循環(huán)添加三層隱藏層foriinrange(len(hidden_layer_nodes[:-1])):hidden_output=add_layer(hidden_output,hidden_layer_nodes[i],hidden_layer_nodes[i+1])#

輸出層final_output=add_layer(hidden_output,hidden_layer_nodes[-1],1)任務(wù)解決方案核心部分代碼:#定義損失函數(shù),使得誤差最小loss=tf.reduce_mean(tf.square(y_target-final_output))#設(shè)置學(xué)習(xí)率來調(diào)整每一步更新的大小my_opt=tf.train.GradientDescentOptimizer(learning_rate=0.00004)#優(yōu)化目標(biāo):最小化損失函數(shù)train_step=my_opt.minimize(loss)init=tf.global_variables_initializer()sess=tf.Session()sess.run(init)任務(wù)解決方案核心部分代碼:訓(xùn)練loss_vec=[] #訓(xùn)練損失test_loss=[] #測試損失#訓(xùn)練次數(shù)foriinrange(10000):

#訓(xùn)練sess.run(train_step,feed_dict={x_data:x_train,y_target:y_train})

#訓(xùn)練數(shù)據(jù)評估模型temp_loss=sess.run(loss,feed_dict={x_data:x_train,y_target:y_train})loss_vec.append(np.sqrt(temp_loss))

#測試數(shù)據(jù)評估模型test_temp_loss=sess.run(loss,feed_dict={x_data:x_test,y_target:y_test})test_loss.append(np.sqrt(test_temp_loss))if(i+1)%1000==0:print('Generation:'+str(i+1)+'.Loss='+str(temp_loss))任務(wù)解決方案核心部分代碼:預(yù)測應(yīng)用test_preds=[np.round(item,0)

foritemin

sess.run(final_output,feed_dict={x_data:x_test})]train_preds=[np.round(item,0)

foritemin

sess.run(final_output,feed_dict={x_data:x_train})]y_test=[iforiiny_test['Cluster']]y_train=[iforiiny_train['Cluster']]任務(wù)解決方案核心部分代碼:模型評估test_acc=np.mean([i==jfori,jinzip(test_preds,y_test)])*100train_acc=np.mean([i==jfori,jinzip(train_preds,y_train)])*100print('訓(xùn)練數(shù)據(jù)預(yù)測精確率:{}'.format(train_acc))print('測試數(shù)據(jù)預(yù)測精確率:{}'.format(test_acc))小結(jié)1.

如何設(shè)計(jì)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)鳶尾花分類分析?2.如何使用tensorflow實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)?3.

如何對神經(jīng)網(wǎng)絡(luò)模型進(jìn)行評估?不急后續(xù)會有詳細(xì)說明與講解哦~多層感知機(jī)分類分析任務(wù)實(shí)施【數(shù)據(jù)挖掘應(yīng)用】課程鳶尾花分類分析熟練使用sklearn第三方包實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)應(yīng)用;會應(yīng)用多層感知機(jī)實(shí)現(xiàn)分類分析;會使用MLPClassifier()對鳶尾花進(jìn)行分類分析與預(yù)測應(yīng)用;會調(diào)整MLPClassifier()參數(shù)實(shí)現(xiàn)模型的優(yōu)化。能力目標(biāo)主要內(nèi)容任務(wù)工單引導(dǎo)問題任務(wù)評價標(biāo)準(zhǔn)任務(wù)解決方案代碼解析使用多層感知機(jī)實(shí)現(xiàn)鳶尾花分類iris.csv教學(xué)難點(diǎn)任務(wù)工單基于前續(xù)任務(wù)得到的數(shù)據(jù),及分類結(jié)果,使用多層感知器實(shí)現(xiàn)鳶尾花種類判定,并區(qū)分不同算法的異同。任務(wù)概述

基于花萼長度、花萼寬度、花瓣長度、花瓣寬度和鳶尾花類別數(shù)據(jù),使用多層感知機(jī)實(shí)現(xiàn)分類分析。010010011001101010100100110110100101110101000100001011011101001010101101010011010010

任務(wù)描述:數(shù)據(jù)源iris.csv顯示結(jié)果

任務(wù)要求任務(wù)概述多層感知機(jī)模型評估自定義神經(jīng)網(wǎng)絡(luò)K近鄰算法隨機(jī)森林(1)多層感知機(jī)與神經(jīng)網(wǎng)絡(luò)存在什么樣的關(guān)聯(lián)?說明多層感知機(jī)的區(qū)別與聯(lián)系。(2)多層感知機(jī)在sklearn中是如何實(shí)現(xiàn)分類的?其關(guān)鍵參數(shù)有哪些?(3)多層感知機(jī)參數(shù)應(yīng)該如何配置?有無規(guī)律可循?(4)比較多層感知機(jī)分類算法與前述不同分類算法的優(yōu)劣,其優(yōu)勢體現(xiàn)在哪里?”

問題引導(dǎo):任務(wù)概述

任務(wù)評價:任務(wù)概述評價內(nèi)容評價要點(diǎn)分值分?jǐn)?shù)評定自我評價1.任務(wù)實(shí)施模型初始化4分導(dǎo)入正確得1分,模型選用正確得1分,模型構(gòu)建正確得1分,模型參數(shù)會修改得1分

模型訓(xùn)練2分模型型訓(xùn)練順利執(zhí)行得1分,會正確調(diào)整參數(shù)得1分

模型評估報告展現(xiàn)2分能準(zhǔn)確解釋各個指標(biāo)的含義得1分,模型準(zhǔn)確率92%以上得1分

2.效果評估依據(jù)任務(wù)實(shí)施情況總結(jié)結(jié)論2分總結(jié)內(nèi)容切中本任務(wù)的重點(diǎn)要點(diǎn)得1分,能有效比較不同方法的異同得1分

合計(jì)10分

任務(wù)解決方案核心部分代碼:fromsklearn.neural_networkimport

MLPClassifier#神經(jīng)網(wǎng)絡(luò)分類預(yù)測mlp=MLPClassifier(solver='sgd',activation='relu',alpha=1e-4,hidden_layer_sizes=(10,10),random_state=1,max_iter=500,verbose=10,learning_rate_init=.005)#訓(xùn)練模型mlp.fit(x_train,y_train[['Cluster']].values.ravel())#評估模型y_pred=mlp.predict(x_test)print("預(yù)測精確率:{:.2f}".format(mlp.score(x_test,y_test[['Cluster']])))print(pd.crosstab(y_test['Cluster'],y_pred,rownames=['ActualValues'],colnames=['Prediction']))任務(wù)解決方案運(yùn)行結(jié)果示例:小結(jié)1.如何使用sklearn第三方包實(shí)現(xiàn)多分類分析?2.

如何調(diào)用MLPClassifier()實(shí)現(xiàn)鳶尾花分類分析?3.

如何對模型分類結(jié)果進(jìn)行評估?不急后續(xù)會有詳細(xì)說明與講解哦~項(xiàng)目背景|項(xiàng)目概述|主要任務(wù)|任務(wù)實(shí)施步驟拓展實(shí)訓(xùn)用戶聚類分析【數(shù)據(jù)挖掘應(yīng)用】01101111011010111101010000101101010100111101背景先導(dǎo)項(xiàng)目概述項(xiàng)目主要任務(wù)任務(wù)實(shí)施步驟01Background02BriefIntroduction03Tasks04ImplementationSteps主要內(nèi)容項(xiàng)目總體要求

用戶聚類分析

從hws.csv文件中讀取數(shù)據(jù),并根據(jù)身高、體重、性別對用戶進(jìn)行聚類,并選擇適當(dāng)?shù)膱D表對聚類分析結(jié)果進(jìn)行可視化。最終,為用戶推薦合適的產(chǎn)品、提供健身建議。項(xiàng)目實(shí)施結(jié)果得到聚類模型熟練使用sklearn實(shí)現(xiàn)聚類分析應(yīng)用

重點(diǎn):阿里云大數(shù)據(jù)分析與應(yīng)用中級5.2.3會調(diào)整聚類分析模型的參數(shù)實(shí)現(xiàn)聚類效果的優(yōu)化

難點(diǎn):大數(shù)據(jù)工程技術(shù)人員國家職業(yè)技能標(biāo)準(zhǔn)中級6.3.2會使用Matplotlib等可視化包實(shí)現(xiàn)聚類模型的可視化證崗項(xiàng)目能力目標(biāo)

一、使用DBSCAN聚類算法依據(jù)身高、體重、性別數(shù)據(jù)進(jìn)行聚類(1)從hws.csv中讀取數(shù)據(jù)

(2)數(shù)據(jù)預(yù)處理:標(biāo)簽映射(3)原始數(shù)據(jù)可視化分析(4)使用DBSCAN獲取簇的數(shù)量(5)DBSCAN模型可視化項(xiàng)目實(shí)施步驟

二、使用K-Means聚類算法依據(jù)身高、體重、性別數(shù)據(jù)進(jìn)行聚類(1)基于DBSCAN獲得的簇類數(shù)量,設(shè)置KMeans()中的相應(yīng)參數(shù)(2)使用K-Means聚類算法對用戶進(jìn)行聚類(3)調(diào)整KMeans()參數(shù)(4)選擇指標(biāo)評估K-Means模型的優(yōu)劣(5)最優(yōu)模型的可視化項(xiàng)目實(shí)施步驟任務(wù)解決方案:DBSCAN示例#加載數(shù)據(jù)data=pd.read_csv('hws.csv')#對性別進(jìn)行數(shù)值化處理le=preprocessing.LabelEncoder()da

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論