基于BP神經(jīng)網(wǎng)絡(luò)的非線性擬合系統(tǒng)設(shè)計(jì)_第1頁
基于BP神經(jīng)網(wǎng)絡(luò)的非線性擬合系統(tǒng)設(shè)計(jì)_第2頁
基于BP神經(jīng)網(wǎng)絡(luò)的非線性擬合系統(tǒng)設(shè)計(jì)_第3頁
基于BP神經(jīng)網(wǎng)絡(luò)的非線性擬合系統(tǒng)設(shè)計(jì)_第4頁
基于BP神經(jīng)網(wǎng)絡(luò)的非線性擬合系統(tǒng)設(shè)計(jì)_第5頁
已閱讀5頁,還剩25頁未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報或認(rèn)領(lǐng)

文檔簡介

PAGEI基于BP神經(jīng)網(wǎng)絡(luò)的非線性函數(shù)擬合系統(tǒng)設(shè)計(jì)摘要隨著工業(yè)的快速進(jìn)步與發(fā)展,數(shù)據(jù)擬合在工業(yè)應(yīng)用中的作用越來越大。在實(shí)際的工程問題中,存在著許多復(fù)雜的工業(yè)模型,這些模型無法用數(shù)學(xué)公式表達(dá)。為了更精確地控制被控對象,數(shù)學(xué)模型的準(zhǔn)確性是首要因素,因此非線性擬合模型在控制系統(tǒng)辨識中起著舉足輕重的地位。針對上述問題,設(shè)計(jì)一種基于BP神經(jīng)網(wǎng)絡(luò)的非線性函數(shù)擬合系統(tǒng)。首先,以MATLAB為仿真平臺,設(shè)計(jì)非線性公式,用MATLAB計(jì)算生成非線性數(shù)據(jù);然后,采用BP神經(jīng)網(wǎng)絡(luò)為擬合模型,通過實(shí)驗(yàn)分析確定隱藏層個數(shù)、激活函數(shù)類型和學(xué)習(xí)率數(shù)值等相關(guān)模型參數(shù);最后,通過選擇均方誤差MSE、平均絕對誤差MAE和均方根誤差RMSE為評價指標(biāo),對數(shù)據(jù)擬合模型進(jìn)行訓(xùn)練和測試。實(shí)驗(yàn)結(jié)果表明,設(shè)計(jì)模型的平均絕對誤差MAE為0.0090368,均方誤差MSE為0.0063983,均方根誤差RMSE為0.07999,滿足設(shè)計(jì)要求,驗(yàn)證了算法的有效性。關(guān)鍵詞:非線性擬合;激活函數(shù);BP神經(jīng)網(wǎng)絡(luò);MATLAB仿真PAGE25DesignofnonlinearfunctionfittingsystembasedonBPneuralnetworkAbstractWiththerapidprogressanddevelopmentofindustry,datafittingplaysanincreasinglyimportantroleinindustrialapplication.Inpracticalengineeringproblems,thereexistmanyindustrialmodelswhichcannotbeexpressedbymathematicalmodels.Inordertocontrolthecontrolledobjectmoreaccurately,theaccuracyofmathematicalmodelisthefirstfactor,sothenonlinearfittingmodelplaysanimportantroleintheidentificationofcontrolsystem.Tosolvetheseproblems,thispaperdesignsanonlinearfunctionfittingsystembasedonBPneuralnetwork.Firstly,usingMATLABasthesimulationplatform,thenonlinearformulaisdesigned,andthenonlineardataiscalculatedandgeneratedbyMATLAB.Then,BPneuralnetworkwasusedasthefittingmodel,andthemodelparameterssuchasthenumberofhiddenlayers,thetypeofactivationfunctionandthevalueoflearningrateweredeterminedthroughexperimentalanalysis.Finally,MSE,MAEandRMSEwereselectedasevaluationindexestotrainandtestthedatafittingmodel.TheexperimentalresultsshowthattheMAE,MSEandRMSEofthedesignedmodelare0.0090638,0.0063983and0.07999,whichmeetthedesignrequirementsandverifytheeffectivenessofthealgorithm.Keywords:nonlinearfitting;activationfunction;BPneuralnetwork;MATLABsimulation目錄緒論 11非線性函數(shù)擬合研究相關(guān)概述 21.1課題研究的背景及意義 21.2國內(nèi)外研究現(xiàn)狀 21.3論文章節(jié)安排 42非線性函數(shù)的設(shè)計(jì) 52.1非線性函數(shù)概述 52.2數(shù)據(jù)集的生成 52.2.1MATLAB數(shù)值計(jì)算 52.3數(shù)據(jù)可視化 52.4數(shù)據(jù)集的劃分與保存 63基于BP神經(jīng)網(wǎng)絡(luò)的非線性擬合模型設(shè)計(jì) 73.1人工神經(jīng)網(wǎng)絡(luò)概述 73.2BP神經(jīng)網(wǎng)絡(luò)基本原理 73.3激活函數(shù) 93.3.1sigmoid激活函數(shù) 93.3.2Tanh激活函數(shù) 93.3.3Relu激活函數(shù) 103.4損失函數(shù) 103.4.1MSE均方誤差 113.4.2RMSE均方根誤差 113.4.3MAE平均絕對誤差 113.5梯度下降算法 124實(shí)驗(yàn)分析與結(jié)果 134.1實(shí)驗(yàn)平臺的搭建 134.2數(shù)據(jù)歸一化 144.2.1最大-最小歸一化 144.2.2Z-Score歸一化 144.3BP神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)設(shè)計(jì)原則 144.3.1網(wǎng)絡(luò)層數(shù)的確定 144.3.2輸入數(shù)據(jù)和輸出數(shù)據(jù)的確定 144.3.3各層節(jié)點(diǎn)的設(shè)計(jì)原則 144.4神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)和訓(xùn)練 154.4.1神經(jīng)網(wǎng)絡(luò)模型隱含層節(jié)點(diǎn)數(shù)的確定 164.4.2神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)率的確定 164.4.3神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練及仿真結(jié)果 17結(jié)論 20參考文獻(xiàn) 21致謝 23附錄 24緒論BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)作為在當(dāng)代發(fā)展過程當(dāng)中,應(yīng)用率非常廣泛的一種人工神經(jīng)網(wǎng)絡(luò),在函數(shù)逼近以及模式識別和數(shù)據(jù)壓縮等方面具有非常廣泛的應(yīng)用,并且整體也是具有大量簡單處理單元來進(jìn)行組成的,是一對非線性函數(shù)進(jìn)行權(quán)值訓(xùn)練以及多層映射,網(wǎng)絡(luò)結(jié)構(gòu)簡單,整體的工作狀態(tài)比較穩(wěn)定,并且在非線性函數(shù)進(jìn)行選值預(yù)算的過程當(dāng)中,能夠呈現(xiàn)多層映射的網(wǎng)絡(luò)。在進(jìn)行學(xué)習(xí)的過程當(dāng)中,能夠儲存大量的輸入輸出樣本中所蘊(yùn)含的映射關(guān)系,只要能夠提供一定的樣本模式,就能夠?qū)P網(wǎng)絡(luò)開展一定的訓(xùn)練模式,但是在之前一定要先了解對應(yīng)的數(shù)學(xué)方程,然后再用BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)來解決函數(shù)擬合方面的問題。

1非線性函數(shù)擬合研究相關(guān)概述1.1課題研究的背景及意義隨著工業(yè)的日益繁雜多元,在部分項(xiàng)目實(shí)施過程中,可能存在著要對大批采集到的數(shù)據(jù)做函數(shù)擬合的需求。然而,這些數(shù)據(jù)是非線性的,根據(jù)目前的傳統(tǒng)擬合方法,很難達(dá)到項(xiàng)目所要求的擬合精度。在實(shí)際的工程問題中,存在著許多無法用數(shù)學(xué)模型表達(dá)的工業(yè)模型。為了更精準(zhǔn)的控制被控對象,數(shù)學(xué)模型的準(zhǔn)確性是第一要素,因此非線性擬合模型在控制系統(tǒng)辨識中起著舉足輕重的地位。隨著人工智能的飛速發(fā)展,人們對模型的智能化要求越來越高。過去,大多數(shù)智能系統(tǒng)普遍缺乏自動糾錯等自學(xué)習(xí)功能,并不能通過經(jīng)驗(yàn)學(xué)習(xí)來提高學(xué)習(xí)效率,也不能自動獲得所需的知識。計(jì)算機(jī)不能通過經(jīng)驗(yàn)來提高自己的功能。計(jì)算機(jī)只能通過存儲規(guī)則來豐富自己,并不能通過向外界學(xué)習(xí)來提高自己。近年來機(jī)器學(xué)習(xí)的發(fā)展趨勢可以說是全盛時期。在算法的指導(dǎo)下,通過訓(xùn)練大量的數(shù)據(jù)來分析隱藏的結(jié)構(gòu)或規(guī)則,并不斷提高算法的性能來判斷或預(yù)測事件的發(fā)生。其目標(biāo)是讓計(jì)算機(jī)學(xué)會如何像人類一樣思考和創(chuàng)造,不斷學(xué)習(xí)新的知識和技能。在這個背景下,專家們開始了進(jìn)一步的研究,提出了機(jī)器學(xué)習(xí)這個概念。BP神經(jīng)網(wǎng)絡(luò)就是一種機(jī)器學(xué)習(xí)方法,該方法可以通過訓(xùn)練和學(xué)習(xí)自主獲取新的知識,在復(fù)雜模型的建立和模型擬合的問題上開辟了新的道路。1.2國內(nèi)外研究現(xiàn)狀BP神經(jīng)網(wǎng)絡(luò)是一系列簡單的機(jī)器學(xué)習(xí)方法,它們高度互連并在大腦結(jié)構(gòu)上牢固構(gòu)建。在過去的幾十年中,神經(jīng)網(wǎng)絡(luò)取得了顯著進(jìn)展,全球越來越多的研究人員開發(fā)了許多模型架構(gòu)并提出了用于預(yù)測、分類和擬合的多個模型算法。神經(jīng)網(wǎng)絡(luò)是一組模擬人腦工作方式的算法,可以學(xué)習(xí)一組數(shù)據(jù)中的潛在關(guān)系。在這種情況下,神經(jīng)網(wǎng)絡(luò)更像是模仿生物或人工神經(jīng)元的結(jié)構(gòu)。隨著人工智能的到來,越來越多的科學(xué)家開始研究神經(jīng)網(wǎng)絡(luò)算法。2019年,Yun[1]等人提出了一種基于混合粒子群算法的BP神經(jīng)網(wǎng)絡(luò)算法,用于民族食品中大腸菌群數(shù)量的預(yù)測。該方法首先采用主成分分析法提取影響大腸菌群數(shù)量的關(guān)鍵因素,并將該模型降維作為BP神經(jīng)網(wǎng)絡(luò)的輸入,其次,利用粒子群優(yōu)化算法(PSO)和BP神經(jīng)網(wǎng)絡(luò)優(yōu)化初始權(quán)值和閾值,得到最優(yōu)參數(shù),并基于PSO-BP神經(jīng)網(wǎng)絡(luò)模型構(gòu)建傣族特色小吃薩餅大腸菌群數(shù)量預(yù)測模型,最后,對模型的預(yù)測值進(jìn)行了驗(yàn)證。結(jié)果表明:MSE為0.0097,MAPE為0.3198,MAE為0.0079。PSO-BP模型具有較好的準(zhǔn)確性和魯棒性。2020年,Li[2]等人為聲表面波微壓力傳感器的數(shù)據(jù)分析提供了一種BP神經(jīng)網(wǎng)絡(luò)方法。該方法研究了聲表面波(SAW)微壓力傳感器輸出頻差數(shù)據(jù)與相應(yīng)加載壓力的關(guān)系。然后以頻差為輸入,壓力為輸出,構(gòu)造BP(BackPropagation)神經(jīng)網(wǎng)絡(luò),利用實(shí)驗(yàn)數(shù)據(jù)進(jìn)行訓(xùn)練,預(yù)測傳感器的輸出壓力。實(shí)驗(yàn)結(jié)果表明,通過對同一組樣本數(shù)據(jù)在預(yù)測結(jié)果的整體和局部精度上的多次比較,驗(yàn)證了BP神經(jīng)網(wǎng)絡(luò)預(yù)測的輸出誤差遠(yuǎn)小于最小二乘法。2021年,Huang[3]等人提出了一種基于LSTM-BP的無創(chuàng)負(fù)荷識別算法。該方法首先對數(shù)據(jù)進(jìn)行歸一化處理,然后利用主成分分析對高維數(shù)據(jù)進(jìn)行降維處理。最后,通過建立LSTM-BP神經(jīng)網(wǎng)絡(luò)進(jìn)行載荷識別。實(shí)驗(yàn)結(jié)果表明,與現(xiàn)有的基于事件檢測的負(fù)荷識別算法相比,該方法具有更高的穩(wěn)定性和準(zhǔn)確性。近年來,隨著工業(yè)的快速發(fā)展,許多專家學(xué)者研究非線性函數(shù)。2013年,Ying[4]在航空煤油中對丁腈橡膠復(fù)合材料片材進(jìn)行了加速熱老化試驗(yàn)。XPS和ATR-FTIR觀察到,熱老化引起了硅的一些明顯變化。通過對各種丁腈橡膠樣品的ATR-FTIR光譜分析,提出了丁腈橡膠復(fù)合材料在航空煤油中可能的老化機(jī)理。通過ATR-FTIR光譜和Arrhenius圖的非線性曲線擬合,得到了丁腈橡膠復(fù)合材料薄板在航空煤油中的壽命預(yù)測方程。NBR復(fù)合材料片材在航空煤油中的室溫(25℃)使用壽命為6467天。Michael[5]等人提出一種新的方法來擬合實(shí)驗(yàn)停止功率數(shù)據(jù)到一個簡單的經(jīng)驗(yàn)公式。該方法用徑向基函數(shù)(RBF)神經(jīng)網(wǎng)絡(luò)外加一個線性神經(jīng)元來逼近未知的復(fù)雜非線性停止冪函數(shù),擬合系數(shù)由全局學(xué)習(xí)算法確定。在基準(zhǔn)數(shù)據(jù)集(鈦熱)和含隱式噪聲(元素碳材料中Li、B、C、O、Al、Si、Ar、Ti和Fe的MeV射彈)的高能物理測量數(shù)據(jù)上進(jìn)行了實(shí)驗(yàn)。結(jié)果表明,提出的方法使我們能夠獲得一個快速和準(zhǔn)確的插值,很好地適合于沒有停止功率數(shù)據(jù)存在的情況。它可以作為一個獨(dú)立的方法或?qū)崿F(xiàn)作為一個子系統(tǒng),可以有效地嵌入到一個智能系統(tǒng)的離子束分析技術(shù)。2021年,陳靜[6]等人采用兩種不同的非線性曲線擬合方法,對乳飲料中蔗糖檢出限的不確定度進(jìn)行了評定。方法根據(jù)《測量不確定度的評定與表達(dá)》,采用變量代換與功率線性化方法和高效液相色譜-蒸發(fā)光散射檢測法測定乳飲料中蔗糖含量,建立數(shù)學(xué)模型,并對每個不確定因素進(jìn)行了評估。結(jié)果表明,蔗糖平均含量為0.21g/100g。變量代換線性化方法的擴(kuò)展不確定度為27.8%,冪次線性化方法的擴(kuò)展不確定度在95%置信區(qū)間內(nèi)為3.3%。冪次線性化方法更適用于不確定度的評定。2022年,Mustafa[7]采用基于優(yōu)化的曲線擬合方法對文獻(xiàn)中不同數(shù)學(xué)模型的功能參數(shù)計(jì)算進(jìn)行了綜合評價。閃電電流波形采用不同震級的人工閃電電流波形,由德累斯頓高壓實(shí)驗(yàn)室使用電流沖擊發(fā)生器進(jìn)行實(shí)驗(yàn)測量。利用這些波形,利用遺傳算法(GA)、粒子群優(yōu)化算法(PSO)和灰狼-布谷鳥搜索(GWOsinglebondCS)優(yōu)化算法對脈沖、雙指數(shù)和Heidler函數(shù)參數(shù)進(jìn)行了計(jì)算。仿真結(jié)果表明,基于優(yōu)化的曲線擬合方法是利用脈沖函數(shù)、雙指數(shù)函數(shù)和Heidler函數(shù)準(zhǔn)確提取閃電脈沖形態(tài)的峰值、電流導(dǎo)數(shù)、電荷、比能和前后次數(shù)的簡單、可靠、高效的工具。用gwo4e-2單bondCS計(jì)算的脈沖函數(shù)參數(shù)在標(biāo)準(zhǔn)差-5.134e-2、相對誤差-2.11e-10、平均絕對誤差-6.14e-12和均方根誤差-2.47e-6條件下人工閃電電流波形具有較高的精度。隨著計(jì)算機(jī)科學(xué)技術(shù)的更新進(jìn)步,人工智能技術(shù)已經(jīng)在人們的生活中的分量越來越重,因?yàn)樗鼜?qiáng)大的學(xué)習(xí)能力,在眾多領(lǐng)域都占據(jù)著十分重要的位置。本文提出了基于BP神經(jīng)網(wǎng)絡(luò)的非線性函數(shù)擬合方法,該方法通過實(shí)驗(yàn)選擇BP神經(jīng)網(wǎng)絡(luò)的相關(guān)參數(shù),完成模型的訓(xùn)練和測試,最后選擇相關(guān)評價函數(shù)對模型的有效性進(jìn)行評價。1.3論文章節(jié)安排在進(jìn)行本次論文章節(jié)安排時,我們主要對每一章進(jìn)行了不同部分的講解,在第一章當(dāng)中,我們主要介紹了有關(guān)課題方面的研究背景和整體的國內(nèi)外現(xiàn)狀,第二章介紹了在MATLAB大多數(shù)存在的相關(guān)函數(shù)以及非線性函數(shù)中所體現(xiàn)的理論知識,其中主要包括數(shù)據(jù)的可視化和對數(shù)據(jù)保存的基本方法等,第三章,我們主要闡述了對于整體神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)和原理,進(jìn)行了描述,第四章內(nèi)容對于神經(jīng)網(wǎng)絡(luò)的參數(shù)模型進(jìn)行有效的評價和安排。2非線性函數(shù)的設(shè)計(jì)本文的研究對象是非線性函數(shù)。本章將重點(diǎn)敘述MATLAB的使用方法,并通過調(diào)用相關(guān)MATLAB函數(shù)設(shè)計(jì)非線性函數(shù),獲取實(shí)驗(yàn)數(shù)據(jù)并可視化。2.1非線性函數(shù)概述在因變量和自變量的之間所存在的關(guān)系不只是線性函數(shù)的關(guān)系,其中也包括非線性函數(shù),所以,在常見的非線性函數(shù)當(dāng)中,存在指數(shù)函數(shù)、多項(xiàng)式函數(shù)、對數(shù)函數(shù)、冪函數(shù)等和復(fù)合函數(shù)。2.2數(shù)據(jù)集的生成首先,確定非線性函數(shù)關(guān)系式,然后以MATLAB為實(shí)驗(yàn)平臺,通過編寫M語言生成2000組為實(shí)驗(yàn)數(shù)據(jù)。其中,隨機(jī)選取1900組為訓(xùn)練數(shù)據(jù),用訓(xùn)練集建立擬合模型,剩下的100組數(shù)據(jù)為測試數(shù)據(jù),用測試數(shù)據(jù)對模型擬合的好壞進(jìn)行評價。本文非線性函數(shù)公式如下:(2.1)2.2.1MATLAB數(shù)值計(jì)算MATLAB可以數(shù)值計(jì)算和數(shù)據(jù)可視化,下面將敘述MATLAB有關(guān)矩陣計(jì)算的符號規(guī)則。矩陣加減法:符號是‘+’和‘-’,A+B為矩陣A和矩陣B對應(yīng)位置數(shù)值相加,A-B為矩陣A減去矩陣B對應(yīng)位置的數(shù)值。矩陣點(diǎn)乘、點(diǎn)除和點(diǎn)次方運(yùn)算:符號是‘.*’、‘./’和‘.^’,A.*B為矩陣A和矩陣B對應(yīng)位置數(shù)值相乘,A./B為矩陣A和矩陣B對應(yīng)位置數(shù)值相除,A.^2為矩陣A每個位置數(shù)值為其數(shù)值的平方。為此,非線性函數(shù)對應(yīng)的MATLAB代碼為:Y=x1.^2+x2.^2。2.3數(shù)據(jù)可視化為了更好的觀察和分析數(shù)據(jù),需要對數(shù)據(jù)進(jìn)行可視化。利用MATLAB可視化函數(shù)surf完成數(shù)據(jù)可視化,如圖2.1所示。圖2.1數(shù)據(jù)可視化圖2.4數(shù)據(jù)集的劃分與保存數(shù)據(jù)進(jìn)行采集的過程當(dāng)中,一般分為訓(xùn)練集和測試集,在訓(xùn)練集當(dāng)中,用來訓(xùn)練和模擬不同的模型,從而能夠使得模型在學(xué)習(xí)到數(shù)據(jù)的收集過程當(dāng)中,我們可以使用特定的軟件來進(jìn)行整體的測試工作。用save函數(shù)將數(shù)據(jù)保存為dat文件,如圖2.2所示。圖2.2數(shù)據(jù)保存圖在圖中,第一列代表自變量x1,第二列代表自變量x2,第三列則是因變量Y,數(shù)據(jù)個數(shù)為2000個。Dividerand函數(shù)可以隨機(jī)選取數(shù)據(jù)對數(shù)據(jù)集進(jìn)行劃分。[trainsample,testsample]=dividerand(Date,19,1,0)即將Data中的數(shù)據(jù)隨機(jī)選取19/20存放在trainsample變量里面,選取剩下的1/20存放在testsample變量里面。選擇數(shù)據(jù)的19/20部分為訓(xùn)練集,數(shù)據(jù)的1/20部分為測試集。3基于BP神經(jīng)網(wǎng)絡(luò)的非線性擬合模型設(shè)計(jì)首先通過上一章用MATLAB生成非線性函數(shù)的輸入和輸出作為實(shí)驗(yàn)數(shù)據(jù)集,然后,本章將著重介紹BP神經(jīng)網(wǎng)絡(luò)的基本結(jié)構(gòu)和算法,學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)的前向傳播計(jì)算方法,了解神經(jīng)網(wǎng)絡(luò)是如何訓(xùn)練和學(xué)習(xí),達(dá)到擬合非線性模型的目的,最后,根據(jù)現(xiàn)有的經(jīng)驗(yàn)知識搭建神經(jīng)網(wǎng)絡(luò)模型。3.1人工神經(jīng)網(wǎng)絡(luò)概述人工神經(jīng)網(wǎng)絡(luò)是一種信息處理系統(tǒng),它將人和動物的神經(jīng)網(wǎng)絡(luò)應(yīng)用到計(jì)算機(jī)中來達(dá)到讓機(jī)器學(xué)習(xí)的目的,主要的有感知器、線性神經(jīng)網(wǎng)絡(luò)、BP神經(jīng)網(wǎng)絡(luò)等算法[10-12]。一個完整的神經(jīng)網(wǎng)絡(luò)有輸入層、隱藏層和輸出層,每一層都由多個神經(jīng)元組成。每個神經(jīng)元都有輸入、計(jì)算單元和輸出,將神經(jīng)元連接在一起的權(quán)重值是最重要的單元,要想一個神經(jīng)網(wǎng)絡(luò)模型的學(xué)習(xí)效果好就要將權(quán)重值訓(xùn)練到最佳值。使用人工神經(jīng)網(wǎng)絡(luò)主要是因?yàn)樗幸韵绿攸c(diǎn):首先因?yàn)槭呛芏嗌窠?jīng)元一起處理一個問題,所以具有很好的并行處理能力,所需時間也很短;其次神經(jīng)網(wǎng)絡(luò)儲存容量很大,容錯能力也很好,是因?yàn)槊總€神經(jīng)元都會接收其他神經(jīng)元的信息,神經(jīng)元都是互相影響的,這樣就使得輸入數(shù)據(jù)和輸出數(shù)據(jù)的非線性映射,所以就擴(kuò)大了儲存容量;再其次神經(jīng)元是通過訓(xùn)練學(xué)習(xí)而得到結(jié)果,又因?yàn)樗悄M人和動物的神經(jīng)網(wǎng)絡(luò),所以具有很好的自適應(yīng)性;最后神經(jīng)網(wǎng)絡(luò)存儲信息是分布存儲在整個網(wǎng)絡(luò)中,用輸入信息激活神經(jīng)元將學(xué)習(xí)的結(jié)果體現(xiàn)到權(quán)重值上,并以同樣的方式向下一層傳遞,這樣處理輸出數(shù)據(jù)的速度就會很快。除了神經(jīng)網(wǎng)絡(luò)自身的特點(diǎn),它適合進(jìn)行非線性擬合還有以下兩個原因:第一點(diǎn)就是自學(xué)習(xí)的適應(yīng)能力,在常見的工業(yè)模型當(dāng)中,一般都是基于物理模型來進(jìn)行建立的,并且,在模型方面,對于參數(shù)精度的要求也非常高,需要自己去考慮某一模型自己所存在的機(jī)理特征,而人工智能模型就不同于一般的模型,只需要采用合理的算法來進(jìn)行輸入,并且體現(xiàn)出對應(yīng)的原理特征來達(dá)到一定的效果。第二點(diǎn)就是非線性的映射能力,系統(tǒng)的模型往往是一種非線性的復(fù)雜模型,在一般的線性模型當(dāng)中,可以通過傳遞函數(shù)來對模型進(jìn)行搭建,而復(fù)雜的非線性函數(shù)就很難去用復(fù)雜傳統(tǒng)的來進(jìn)行表達(dá),人工智能的模型基礎(chǔ)是通過神經(jīng)網(wǎng)絡(luò)來進(jìn)行調(diào)節(jié)和輸出,在整體的處理復(fù)雜系統(tǒng)過程當(dāng)中,具有非常強(qiáng)大的優(yōu)勢。3.2BP神經(jīng)網(wǎng)絡(luò)基本原理本文選擇BP神經(jīng)網(wǎng)絡(luò)[13-14]作為主要算法,研究BP神經(jīng)網(wǎng)絡(luò)在非線性擬合中的實(shí)驗(yàn)效果。BP神經(jīng)網(wǎng)絡(luò)原理如下圖3.1所示:輸出層輸入層隱層圖3.1BP神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)對應(yīng)用BP神經(jīng)網(wǎng)絡(luò)的階段進(jìn)行劃分,可分為:首先第一點(diǎn)是訓(xùn)練階段,訓(xùn)練階段就是對整體的樣本采取訓(xùn)練的方式來計(jì)算,其中所存在的權(quán)重部分能夠?qū)ζ溥M(jìn)行更加準(zhǔn)確的識別,來達(dá)到對應(yīng)的目標(biāo),第二點(diǎn)是應(yīng)用階段,讓神經(jīng)網(wǎng)絡(luò)來對這些真實(shí)的數(shù)據(jù)或者是樣本進(jìn)行識別,能夠記錄下來整體的過程,能夠方便日后的模型方面的工作,對新的對象具有更加準(zhǔn)確的識別,能夠在面對其他的非線性對象,也能夠進(jìn)行更好的擬合,而圖3.1就是關(guān)于網(wǎng)絡(luò)三層模型的整體架構(gòu),在這個架構(gòu)模型當(dāng)中,主要包括三種類型的函數(shù),其中分別是誤差函數(shù),激活函數(shù)以及輸出函數(shù),而這三種函數(shù)在整體神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的構(gòu)建過程當(dāng)中是非常核心的部分。如果用()這個字母來表示輸入的值,那么當(dāng)輸入的數(shù)值有個時,則表示為,把BP神經(jīng)網(wǎng)絡(luò)的隱含層中的第到個節(jié)點(diǎn)之間的權(quán)值設(shè)為,把第個節(jié)點(diǎn)得到閾值設(shè)為。用來表示BP神經(jīng)網(wǎng)絡(luò)中隱含層的激活函數(shù),用來表示BP神經(jīng)網(wǎng)絡(luò)輸出層中第個節(jié)點(diǎn)與隱含層第個節(jié)點(diǎn)之間的權(quán)值大小,(其中),把BP神經(jīng)網(wǎng)絡(luò)輸出層中第個節(jié)點(diǎn)的閾值設(shè)為(其中),用來表示BP神經(jīng)網(wǎng)絡(luò)輸出層的激勵函數(shù)。用這個字母來表示輸出層中第個節(jié)點(diǎn)處將要輸出的值。通過上面的設(shè)定,該模型就可以表示出維空間到維空間之間,關(guān)于輸入與輸出向量之間的映射,其中模型中的神經(jīng)元處的輸出可以用下面的公式所表示:隱含層第個節(jié)點(diǎn)的輸入:(3.1)隱含層第個節(jié)點(diǎn)的輸出:(3.2)輸出層第個節(jié)點(diǎn)輸入:(3.3)輸出層第個節(jié)點(diǎn)輸出:(3.4)3.3激活函數(shù)激活函數(shù)(ActivationFunction)一般為非線性函數(shù)。在神經(jīng)網(wǎng)絡(luò)中,僅僅依靠權(quán)重之間線性關(guān)系很難學(xué)習(xí)和理解復(fù)雜的模型,為此,引入ActivationFunction可以提升模型的‘Nonlinear’表達(dá)能力,只有加入ActivationFunction,模型才有‘Nonlinear’映射學(xué)習(xí)能力。常用的ActivationFunction有SigmoidFunction、TanhFunction和ReluFunction。3.3.1sigmoid激活函數(shù)SigmoidFunction是使用最多的ActivationFunction,它具有是指數(shù)函數(shù)的性質(zhì)。SigmoidFunction的值域與概率值范圍相同為(0,1),此就可以和概率分布結(jié)合在一起研究學(xué)習(xí)。另一方面,近三十年里的神經(jīng)網(wǎng)絡(luò)難以有有效的進(jìn)展也是和SigmoidFunction的性質(zhì)有關(guān),這種性質(zhì)是SigmoidFunction是平滑飽和ActivationFunction。平滑飽和ActivationFunction就是因?yàn)楫?dāng)x趨于-∞時,它的導(dǎo)數(shù)值會逼近于0,這會引起GradientDisappeared。GradientDisappeared是指SigmoidFunction在向下傳遞的梯度里有k’(s)k(s)因子,k’(s)k(s)會在輸入落入飽和區(qū)時趨近于0,使得向底層傳遞的梯度變小,通常五層之內(nèi)就會出現(xiàn)這種情況。圖3-2sigmoid函數(shù)曲線3.3.2Tanh激活函數(shù)TanhFunction的值域?yàn)椋?,-1),與SigmoidFunction幅度增大后相似。TanhFunction的導(dǎo)數(shù)的取值范圍在(0,1),而SigmoidFunction導(dǎo)數(shù)值域?yàn)椋?,0.25),所以TanhFunction在一定程度上能夠防止梯度消失的情況發(fā)生。并且它的輸出和輸入的關(guān)系不管是上升還是下降都是非線性的單調(diào)的,和BP網(wǎng)絡(luò)的梯度求解是相匹配的。TanhFunction在原點(diǎn)附近與比例系數(shù)為1的正比例函數(shù)相似,所以在激活值較小的時候?yàn)榱耸褂?xùn)練更簡便可以直接運(yùn)用矩陣運(yùn)算。圖3-3tanh函數(shù)曲線3.3.3Relu激活函數(shù)ReluFunction在代數(shù)學(xué)中稱為斜坡函數(shù):當(dāng)x小于0時,y為0;x大于0時,y等于x的值。在神經(jīng)網(wǎng)絡(luò)中,ReluFunction激活部分神經(jīng)元。它將上一層神經(jīng)網(wǎng)絡(luò)傳遞來的輸入向量x轉(zhuǎn)化為max(0,WTx+b)輸出到下一層神經(jīng)網(wǎng)絡(luò)。ReluFunction相比于SigmoidFunction的優(yōu)點(diǎn)在于:ReluFunction的導(dǎo)數(shù)在x大于0時,導(dǎo)數(shù)為定值,所以不會發(fā)生梯度消失的情況;在x小于0時,導(dǎo)數(shù)為0,神經(jīng)元激活值在負(fù)半?yún)^(qū),梯度為0,那么便不會訓(xùn)練這個神經(jīng)元,這種特性稱之為稀疏性。根據(jù)有關(guān)大腦方面的研究,大腦中的神經(jīng)元在同一時間僅有1%~4%處于工作狀態(tài)。在使用Relu激活函數(shù)的網(wǎng)絡(luò)中,通常只有50%左右的神經(jīng)元被激活。但Relu函數(shù)很脆弱,如果Relu的神經(jīng)元要經(jīng)過一個較大的梯度會使這個神經(jīng)元無法再被其他數(shù)據(jù)點(diǎn)再一次被激活并且經(jīng)過這個神經(jīng)元的梯度都會變?yōu)?,使得數(shù)據(jù)會有所丟失。圖3-4Relu函數(shù)曲線3.4損失函數(shù)損失函數(shù)是用來評估神經(jīng)網(wǎng)絡(luò)模型的Predictivevalue與Turevalue的差距的函數(shù)。選擇合適的損失函數(shù)能使模型發(fā)揮最大的學(xué)習(xí)效率,在模型學(xué)習(xí)的過程中有著指導(dǎo)的重要作用。損失函數(shù)的值越小則模型的魯棒性越好。3.4.1MSE均方誤差均方誤差是計(jì)算Predictivevalue與Turevalue之間差的平均值[15-16]。其公式如下:MSE=1Ni=13.4.2RMSE均方根誤差均方根誤差是計(jì)算Predictivevalue與Turevalue之間差的平均值開方[17-18]。其公式如下:RMSE=sqrt(3.4.3MAE平均絕對誤差平均絕對誤差是計(jì)算Predictivevalue與Turevalue之間絕對誤差的平均值[19-20]。其公式如下:MAE=1Ni=1應(yīng)用梯度下降法時,MSE損失的梯度為?yi、MAE損失的梯度為±1,圖3-5MSE和MAE曲線對比從上面的兩幅圖可以看出:MSE的損失與誤差的關(guān)系是平方關(guān)系,MAE的損失與誤差之間是線性關(guān)系。雖然在誤差小于1時MAE的損失會比MSE小,但當(dāng)誤差越來越大時,MAE的損失會比MSE小很多。再由下面兩幅圖對比可知:假設(shè)誤差為拉普拉斯分布的MAE比以高斯分布的MSE的魯棒性更好。圖3-6MSE和MAE誤差分布對比3.5梯度下降算法梯度下降的方法是沒有其他條件下最普遍的用法。在迭代的每一步根據(jù)特定的方向更新x的值來求出f(x)的最小值,這個方向就是使函數(shù)值下降得最快的方向。所以使用這種方法時首先要求出f(x)的梯度。計(jì)算過程如下:假設(shè)需擬合的函數(shù)為h(θ),n為參數(shù)的個數(shù),m為訓(xùn)練集的大小,j(θ)表示損失函數(shù)。?θ=j=0jθ=1將j(θ)對θ求偏導(dǎo),得到對應(yīng)的梯度:φj(θ)φθj再根據(jù)每個梯度負(fù)方向來確定θ的值:θj'=BP神經(jīng)網(wǎng)絡(luò)與一般神經(jīng)網(wǎng)絡(luò)不同的是,該網(wǎng)絡(luò)具有反向傳播算法,該方法是訓(xùn)練方法,通過對比實(shí)際輸出和預(yù)測值之間誤差的導(dǎo)數(shù)來調(diào)整閾值,從而完成學(xué)習(xí)的過程。其算法流程為:(1)初始化網(wǎng)絡(luò)參數(shù),一般設(shè)閾值和權(quán)值為在0附近很小的數(shù);(2)設(shè)置HiddenLayer神經(jīng)元個數(shù),選擇合適的ActivationFunction;(3)計(jì)算InputLayer到HiddenLayer,HiddenLayer到OutputLayer各個神經(jīng)元的輸出;(4)計(jì)算神經(jīng)網(wǎng)絡(luò)Predictivevalue與Turevalue的誤差,判斷誤差是否小于設(shè)定值;(5)若誤差小于設(shè)定值,則退出訓(xùn)練過程,神經(jīng)網(wǎng)絡(luò)訓(xùn)練完成;(6)若誤差大于設(shè)定值,則通過公式(3.10)來計(jì)算各個單元的梯度值,修正神經(jīng)網(wǎng)絡(luò)的權(quán)值,返回第(3)步。4實(shí)驗(yàn)分析與結(jié)果前幾章已經(jīng)完成了實(shí)驗(yàn)的數(shù)據(jù)準(zhǔn)備并做好了相關(guān)理論研究,有了一定的理論基礎(chǔ)。本章將通過MATLAB軟件搭建擬合模型,完成BP神經(jīng)網(wǎng)絡(luò)的訓(xùn)練和預(yù)測工作,并對最后的模型根據(jù)評價指標(biāo)進(jìn)行評價。4.1實(shí)驗(yàn)平臺的搭建本實(shí)驗(yàn)的MATLAB軟件版本為2018a,CPUI59300H,操作系統(tǒng)Windows-64位,顯卡GTX1050Ti3G。搭建步驟如下:(1)新建工程打開MATLAB,點(diǎn)擊主頁,選擇新建→工程→空白工程,如圖4-1所示。圖4-1新建工程(2)新建M程序文件點(diǎn)擊主頁,選擇‘新建腳本’,然后點(diǎn)擊保存并對文件重命名為‘data.m’,如圖4-2所示。圖4-2新建M程序文件完成上述流程,表明程序運(yùn)行環(huán)境搭建完畢,通過在程序文件里面編寫程序完成實(shí)驗(yàn)內(nèi)容。4.2數(shù)據(jù)歸一化數(shù)據(jù)處理是數(shù)據(jù)擬合、預(yù)測和分類的關(guān)鍵步驟,對實(shí)驗(yàn)精度有很大影響。本實(shí)驗(yàn)的數(shù)據(jù)是2個輸入一個輸出。由于每一項(xiàng)的輸入指標(biāo),各項(xiàng)標(biāo)準(zhǔn)當(dāng)中所體現(xiàn)出不同,所以不利于去進(jìn)行直接的訓(xùn)練,所以有時可能會因?yàn)檩斎霐?shù)據(jù)的單位不同所體現(xiàn)出一定的差異,導(dǎo)致整體的神經(jīng)網(wǎng)絡(luò)在進(jìn)行收斂時速度比較慢。4.2.1最大-最小歸一化最大-最小歸一化是將Data經(jīng)過公式映射在固定的范圍內(nèi),具體公式如下:(4.1)最大-最小歸一化可以將數(shù)據(jù)各個特征映射在一定范圍,消除量綱對數(shù)據(jù)特征的影響,不改變數(shù)據(jù)分布,加快模型的訓(xùn)練學(xué)習(xí)。4.2.2Z-Score歸一化Z-Score歸一化是將原始數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化,其中方差為a,均值為b,具體公式如下:(4.2)Z-Score歸一化可以將離群點(diǎn)的數(shù)據(jù)規(guī)范化,改變原有數(shù)據(jù)分布,減少離群點(diǎn)數(shù)據(jù)對模型的影響。根據(jù)非線性函數(shù)的特點(diǎn),本實(shí)驗(yàn)選擇最大-最小歸一化方法,并將數(shù)據(jù)歸一化在[-1,1]之間。4.3BP神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)設(shè)計(jì)原則4.3.1網(wǎng)絡(luò)層數(shù)的確定關(guān)于網(wǎng)絡(luò)層數(shù)的確定,在數(shù)學(xué)上就已經(jīng)對此進(jìn)行了證明并且從不同的維度來進(jìn)行映射分析,而本文在進(jìn)行研究的過程當(dāng)中,就通過使用神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)來進(jìn)行分類。4.3.2輸入數(shù)據(jù)和輸出數(shù)據(jù)的確定將第二章中給出的非線性函數(shù)的輸入作為輸入向量。根據(jù)公式(4.1)對輸入數(shù)據(jù)進(jìn)行數(shù)據(jù)預(yù)處理。本實(shí)驗(yàn)將非線性函數(shù)作為樣本,對其進(jìn)行模型的建立、仿真和預(yù)測。根據(jù)第三章的研究,將2個輸入分別用x1,x2進(jìn)行表示,并將這兩個輸入當(dāng)作BP神經(jīng)網(wǎng)絡(luò)的輸入變量。將非線性函數(shù)的輸出值當(dāng)作輸出變量。當(dāng)前非線性函數(shù)一共生成了2000個數(shù)據(jù),在本文中隨機(jī)選取1900個數(shù)據(jù)作為TrainingSample來構(gòu)建神經(jīng)網(wǎng)絡(luò),剩下的100個數(shù)據(jù)作為TestSample進(jìn)行仿真。4.3.3各層節(jié)點(diǎn)的設(shè)計(jì)原則(1)輸入層節(jié)點(diǎn)設(shè)計(jì)原則輸入層節(jié)點(diǎn)要與第二章的非線性數(shù)據(jù)輸入個數(shù)相匹配,彼此之間一一對應(yīng)。輸入層節(jié)點(diǎn)數(shù)確定為2個。(2)隱含層節(jié)點(diǎn)數(shù)設(shè)計(jì)原則隱含層節(jié)點(diǎn)的主要作用,就是通過從輸入的訓(xùn)練成本當(dāng)中提取到有用的信息來存儲樣本之間所存在的規(guī)律和聯(lián)系,能夠?qū)⑤斎霐?shù)據(jù)和輸出數(shù)據(jù)之間的函數(shù)進(jìn)行映射,并且能夠更好地反映出來,因此,在對于隱含層節(jié)點(diǎn)數(shù)進(jìn)行說明的情況之下,應(yīng)該去抓取數(shù)據(jù)當(dāng)中的有效信息,從而能夠?qū)W(wǎng)絡(luò)的隱含層節(jié)點(diǎn)數(shù)較少的時候來獲取更有效的信息能力。獲得的信息具有一定的可信度,在輸出的結(jié)果方面可能會沒有一定的說服力,這樣會使得進(jìn)行網(wǎng)絡(luò)學(xué)習(xí)的過程當(dāng)中更加緩慢。在當(dāng)前學(xué)術(shù)界當(dāng)中,沒有一個確認(rèn)的理論公式來對此進(jìn)行確定,但是最常用的就是通過使用試湊法來對不同的樣本進(jìn)行設(shè)置,從中找出誤差所存在最小的隱含層的階段數(shù)來進(jìn)行初始值的計(jì)算。(4.3)(4-4)(4-5)我們利用上列公式,可以根據(jù)算法所體現(xiàn)的特性來進(jìn)行訓(xùn)練的過程,并且對其中所存在網(wǎng)絡(luò)影響比較小的權(quán)值來進(jìn)行調(diào)整,這樣才能夠刪除更多多余的節(jié)點(diǎn),選取最適合的隱含層節(jié)點(diǎn)數(shù)來進(jìn)行使用。(3)輸出層節(jié)點(diǎn)數(shù)設(shè)置原則輸出層的數(shù)據(jù)來源于我們最后期望評估的結(jié)果,因此輸出層節(jié)點(diǎn)數(shù)取1。4.4神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)和訓(xùn)練根據(jù)總結(jié)上述原則,因此本文所構(gòu)建的模型是三層BP神經(jīng)網(wǎng)絡(luò)模型,輸入層節(jié)點(diǎn)數(shù)為20,隱含層節(jié)點(diǎn)數(shù)為未定,學(xué)習(xí)率暫選默認(rèn)0.01,輸出層節(jié)點(diǎn)數(shù)為1,學(xué)習(xí)率取0.01,允許誤差選擇系統(tǒng)默認(rèn)值,HiddenLayer激活函數(shù)選擇SigmoidFunction,輸出層激活函數(shù)采用TanhFunction,訓(xùn)練函數(shù)采用traiglm,學(xué)習(xí)函數(shù)采用learndm,性能函數(shù)選擇Mse函數(shù)。MATLAB對應(yīng)BP神經(jīng)網(wǎng)絡(luò)語句如下:net=newff(trainsample(1:2,:),trainsample(3,:),23,{'logsig','tansig'},'trainlm');圖4-3非線性函數(shù)擬合模型的MATLAB結(jié)構(gòu)圖4.4.1神經(jīng)網(wǎng)絡(luò)模型隱含層節(jié)點(diǎn)數(shù)的確定綜合4.3.3中的公式,將HiddenLayer神經(jīng)元的個數(shù)范圍進(jìn)行確定,為14到25區(qū)間當(dāng)中的一個正整數(shù),并且根據(jù)一定的控制變量法來保持其他參數(shù)不變的情況下進(jìn)行計(jì)算。我們可以先將學(xué)習(xí)率設(shè)置為系統(tǒng)當(dāng)中所存在的默認(rèn)值,以此來作為依據(jù)來對[14,25]中不同隱含層的節(jié)點(diǎn)數(shù)進(jìn)行訓(xùn)練和計(jì)算來得到最佳的結(jié)果,我們可以將其表達(dá)為如表4-1所示:表4-1隱藏層神經(jīng)元訓(xùn)練對比表隱含層的神經(jīng)元數(shù)均方誤差訓(xùn)練次數(shù)14006472000160.05222000170.04822000180.03492000190.03122000200.03752000210.02402000220.03182000230.02742000240.03972000250.00902000從上表當(dāng)中的數(shù)據(jù),我們可以發(fā)現(xiàn)其中所存在的均方誤差最小值會出現(xiàn)在隱含層神經(jīng)元為25的情況之下,所以在神經(jīng)網(wǎng)絡(luò)當(dāng)中,最優(yōu)的隱含層神經(jīng)元數(shù)目為25,具體的網(wǎng)絡(luò)結(jié)構(gòu)圖可以參照下圖4-3所示。圖4-3BP神經(jīng)網(wǎng)絡(luò)擬合模型的結(jié)構(gòu)圖4.4.2神經(jīng)網(wǎng)絡(luò)模型學(xué)習(xí)率的確定由于BP神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)率上,一般都指定為0.01到0.1之間,所以在本文中,我們分別采取這個區(qū)間當(dāng)中的十組數(shù)據(jù)來進(jìn)行分析,能夠?qū)⑸窠?jīng)元固定在25個的基礎(chǔ)之上,保持其他的參數(shù)不變,具體數(shù)據(jù)參照下圖。表4-2學(xué)習(xí)率訓(xùn)練表學(xué)習(xí)率均方誤差訓(xùn)練次數(shù)0.010.009020000.020.012720000.030.029120000.040.022020000.050.013220000.060.015320000.070.015120000.080.009520000.090.015120000.10.022420004.4.3神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練及仿真結(jié)果我們在進(jìn)行設(shè)計(jì)的過程當(dāng)中,主要通過對軟件當(dāng)中的神經(jīng)網(wǎng)絡(luò)工具進(jìn)行整體的仿真和訓(xùn)練。(1)在訓(xùn)練數(shù)據(jù)的輸入和輸出方面,可以從該軟件當(dāng)中新建一個腳本,并且清空整體的環(huán)境變量導(dǎo)入對應(yīng)的數(shù)據(jù)包進(jìn)行如下圖所示的展示。圖4-4神經(jīng)網(wǎng)絡(luò)數(shù)據(jù)導(dǎo)入圖(2)隨機(jī)產(chǎn)生訓(xùn)練集和測試集為了保證神經(jīng)網(wǎng)絡(luò)訓(xùn)練結(jié)果的可信性,因此本文從輸入的2000個Sample中隨機(jī)選取1900個Sample作為樣本的訓(xùn)練集‘trainsample’,剩下的100個Sample作為Sample的測試集‘testsample’,從而對訓(xùn)練結(jié)果進(jìn)行檢驗(yàn)和誤差分析。(3)創(chuàng)建網(wǎng)絡(luò)并進(jìn)行網(wǎng)絡(luò)訓(xùn)練根據(jù)前文所確定的神經(jīng)網(wǎng)絡(luò)的層數(shù)、InputLayer節(jié)點(diǎn)數(shù)、HiddenLayer節(jié)點(diǎn)數(shù)、OutputLayer節(jié)點(diǎn)數(shù)、ActivationFunction和學(xué)習(xí)函數(shù),設(shè)定各參數(shù)值、創(chuàng)建所需的神經(jīng)網(wǎng)絡(luò)并進(jìn)行網(wǎng)絡(luò)訓(xùn)練。(4)訓(xùn)練結(jié)果分析把上一步計(jì)算得到的規(guī)范化后的數(shù)據(jù)樣本導(dǎo)入MATLAB軟件,利用建立好的BP網(wǎng)絡(luò)對樣本數(shù)據(jù)進(jìn)行訓(xùn)練,樣本的預(yù)測值與測試集的真實(shí)結(jié)果之間的評價指標(biāo)用相對誤差E和決定系數(shù)R的平方進(jìn)行表示。相對誤差E越小,說明模型的性能越好。(4-6)經(jīng)過訓(xùn)練之后,所得決定系數(shù)的值為0.99994,說明了整個網(wǎng)絡(luò)性能非常好。下圖4-5是對整個神經(jīng)網(wǎng)絡(luò)進(jìn)行回歸分析的過程,從圖可知,基本上所有的回歸分析系數(shù)都接近于1,這說明了整個神經(jīng)網(wǎng)絡(luò)模型具有良好的非線性映射能力和學(xué)習(xí)能力。圖4-5BP神經(jīng)網(wǎng)絡(luò)模型表現(xiàn)圖4-6為誤差分析圖,從圖中可以看出誤差均小于0.2,滿足擬合性能要求。圖4-7為預(yù)測值與實(shí)際值的對比圖,從圖中可以看出預(yù)測值和實(shí)際值十分接近,說明擬合效果很好。圖4-6誤差分析圖圖4-7預(yù)測值和真實(shí)值的對比圖(5)預(yù)測結(jié)果與評價在訓(xùn)練結(jié)束之后,根據(jù)上述的訓(xùn)練結(jié)果,獲得評價指標(biāo)結(jié)果,如圖4-8所示。平均絕對誤差MAE為0.0090368,均方誤差MSE為0.0063983,均方根誤差RMSE為:0.07999,滿足系統(tǒng)性能指標(biāo)要求。圖4-8性能指標(biāo)結(jié)果圖結(jié)論相比傳統(tǒng)的擬合方法,非線性擬合模型在控制系統(tǒng)辨識中起著舉足輕重的地位。隨著人工智能的飛速發(fā)展,人們對模型的智能化要求越來越高,在這個背景下,專家們開始了進(jìn)一步的研究,提出了機(jī)器學(xué)習(xí)這個概念。而BP神經(jīng)網(wǎng)絡(luò)就是一種機(jī)器學(xué)習(xí)方法,該方法可以通過訓(xùn)練和學(xué)習(xí)自主獲取新的知識,在復(fù)雜模型的建立和模型擬合的問題上開辟了新的道路。本文就設(shè)計(jì)了一種基于BP神經(jīng)網(wǎng)絡(luò)的非線性函數(shù)擬合系統(tǒng)。首先,了解BP神經(jīng)網(wǎng)絡(luò)在非線性函數(shù)擬合中的應(yīng)用,并熟悉非線性函數(shù)相關(guān)原理及算法,其次在以MATLAB軟件為仿真平臺,設(shè)計(jì)非線性函數(shù),并利用MATLAB計(jì)算生成非線性數(shù)據(jù)。然后,采用BP神經(jīng)網(wǎng)絡(luò)作為擬合模型,進(jìn)行相關(guān)實(shí)驗(yàn),通過實(shí)驗(yàn)分析確定了隱層數(shù)、激活函數(shù)類型和學(xué)習(xí)率值等相關(guān)模型參數(shù)。最后選取均方誤差(MSE)、平均絕對誤差(MAE)和均方根誤差(RMSE)作為評價指標(biāo),對數(shù)據(jù)擬合模型進(jìn)行訓(xùn)練和檢驗(yàn),最終得到擬合模型,完成非線性函數(shù)擬合系統(tǒng)設(shè)計(jì)。實(shí)驗(yàn)結(jié)果表明,該模型的平均絕對誤差(MAE)為0.0090638、均方誤差(MSE)為0.0063983和均方根誤差(RMSE)為0.07999,滿足設(shè)計(jì)要求,驗(yàn)證了算法的有效性,證明出BP神經(jīng)網(wǎng)絡(luò)具有較高的擬合能力。參考文獻(xiàn)[1]YunDeng,HanjieXiao,JianxinXu,HuaWang.PredictionmodelofPSO-BPneuralnetworkoncoliformamountinspecialfood[J].SaudiJournalofBiologicalSciences.2019,26(6):1154-1160.[2]YuanyuanLi,JitongLi,JianHuang,HuaZhou.FittinganalysisandresearchofmeasureddataofSAWmicro-pressuresensorbasedonBPneuralnetwork[J].Measurement.2020,155:107533.[3]LiangHuang,ShijieChen,ZaixunLing,YiboCui,QiongWang.Non-invasiveloadidentificationbasedonLSTM-BPneuralnetwork[J].EnergyReports.2021,7(1):485-492.[4]YingXiong,GuangshunChen,ShaoyunGuo.LifetimepredictionofNBRcompositesheetinaviationkerosenebyusingnonlinearcurvefittingofATR-FTIRspectra[J].JournalofIndustrialandEngineeringChemistry.2023,19(5):1611-1616.[5]MichaelM.Li,BrijeshVerma.NonlinearcurvefittingtostoppingpowerdatausingRBFneuralnetworks[J].ExpertSystemswithApplications.2016,45:161-171.[6]陳靜,胡雪,段國霞,武倫瑋,劉春霞,宮慧麗,劉麗君,李翠枝,呂志勇.不同非線性曲線擬合方式對乳飲料中蔗糖含量的不確定度評定[J].食品安全質(zhì)量檢測學(xué)報.2021,12(17):6865-6871.[7]Mustafa?EKER.Parameterestimationofpositivelightningimpulseusingcurvefitting-basedoptimizationtechniquesandleastsquaresalgorithm[J].ElectricPowerSystemsResearch,2022,205:107733.[8]胡菊華.非線性回歸函數(shù)參數(shù)估計(jì)的初值問題——以酶促反應(yīng)回歸函數(shù)為例[J].江西科學(xué).2021,39(06):983-985.[9]關(guān)杰,盧健偉.SIMON類非線性函數(shù)的線性性質(zhì)研究[J].電子與信息報.2021,43(11):3359-3366.[10]張彭輝,肖攸安,趙建倉,丁康康,侯健.GA-BP神經(jīng)網(wǎng)絡(luò)在銅合金海洋腐蝕預(yù)測中的應(yīng)用[J].裝備環(huán)境工程.2021,18(12):73-78.[11]張麗媛,賈楠,鄭曉娜,張博,李松麗,韓全鄉(xiāng).基于人工神經(jīng)網(wǎng)絡(luò)多葉準(zhǔn)直器葉片位置偏差預(yù)測[J].中國醫(yī)學(xué)物理學(xué)雜志.2021,38(12):1495-1501.[12]陸校松.基于人工神經(jīng)網(wǎng)絡(luò)的艦船通信數(shù)據(jù)模糊聚類算法[J].艦船科學(xué)技術(shù).2021,43(24):91-93.[13]劉炳彥,張軍輝,耿世聰,陶晶晶,馮月.基于BP神經(jīng)網(wǎng)絡(luò)模型的全球森林土壤異養(yǎng)硝化過程N(yùn)_2O排放通量估算[J].生態(tài)學(xué)雜志:2022,12:1-9.[14]廖有為,曹偉嘉,蔣劍鋒,楊留方.基于GA-BP神經(jīng)網(wǎng)絡(luò)的氣體傳感器濕度補(bǔ)償研究[J].傳感器與微系統(tǒng).2021,40(12):49-55.[15]劉子英,張靖,付智輝,朱琛磊.基于光纖角度傳感器的高壓隔離開關(guān)角度測量技術(shù)研究[J].高壓電器.2021,57(10):9-17.[16]黃力.深度特征均方誤差的WGAN-GP圖像超分辨率重建算法[J].電子技術(shù)與軟件工程.2021,(20):122-125.[17]楊錦輝,宋君強(qiáng).混沌系統(tǒng)模型誤差平均絕對誤差增長過程研究[J].物理學(xué)報.2012,61(22):148-153.[18]薛宇峰.人工神經(jīng)網(wǎng)絡(luò)及其在氣候預(yù)測中的應(yīng)用[J].太原師范學(xué)院學(xué)報(自然科學(xué)版).2005,(03):63-66.[19]唐旺,馬尚昌,李程.基于滑動窗口的LSTM地溫預(yù)測方法[J].成都理工大學(xué)學(xué)報(自然科學(xué)版).2021,48(03):377-384.[20]張千一.基于支持向量回歸的機(jī)動車價格指數(shù)預(yù)測[J].設(shè)備管理與維修.2017,(19):14-16.致謝為期一個學(xué)期的畢業(yè)設(shè)計(jì)已經(jīng)接近尾聲了,我的四年大學(xué)生活也即將畫上一個句號。在這四年期間,電子信息工程專業(yè)的教師們?yōu)槲业膶W(xué)習(xí)和成長創(chuàng)造了一個美好的環(huán)境,引導(dǎo)我更加充分利用

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

最新文檔

評論

0/150

提交評論