【構建卷積神經(jīng)網(wǎng)絡求解薛定諤方程綜述2400字】_第1頁
【構建卷積神經(jīng)網(wǎng)絡求解薛定諤方程綜述2400字】_第2頁
【構建卷積神經(jīng)網(wǎng)絡求解薛定諤方程綜述2400字】_第3頁
【構建卷積神經(jīng)網(wǎng)絡求解薛定諤方程綜述2400字】_第4頁
全文預覽已結(jié)束

下載本文檔

版權說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權,請進行舉報或認領

文檔簡介

構建卷積神經(jīng)網(wǎng)絡求解薛定諤方程綜述目錄TOC\o"1-2"\h\u13386構建卷積神經(jīng)網(wǎng)絡求解薛定諤方程綜述 18811(一)機器學習求解二維諧振子勢 111888(二)機器學習求解二維庫倫勢 28023(三)嘗試氫原子解的檢驗 31324然后我們進行分離變量 3958所以我們應用下列矩陣表示二階微分算子 3(一)機器學習求解二維諧振子勢 在可以用矩陣對角化方法求解二維諧振子勢后,我們可以對若干隨機取參數(shù)的二維諧振子勢求解來獲得若干組勢場及其對應能量的數(shù)據(jù)(這一過程的代碼見附錄B)。在保障訓練數(shù)據(jù)獲取之后,我們就可以開始構建卷積神經(jīng)網(wǎng)絡。 我們將使用一系列由簡化卷積層和非簡化卷積層(是否簡化取決于卷積核之間的步長)組成的重復“模塊”,這個神經(jīng)網(wǎng)絡由簡化-非簡化-非簡化的重復模塊組成,最后這些層反饋給兩個全連接層[6]。這里我們給出一些參數(shù):對于簡化卷積層,我們采用的卷積核大小為3×3,設置步長為2;對于非簡化卷積層,我們采用的卷積核大小為4×4,設置步長為1。這兩種卷積層都采用線性整流函數(shù)(ReLU)作為激勵函數(shù)。最后一個卷積層會反饋到一個關聯(lián)線性整流函數(shù)的寬度為1024的全連接層,這一全連接層再反饋到最終的一個全連接層,給出一個單一輸出結(jié)果,這一輸出結(jié)果正是卷積神經(jīng)網(wǎng)絡的輸出值,將被用來計算真實解和預測解之間的均方誤差,以此來表示卷積神經(jīng)網(wǎng)絡的損耗。 這樣我們就構建出了我們所需的卷積神經(jīng)網(wǎng)絡,然后我們輸入一組L=64的包含有50000個數(shù)據(jù)點的數(shù)據(jù)集,其中40000組數(shù)據(jù)用以訓練,余下10000組用來測試結(jié)果的準確性。對于訓練數(shù)據(jù),采用學習效率為0.00001時,當我們對所有訓練實例遍歷1000次后,發(fā)現(xiàn)損耗不再顯著降低,為節(jié)省運算時間,因此設置對訓練數(shù)據(jù)遍歷1000次。神經(jīng)網(wǎng)絡對訓練集數(shù)據(jù)訓練完成之后,對測試集數(shù)據(jù)進行分批迭代(分批迭代是考慮到GPU內(nèi)存可能不足),然后計算真實解和預測解的絕對中位差,可以得出下圖結(jié)果(以上過程代碼見附錄C):圖4對二維諧振子勢數(shù)據(jù)訓練后預測解和真實解對比及其絕對中位差 從上圖可以看出,預測解和真實解是比較符合的,為了更直觀地反映預測解和真實解之間的誤差,我們抽取部分結(jié)果列表進行比對,如下表所示。ωω真實解預測解誤差0.2842890.2602070.272130.270980.423%0.0679640.2958080.181820.181510.170%0.2972100.4616330.379190.378630.148%0.1284920.0911070.109780.110240.419%0.2292420.2538310.241450.240950.207%0.3820700.4230510.402310.403790.368%0.2729080.0751510.173970.173640.190%0.1368240.0288080.082810.082620.229表2機器學習后二維諧振子勢的真實解和預測解的誤差(二)機器學習求解二維庫倫勢對于二維庫倫勢Vx,y在生成數(shù)據(jù)集時只要將原本的二維諧振子勢修改為上式即可,而之前構建的卷積神經(jīng)網(wǎng)絡對改為二維庫倫勢的數(shù)據(jù)集仍是適用的,這里就體現(xiàn)出這種方法有極強的適應性。但值得注意的是,庫倫勢有區(qū)別于諧振子勢的地方,那就是庫倫勢的形式是存在一階奇點的,因此為避免報錯我們必須排除掉這個點,然后再生成數(shù)據(jù)集(此過程代碼見附錄D)。 在生成二維庫倫勢的數(shù)據(jù)集后,卷積神經(jīng)網(wǎng)絡采用同樣的參數(shù)對40000組數(shù)據(jù)先進行訓練,再對10000組數(shù)據(jù)進行預測,同樣我們也繪制出真實解和預測解的對比圖,如下圖所示,真實解和預測解也符合得比較好。圖5對二維庫倫勢數(shù)據(jù)訓練后預測解和真實解對比及其絕對中位差 抽取部分結(jié)果列表比對,如下表cc真實解預測解誤差18.4574311.313320.0120990.0120360.517%23.2045314.274470.0159760.0159500.164%15.7150610.916100.0139600.0139150.323%21.9595919.896630.0137270.0136800.344%11.397329.1133130.0144250.0143850.284%14.3551122.898290.0129130.0128580.425%11.7301219.879510.0126800.0126230.450%21.4678514.646900.0152400.0152070.217%表3機器學習后二維庫倫勢的真實解和預測解的誤差(三)嘗試氫原子解的檢驗 氫原子是量子力學中非常重要的系統(tǒng),因為它對應的薛定諤方程是可以精確求解的。假如機器學習的方法可以對氫原子實現(xiàn)求解,這便可以作為很好的檢驗過程。 由于在生成數(shù)據(jù)集時采用了矩陣對角化方法,這種方法對哈密頓量的表示依賴于對二階微分算子的矩陣表示,我們之前所采用的有限差分法只能表示一維和二維情況的二階微分算子,但是氫原子問題是一個三維的問題,因此直接將氫原子問題中的勢場寫成三維形式求解是存在困難的。 但是我們理論上對氫原子問題的嚴格求解通常不在直角坐標中進行,因為氫原子問題本身還是一個中心力場問題,選用球坐標會更為方便。假如我們采用球坐標后再進行分離變量,得到徑向方程就將問題轉(zhuǎn)化到一維情況,這是否意味著有機會利用機器學習進行求解呢? 首先我們考慮在中心力場中的粒子??2考慮到中心力場的球?qū)ΨQ性,為了方便我們使用球坐標系,?2?2=然后我們進行分離變量ψr,θ,φ= 我們可以得到徑向方程??rr2?然后我們做變量代換ρ=rRl徑向方程可以寫為?2ρ?r然后我們考慮氫原子問題,代入勢能項Vr??22μ根據(jù)一維情況下的有限差分法,(10)式應變?yōu)閡i+1+u所以我們應用下列矩陣表示二階微分算子?2我們對徑向坐標均分成N份,每份dr=r?其他兩項分別對應?和l上述三項之和即哈密頓量,用矩陣表示出哈密頓量后我們可以很方便地求解(21)式,計算出本征值并將其排序,輸出其前三個態(tài)的能量,我們得到的結(jié)果是E0 但這還只是我們用矩陣對角化方法僅僅針對氫原子問題進行求解,要將這種方法與機器學習聯(lián)系起來,我們需要在徑向方程中加入一個隨機參數(shù)以便能生成供卷積神經(jīng)網(wǎng)絡訓練的數(shù)據(jù)集,但這里就產(chǎn)生了矛盾,我們得出徑向方程的前提是中心力場,而期望在方程中引入?yún)?shù)是與

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預覽,若沒有圖紙預覽就沒有圖紙。
  • 4. 未經(jīng)權益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負責。
  • 6. 下載文件中如有侵權或不適當內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準確性、安全性和完整性, 同時也不承擔用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論