




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡介
1、PS:這篇介紹神經(jīng)網(wǎng)絡(luò)是很詳細(xì)的,有一步一步的推導(dǎo)公式!神經(jīng)網(wǎng)絡(luò)是DL(深度學(xué)習(xí))的基礎(chǔ)。如果對(duì)神經(jīng)網(wǎng)絡(luò)已經(jīng)有所了解,可以直接跳到三、BP算法的執(zhí)行步驟“部分,算法框架清晰明了。另外,如果對(duì)NN很感興趣,也可以參閱最后兩篇參考博文,也很不錯(cuò)!學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)一種最重要也最令人注目的特點(diǎn)。在神經(jīng)網(wǎng)絡(luò)的發(fā)展進(jìn)程中,學(xué)習(xí)算法的研究有著十分重要的地位。目前,人們所提出的神經(jīng)網(wǎng)絡(luò)模型都是和學(xué)習(xí)算法相應(yīng)的。所以,有時(shí)人們并不去祈求對(duì)模型和算法進(jìn)行嚴(yán)格的定義或區(qū)分。有的模型可以有多種算法.而有的算法可能可用于多種模型。不過,有時(shí)人們也稱算法為模型。自從40年代Hebb提出的學(xué)習(xí)規(guī)則以來,人們相繼提出了各種各樣
2、的學(xué)習(xí)算法。其中以在1986年Rumelhart等提出的誤差反向傳播法,即BP(errorBackPropagation)法影響最為廣泛。直到今天,BP算法仍然是自動(dòng)控制上最重要、應(yīng)用最多的有效算法。1.2.1神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)機(jī)理和機(jī)構(gòu)在神經(jīng)網(wǎng)絡(luò)中,對(duì)外部環(huán)境提供的模式樣本進(jìn)行學(xué)習(xí)訓(xùn)練,并能存儲(chǔ)這種模式,則稱為感知器;對(duì)外部環(huán)境有適應(yīng)能力,能自動(dòng)提取外部環(huán)境變化特征,則稱為認(rèn)知器。神經(jīng)網(wǎng)絡(luò)在學(xué)習(xí)中,一般分為有教師和無教師學(xué)習(xí)兩種。感知器采用有教師信號(hào)進(jìn)行學(xué)習(xí),而認(rèn)知器則采用無教師信號(hào)學(xué)習(xí)的。在主要神經(jīng)網(wǎng)絡(luò)如BP網(wǎng)絡(luò),Hopfield網(wǎng)絡(luò),ART網(wǎng)絡(luò)和Kohonen網(wǎng)絡(luò)中;BP網(wǎng)絡(luò)和Hopfiel
3、d網(wǎng)絡(luò)是需要教師信號(hào)才能進(jìn)行學(xué)習(xí)的;而ART網(wǎng)絡(luò)和Kohonen網(wǎng)絡(luò)則無需教師信號(hào)就可以學(xué)習(xí)。所謂教師信號(hào),就是在神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)中由外部提供的模式樣本信號(hào)。一、感知器的學(xué)習(xí)結(jié)構(gòu)感知器的學(xué)習(xí)是神經(jīng)網(wǎng)絡(luò)最典型的學(xué)習(xí)。目前,在控制上應(yīng)用的是多層前饋網(wǎng)絡(luò),這是一種感知器模型,學(xué)習(xí)算法是BP法,故是有教師學(xué)習(xí)算法。一個(gè)有教師的學(xué)習(xí)系統(tǒng)可以用圖17表示。這種學(xué)習(xí)系統(tǒng)分成三個(gè)部分:輸入部,訓(xùn)練部和輸出部。訓(xùn)練部敦卯信號(hào)(期望輸出信號(hào))圖1-7神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng)框圖輸入部接收外來的輸入樣本X,由訓(xùn)練部進(jìn)行網(wǎng)絡(luò)的權(quán)系數(shù)W調(diào)整,然后由輸出部輸出結(jié)果。在這個(gè)過程中,期望的輸出信號(hào)可以作為教師信號(hào)輸入,由該教師信號(hào)與實(shí)際
4、輸出進(jìn)行比較,產(chǎn)生的誤差去控制修改權(quán)系數(shù)Wo學(xué)習(xí)機(jī)構(gòu)可用圖18所示的結(jié)構(gòu)表示。在圖中,X|,X2,,Xn,是輸入樣本信號(hào),Wi,W2,,Wn是權(quán)系數(shù)。輸入樣本信號(hào)Xi可以取離散值“眼1:輸入樣本信號(hào)通過權(quán)系數(shù)作用,在u產(chǎn)生輸出結(jié)果EWiXi,即有:U=EWiXi=WlXi+W2X2+WnXn再把期望輸出信號(hào)丫(t)和U進(jìn)行比較,從而產(chǎn)生誤差信號(hào)e。即權(quán)值調(diào)整機(jī)構(gòu)根據(jù)誤差e去對(duì)學(xué)習(xí)系統(tǒng)的權(quán)系數(shù)進(jìn)行修改,修改方向應(yīng)使誤差e變小,不斷進(jìn)行下去,使到誤差e為零,這時(shí)實(shí)際輸出值u和期望輸出值Y(t)完全一樣,則學(xué)習(xí)過程結(jié)束。期望輸出y神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)一般需要多次重復(fù)訓(xùn)練,使誤差值逐漸向零趨近,最后到達(dá)零。
5、則這時(shí)才會(huì)使輸出與期望一致。故而神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)是消耗一定時(shí)期的,有的學(xué)習(xí)過程要重復(fù)很多次,甚至達(dá)萬次級(jí)。原因在于神經(jīng)網(wǎng)絡(luò)的權(quán)系數(shù)W有很多分量Wi,W2,-Wn;也即是一個(gè)多參數(shù)修改系統(tǒng)。系統(tǒng)的參數(shù)的調(diào)整就必定耗時(shí)耗量。目前,提高神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)速度,減少學(xué)習(xí)重復(fù)次數(shù)是十分重要的研究課題,也是實(shí)時(shí)控制中的關(guān)鍵問題。二、感知器的學(xué)習(xí)算法感知器是有單層計(jì)算單元的神經(jīng)網(wǎng)絡(luò),由線性元件及閥值元件組成。感知器如圖1-9所示。圖1-9感知器結(jié)構(gòu)感知器的數(shù)學(xué)模型:Y=HWJWX-0j1(1-12)其中:f.是階躍函數(shù),并且有0是閥值。感知器的最大作用就是可以對(duì)輸入的樣本分類,故它可作分類器,感知器對(duì)輸入信號(hào)的分
6、類如下:即是,當(dāng)感知器的輸出為知感知器的分類邊界是:(1-14)1時(shí),輸入樣本稱為A類;輸出為-1時(shí),輸入樣本稱為B類。從上可七陰-8=0(1-15)i=1在輸入樣本只有兩個(gè)分量X1,X2時(shí),則有分類邊界條件:=O(1-16)WiXi+W2X2-e=0(1-17)也可寫成這時(shí)的分類ff況如固110所示。感知器的學(xué)習(xí)算法目的在于找尋恰當(dāng)?shù)臋?quán)系數(shù)w=(w1.w2,,Wn),使系統(tǒng)對(duì)一個(gè)特定的樣本x=(xt,x2,,xn)熊產(chǎn)生期望值do當(dāng)x分類為A類時(shí),期望值d=1;X為B類時(shí),d=-1。為了方便說明感知器學(xué)習(xí)算法,把閥值。并人權(quán)系數(shù)w中,同時(shí),樣本x也相應(yīng)增加一個(gè)分量xn+1。故令:Wn+1=-
7、e,Xn+1=1(1-19)則感知器的輸出可表示為:A11Y-irswiXj(1-20)感知器學(xué)習(xí)算法步驟如下:1 .對(duì)權(quán)系數(shù)w置初值對(duì)權(quán)系數(shù)W=(Wi.W2,,Wn,Wn+1)的各個(gè)分量置一個(gè)較小的零隨機(jī)值,但Wn+1=-0并記為W|(0),W2(0),,Wn(0),同時(shí)有Wn+1(0)=-8。這里Wi(t)為t時(shí)刻從第i個(gè)輸入上的權(quán)系數(shù),i=1,2,,noWn+1(t)為t時(shí)刻時(shí)的閥值。圖1-10感知器的分類例子2 .輸入一樣本X=(Xi,X2,,Xn+1)以及它的期望輸出do期望輸出值d在樣本的類屬不同時(shí)取值不同。如果x是A類,則取d=1,如果x是B類,則取-1期望輸出d也即是教師信號(hào)。
8、3 .計(jì)算實(shí)際輸出值丫(t)=fXwXt)xJi=14 .根據(jù)實(shí)際輸出求誤差ee=dY(t)(1-21)5 .用誤差e去修改權(quán)系數(shù)Wi(t+1)=Wi(t)+7j-e*Xii=1,2,,n,n+1(1-22)其中,Y稱為權(quán)重變化率,0刀1在式(122)中,刀的取值不能太大.如果1取值太大則會(huì)影響w“t)的穩(wěn)定;的取值也不能太小,太小則會(huì)使Wi(t)的求取過程收斂速度太慢。當(dāng)實(shí)際輸出和期望值d相同時(shí)有:Wi(t+1)=Wi(t)6 .轉(zhuǎn)到第2點(diǎn),一直執(zhí)行到一切樣本均穩(wěn)定為止。從上面式(114)可知,感知器實(shí)質(zhì)是一個(gè)分類器,它的這種分類是和二值邏輯相應(yīng)的。因此,感知器可以用于實(shí)現(xiàn)邏輯函數(shù)。下面對(duì)感
9、知器實(shí)現(xiàn)邏輯函數(shù)的情況作一些介紹。例:用感知器實(shí)現(xiàn)邏輯函數(shù)X1VX2的真值:X10011X20101X1VX20111以X1VX2=1為A類,以X1VX2=0為B類,則有方程組(1-23)rwro+w2-o-eo(1-24)從式(124)有:Wiewe令Wi=1,W2=2則有:ei取e=0.5則有:X1+X2-0.5=0,分類情況如圖iii所示。圖1-11邏輯函數(shù)XiVX2的分類1.2.2神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的梯度算法使到網(wǎng)絡(luò)對(duì)于所輸入的模式權(quán)系數(shù)就反映了同類輸人由于權(quán)系數(shù)是分散存在的,故前面一節(jié)所講的感知器學(xué)習(xí)算從感如器的學(xué)習(xí)算法可知,學(xué)習(xí)的目的是在于修改網(wǎng)絡(luò)中的權(quán)系數(shù),樣本能正確分類。當(dāng)學(xué)習(xí)結(jié)束時(shí)
10、,也即神經(jīng)網(wǎng)絡(luò)能正確分類時(shí),顯然模式樣本的共同特征。換句話講,權(quán)系數(shù)就是存儲(chǔ)了的輸人模式。神經(jīng)網(wǎng)絡(luò)自然而然就有分布存儲(chǔ)的特點(diǎn)。前面的感知器的傳遞函數(shù)是階躍函數(shù),所以,它可以用作分類器。法因其傳遞函數(shù)的簡單而存在局限性。感知器學(xué)習(xí)算法相當(dāng)簡單,并且當(dāng)函數(shù)線性可分時(shí)保證收斂。但它也存在問題:即函數(shù)不是線性可分時(shí),則求不出結(jié)果;另外,不能推廣到一般前饋網(wǎng)絡(luò)中。為了克服存在的問題,所以人們提出另一種算法一一梯度算法(也即是LMS法)。為了能實(shí)現(xiàn)梯度算法,故把神經(jīng)元的激發(fā)函數(shù)改為可微分函數(shù),例如Sigmoid函數(shù),非對(duì)稱Sigmoid函數(shù)為f(X)=1/(1+e-x),對(duì)稱Sigmoid函數(shù)f(X)=(
11、1-e-x)/(1+e-x);而不采用式(113)的階躍函數(shù)。對(duì)于給定的樣本集Xi(i=1,2,n),梯度法的目的是尋找權(quán)系數(shù)W*,使得fW*Xi與期望輸出Yi盡可能接近。設(shè)誤差e采用下式表示:其中,Y=fw*Xi是對(duì)應(yīng)第i個(gè)樣本Xi的實(shí)時(shí)輸出Yi是對(duì)應(yīng)第i個(gè)樣本Xi的期望輸出。要使誤差e最小,可先求取e的梯度:(對(duì)每一個(gè)樣本的期望與輸出值求導(dǎo))需4爵(1-26)令Uk=WXk,則有:泡匹叫血受kV泊西麗二支無產(chǎn)(1-28)即有:11m-江巴qQ-29)最后有按負(fù)梯度方向修改權(quán)系數(shù)W的修改規(guī)則:(Wk+i=Wk+AW)Wil=Wki/di-(1-30)i=?L-也可寫成:Wk+Wk(一券)|小
12、巴(1-31)在上式(130),式(131)中,心是權(quán)重變化率,它視情況不同而取值不同,一般取0-1之間的小數(shù)。很明顯,梯度法比原來感知器的學(xué)習(xí)算法進(jìn)了一大步。其關(guān)鍵在于兩點(diǎn):1 .神經(jīng)元的傳遞函數(shù)采用連續(xù)的s型函數(shù),而不是階躍函數(shù);2 .對(duì)權(quán)系數(shù)的修改采用誤差的梯度去控制,而不是采用誤差去控制。故而有更好的動(dòng)態(tài)特能,即加強(qiáng)了收斂進(jìn)程。但是梯度法對(duì)于實(shí)際學(xué)習(xí)來說,仍然是感覺太慢;所以,這種算法仍然是不理想的。1.2.3反向傳播學(xué)習(xí)的BP算法反向傳播算法也稱BP算法。由于這種算法在本質(zhì)上是一種神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)的數(shù)學(xué)模型,所以,有時(shí)也稱為BP模型。BP算法是為了解決多層前向神經(jīng)網(wǎng)絡(luò)的權(quán)系數(shù)優(yōu)化而提出來
13、的;所以,BP算法也通常暗示著神經(jīng)網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu)是一種無反饋的多層前向網(wǎng)絡(luò)。故而.有時(shí)也稱無反饋多層前向網(wǎng)絡(luò)為BP模型。在這里,并不要求過于嚴(yán)格去爭論和區(qū)分算法和模型兩者的有關(guān)異同。感知機(jī)學(xué)習(xí)算法是一種單層網(wǎng)絡(luò)的學(xué)習(xí)算法。在多層網(wǎng)絡(luò)中.它只能改變最后權(quán)系數(shù)。因此,感知機(jī)學(xué)習(xí)算法不能用于多層神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)。1986年,Rumelhart提出了反向傳播學(xué)習(xí)算法,即BP(backpropagation)算法。這種算法可以對(duì)網(wǎng)絡(luò)中各層的權(quán)系數(shù)進(jìn)行修正,故適用于多層網(wǎng)絡(luò)的學(xué)習(xí)。BP算法是目前最廣泛用的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法之一,在自動(dòng)控制中是最有用的學(xué)習(xí)算法。一、BP算法的原理112所示BP算法是用于前饋多層
14、網(wǎng)絡(luò)的學(xué)習(xí)算法,前饋多層網(wǎng)絡(luò)的結(jié)構(gòu)一般如圖圖1-12網(wǎng)絡(luò)學(xué)習(xí)結(jié)構(gòu)它含有輸人層、輸出層以及處于輸入輸出層之間的中間層。中間層有單層或多層,由于它們和外界沒有直接的聯(lián)系,故也稱為隱層。在隱層中的神經(jīng)元也稱隱單元。隱層雖然和外界不連接.但是,它們的狀態(tài)則影響輸入輸出之間的關(guān)系。這也是說,改變隱層的權(quán)系數(shù),可以改變整個(gè)多層神經(jīng)網(wǎng)絡(luò)的性能。設(shè)有一個(gè)m層的神經(jīng)網(wǎng)絡(luò),并在輸入層加有樣本X;設(shè)第k層的i神經(jīng)元的輸入總和表示為Uik,輸出Xik;從第k1層的第j個(gè)神經(jīng)元到第k層的第i個(gè)神經(jīng)元的權(quán)系數(shù)為Wij各個(gè)神經(jīng)元的激發(fā)函數(shù)為f,則各個(gè)變量的關(guān)系可用下面有關(guān)數(shù)學(xué)式表示:Xk=f(Uik)(1-32)U晨/聲I
15、(1-33)反向傳播算法分二步進(jìn)行,即正向傳播和反向傳播。這兩個(gè)過程的工作簡述如下。1 .正向傳播輸入的樣本從輸入層經(jīng)過隱單元一層一層進(jìn)行處理,通過所有的隱層之后,則傳向輸出層;在逐層處理的過程中,每一層神經(jīng)元的狀態(tài)只對(duì)下一層神經(jīng)元的狀態(tài)產(chǎn)生影響。在輸出層把現(xiàn)行輸出和期望輸出進(jìn)行比較,如果現(xiàn)行輸出不等于期望輸出,則進(jìn)入反向傳播過程。2 .反向傳播反向傳播時(shí),把誤差信號(hào)按原來正向傳播的通路反向傳回,并對(duì)每個(gè)隱層的各個(gè)神經(jīng)元的權(quán)系數(shù)進(jìn)行修改,以望誤差信號(hào)趨向最小。二、BP算法的數(shù)學(xué)表達(dá)BP算法實(shí)質(zhì)是求取誤差函數(shù)的最小值問題。這種算法采用非線性規(guī)劃中的最速下降方法,按誤差函數(shù)的負(fù)梯度方向修改權(quán)系數(shù)。
16、為了說明BP算法,首先定義誤差函數(shù)e。取期望輸出和實(shí)際輸出之差的平方和為誤差函數(shù),則有:(監(jiān)督類學(xué)習(xí)一般對(duì)損失函數(shù)求最小)e=J2(XT-Y尸(1-34)其中:Yi是輸出單元的期望值;它也在這里用作教師信號(hào);Xim是實(shí)際輸出;因?yàn)榈趍層是輸出層。由于BP算法按誤差函數(shù)e的負(fù)梯度方向修改權(quán)系數(shù),故權(quán)系數(shù)Wj的修改量Awij,和e也可寫成(1-36)其中:刀為學(xué)習(xí)速率,即步長。很明顯,根據(jù)BP算法原則,求ae/aWj最關(guān)鍵的。下面求ae/aWij;有(1-37)戒。一甌一(1-38)故而3e3叫一叫卜從而有W-可X?7(1-39)(1-40)=一可k-1(1-41)則有學(xué)習(xí)公式:Wj=-Td&Xj
17、kT(1-42)其中:刀為學(xué)習(xí)速率,即步長,一般取0-1間的數(shù)。從上面可知,dik實(shí)際仍末給出明顯的算法公式,下面求dik的計(jì)算公式。3U/de*一陪河)(1-43)從式(1-32)可知在式(1-43)中,有(1-44)為了方便進(jìn)行求導(dǎo),取f為連續(xù)函數(shù)。一般取非線性連續(xù)函數(shù),例如Sigmoid函數(shù)。當(dāng)取f為非對(duì)稱Sigmoid函數(shù)時(shí),有:KUi,止則有:f(Uik)=f(Uik)(1-f(Uik)=Xik(1-Xik)(1-45)再考慮式(143)中的偏微分項(xiàng)ae/aXik,有兩種情況需考慮的:如果k=m,則是輸出層,這時(shí)有Yi是輸出期望值,它是常數(shù)。從式(1-34)有ax”I=(xr-w)(
18、1-46)從?1有di=X(1-Xi)(Xi-Yi)(1-47)2.如果kni則該層是隱層.這時(shí)應(yīng)考慮上一層對(duì)它的作用,故有:叫k+l從式(141)中,可知有:-dik+1au尸d(1-48)(1-49)從式(133)中,可知有:(m為輸出層)心對(duì)(1-X/)斗%d產(chǎn)1上面公式中,求取本層dj時(shí),要用到高一層的dik+1;可見,誤差函數(shù)的求取是從輸出層開始,到輸入層的反向傳播過程。在這個(gè)過程中不斷進(jìn)行遞歸求誤差。通過多個(gè)樣本的反復(fù)訓(xùn)練,同時(shí)向誤差漸漸減小的方向?qū)?quán)系數(shù)進(jìn)行修正,以達(dá)最終消除誤差。從上面公式也可以知道,如果網(wǎng)絡(luò)的層數(shù)較多時(shí),所用的計(jì)算量就相當(dāng)可觀,故而收斂速度不快。為了加快收斂速度,一般考慮上一次的權(quán)系數(shù),并以它作為本次修正的依據(jù)之一,故而有修正公式:W4+D=串卜號(hào)i+sAWijk)(1-54)其中:刀為學(xué)習(xí)速率,即步長,刀=0.10.4左右a為權(quán)系數(shù)修正常數(shù),取0.70.9左右。在上面,式(153)也稱為一月化的De代a法則。對(duì)于沒有隱層的神經(jīng)網(wǎng)絡(luò),可取園二式丫廣為)*(1-55)其中:,Yi為期望輸出;Xj為輸出層的實(shí)際輸出;Xi為輸入層的輸入。這顯然是一種十分簡單的情況,式(155)也稱為簡單De代a法則。在實(shí)際應(yīng)用中,只有一般化的De代a法則式(153)或式(154)才有意義。簡單De代a法則式(155)只在理論推導(dǎo)上有
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- 課題開題報(bào)告:地方劇種文獻(xiàn)文物研究
- 課題開題報(bào)告:當(dāng)代中國設(shè)計(jì)藝術(shù)理論與實(shí)踐研究
- 課題開題報(bào)告:殘疾學(xué)生體育康復(fù)活動(dòng)研究
- 鳳求凰協(xié)議模板
- 非金屬制天然氣動(dòng)力船舶企業(yè)ESG實(shí)踐與創(chuàng)新戰(zhàn)略研究報(bào)告
- 化學(xué)藥物雜質(zhì)控制標(biāo)準(zhǔn)行業(yè)深度調(diào)研及發(fā)展戰(zhàn)略咨詢報(bào)告
- 二零二五年抖音短視頻內(nèi)容審核規(guī)范合同
- 2025年度水溝蓋板行業(yè)技術(shù)交流與合作合同
- 員工住房補(bǔ)貼及安置協(xié)議(二零二五)
- 二零二五年度城市廣場公共設(shè)施無償場地使用協(xié)議書
- 考研考博-英語-天津職業(yè)技術(shù)師范大學(xué)考試押題三合一+答案詳解4
- 原型范疇理論(精選)課件
- 網(wǎng)絡(luò)賬號(hào)信息登記表
- 鋼樓梯計(jì)算(自動(dòng)版)
- 部編版八年級(jí)歷史(下)全冊(cè)教案
- 水土保持各種分級(jí)標(biāo)準(zhǔn)表與指標(biāo)
- (完整版)學(xué)生課堂學(xué)習(xí)自我評(píng)價(jià)表
- SAE-J400-2002-中文版
- Unit 1 How tall are you B Read and write(課堂PPT)
- 最新部編版九年級(jí)語文下冊(cè) 12《詞四首》課后習(xí)題參考答案
- 部編版四年級(jí)語文下冊(cè)27《巨人的花園》PPT課件(共2課時(shí))
評(píng)論
0/150
提交評(píng)論