python人工智能tensorflow函數(shù)tf.layers.dense使用方法_第1頁
python人工智能tensorflow函數(shù)tf.layers.dense使用方法_第2頁
python人工智能tensorflow函數(shù)tf.layers.dense使用方法_第3頁
python人工智能tensorflow函數(shù)tf.layers.dense使用方法_第4頁
全文預(yù)覽已結(jié)束

下載本文檔

版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡介

第python人工智能tensorflow函數(shù)tf.layers.dense使用方法目錄參數(shù)數(shù)量及其作用部分參數(shù)解釋:示例

參數(shù)數(shù)量及其作用

tf.layers.dense用于添加一個全連接層。

函數(shù)如下:

tf.layers.dense(

inputs,#層的輸入

units,#該層的輸出維度

activation=None,#激活函數(shù)

use_bias=True,

kernel_initializer=None,#卷積核的初始化器

bias_initializer=tf.zeros_initializer(),#偏置項(xiàng)的初始化器

kernel_regularizer=None,#卷積核的正則化

bias_regularizer=None,#偏置項(xiàng)的正則化

activity_regularizer=None,

kernel_constraint=None,

bias_constraint=None,

trainable=True,

name=None,#層的名字

reuse=None#是否重復(fù)使用參數(shù)

部分參數(shù)解釋:

inputs:輸入該層的數(shù)據(jù)。

units:該層的輸出維度。

activation:激活函數(shù)。

use_bias:是否使用偏置項(xiàng)。

trainable=True:表明該層的參數(shù)是否參與訓(xùn)練。

示例

手寫體例子,利用兩個dense可以構(gòu)成一個單層網(wǎng)絡(luò),在下面例子中,網(wǎng)絡(luò)的神經(jīng)元個數(shù)為200。

importnumpyasnp

importtensorflowastf

fromtensorflow.examples.tutorials.mnistimportinput_data

defcompute_accuracy(x_data,y_data):

globaldense2

y_pre=sess.run(dense2,feed_dict={xs:x_data})

correct_prediction=tf.equal(tf.arg_max(y_data,1),tf.arg_max(y_pre,1))#判斷是否相等

accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))#賦予float32數(shù)據(jù)類型,求平均。

result=sess.run(accuracy,feed_dict={xs:batch_xs,ys:batch_ys})#執(zhí)行

returnresult

mnist=input_data.read_data_sets("MNIST_data",one_hot="true")

xs=tf.placeholder(tf.float32,[None,784])

ys=tf.placeholder(tf.float32,[None,10])

dense1=tf.layers.dense(

200,

activation=tf.nn.tanh,

kernel_initializer=tf.random_normal_initializer(mean=0,stddev=0.3),

bias_initializer=tf.constant_initializer(0.1),

name='fc1'

dense2=tf.layers.dense(

dense1,

activation=tf.nn.softmax,

kernel_initializer=tf.random_normal_initializer(mean=0,stddev=0.3),

bias_initializer=tf.constant_initializer(0.1),

name='fc2'

loss=tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=dense2,labels=ys),name='loss')

#label是標(biāo)簽,logits是預(yù)測值,交叉熵。

train=tf.train.GradientDescentOptimizer(0.5).minimize(loss)

init=tf.initialize_all_variables()

withtf.Session()assess:

sess.run(init)

foriinrange(5001):

batch_xs,batch_ys=mnist.train.next_batch(100)

sess.run(train,feed_dict={xs:batch_xs,ys:batch_ys})

ifi%1000==0:

print("訓(xùn)練%d次的識別率為:%f。"%((i+1),compute_accuracy(mnist.test.images,mnist.test.labels)))

實(shí)驗(yàn)結(jié)果為:

訓(xùn)練1次的識別率為:0.107400。

訓(xùn)練1001次的識別率為:0.805200。

訓(xùn)練2001次的識別率為:0.822800。

訓(xùn)練3001次的識別率為:0.829400。

訓(xùn)練4001次的識別率為:0.833100。

溫馨提示

  • 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁內(nèi)容里面會有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫網(wǎng)僅提供信息存儲空間,僅對用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時也不承擔(dān)用戶因使用這些下載資源對自己和他人造成任何形式的傷害或損失。

評論

0/150

提交評論