国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁(yè) > 編程 > Python > 正文

tensorflow入門(mén)之訓(xùn)練簡(jiǎn)單的神經(jīng)網(wǎng)絡(luò)方法

2020-02-22 23:19:24
字體:
來(lái)源:轉(zhuǎn)載
供稿:網(wǎng)友

這幾天開(kāi)始學(xué)tensorflow,先來(lái)做一下學(xué)習(xí)記錄

一.神經(jīng)網(wǎng)絡(luò)解決問(wèn)題步驟:

1.提取問(wèn)題中實(shí)體的特征向量作為神經(jīng)網(wǎng)絡(luò)的輸入。也就是說(shuō)要對(duì)數(shù)據(jù)集進(jìn)行特征工程,然后知道每個(gè)樣本的特征維度,以此來(lái)定義輸入神經(jīng)元的個(gè)數(shù)。

2.定義神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),并定義如何從神經(jīng)網(wǎng)絡(luò)的輸入得到輸出。也就是說(shuō)定義輸入層,隱藏層以及輸出層。

3.通過(guò)訓(xùn)練數(shù)據(jù)來(lái)調(diào)整神經(jīng)網(wǎng)絡(luò)中的參數(shù)取值,這是訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過(guò)程。一般來(lái)說(shuō)要定義模型的損失函數(shù),以及參數(shù)優(yōu)化的方法,如交叉熵?fù)p失函數(shù)和梯度下降法調(diào)優(yōu)等。

4.利用訓(xùn)練好的模型預(yù)測(cè)未知的數(shù)據(jù)。也就是評(píng)估模型的好壞。

二.訓(xùn)練簡(jiǎn)單的向前傳播神經(jīng)網(wǎng)絡(luò)

一下訓(xùn)練的神經(jīng)模型是最簡(jiǎn)單的一類,而且是線性的(也就是說(shuō)沒(méi)有用激活函數(shù)去線性話),沒(méi)有反向傳播的過(guò)程,只是簡(jiǎn)單的說(shuō)明神經(jīng)網(wǎng)絡(luò)工作的流程。

import tensorflow as tf#定義隱藏層參數(shù),每個(gè)w變量是一個(gè)tensor(可以當(dāng)成是n*m的數(shù)組,n表示上一層結(jié)點(diǎn)個(gè)數(shù),m表示本層結(jié)點(diǎn)個(gè)數(shù))表示上一層與本層的連接權(quán)重,這里先隨機(jī)定義權(quán)重w1=tf.Variable(tf.random_normal([2,3],stddev=1))w2=tf.Variable(tf.random_normal([3,1],stddev=1))#定義存放輸入數(shù)據(jù)的地方,也就是x向量,這里shape為前一個(gè)傳入訓(xùn)練的樣本個(gè)數(shù),后面出入每個(gè)樣本的維度大小x=tf.placeholder(tf.float32,shape=(None,2),name="input")#矩陣乘法a=tf.matmul(x,w1)y=tf.matmul(a,w2)with tf.Session() as sess:  #新版本好像不能用這個(gè)函數(shù)初始化所有變量了  init_op=tf.initialize_all_variables()  sess.run(init_op)  #feed_dict用于向y中的x傳入?yún)?shù),這里傳入3個(gè),則y輸出為一個(gè)3*1的tensor  print(sess.run(y,feed_dict={x:[[0.7,0.9],[1.0,1.5],[2.1,2.3]]}))

至此,一個(gè)用x的每個(gè)維度乘以兩層權(quán)重之后輸出單個(gè)值得線性神經(jīng)網(wǎng)絡(luò)就定義好了。

三.定義損失函數(shù)以及反向傳播算法

有了上面的基礎(chǔ),我們可以定義損失函數(shù)以及反向傳播算法去擬合數(shù)據(jù)了,非線性數(shù)據(jù)我們可以定義激活函數(shù)去線性化。還有一些細(xì)節(jié)就是學(xué)習(xí)率的問(wèn)題,這次使用的是動(dòng)態(tài)學(xué)習(xí)率,首先把學(xué)習(xí)率設(shè)定為比較大的值,加速收斂,然后隨著迭代次數(shù)的增加,學(xué)習(xí)率不斷下降,防止錯(cuò)過(guò)局部最小值。還有一個(gè)問(wèn)題,就是防止過(guò)擬合。一般神經(jīng)網(wǎng)絡(luò)防止過(guò)擬合的策略有兩種,一種是正則化,一種是dropout,我們暫且不作討論后者

損失函數(shù):交叉熵

反向傳播算法:梯度下降法

激活函數(shù):relu

# -*- coding: utf-8 -*-"""Created on Fri Aug 18 14:02:19 2017@author: osT"""import tensorflow as tf import numpy as np#導(dǎo)入數(shù)據(jù),這里的數(shù)據(jù)是每一行代表一個(gè)樣本,每一行最后一列表示樣本標(biāo)簽,0-32一共33個(gè)類data=np.loadtxt('train_data.txt',dtype='float',delimiter=',')#將樣本標(biāo)簽轉(zhuǎn)換成獨(dú)熱編碼def label_change(before_label):  label_num=len(before_label)  change_arr=np.zeros((label_num,33))  for i in range(label_num):    #該樣本標(biāo)簽原本為0-32的,本人疏忽下32標(biāo)記成33    if before_label[i]==33.0:      change_arr[i,int(before_label[i]-1)]=1    else:      change_arr[i,int(before_label[i])]=1  return change_arr#定義神經(jīng)網(wǎng)絡(luò)的輸入輸出結(jié)點(diǎn),每個(gè)樣本為1*315維,以及輸出分類結(jié)果INPUT_NODE=315OUTPUT_NODE=33#定義兩層隱含層的神經(jīng)網(wǎng)絡(luò),一層300個(gè)結(jié)點(diǎn),一層100個(gè)結(jié)點(diǎn)LAYER1_NODE=300LAYER2_NODE=100#定義學(xué)習(xí)率,學(xué)習(xí)率衰減速度,正則系數(shù),訓(xùn)練調(diào)整參數(shù)的次數(shù)以及平滑衰減率LEARNING_RATE_BASE=0.5LEARNING_RATE_DECAY=0.99REGULARIZATION_RATE=0.0001TRAINING_STEPS=2000MOVING_AVERAGE_DECAY=0.99#定義整個(gè)神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),也就是向前傳播的過(guò)程,avg_class為平滑可訓(xùn)練量的類,不傳入則不使用平滑def inference(input_tensor,avg_class,w1,b1,w2,b2,w3,b3):  if avg_class==None:    #第一層隱含層,輸入與權(quán)重矩陣乘后加上常數(shù)傳入激活函數(shù)作為輸出    layer1=tf.nn.relu(tf.matmul(input_tensor,w1)+b1)    #第二層隱含層,前一層的輸出與權(quán)重矩陣乘后加上常數(shù)作為輸出    layer2=tf.nn.relu(tf.matmul(layer1,w2)+b2)    #返回 第二層隱含層與權(quán)重矩陣乘加上常數(shù)作為輸出    return tf.matmul(layer2,w3)+b3  else:    #avg_class.average()平滑訓(xùn)練變量,也就是每一層與上一層的權(quán)重    layer1=tf.nn.relu(tf.matmul(input_tensor,avg_class.average(w1))+avg_class.average(b1))    layer2=tf.nn.relu(tf.matmul(layer1,avg_class.average(w2))+avg_class.average(b2))    return tf.matmul(layer2,avg_class.average(w3))+avg_class.average(b3)def train(data):  #混洗數(shù)據(jù)  np.random.shuffle(data)  #取錢(qián)850個(gè)樣本為訓(xùn)練樣本,后面的全是測(cè)試樣本,約250個(gè)  data_train_x=data[:850,:315]  data_train_y=label_change(data[:850,-1])  data_test_x=data[850:,:315]  data_test_y=label_change(data[850:,-1])  #定義輸出數(shù)據(jù)的地方,None表示無(wú)規(guī)定一次輸入多少訓(xùn)練樣本,y_是樣本標(biāo)簽存放的地方  x=tf.placeholder(tf.float32,shape=[None,INPUT_NODE],name='x-input')  y_=tf.placeholder(tf.float32,shape=[None,OUTPUT_NODE],name='y-input')  #依次定義每一層與上一層的權(quán)重,這里用隨機(jī)數(shù)初始化,注意shape的對(duì)應(yīng)關(guān)系  w1=tf.Variable(tf.truncated_normal(shape=[INPUT_NODE,LAYER1_NODE],stddev=0.1))  b1=tf.Variable(tf.constant(0.1,shape=[LAYER1_NODE]))  w2=tf.Variable(tf.truncated_normal(shape=[LAYER1_NODE,LAYER2_NODE],stddev=0.1))  b2=tf.Variable(tf.constant(0.1,shape=[LAYER2_NODE]))  w3=tf.Variable(tf.truncated_normal(shape=[LAYER2_NODE,OUTPUT_NODE],stddev=0.1))  b3=tf.Variable(tf.constant(0.1,shape=[OUTPUT_NODE]))  #輸出向前傳播的結(jié)果  y=inference(x,None,w1,b1,w2,b2,w3,b3)  #每訓(xùn)練完一次就會(huì)增加的變量  global_step=tf.Variable(0,trainable=False)  #定義平滑變量的類,輸入為平滑衰減率和global_stop使得每訓(xùn)練完一次就會(huì)使用平滑過(guò)程  variable_averages=tf.train.ExponentialMovingAverage(MOVING_AVERAGE_DECAY,global_step)  #將平滑應(yīng)用到所有可訓(xùn)練的變量,即trainable=True的變量  variable_averages_op=variable_averages.apply(tf.trainable_variables())  #輸出平滑后的預(yù)測(cè)值  average_y=inference(x,variable_averages,w1,b1,w2,b2,w3,b3)  #定義交叉熵和損失函數(shù),但為什么傳入的是label的arg_max(),就是對(duì)應(yīng)分類的下標(biāo)呢,我們遲點(diǎn)再說(shuō)  cross_entropy=tf.nn.sparse_softmax_cross_entropy_with_logits(logits=y,labels=tf.arg_max(y_,1))  #計(jì)算交叉熵的平均值,也就是本輪訓(xùn)練對(duì)所有訓(xùn)練樣本的平均值  cross_entrip_mean=tf.reduce_mean(cross_entropy)  #定義正則化權(quán)重,并將其加上交叉熵作為損失函數(shù)  regularizer=tf.contrib.layers.l2_regularizer(REGULARIZATION_RATE)  regularization=regularizer(w1)+regularizer(w2)+regularizer(w3)  loss=cross_entrip_mean+regularization  #定義動(dòng)態(tài)學(xué)習(xí)率,隨著訓(xùn)練的步驟增加不斷遞減  learning_rate=tf.train.exponential_decay(LEARNING_RATE_BASE,global_step,900,LEARNING_RATE_DECAY)  #定義向后傳播的算法,梯度下降發(fā),注意后面的minimize要傳入global_step  train_step=tf.train.GradientDescentOptimizer(learning_rate).minimize(loss,global_step=global_step)  #管理需要更新的變量,傳入的參數(shù)是包含需要訓(xùn)練的變量的過(guò)程  train_op=tf.group(train_step,variable_averages_op)  #正確率預(yù)測(cè)  correct_prediction=tf.equal(tf.arg_max(average_y,1),tf.arg_max(y_,1))  accuracy=tf.reduce_mean(tf.cast(correct_prediction,tf.float32))  with tf.Session() as sess:    #初始所有變量    tf.global_variables_initializer().run()    #訓(xùn)練集輸入字典    validate_feed={x:data_train_x,y_:data_train_y}    #測(cè)試集輸入字典    test_feed={x:data_test_x,y_:data_test_y}    for i in range(TRAINING_STEPS):      if i%1000==0:        validate_acc=sess.run(accuracy,feed_dict=validate_feed)        print("After %d training step(s),validation accuracy using average model is %g"%(i,validate_acc))      #每一輪通過(guò)同一訓(xùn)練集訓(xùn)練,由于樣本太少,沒(méi)辦法了      sess.run(train_op,feed_dict=validate_feed)    #用測(cè)試集查看模型的準(zhǔn)確率    test_acc=sess.run(accuracy,feed_dict=test_feed)    print("After %d training step(s),test accuracy using average model is %g"%(TRAINING_STEPS,test_acc))train(data)            
發(fā)表評(píng)論 共有條評(píng)論
用戶名: 密碼:
驗(yàn)證碼: 匿名發(fā)表
主站蜘蛛池模板: 肃宁县| 靖西县| 布尔津县| 汪清县| 崇义县| 岢岚县| 云浮市| 江华| 凯里市| 武冈市| 古丈县| 行唐县| 汪清县| 临清市| 余姚市| 区。| 澳门| 望奎县| 金溪县| 周至县| 瑞安市| 虹口区| 石泉县| 老河口市| 灵台县| 汝阳县| 平顺县| 马关县| 惠水县| 大庆市| 鹤岗市| 福安市| 顺昌县| 临夏县| 忻州市| 石门县| 绍兴市| 潞西市| 灵寿县| 江城| 内江市|