国产探花免费观看_亚洲丰满少妇自慰呻吟_97日韩有码在线_资源在线日韩欧美_一区二区精品毛片,辰东完美世界有声小说,欢乐颂第一季,yy玄幻小说排行榜完本

首頁 > 網站 > 幫助中心 > 正文

淺談Tensorflow 動態雙向RNN的輸出問題

2024-07-09 22:43:16
字體:
來源:轉載
供稿:網友

tf.nn.bidirectional_dynamic_rnn()

函數:

def bidirectional_dynamic_rnn(  cell_fw, # 前向RNN  cell_bw, # 后向RNN  inputs, # 輸入  sequence_length=None,# 輸入序列的實際長度(可選,默認為輸入序列的最大長度)  initial_state_fw=None, # 前向的初始化狀態(可選)  initial_state_bw=None, # 后向的初始化狀態(可選)  dtype=None, # 初始化和輸出的數據類型(可選)  parallel_iterations=None,  swap_memory=False,  time_major=False,  # 決定了輸入輸出tensor的格式:如果為true, 向量的形狀必須為 `[max_time, batch_size, depth]`.  # 如果為false, tensor的形狀必須為`[batch_size, max_time, depth]`.  scope=None)

其中,

outputs為(output_fw, output_bw),是一個包含前向cell輸出tensor和后向cell輸出tensor組成的元組。假設

time_major=false,tensor的shape為[batch_size, max_time, depth]。實驗中使用tf.concat(outputs, 2)將其拼接。

output_states為(output_state_fw, output_state_bw),包含了前向和后向最后的隱藏狀態的組成的元組。

output_state_fw和output_state_bw的類型為LSTMStateTuple。

LSTMStateTuple由(c,h)組成,分別代表memory cell和hidden state。

返回值:

元組:(outputs, output_states)

這里還有最后的一個小問題,output_states是一個元組的元組,處理方法是用c_fw,h_fw = output_state_fw和c_bw,h_bw = output_state_bw,最后再分別將c和h狀態concat起來,用tf.contrib.rnn.LSTMStateTuple()函數生成decoder端的初始狀態

def encoding_layer(rnn_size,sequence_length,num_layers,rnn_inputs,keep_prob):  # rnn_size: rnn隱層節點數量  # sequence_length: 數據的序列長度  # num_layers:堆疊的rnn cell數量  # rnn_inputs: 輸入tensor  # keep_prob:  '''Create the encoding layer'''  for layer in range(num_layers):    with tf.variable_scope('encode_{}'.format(layer)):      cell_fw = tf.contrib.rnn.LSTMCell(rnn_size,initializer=tf.random_uniform_initializer(-0.1,0.1,seed=2))      cell_fw = tf.contrib.rnn.DropoutWrapper(cell_fw,input_keep_prob=keep_prob)       cell_bw = tf.contrib.rnn.LSTMCell(rnn_size,initializer=tf.random_uniform_initializer(-0.1,0.1,seed=2))      cell_bw = tf.contrib.rnn.DropoutWrapper(cell_bw,input_keep_prob = keep_prob)       enc_output,enc_state = tf.nn.bidirectional_dynamic_rnn(cell_fw,cell_bw,                                  rnn_inputs,sequence_length,dtype=tf.float32)   # join outputs since we are using a bidirectional RNN  enc_output = tf.concat(enc_output,2)   return enc_output,enc_state

tf.nn.dynamic_rnn()

tf.nn.dynamic_rnn的返回值有兩個:outputs和state

為了描述輸出的形狀,先介紹幾個變量,batch_size是輸入的這批數據的數量,max_time就是這批數據中序列的最長長度,如果輸入的三個句子,那max_time對應的就是最長句子的單詞數量,cell.output_size其實就是rnn cell中神經元的個數。

例子來說明其用法,假設你的RNN的輸入input是[2,20,128],其中2是batch_size,20是文本最大長度,128是embedding_size,可以看出,有兩個example,我們假設第二個文本長度只有13,剩下的7個是使用0-padding方法填充的。dynamic返回的是兩個參數:outputs,state,其中outputs是[2,20,128],也就是每一個迭代隱狀態的輸出,state是由(c,h)組成的tuple,均為[batch,128]。

發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 饶平县| 荣成市| 通海县| 南丹县| 神池县| 美姑县| 汝州市| 高尔夫| 两当县| 铅山县| 麻江县| 金平| 合肥市| 桃园市| 塔河县| 湖州市| 景谷| 潼关县| 枣阳市| 吉木萨尔县| 鲜城| 红河县| 海伦市| 玛曲县| 长葛市| 白山市| 濮阳县| 惠东县| 淳化县| 绥阳县| 霸州市| 东安县| 宜良县| 两当县| 宾阳县| 金华市| 郧西县| 仲巴县| 大庆市| 长宁县| 那坡县|