關于模型保存的一點心得
saver = tf.train.Saver(max_to_keep=3)
在定義 saver 的時候一般會定義最多保存模型的數量,一般來說,如果模型本身很大,我們需要考慮到硬盤大小。如果你需要在當前訓練好的模型的基礎上進行 fine-tune,那么盡可能多的保存模型,后繼 fine-tune 不一定從最好的 ckpt 進行,因為有可能一下子就過擬合了。但是如果保存太多,硬盤也有壓力呀。如果只想保留最好的模型,方法就是每次迭代到一定步數就在驗證集上計算一次 accuracy 或者 f1 值,如果本次結果比上次好才保存新的模型,否則沒必要保存。
如果你想用不同 epoch 保存下來的模型進行融合的話,3到5 個模型已經足夠了,假設這各融合的模型成為 M,而最好的一個單模型稱為 m_best, 這樣融合的話對于M 確實可以比 m_best 更好。但是如果拿這個模型和其他結構的模型再做融合的話,M 的效果并沒有 m_best 好,因為M 相當于做了平均操作,減少了該模型的“特性”。
但是又有一種新的融合方式,就是利用調整學習率來獲取多個局部最優點,就是當 loss 降不下了,保存一個 ckpt, 然后開大學習率繼續尋找下一個局部最優點,然后用這些 ckpt 來做融合,還沒試過,單模型肯定是有提高的,就是不知道還會不會出現上面再與其他模型融合就沒提高的情況。
如何使用 tf.train.Saver() 來保存模型
之前一直出錯,主要是因為坑爹的編碼問題。所以要注意文件的路徑絕對不不要出現什么中文呀。
import tensorflow as tfconfig = tf.ConfigProto()config.gpu_options.allow_growth = Truesess = tf.Session(config=config)# Create some variables.v1 = tf.Variable([1.0, 2.3], name="v1")v2 = tf.Variable(55.5, name="v2")# Add an op to initialize the variables.init_op = tf.global_variables_initializer()# Add ops to save and restore all the variables.saver = tf.train.Saver()ckpt_path = './ckpt/test-model.ckpt'# Later, launch the model, initialize the variables, do some work, save the# variables to disk.sess.run(init_op)save_path = saver.save(sess, ckpt_path, global_step=1)print("Model saved in file: %s" % save_path)Model saved in file: ./ckpt/test-model.ckpt-1
注意,在上面保存完了模型之后。應該把 kernel restart 之后才能使用下面的模型導入。否則會因為兩次命名 “v1” 而導致名字錯誤。
import tensorflow as tfconfig = tf.ConfigProto()config.gpu_options.allow_growth = Truesess = tf.Session(config=config)# Create some variables.v1 = tf.Variable([11.0, 16.3], name="v1")v2 = tf.Variable(33.5, name="v2")# Add ops to save and restore all the variables.saver = tf.train.Saver()# Later, launch the model, use the saver to restore variables from disk, and# do some work with the model.# Restore variables from disk.ckpt_path = './ckpt/test-model.ckpt'saver.restore(sess, ckpt_path + '-'+ str(1))print("Model restored.")print sess.run(v1)print sess.run(v2)
新聞熱點
疑難解答