在訓練循環中,定期調用 saver.save() 方法,向文件夾中寫入包含了當前模型中所有可訓練變量的 checkpoint 文件。
saver.save(sess, FLAGS.train_dir, global_step=step)
global_step是訓練的第幾步
保存參數:
import tensorflow as tf W = tf.Variable([[1, 2, 3]], dtype=tf.float32)b = tf.Variable([[1]], dtype=tf.float32) saver = tf.train.Saver() sess = tf.InteractiveSession()tf.global_variables_initializer().run()# 必須要指定文件夾,保存到ckpt文件save_path = saver.save(sess, "winycg/1.ckpt")print(save_path)
一次 saver.save() 后可以在文件夾中看到新增的四個文件,實際上每調用一次保存操作會創建后3個數據文件并創建一個檢查點(checkpoint)文件,簡單理解就是權重等參數被保存到 .chkp.data 文件中,以字典的形式;圖和元數據被保存到 .chkp.meta 文件中,可以被 tf.train.import_meta_graph 加載到當前默認的圖。
讀取參數:
import tensorflow as tfimport numpy as np W = tf.Variable(np.arange(3).reshape(1, 3), dtype=tf.float32)b = tf.Variable(np.arange(1).reshape(1, 1), dtype=tf.float32) saver = tf.train.Saver() sess = tf.InteractiveSession()# 讀取參數時不需要global_variables_initializer()save_path = saver.restore(sess, "parameter/1.ckpt")print("weights:", sess.run(W))print("bias:", sess.run(b))
weights: [[ 1. 2. 3.]]
bias: [[ 1.]]
以上這篇TensorFlow利用saver保存和提取參數的實例就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持武林站長站。
新聞熱點
疑難解答