模型保存(tf.keras保存模型)

  • 保存
  • Tf.Keras 模型保存为 HDF5 文件
  • Keras 使用了 h5py Python 包。
  • h5py 是 Keras 的依赖项,应默认被安装
  • 保存/加载整个模型
  • 不建议使用 pickle 或 cPickle 来保存模型。
  • 使用 model.save(‘path/to/my_model.h5’) 将整个模型保存到单个 HDF5 文件中。
  • 包括以下内容:
  • · 模型的结构,允许重新创建模型
  • · 模型的权重
  • · 训练配置项(损失函数,优化器)
  • · 优化器状态,允许准确地从你上次结束的地方继续训练。
  • 保存/加载整个模型可使我们在不访问原始 python 代码的情况下使用模型。还可以从中断的位置恢复训练。
  • 保存完整模型会非常有用——我们可以在 TensorFlow.js (HDF5, Saved Model) 加载保存的模型,然后在 web 浏览器中训练和运行它们,或者使用 TensorFlow Lite 将它们转换为在移动设备上运行(HDF5, Saved Model)
  • 重新创建完全相同的模型,包括其权重和优化程序new_model = tf.keras.models.load_model(‘my_model.h5’)
  • Keras 通过检查网络结构来保存模型。
  • 目前,它无法保存 Tensorflow 优化器(调用自tf.train)。使用这些优化器的时候,需要在加载后重新编译模型,否则将失去优化器的状态。
  • 通过 saved_model 格式保存(实验性的,未来可能变化):tf.keras.experimental.export_saved_model(model, saved_model_path)
  • 通过 saved_model 格式恢复:new_model =tf.keras.experimental.load_from_saved_model(sav
    ed_model_path)
  • 通过 saved_model 格式恢复:saved_model 格式包含完整的TensorFlow程序,是tensorflow对象的独立序列化格式,包括权重和计算。它不需要运行原始模型构建代码,这使得它可用于共享或部署(使用TFLite,TensorFlow.js,TensorFlow服务)
  • 只保存/加载模型的结构
  • 保存模型的结构,而非其权重或训练配置项:Config = model.get_config()
  • 得到的是一个Python Dict,它使我们可以重新创建相同的结构的模型
  • 加载模型的结构,而非其权重或训练配置项:Reinitialized_model = tf.keras.Model.from_config(config)
  • 保存模型的结构,也可以使用json字符串,方便保存到磁盘:json_string = model.to_json()
  • Reinitialized_model = tf.keras.models.model_from_json(json_string )
  • 只保存模型的权重:model.save_weights(‘my_model_weights.h5’)
  • 只加载模型的权重 :model.load_weights(‘my_model_weights.h5’)
  • 注意保存和加载模型的权重 :既可以使用HDF5格式也可以使用SavedModel格式,取决于后缀,也可以通过 save_format参数来显式指定。
  • 参数可以取: tf 或 h5
  • 在训练期间保存模型
  • tf.keras.callbacks.ModelCheckpoint 允许在训练的过程中和结束时回调保存的模型。

例子

import os
import tensorflow as tf
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
os.environ['TF_FORCE_GPU_ALLOW_GROWTH'] = 'true'
gpu_ok = tf.test.is_gpu_available()
print("tf version:", tf.__version__)
print("use GPU", gpu_ok) # 判断是否使用gpu进行训练

DeepFM tensorflow实战 tensorflow hdf5_加载

# 下载数据集并划分为训练集和测试集
(train_image,train_lable),(test_image,test_label) = tf.keras.datasets.fashion_mnist.load_data()
# 归一化
train_image=train_image/255
test_image=test_image/255
# 建立模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Flatten(input_shape=(28,28))) # 28*28
model.add(tf.keras.layers.Dense(128,activation="relu"))
model.add(tf.keras.layers.Dense(10,activation="softmax"))
# 编译模型
model.compile(optimizer="adam",
             loss="sparse_categorical_crossentropy",
             metrics=["acc"]
             )
# 使用训练集训练模型
model.fit(train_image,train_lable,epochs=5)

DeepFM tensorflow实战 tensorflow hdf5_加载_02

# 使用测试集进行评价
model.evaluate(test_image,test_label)

DeepFM tensorflow实战 tensorflow hdf5_加载_03


保存整个模型

整个模型可以保存到一个文件中,其中包含权重值、模型配置乃至优化器配置。这样,您就可以为模型设置检查点,并稍后从完全相同的状态继续训练,而无需访问原始代码。

在 Keras 中保存完全可正常使用的模型非常有用,您可以在 TensorFlow.js 中加载它们,然后在网络浏览器中训练和运行它们。

Keras 使用 HDF5 标准提供基本的保存格式。

# 保存模型:此方法保存以下所有内容:
# 1.权重值 2.模型配置(架构) 3.优化器配置
model.save("./save/less_model.h5")

DeepFM tensorflow实战 tensorflow hdf5_h5_04

# 加载模型
new_model = tf.keras.models.load_model("./save/less_model.h5")
new_model.summary()# 查看模型架构

DeepFM tensorflow实战 tensorflow hdf5_加载_05

# 使用测试集进行评价
new_model.evaluate(test_image,test_label)

DeepFM tensorflow实战 tensorflow hdf5_h5_06


仅保存架构

有时我们只对模型的架构感兴趣,而无需保存权重值或优化器。在这种情况下,可以仅保存模型的“配置” 。

  • 保存架构只需要使用with open 文件操作方法把json_config 把配置写入磁盘就行
json_config = model.to_json()
json_config

DeepFM tensorflow实战 tensorflow hdf5_加载_07

# 重建模型
reinitialized_model = tf.keras.models.model_from_json(json_config)
reinitialized_model.summary()

DeepFM tensorflow实战 tensorflow hdf5_加载_08

# 编译
reinitialized_model.compile(optimizer="adam",
             loss="sparse_categorical_crossentropy",
             metrics=["acc"]
             )
# 使用测试集进行评价  因权重是随机的所以准确率稍微降低了
reinitialized_model.evaluate(test_image,test_label)

DeepFM tensorflow实战 tensorflow hdf5_h5_09


仅保存权重

有时我们只需要保存模型的状态(其权重值),而对模型架构不感兴趣。在这种情况下,可以通过get_weights()获取权重值,并通过set_weights()设置权重值

weights = model.get_weights()

DeepFM tensorflow实战 tensorflow hdf5_权重_10

# 加载权重
reinitialized_model.set_weights(weights)
# 使用测试集进行评价 
reinitialized_model.evaluate(test_image,test_label)

DeepFM tensorflow实战 tensorflow hdf5_DeepFM tensorflow实战_11

# 把权重保存到磁盘上
model.save_weights("./save/less_weights.h5")

DeepFM tensorflow实战 tensorflow hdf5_DeepFM tensorflow实战_12

# 从磁盘上加载权重
reinitialized_model.load_weights("./save/less_weights.h5")
# 使用测试集进行评价 
reinitialized_model.evaluate(test_image,test_label)

DeepFM tensorflow实战 tensorflow hdf5_DeepFM tensorflow实战_13


在训练期间保存检查点

在训练期间或训练结束时自动保存检查点。这样一来,您便可以使用经过训练的模型,而无需重新训练该模型,或从上次暂停的地方继续训练,以防训练过程中断。

回调函数:tf.keras.callbacks.ModelCheckpoint

Checkpoint_path = "./save/cp.cpkt" # 定义路径
cp_callback = tf.keras.callbacks.ModelCheckpoint(Checkpoint_path,
                                                 save_weights_only=True)# 只保存权重save_weights_only=True
# 建立模型
model = tf.keras.Sequential()
model.add(tf.keras.layers.Flatten(input_shape=(28,28))) # 28*28
model.add(tf.keras.layers.Dense(128,activation="relu"))
model.add(tf.keras.layers.Dense(10,activation="softmax"))
# 编译模型
model.compile(optimizer="adam",
             loss="sparse_categorical_crossentropy",
             metrics=["acc"]
             )
# 使用训练集训练模型
model.fit(train_image,train_lable,epochs=5,callbacks=[cp_callback]) # 每训练一个epoch后保存一次

DeepFM tensorflow实战 tensorflow hdf5_h5_14

# 使用检查点文件
model.load_weights(Checkpoint_path)
model.evaluate(test_image,test_label)

DeepFM tensorflow实战 tensorflow hdf5_h5_15


自定义中保存模型

import os
import tensorflow as tf
import pandas as pd
import numpy as np
import matplotlib.pyplot as plt
os.environ['TF_FORCE_GPU_ALLOW_GROWTH'] = 'true'
gpu_ok = tf.test.is_gpu_available()
print("tf version:", tf.__version__)
print("use GPU", gpu_ok) # 判断是否使用gpu进行训练
(train_image, train_lable), (test_image, test_label) = tf.keras.datasets.fashion_mnist.load_data()
train_image = train_image/255
test_image = test_image/255
model = tf.keras.Sequential()
model.add(tf.keras.layers.Flatten(input_shape=(28,28)))  # 28*28
model.add(tf.keras.layers.Dense(128, activation='relu'))
model.add(tf.keras.layers.Dense(10))
optimizer = tf.keras.optimizers.Adam()
loss_func = tf.keras.losses.SparseCategoricalCrossentropy(from_logits=True)
def loss(model, x, y):
    y_ = model(x)
    return loss_func(y, y_)
def train_step(model, images, labels):
    with tf.GradientTape() as t:
        pred = model(images)
        loss_step = loss_func(labels, pred)
    grads = t.gradient(loss_step, model.trainable_variables)
    optimizer.apply_gradients(zip(grads, model.trainable_variables))
    train_loss(loss_step)
    train_accuracy(labels, pred)
train_loss = tf.keras.metrics.Mean('train_loss', dtype=tf.float32)
train_accuracy = tf.keras.metrics.SparseCategoricalAccuracy('train_accuracy')
test_loss = tf.keras.metrics.Mean('test_loss', dtype=tf.float32)
test_accuracy = tf.keras.metrics.SparseCategoricalAccuracy('test_accuracy')
cp_dir = './save' # 存储路径
cp_prefix = os.path.join(cp_dir, 'ckpt')
checkpoint = tf.train.Checkpoint(optimizer=optimizer,
                                 model=model 
) # 需要保存的参数
dataset = tf.data.Dataset.from_tensor_slices((train_image, train_lable))
dataset = dataset.shuffle(10000).batch(32)
def train():
    for epoch in range(5):
        for (batch, (images, labels)) in enumerate(dataset):
            train_step(model, images, labels)
        print('Epoch{} loss is {}'.format(epoch, train_loss.result()))
        print('Epoch{} Accuracy is {}'.format(epoch, train_accuracy.result()))
        train_loss.reset_states()
        train_accuracy.reset_states()
        if (epoch + 1) % 2 == 0:
            checkpoint.save(file_prefix = cp_prefix)
train()

DeepFM tensorflow实战 tensorflow hdf5_加载_16


DeepFM tensorflow实战 tensorflow hdf5_h5_17

tf.train.latest_checkpoint(cp_dir)

DeepFM tensorflow实战 tensorflow hdf5_加载_18

# 恢复模型 
checkpoint.restore(tf.train.latest_checkpoint(cp_dir)) # 取出最新的检查点
tf.argmax(model(train_image, training=False), axis=-1).numpy() # 取出预测值

DeepFM tensorflow实战 tensorflow hdf5_权重_19

train_lable # 实际值

DeepFM tensorflow实战 tensorflow hdf5_权重_20

# 求出正确率
(tf.argmax(model(train_image, training=False), axis=-1).numpy() == train_lable).sum()/len(train_lable)

DeepFM tensorflow实战 tensorflow hdf5_h5_21