关于Keras模型:
Keras有两类模型:Sequential 顺序模型 和 使用函数式 API 的 Model 类模型。
两大模型的共同方法:

model.summary(): 打印出模型概述信息。 
model.get_config(): 返回包含模型配置信息的字典。
model.get_weights(): 返回模型权重的张量列表,类型为 Numpy array。
model.set_weights(weights): 从 Nympy array 中为模型设置权重。列表中的数组必须与 get_weights() 返回的权重具有相同的尺寸。
model.to_json(): 以 JSON 字符串的形式返回模型的表示。请注意,该表示不包括权重,只包含结构。
model.to_yaml(): 以 YAML 字符串的形式返回模型的表示。请注意,该表示不包括权重,只包含结构。
model.save_weights(filepath): 将模型权重存储为 HDF5 文件。
model.load_weights(filepath, by_name=False): 从 HDF5 文件(由 save_weights 创建)中加载权重。

更多信息:​​https://keras.io/zh/models/sequential/​


Sequential 顺序模型 API
verbose: 0, 1 或 2。日志显示模式。 0 = 安静模式, 1 = 进度条, 2 = 每轮一行。

evaluate(self, x=None, y=None, batch_size=None, verbose=1, sample_weight=None, steps=None)

steps: 整数或 None。 声明评估结束之前的总步数(批次样本)。默认值 None。

predict

predict(self, x, batch_size=None, verbose=0, steps=None)

为输入样本生成输出预测。输入样本逐批处理。
steps: 声明预测结束之前的总步数(批次样本)。默认值 None。


数据生成器:

fit_generator

fit_generator(self, generator, steps_per_epoch=None, epochs=1, verbose=1, callbacks=None, validation_data=None, validation_steps=None, class_weight=None, max_queue_size=10, workers=1, use_multiprocessing=False, shuffle=True, initial_epoch=0)

使用 Python 生成器逐批生成的数据,按批次训练模型。
生成器与模型并行运行,以提高效率。 例如,这可以让你在 CPU 上对图像进行实时数据增强,以在 GPU 上训练模型。
参数:

参数

generator: 一个生成器。 生成器的输出应该为以下之一:
一个 (inputs, targets) 元组
一个 (inputs, targets, sample_weights) 元组。 所有的数组都必须包含同样数量的样本。生成器将无限地在数据集上循环。当运行到第 steps_per_epoch 时,记一个 epoch 结束。
steps_per_epoch: 在声明一个 epoch 完成并开始下一个 epoch 之前从 generator 产生的总步数(批次样本)。它通常应该等于你的数据集的样本数量除以批量大小。可选参数 Sequence:如果未指定,将使用len(generator) 作为步数。
epochs: 整数,数据的迭代总轮数。请注意,与 initial_epoch 一起,参数 epochs 应被理解为 「最终轮数」。模型并不是训练了 epochs 轮,而是到第 epochs 轮停止训练。
verbose: 日志显示模式。0,1 或 2。
callbacks: 在训练时调用的一系列回调函数。
validation_data: 它可以是以下之一:
验证数据的生成器
一个 (inputs, targets) 元组
一个 (inputs, targets, sample_weights) 元组。
validation_steps: 仅当 validation_data 是一个生成器时才可用。 每个 epoch 结束时验证集生成器产生的步数。它通常应该等于你的数据集的样本数量除以批量大小。可选参数 Sequence:如果未指定,将使用len(generator) 作为步数。
class_weight: 将类别映射为权重的字典。
max_queue_size: 生成器队列的最大尺寸。
workers: 使用的最大进程数量。
use_multiprocessing: 如果 True,则使用基于进程的多线程。 请注意,因为此实现依赖于多进程,所以不应将不可传递的参数传递给生成器,因为它们不能被轻易地传递给子进程。
shuffle: 是否在每轮迭代之前打乱 batch 的顺序。只能与 Sequence (keras.utils.Sequence) 实例同用。
initial_epoch: 开始训练的轮次(有助于恢复之前的训练)。
def generate_arrays_from_file(path):
while 1:
f = open(path)
for line in f:
# create Numpy arrays of input data
# and labels, from each line in the file
x, y = process_line(line)
yield (x, y)
f.close()

model.fit_generator(generate_arrays_from_file('/my_file.txt'),
steps_per_epoch=1000, epochs=10)

evaluate_generator

evaluate_generator(self, generator, steps=None, max_queue_size=10, workers=1, use_multiprocessing=False)

在数据生成器上评估模型。
参数:

generator: 生成器,生成 (inputs, targets) 或 (inputs, targets, sample_weights)
steps: 在停止之前,来自 generator 的总步数 (样本批次)。 可选参数 Sequence:如果未指定,将使用len(generator) 作为步数。
max_queue_size: 生成器队列的最大尺寸。
workers: 使用的最大进程数量。
use_multiprocessing: 如果 True,则使用基于进程的多线程。 请注意,因为此实现依赖于多进程,所以不应将不可传递的参数传递给生成器,因为它们不能被轻易地传递给子进程。

predict_generator

predict_generator(self, generator, steps=None, max_queue_size=10, workers=1, use_multiprocessing=False, verbose=0)

为来自数据生成器的输入样本生成预测。
参数:

generator: 返回批量输入样本的生成器。
steps: 在停止之前,来自 generator 的总步数 (样本批次)。 可选参数 Sequence:如果未指定,将使用len(generator) 作为步数。
max_queue_size: 生成器队列的最大尺寸。
workers: 使用的最大进程数量。
use_multiprocessing: 如果 True,则使用基于进程的多线程。 请注意,因为此实现依赖于多进程,所以不应将不可传递的参数传递给生成器,因为它们不能被轻易地传递给子进程。
verbose: 日志显示模式, 0 或 1。

get_layer

# 提取模型的某一层,返回的是一个层实例
get_layer(self, name=None, index=None)