识别结果:

神经网络用多少样本 神经网络的样本数据_tensorflow

数据集:

由Yann提供的手写数字数据集构成,包含了0~9共10类手写数字图片。每张图片都做了尺寸归一化,为28*28大小的灰度图。每张图片中像素值大小为0-255之间。

MNIST数据集是机器学习领域中非常经典的一个数据集,由60000个训练样本和10000个测试样本组成,每个样本都是一张28 * 28像素的灰度手写数字图片。

 

神经网络用多少样本 神经网络的样本数据_神经网络用多少样本_02

下面简单介绍下各个网络:

LeNet神经网络

网络主要由两部分组成:卷积编码器:由两个卷积层组成;全连接层密集块:由三个全连接层组成

AlexNet深度卷积神经网络

 AlexNet是Alex和Hinton参加2012年imagenet比赛时提出的卷积网络框架,夺得了当年ImageNet LSVRC的冠军,且准确率远超第二名,带来了深度学习的又一次高潮。

ResNet深度卷积神经网络

残差神经网络(ResNet)是由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出的。ResNet 在2015 年的ILSVRC(ImageNet Large Scale Visual Recognition Challenge)中取得了冠军。残差神经网络的主要贡献是发现了“退化现象(Degradation)”,并针对退化现象发明了 “快捷连接(Shortcut connection)”,极大的消除了深度过大的神经网络训练困难问题。神经网络的“深度”首次突破了100层、最大的神经网络甚至超过了1000层。

分别实现了Pytorch版和Tensorflow版,其中Pytorch版中使用的是ResNet18作为主干网络

Pytorch版项目 torch==1.14.0(预训练权重有50MB)

神经网络用多少样本 神经网络的样本数据_tensorflow_03

Tensorflow版 使用的模型比较轻量化

神经网络用多少样本 神经网络的样本数据_pytorch_04

 

神经网络用多少样本 神经网络的样本数据_pytorch_05

实验报告部分截图:

神经网络用多少样本 神经网络的样本数据_pytorch_06

神经网络用多少样本 神经网络的样本数据_tensorflow_07

 

神经网络用多少样本 神经网络的样本数据_神经网络用多少样本_08

神经网络用多少样本 神经网络的样本数据_tensorflow_09

 

神经网络用多少样本 神经网络的样本数据_人工智能_10

 

神经网络用多少样本 神经网络的样本数据_神经网络用多少样本_11

目前准985计算机硕士 以上的所有项目代码+报告 可以私信我 20r 提供指导

邮箱:yangsober@163.com 大家可以一起交流~

神经网络用多少样本 神经网络的样本数据_神经网络用多少样本_12

附上一些实现的代码:

以下代码是模型的结构和训练代码,安装好对应的tensorflow版本后,就可以进行训练

#!/usr/bin/env python3
# -*- coding: utf-8 -*-
from keras.datasets import mnist
import matplotlib.pyplot as plt
from keras import models
from keras import layers
import numpy as np
from keras.utils.np_utils import to_categorical

# 定义模型
def model_conv():
    model = models.Sequential()
    model.add(layers.Conv2D(32, (3, 3), activation='relu',input_shape=(28, 28, 1)))
    model.add(layers.MaxPooling2D((2, 2)))
    model.add(layers.Conv2D(64, (3, 3), activation='relu'))
    model.add(layers.MaxPooling2D((2, 2)))
    model.add(layers.Conv2D(64, (3, 3), activation='relu'))
    model.add(layers.Flatten())
    model.add(layers.Dense(64, activation='relu'))
    model.add(layers.Dense(10, activation='softmax'))
    model.compile(optimizer='rmsprop', loss='categorical_crossentropy', metrics=['acc'])
    return model

# 导入MNIST数据集
(train_data, train_labels), (test_data, test_labels) = mnist.load_data()
print('train_shape {} {}'.format(train_data.shape,train_labels.shape))
print('test_shape {} {}'.format(test_data.shape,test_labels.shape))
plt.imshow(train_data[0])
plt.title('number {}'.format(train_labels[0]))
plt.show()

# 数据预处理
x_train = train_data.reshape((60000, 28, 28, 1))
x_train = x_train.astype('float32')/255
x_test = test_data.reshape((10000, 28, 28, 1))
x_test = x_test.astype('float32')/255
y_train = to_categorical(train_labels)
y_test = to_categorical(test_labels)
print(x_train.shape, y_train.shape)

# 定义模型
model = model_conv()
print(model.summary())

# 开始训练
his = model.fit(x_train, y_train, epochs=5, batch_size=64, validation_split=0.1)

# 计算准确度
loss, acc = model.evaluate(x_test, y_test)
print('loss {}, acc {}'.format(loss, acc))

# 保存模型
model.save("my_mnist_model.h5")