MNIST数据集的下载地址:https://pjreddie.com/projects/mnist-in-csv/

Python代码

import numpy

import scipy.special

# 神经网络类定义

class neuralNetwork:

# 初始化神经网络

def __init__(self,inputnodes,hiddennodes,outputnodes,learningrate):

# 设置输入结点、隐藏结点和输出结点

self.inodes = inputnodes

self.hnodes = hiddennodes

self.onodes = outputnodes

# 两个链接权重矩阵

self.wih = numpy.random.normal(0.0,pow(self.hnodes,-0.5),(self.hnodes,self.inodes)) #输入层到隐藏层的权重矩阵

self.who = numpy.random.normal(0.0,pow(self.onodes,-0.5),(self.onodes,self.hnodes)) #隐藏层到输出层的权重矩阵

# 设置学习率

self.lr = learningrate

# 激活函数是一个Sigmoid函数

self.activation_function = lambda x:scipy.special.expit(x)

pass

# 神经网络的训练

def train(self,inputs_list,targets_list):

# 将一个输入集转换为二维数组

inputs = numpy.array(inputs_list,ndmin=2).T

targets = numpy.array(targets_list,ndmin=2).T

# 把输入信号计算进入隐藏层

hidden_inputs = numpy.dot(self.wih,inputs)

# 将隐藏层的信号激活函数运算

hidden_outputs = self.activation_function(hidden_inputs)

# 把隐藏信号计算进入输出层

final_inputs = numpy.dot(self.who,hidden_outputs)

# 将输出层的信号激活函数运算

final_outputs = self.activation_function(final_inputs)

# 输出层的误差用(target - actual)来表示

output_errors = targets - final_outputs

# 隐藏层错误是通过权重拆分的output_errors,在隐藏节点处重新组合。

hidden_errors = numpy.dot(self.who.T,output_errors)

# 通过学习,升级从隐藏层到输出层的链接矩阵

self.who += self.lr*numpy.dot((output_errors*final_outputs*(1-final_outputs)),numpy.transpose(hidden_outputs))

# 通过学习,升级从输入层到隐藏层的链接矩阵

self.wih += self.lr*numpy.dot((hidden_errors*hidden_outputs*(1-hidden_outputs)),numpy.transpose(inputs))

pass

# 神经网络的查询

def query(self,inputs_list):

# 将一个输入集转换为二维数组

inputs = numpy.array(inputs_list,ndmin=2).T

# 把输入信号计算进入隐藏层

hidden_inputs = numpy.dot(self.wih,inputs)

# 将输出层的信号激活函数运算

hidden_outputs = self.activation_function(hidden_inputs)

# 把隐藏信号计算进入输出层

final_inputs = numpy.dot(self.who,hidden_outputs)

# 将输出层的信号激活函数运算

final_outputs = self.activation_function(final_inputs)

return final_outputs

# 进行MNIST的神经网络训练

# 输入层有784个变量(28*28个像素点)

input_nodes = 784

# 隐藏层有100个变量(这个由自己定)

hidden_nodes = 100

# 输出层有10个变量(10个数字)

output_nodes = 10

# 学习率为0.3

learning_rate = 0.3

# 搭建一个神经网络

n = neuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate)

training_data_file = open(r"C:\Users\Lenovo\Desktop\mnist_train.csv",'r')

training_data_list = training_data_file.readlines()

training_data_file.close()

i = 1

# 训练数据集

for record in training_data_list:

# 把每一个record都用逗号隔开

all_values = record.split(',')

# 将颜色代码用0~1归一化

inputs = (numpy.asfarray(all_values[1:])/255.0*0.99)+0.01

targets = numpy.zeros(output_nodes) + 0.01

# 把事实摆在这里,让神经网络慢慢学习。

targets[int(all_values[0])] = 0.99

n.train(inputs,targets)

print(i)

i += 1

# 检验神经网络编程训练的结果是否准确

testing_data_file = open(r"C:\Users\Lenovo\Desktop\mnist_test.csv",'r')

testing_data_list = testing_data_file.readlines()

testing_data_file.close()

score_card = []

j = 1

# 循环结构

for record in testing_data_list:

# 把每一个record都用逗号隔开

all_values = record.split(',')

# 将颜色代码用0~1归一化

correct_label = int(all_values[0])

# 测试这个数据集应该对应着哪一个数

inputs = (numpy.asfarray(all_values[1:])/255.0*0.99)+0.01

outputs = n.query(inputs)

# 选择特征值最大的数字

label = numpy.argmax(outputs)

# 如果这个数据预测的数字是正确的,那么奖励一朵小红花(记1分),否则记0分。

if label == correct_label:

score_card.append(1)

else:

score_card.append(0)

print(j)

j += 1

# 看看最后得到了多少分,并求出其百分比。

score_card_array = numpy.asarray(score_card)

print('performance =',score_card_array.sum()/score_card_array.size)

测试结果:0.9445。

说明识别的准确率接近95%,非常高。