MNIST数据集的下载地址:https://pjreddie.com/projects/mnist-in-csv/
Python代码
import numpy
import scipy.special
# 神经网络类定义
class neuralNetwork:
# 初始化神经网络
def __init__(self,inputnodes,hiddennodes,outputnodes,learningrate):
# 设置输入结点、隐藏结点和输出结点
self.inodes = inputnodes
self.hnodes = hiddennodes
self.onodes = outputnodes
# 两个链接权重矩阵
self.wih = numpy.random.normal(0.0,pow(self.hnodes,-0.5),(self.hnodes,self.inodes)) #输入层到隐藏层的权重矩阵
self.who = numpy.random.normal(0.0,pow(self.onodes,-0.5),(self.onodes,self.hnodes)) #隐藏层到输出层的权重矩阵
# 设置学习率
self.lr = learningrate
# 激活函数是一个Sigmoid函数
self.activation_function = lambda x:scipy.special.expit(x)
pass
# 神经网络的训练
def train(self,inputs_list,targets_list):
# 将一个输入集转换为二维数组
inputs = numpy.array(inputs_list,ndmin=2).T
targets = numpy.array(targets_list,ndmin=2).T
# 把输入信号计算进入隐藏层
hidden_inputs = numpy.dot(self.wih,inputs)
# 将隐藏层的信号激活函数运算
hidden_outputs = self.activation_function(hidden_inputs)
# 把隐藏信号计算进入输出层
final_inputs = numpy.dot(self.who,hidden_outputs)
# 将输出层的信号激活函数运算
final_outputs = self.activation_function(final_inputs)
# 输出层的误差用(target - actual)来表示
output_errors = targets - final_outputs
# 隐藏层错误是通过权重拆分的output_errors,在隐藏节点处重新组合。
hidden_errors = numpy.dot(self.who.T,output_errors)
# 通过学习,升级从隐藏层到输出层的链接矩阵
self.who += self.lr*numpy.dot((output_errors*final_outputs*(1-final_outputs)),numpy.transpose(hidden_outputs))
# 通过学习,升级从输入层到隐藏层的链接矩阵
self.wih += self.lr*numpy.dot((hidden_errors*hidden_outputs*(1-hidden_outputs)),numpy.transpose(inputs))
pass
# 神经网络的查询
def query(self,inputs_list):
# 将一个输入集转换为二维数组
inputs = numpy.array(inputs_list,ndmin=2).T
# 把输入信号计算进入隐藏层
hidden_inputs = numpy.dot(self.wih,inputs)
# 将输出层的信号激活函数运算
hidden_outputs = self.activation_function(hidden_inputs)
# 把隐藏信号计算进入输出层
final_inputs = numpy.dot(self.who,hidden_outputs)
# 将输出层的信号激活函数运算
final_outputs = self.activation_function(final_inputs)
return final_outputs
# 进行MNIST的神经网络训练
# 输入层有784个变量(28*28个像素点)
input_nodes = 784
# 隐藏层有100个变量(这个由自己定)
hidden_nodes = 100
# 输出层有10个变量(10个数字)
output_nodes = 10
# 学习率为0.3
learning_rate = 0.3
# 搭建一个神经网络
n = neuralNetwork(input_nodes,hidden_nodes,output_nodes,learning_rate)
training_data_file = open(r"C:\Users\Lenovo\Desktop\mnist_train.csv",'r')
training_data_list = training_data_file.readlines()
training_data_file.close()
i = 1
# 训练数据集
for record in training_data_list:
# 把每一个record都用逗号隔开
all_values = record.split(',')
# 将颜色代码用0~1归一化
inputs = (numpy.asfarray(all_values[1:])/255.0*0.99)+0.01
targets = numpy.zeros(output_nodes) + 0.01
# 把事实摆在这里,让神经网络慢慢学习。
targets[int(all_values[0])] = 0.99
n.train(inputs,targets)
print(i)
i += 1
# 检验神经网络编程训练的结果是否准确
testing_data_file = open(r"C:\Users\Lenovo\Desktop\mnist_test.csv",'r')
testing_data_list = testing_data_file.readlines()
testing_data_file.close()
score_card = []
j = 1
# 循环结构
for record in testing_data_list:
# 把每一个record都用逗号隔开
all_values = record.split(',')
# 将颜色代码用0~1归一化
correct_label = int(all_values[0])
# 测试这个数据集应该对应着哪一个数
inputs = (numpy.asfarray(all_values[1:])/255.0*0.99)+0.01
outputs = n.query(inputs)
# 选择特征值最大的数字
label = numpy.argmax(outputs)
# 如果这个数据预测的数字是正确的,那么奖励一朵小红花(记1分),否则记0分。
if label == correct_label:
score_card.append(1)
else:
score_card.append(0)
print(j)
j += 1
# 看看最后得到了多少分,并求出其百分比。
score_card_array = numpy.asarray(score_card)
print('performance =',score_card_array.sum()/score_card_array.size)
测试结果:0.9445。
说明识别的准确率接近95%,非常高。