PyTorch多层感知机(MLP)实例
在深度学习中,多层感知机(MLP)是一种常见的神经网络结构,用于解决分类和回归问题。PyTorch是一个流行的深度学习框架,可以方便地构建和训练神经网络模型。本文将介绍如何使用PyTorch构建一个简单的多层感知机,并使用实际数据进行训练和测试。
多层感知机(MLP)
多层感知机是一种前馈神经网络,由多个全连接的隐藏层和一个输出层组成。每个隐藏层包含多个神经元,每个神经元与上一层的所有神经元相连。MLP通过激活函数对输入进行非线性变换,从而学习数据的复杂模式。
PyTorch实现
下面是一个简单的PyTorch多层感知机实例,用于对手写数字数据集MNIST进行分类。
import torch
import torch.nn as nn
import torch.optim as optim
from torchvision import datasets, transforms
from torch.utils.data import DataLoader
# 加载数据集
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.5,), (0.5,))])
train_dataset = datasets.MNIST(root='./data', train=True, download=True, transform=transform)
test_dataset = datasets.MNIST(root='./data', train=False, download=True, transform=transform)
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=64, shuffle=False)
# 定义多层感知机模型
class MLP(nn.Module):
def __init__(self):
super(MLP, self).__init__()
self.fc1 = nn.Linear(28*28, 128)
self.fc2 = nn.Linear(128, 64)
self.fc3 = nn.Linear(64, 10)
def forward(self, x):
x = x.view(-1, 28*28)
x = torch.relu(self.fc1(x))
x = torch.relu(self.fc2(x))
x = self.fc3(x)
return x
model = MLP()
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.Adam(model.parameters(), lr=0.001)
# 训练模型
num_epochs = 10
for epoch in range(num_epochs):
for images, labels in train_loader:
optimizer.zero_grad()
outputs = model(images)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# 测试模型
correct = 0
total = 0
with torch.no_grad():
for images, labels in test_loader:
outputs = model(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
accuracy = correct / total
print(f'Accuracy on test set: {100 * accuracy:.2f}%')
实验结果
在MNIST数据集上训练和测试上述多层感知机模型,得到了约98%的准确率。下面是测试集上的分类准确率饼状图。
pie
title Test Set Accuracy
"Correct" : 98
"Incorrect" : 2
结论
本文介绍了如何使用PyTorch构建一个简单的多层感知机模型,并在MNIST数据集上进行训练和测试。通过适当的数据预处理、模型构建和优化器选择,我们可以有效地训练神经网络模型并获得较高的分类准确率。希望本文能帮助读者更好地理解和应用深度学习技朧。