您的位置:首页 > 新闻 > 热点要闻 > 深圳龙岗区南湾街道_中国设计品牌网_网站优化公司排名_seo网站推广招聘

深圳龙岗区南湾街道_中国设计品牌网_网站优化公司排名_seo网站推广招聘

2025/4/7 22:03:54 来源:https://blog.csdn.net/wx19930913/article/details/146381887  浏览:    关键词:深圳龙岗区南湾街道_中国设计品牌网_网站优化公司排名_seo网站推广招聘
深圳龙岗区南湾街道_中国设计品牌网_网站优化公司排名_seo网站推广招聘

一、为什么需要nn.Module?

nn.Module 是 PyTorch 中所有神经网络模型的基类,它提供了以下核心功能:

  • 模块化设计‌:将网络拆分为可重用的层(如卷积层、全连接层)
  • 自动参数管理‌:自动跟踪所有可训练参数(parameters()方法)
  • GPU加速支持‌:一键将模型迁移到GPU
  • 模型保存与加载‌:支持序列化模型结构和参数

二、定义你的第一个神经网络

1. 继承nn.Module构建网络

以下代码实现一个3层全连接网络,用于图像分类(以FashionMNIST为例):

import torch
import torch.nn as nn
import torchvision
import torchvision.transforms as transforms
import matplotlib.pyplot as plt# 设置随机种子保证可重复性
torch.manual_seed(42)class SimpleNN(nn.Module):def __init__(self, input_size, hidden_size, num_classes):super(SimpleNN, self).__init__()self.fc1 = nn.Linear(input_size, hidden_size)  # 输入层 -> 隐藏层self.relu = nn.ReLU()                          # 激活函数self.fc2 = nn.Linear(hidden_size, num_classes) # 隐藏层 -> 输出层def forward(self, x):out = self.fc1(x)out = self.relu(out)out = self.fc2(out)return out# 初始化模型
model = SimpleNN(input_size=784, hidden_size=128, num_classes=10)
print(model)

输出结果:

SimpleNN((fc1): Linear(in_features=784, out_features=128, bias=True)(relu): ReLU()(fc2): Linear(in_features=128, out_features=10, bias=True)
)

三、数据准备与预处理

1. 加载FashionMNIST数据集

# 数据预处理
transform = transforms.Compose([transforms.ToTensor(),                      # 转换为Tensortransforms.Normalize((0.5,), (0.5,))        # 归一化到[-1, 1]
])# 下载数据集
train_dataset = torchvision.datasets.FashionMNIST(root='./data', train=True,download=True,transform=transform
)test_dataset = torchvision.datasets.FashionMNIST(root='./data',train=False,transform=transform
)# 创建数据加载器
batch_size = 100
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,batch_size=batch_size,shuffle=True
)test_loader = torch.utils.data.DataLoader(dataset=test_dataset,batch_size=batch_size,shuffle=False
)# 查看数据集信息
print("训练集大小:", len(train_dataset))
print("测试集大小:", len(test_dataset))
classes = ['T-shirt', 'Trouser', 'Pullover', 'Dress', 'Coat', 'Sandal', 'Shirt', 'Sneaker', 'Bag', 'Ankle boot']

四、训练神经网络

1. 配置损失函数与优化器

device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
model = model.to(device)criterion = nn.CrossEntropyLoss()  # 交叉熵损失(已包含Softmax)
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)

2. 训练循环实现

num_epochs = 10
total_step = len(train_loader)
loss_history = []
acc_history = []for epoch in range(num_epochs):model.train()  # 设置为训练模式(启用Dropout/BatchNorm)running_loss = 0.0correct = 0total = 0for i, (images, labels) in enumerate(train_loader):# 将数据移动到设备images = images.reshape(-1, 28*28).to(device)labels = labels.to(device)# 前向传播outputs = model(images)loss = criterion(outputs, labels)# 反向传播与优化optimizer.zero_grad()loss.backward()optimizer.step()# 统计指标running_loss += loss.item()_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()# 计算本epoch指标epoch_loss = running_loss / total_stepepoch_acc = 100 * correct / totalloss_history.append(epoch_loss)acc_history.append(epoch_acc)# 打印训练进度print(f'Epoch [{epoch+1}/{num_epochs}], 'f'Loss: {epoch_loss:.4f}, 'f'Accuracy: {epoch_acc:.2f}%')# 可视化训练过程
plt.figure(figsize=(12,4))
plt.subplot(1,2,1)
plt.plot(loss_history, label='Training Loss')
plt.title('Loss Curve')
plt.subplot(1,2,2)
plt.plot(acc_history, label='Training Accuracy')
plt.title('Accuracy Curve')
plt.show()

五、模型评估与预测

1. 测试集评估

model.eval()  # 设置为评估模式(关闭Dropout/BatchNorm)
with torch.no_grad():correct = 0total = 0for images, labels in test_loader:images = images.reshape(-1, 28*28).to(device)labels = labels.to(device)outputs = model(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print(f'测试集准确率: {100 * correct / total:.2f}%')

2. 可视化预测结果

# 获取测试集样本
dataiter = iter(test_loader)
images, labels = next(dataiter)
images = images.reshape(-1, 28*28).to(device)# 预测结果
outputs = model(images)
_, preds = torch.max(outputs, 1)
preds = preds.cpu().numpy()
images = images.cpu().reshape(-1, 28, 28).numpy()# 绘制预测结果
plt.figure(figsize=(10,8))
for i in range(20):plt.subplot(4,5,i+1)plt.imshow(images[i], cmap='gray')plt.title(f"Pred: {classes[preds[i]]}\nTrue: {classes[labels[i]]}")plt.axis('off')
plt.tight_layout()
plt.show()

六、模型保存与加载

1. 保存整个模型

torch.save(model, 'fashion_mnist_model.pth')
loaded_model = torch.load('fashion_mnist_model.pth')

2. 只保存参数(推荐方式)

torch.save(model.state_dict(), 'model_weights.pth')# 加载时需要先创建相同结构的模型
new_model = SimpleNN(784, 128, 10).to(device)
new_model.load_state_dict(torch.load('model_weights.pth'))

七、常见问题与调试

Q1:输入形状不匹配报错

  • 错误信息:RuntimeError: mat1 and mat2 shapes cannot be multiplied
  • 解决方法:检查输入是否被正确展平,使用x = x.view(-1, input_size)

Q2:模型准确率始终不变

  • 检查是否忘记调用optimizer.zero_grad()
  • 确认参数requires_grad=True(使用nn.Module时会自动处理)

Q3:过拟合问题

  • 添加正则化:在优化器中设置weight_decay=0.01
  • 添加Dropout层:
self.dropout = nn.Dropout(p=0.5)  # 在__init__中添加
out = self.dropout(out)           # 在forward中添加

八、小结与下篇预告

  • 关键知识点‌:

    1. nn.Module 提供标准化的模型构建方式
    2. 训练流程四要素:数据加载、前向传播、损失计算、反向传播
    3. 模型评估必须使用model.eval()模式
  • 下篇预告‌:
    第四篇将实战MNIST手写数字识别,并深入解析数据增强与模型调优技巧!

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com