您的位置:首页 > 财经 > 金融 > [Pytorch案例实践008]基于卷积神经网络和通道注意力机制的图像分类实战

[Pytorch案例实践008]基于卷积神经网络和通道注意力机制的图像分类实战

2024/12/21 19:33:25 来源:https://blog.csdn.net/2403_83044722/article/details/141001418  浏览:    关键词:[Pytorch案例实践008]基于卷积神经网络和通道注意力机制的图像分类实战

一、项目介绍

        这是一个蜜蜂、蚂蚁图像分类项目,旨在使用卷积神经网络(CNN)结合SE(Squeeze-and-Excitation)模块进行二分类任务。以下是项目的详细介绍:

项目背景

图像分类是计算机视觉中的一个基本任务,广泛应用于医疗诊断、自动驾驶、安防监控等领域。本项目的目标是通过设计并训练一个神经网络模型,将输入的图像正确地分类为两个类别。

模型架构

模型架构主要包括卷积层、SE模块、池化层、全连接层和Dropout层。具体细节如下:

  1. 卷积层(Convolutional Layers)

    • 两个卷积层(Conv2d),用于提取图像的局部特征。
    • 每个卷积层后跟随一个SE模块,用于提升特征表达的能力。
  2. SE模块(Squeeze-and-Excitation Block)

    • SE模块通过“压缩”和“激励”机制,重新校准特征通道的权重,增强有用特征,抑制无用特征。
    • 具体实现上,通过全局平均池化获取通道的全局信息,然后通过全连接层和激活函数(ReLU和Sigmoid)来重新计算通道权重。
  3. 池化层(Pooling Layers)

    • 最大池化层(MaxPool2d),用于降低特征图的尺寸,减少计算量和过拟合风险。
  4. 全连接层(Fully Connected Layers)

    • 增加了多个全连接层(Linear),分别具有1024、512、256和2个神经元。
    • 通过增加网络的深度和复杂度,提高模型的分类能力。
  5. Dropout层

    • 在每个全连接层后增加Dropout层,防止过拟合,增强模型的泛化能力。

数据预处理

为了提高模型的泛化能力,对训练数据进行了数据增强和预处理:

  • 训练集

    • 随机裁剪(RandomResizedCrop)
    • 随机水平翻转(RandomHorizontalFlip)
    • 随机旋转(RandomRotation)
    • 颜色抖动(ColorJitter)
    • 归一化(Normalize)
  • 验证集

    • 调整大小(Resize)
    • 中心裁剪(CenterCrop)
    • 归一化(Normalize)

训练过程

训练过程中采用交叉熵损失函数(CrossEntropyLoss)和Adam优化器,并引入了以下技术:

  • L2正则化(weight_decay):防止过拟合。
  • 学习率调度器(ReduceLROnPlateau):根据验证损失动态调整学习率。
  • 早停法:如果验证损失在若干个epoch内没有下降,则提前停止训练。

测试脚本

测试脚本用于加载训练好的模型,并对给定的输入图片或文件夹进行推理,输出分类结果和置信度,并将结果保存在图片上和指定文件夹中。主要步骤如下:

  1. 加载保存的模型。
  2. 对输入图像进行预处理。
  3. 进行模型推理。
  4. 处理输出,绘制分类结果和置信度,并保存结果。

二、通道注意力机制

通道注意力机制(Channel Attention Mechanism)是深度学习中一种增强模型特征表示能力的方法。它通过动态地调整不同特征通道的权重,来突出重要特征并抑制无关特征,从而提高模型的性能。下面是关于通道注意力机制的详细介绍:

概述

通道注意力机制旨在通过对每个通道分配一个权重,来调整不同特征通道的重要性。这些权重是动态计算的,基于输入特征自适应地调整。常见的通道注意力机制有Squeeze-and-Excitation(SE)块和其他一些变体。

Squeeze-and-Excitation(SE)块

SE块是通道注意力机制的一种经典实现方法,由Jie Hu等人在论文《Squeeze-and-Excitation Networks》中提出。SE块的主要思想是通过“压缩”(Squeeze)和“激励”(Excitation)两个步骤来重新校准通道特征。

1. 压缩(Squeeze)

在“压缩”步骤中,通过全局平均池化(Global Average Pooling)操作,将每个通道的空间维度(宽和高)压缩为一个标量,从而获取每个通道的全局信息。这一步骤可以看作是对每个通道进行全局信息的聚合。

2. 激励(Excitation)

在“激励”步骤中,使用两个全连接层(Fully Connected Layers)对“压缩”后的特征进行处理,得到每个通道的权重。第一个全连接层将通道数降维,第二个全连接层将通道数升维。通过非线性激活函数ReLU和Sigmoid,得到每个通道的权重。

3. 重校准(Recalibration)

将得到的通道权重重新分配给原始特征图的每个通道,从而实现通道的重新校准。

通道注意力机制的优点

  1. 增强特征表示能力:通过动态调整通道的权重,突出重要特征,抑制无关特征。
  2. 提高模型性能:在许多图像分类任务中,加入通道注意力机制后,模型的准确率和泛化能力都有显著提升。
  3. 轻量级:SE模块增加的参数和计算量较少,适用于各种CNN架构。

通过引入通道注意力机制,模型能够更好地理解和处理输入数据中的关键信息,从而提高分类效果。

三、代码

训练代码:

import torch
import torch.nn as nn
import torch.optim as optim
import torchvision.transforms as transforms
from torchvision.datasets import ImageFolder
from torch.utils.data import DataLoader
import matplotlib.pyplot as plt
from tqdm import tqdm
import os# 从自定义的文件中加载网络
from cnn_SE import CNNWithSE# 权重初始化函数
def initialize_weights(model):"""初始化模型的权重,包括卷积层和全连接层"""for m in model.modules():if isinstance(m, nn.Conv2d):nn.init.kaiming_normal_(m.weight, mode='fan_out', nonlinearity='relu')if m.bias is not None:nn.init.constant_(m.bias, 0)elif isinstance(m, nn.Linear):nn.init.normal_(m.weight, 0, 0.01)nn.init.constant_(m.bias, 0)# 设置超参数
batch_size = 4  # 每批处理的样本数
learning_rate = 0.0001  # 初始学习率
num_epochs = 30  # 训练的轮次
# lr_step_size = 10  # 学习率每隔多少个epoch降低一次
# lr_gamma = 0.1  # 学习率降低的倍率
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')  # 使用GPU或CPU# Data augmentation and preprocessing
train_transform = transforms.Compose([transforms.RandomResizedCrop(224),transforms.RandomHorizontalFlip(),transforms.RandomRotation(10),transforms.ColorJitter(brightness=0.2, contrast=0.2, saturation=0.2, hue=0.2),transforms.ToTensor(),transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])val_transform = transforms.Compose([transforms.Resize(256),transforms.CenterCrop(224),transforms.ToTensor(),transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),
])# 加载数据集
train_dataset = ImageFolder(root=r'I:\code\pytorch\cnn_SE\datasets\train', transform=train_transform)
val_dataset = ImageFolder(root=r'I:\code\pytorch\cnn_SE\datasets\val', transform=val_transform)train_loader = DataLoader(dataset=train_dataset, batch_size=batch_size, shuffle=True)
val_loader = DataLoader(dataset=val_dataset, batch_size=batch_size, shuffle=False)# 初始化模型、损失函数和优化器
model = CNNWithSE().to(device)  # 初始化模型并移动到GPU或CPU
initialize_weights(model)  # 初始化权重
criterion = nn.CrossEntropyLoss()  # 损失函数
optimizer = optim.Adam(model.parameters(), lr=learning_rate)  # 优化器# 学习率调度器,每隔 lr_step_size 个 epoch 将学习率乘以 lr_gamma
# scheduler = optim.lr_scheduler.StepLR(optimizer, step_size=lr_step_size, gamma=lr_gamma)# 用于保存训练过程中的损失和准确率数据
train_losses = []
val_losses = []
train_accuracies = []
val_accuracies = []
best_accuracy = 0.0# 训练和验证模型
for epoch in range(num_epochs):model.train()  # 进入训练模式running_loss = 0.0correct_train = 0total_train = 0# 训练循环for images, labels in tqdm(train_loader, desc=f"Epoch {epoch + 1}/{num_epochs}"):images, labels = images.to(device), labels.to(device)# 前向传播outputs = model(images)loss = criterion(outputs, labels)# 反向传播和优化optimizer.zero_grad()  # 清空梯度loss.backward()  # 反向传播optimizer.step()  # 更新参数running_loss += loss.item()  # 累计损失_, predicted = torch.max(outputs.data, 1)  # 获取预测结果total_train += labels.size(0)  # 累计样本数correct_train += (predicted == labels).sum().item()  # 累计正确预测的样本数# 记录训练损失和准确率train_loss = running_loss / len(train_loader)train_losses.append(train_loss)train_accuracy = 100 * correct_train / total_traintrain_accuracies.append(train_accuracy)# 验证模型model.eval()  # 进入评估模式running_val_loss = 0.0correct_val = 0total_val = 0with torch.no_grad():for images, labels in val_loader:images, labels = images.to(device), labels.to(device)outputs = model(images)loss = criterion(outputs, labels)running_val_loss += loss.item()_, predicted = torch.max(outputs.data, 1)total_val += labels.size(0)correct_val += (predicted == labels).sum().item()# 记录验证损失和准确率val_loss = running_val_loss / len(val_loader)val_losses.append(val_loss)val_accuracy = 100 * correct_val / total_valval_accuracies.append(val_accuracy)print(f'Validation Accuracy: {val_accuracy:.2f}%')# 保存准确率最高的模型if val_accuracy > best_accuracy:best_accuracy = val_accuracytorch.save(model.state_dict(), 'best_model.pth')print(f"Model saved with accuracy: {best_accuracy:.2f}%")# 更新学习率# scheduler.step()# 保存损失和准确率曲线
plt.figure(figsize=(12, 5))# 绘制损失曲线
plt.subplot(1, 2, 1)
plt.plot(train_losses, label='Train Loss')
plt.plot(val_losses, label='Validation Loss')
plt.xlabel('Epoch')
plt.ylabel('Loss')
plt.legend()
plt.grid()# 绘制准确率曲线
plt.subplot(1, 2, 2)
plt.plot(train_accuracies, label='Train Accuracy')
plt.plot(val_accuracies, label='Validation Accuracy')
plt.xlabel('Epoch')
plt.ylabel('Accuracy (%)')
plt.legend()
plt.grid()# 保存并展示图像
plt.savefig('training_curves.png')
plt.show()

测试代码:

import torch
import torch.nn as nn
from torchvision import transforms
from PIL import Image, ImageDraw, ImageFont
import os
from cnn_SE import CNNWithSEdef load_model(model_path, num_classes, device):model = CNNWithSE()model.load_state_dict(torch.load(model_path, map_location=device))model.to(device)model.eval()return modeldef predict(model, image, device, transform):image = transform(image).unsqueeze(0).to(device)outputs = model(image)_, preds = torch.max(outputs, 1)confidence = nn.functional.softmax(outputs, dim=1)[0][preds].item()return preds.item(), confidencedef draw_label(image, label, confidence):draw = ImageDraw.Draw(image)# 使用更大的字体try:font = ImageFont.truetype("arial", 30)  # 使用 Arial 字体,字号为 36except IOError:font = ImageFont.load_default()  # 如果 Arial 字体不可用,使用默认字体text = f"{label}: {confidence:.2f}"# 使用 textbbox 获取文本边界框text_bbox = draw.textbbox((20, 20), text, font=font)text_width = text_bbox[2] - text_bbox[0]text_height = text_bbox[3] - text_bbox[1]# 矩形背景框position = (20, 20)draw.rectangle([position, (position[0] + text_width, position[1] + text_height)], fill="black")draw.text(position, text, fill="white", font=font)return imagedef process_image(model, image_path, output_dir, device, transform, class_names):image = Image.open(image_path).convert("RGB")pred, confidence = predict(model, image, device, transform)label = class_names[pred]image_with_label = draw_label(image, label, confidence)output_path = os.path.join(output_dir, os.path.basename(image_path))image_with_label.save(output_path)image_with_label.show()  # 显示处理后的图像def process_folder(model, folder_path, output_dir, device, transform, class_names):os.makedirs(output_dir, exist_ok=True)for filename in os.listdir(folder_path):if filename.lower().endswith(('.png', '.jpg', '.jpeg', '.bmp', '.gif')):image_path = os.path.join(folder_path, filename)process_image(model, image_path, output_dir, device, transform, class_names)def main():# 硬编码参数model_path = r'I:\code\pytorch\cnn_SE\best_model.pth'  # 模型权重文件路径input_path = r'I:\code\pytorch\cnn_SE\datasets\val\ants\445356866_6cb3289067.jpg'  # 输入图片或文件夹路径output_dir = r'I:\code\pytorch\cnn_SE\result'  # 输出保存路径num_classes = 2  # 分类任务的类别数class_names = ['ants', 'bees']  # 类别名称device = torch.device("cuda" if torch.cuda.is_available() else "cpu")model = load_model(model_path, num_classes, device)transform = transforms.Compose([transforms.Resize((224, 224)),transforms.ToTensor(),transforms.Normalize(mean=[0.485, 0.456, 0.406], std=[0.229, 0.224, 0.225]),])if os.path.isfile(input_path):process_image(model, input_path, output_dir, device, transform, class_names)elif os.path.isdir(input_path):process_folder(model, input_path, output_dir, device, transform, class_names)else:print("Invalid input path. Must be a file or directory.")if __name__ == "__main__":main()

四、总结

主要工作
  1. 模型设计

    • 构建了一个包含SE模块的CNN,通过“压缩”和“激励”机制动态调整特征通道的权重,提升特征表示能力。
    • 增加了多个全连接层和Dropout层,增强模型的复杂度和防止过拟合。
  2. 数据预处理和增强

    • 对训练数据进行了数据增强(随机裁剪、水平翻转、旋转、颜色抖动等)和预处理(归一化),提高模型的泛化能力。
    • 对验证数据进行了统一的尺寸调整和归一化处理。
  3. 训练过程

    • 采用交叉熵损失函数和Adam优化器,结合L2正则化防止过拟合。
    • 使用学习率调度器根据验证损失动态调整学习率。
    • 实施了早停法,防止过拟合并减少训练时间。
  4. 模型验证和测试

    • 在验证集上评估模型性能,选择最优模型保存。
    • 编写测试脚本,加载保存的模型,对输入图像或文件夹进行推理,并保存分类结果和置信度。
主要技术点
  • 通道注意力机制(SE模块):通过全局平均池化和全连接层,动态调整通道权重,提升特征表示能力。
  • 数据增强:通过随机裁剪、翻转、旋转、颜色抖动等方法,增加数据多样性,防止过拟合。
  • Dropout层:在全连接层后应用Dropout,防止过拟合,增强模型的泛化能力。
  • 学习率调度:使用ReduceLROnPlateau调度器,根据验证损失动态调整学习率,提高模型收敛速度和性能。
项目成果
  • 成功设计并训练了一个带有通道注意力机制的CNN,在验证集上取得了良好的性能。
  • 通过数据增强和优化训练过程,显著提高了模型的泛化能力和稳定性。
  • 编写了完整的测试脚本,实现了对输入图像的推理和结果保存,便于后续应用。
未来工作
  • 模型优化:继续优化模型架构,尝试其他类型的注意力机制,如空间注意力机制,进一步提升模型性能。
  • 数据集扩展:增加更多种类和数量的训练数据,提高模型的鲁棒性和泛化能力。

        通过本项目的研究和实践,展示了通道注意力机制在图像分类任务中的有效性,并为进一步的研究和应用提供了基础。

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com