在 PyTorch 中,torch.nn.Linear
是一个实现全连接层(线性变换)的模块,用于神经网络中的线性变换操作。它的数学表达式为:
其中:
-
x是输入数据
-
W是权重矩阵
-
b是偏置项
-
y是输出数据
基本用法
import torch
import torch.nn as nn# 创建一个线性层,输入特征数为5,输出特征数为3
linear_layer = nn.Linear(in_features=5, out_features=3)# 创建一个随机输入张量(batch_size=2, 特征数=5)
input_tensor = torch.randn(2, 5)# 前向传播
output = linear_layer(input_tensor)
print(output.shape) # 输出 torch.Size([2, 3])
主要参数
-
in_features
- 输入特征的数量 -
out_features
- 输出特征的数量 -
bias
- 是否使用偏置项(默认为True)
重要属性
-
weight
- 可学习的权重参数(形状为[out_features, in_features]) -
bias
- 可学习的偏置参数(形状为[out_features])
示例:构建简单神经网络
class SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()self.fc1 = nn.Linear(10, 20) # 输入10维,输出20维self.fc2 = nn.Linear(20, 2) # 输入20维,输出2维def forward(self, x):x = torch.relu(self.fc1(x))x = self.fc2(x)return xmodel = SimpleNet()
input_data = torch.randn(5, 10) # batch_size=5
output = model(input_data)
print(output.shape) # torch.Size([5, 2])
初始化权重
# 自定义权重初始化
nn.init.xavier_uniform_(linear_layer.weight)
nn.init.zeros_(linear_layer.bias)# 或者使用PyTorch内置初始化
linear_layer = nn.Linear(5, 3)
torch.nn.init.kaiming_normal_(linear_layer.weight, mode='fan_out')
注意事项
-
输入数据的最后一维必须等于
in_features
-
线性层通常与激活函数配合使用(如ReLU)
-
在GPU上使用时,确保数据和模型都在同一设备上。