一、选择计算设备
1、查询可用gpu的数量
torch.cuda.device_count()
2、将张量分配给设备,没有GPU也可以运行
def try_gpu(i=0): #@save"""如果存在,则返回gpu(i),否则返回cpu()"""if torch.cuda.device_count() >= i + 1:return torch.device(f'cuda:{i}')return torch.device('cpu')def try_all_gpus(): #@save"""返回所有可用的GPU,如果没有GPU,则返回[cpu(),]"""devices = [torch.device(f'cuda:{i}')for i in range(torch.cuda.device_count())]return devices if devices else [torch.device('cpu')]try_gpu(), try_gpu(10), try_all_gpus()
3、默认情况下,张量是在CPU上创建的
x = torch.tensor([1, 2, 3]) x.device-> device(type='cpu')
二、张量与GPU
1、数据在同一个GPU上,可以将它们相加,若不在同一设备上,cpu里面数据放到gpu上会很慢,所以运算要在同样的设备上进行。
2、Z = X.cuda(1),也可以创建不同设备的数据(x在cuda1上,z在cuda2上)
三、神经网络与GPU
1、将模型参数放到GPU上net = net.to(device=try_gpu())