您的位置:首页 > 房产 > 建筑 > 选GPU运行

选GPU运行

2024/10/5 18:23:42 来源:https://blog.csdn.net/qq_58317297/article/details/140132092  浏览:    关键词:选GPU运行

一、选择计算设备

1、查询可用gpu的数量

torch.cuda.device_count()

2、将张量分配给设备,没有GPU也可以运行

def try_gpu(i=0):  #@save"""如果存在,则返回gpu(i),否则返回cpu()"""if torch.cuda.device_count() >= i + 1:return torch.device(f'cuda:{i}')return torch.device('cpu')def try_all_gpus():  #@save"""返回所有可用的GPU,如果没有GPU,则返回[cpu(),]"""devices = [torch.device(f'cuda:{i}')for i in range(torch.cuda.device_count())]return devices if devices else [torch.device('cpu')]try_gpu(), try_gpu(10), try_all_gpus()

3、默认情况下,张量是在CPU上创建的

x = torch.tensor([1, 2, 3])
x.device->     device(type='cpu')

二、张量与GPU

1、数据在同一个GPU上,可以将它们相加,若不在同一设备上,cpu里面数据放到gpu上会很慢,所以运算要在同样的设备上进行。

2、Z = X.cuda(1),也可以创建不同设备的数据(x在cuda1上,z在cuda2上)

三、神经网络与GPU

1、将模型参数放到GPU上net = net.to(device=try_gpu())

版权声明:

本网仅为发布的内容提供存储空间,不对发表、转载的内容提供任何形式的保证。凡本网注明“来源:XXX网络”的作品,均转载自其它媒体,著作权归作者所有,商业转载请联系作者获得授权,非商业转载请注明出处。

我们尊重并感谢每一位作者,均已注明文章来源和作者。如因作品内容、版权或其它问题,请及时与我们联系,联系邮箱:809451989@qq.com,投稿邮箱:809451989@qq.com