使用双Tesla P4 N卡配置torch机器学习环境

admin 2023年12月26日14:22:34评论58 views字数 1154阅读3分50秒阅读模式

写在前面

最近一个朋友自己组了一台机器,双Tesla P4 N卡,我准备尝试学习一下配置PyTorch的机器学习环境。主要是之前都是自己的笔记本的游戏显卡,没碰到过这种型号,而且还是双卡,这就更得研究研究环境配置了。

环境

系统:ubuntu 22.04

显卡:Tesla P4 * 2

驱动配置

首先,对于N卡,肯定要先配置N卡驱动。先看一下机器上的显卡

lspci | grep -i nvidia

使用双Tesla P4 N卡配置torch机器学习环境

可以看到是两张Tesla P4卡,这个单卡是8G的显存,根据英伟达的官方数据对比计算能力在6.1

参考:https://developer.nvidia.com/cuda-gpus

使用双Tesla P4 N卡配置torch机器学习环境

相对来说性价比还是不错的,知名云厂商GPU云服务器对应的价格应该是4k+/月。而我朋友组装的成本价远低于这个月租金,且CPU和内存配置还远超于它。

有点跑题了......继续

不同型号的卡驱动也不同,我们通过这个命令来让ubuntu自己推荐驱动

ubuntu-drivers devices

使用双Tesla P4 N卡配置torch机器学习环境

找到有recommended标记的,就是它了

sudo ubuntu-drivers autoinstall

通过ubuntu-drivers工具自动安装

使用双Tesla P4 N卡配置torch机器学习环境

随后需要reboot重启一下服务器即可

输入nvidia-smi来查看显卡情况

nvidia-smi

使用双Tesla P4 N卡配置torch机器学习环境

至此配套的显卡驱动装好了,记住这个CUDA版本信息。

PyTorch配置

刚刚咱们的CUDA版本信息是11.4,目前官方给出11.x版本最新的是11.8

官网链接:https://pytorch.org/

使用双Tesla P4 N卡配置torch机器学习环境

经过查询,CUDA是支持向下兼容的

使用双Tesla P4 N卡配置torch机器学习环境

我这个装的驱动版本号是470,所以直接使用11.8是没问题的

参考链接:https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html

这就简单了,直接复制该命令安装即可。

pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

随后打开python3,执行

import torchprint(torch.cuda.is_available())print(torch.cuda.device_count())

使用双Tesla P4 N卡配置torch机器学习环境

至此,torch配置完毕

使用双卡运行

这里简单提一嘴,如果想使用多卡同时调用,需要使用DataParallel方法即可,这是单机多卡的适用方法

model = Model()model = torch.nn.DataParallel(model)model.to('cuda')

这样就会自动的将模型分配到所有可用的GPU上了。

END



原文始发于微信公众号(飞羽技术工坊):使用双Tesla P4 N卡配置torch机器学习环境

  • 左青龙
  • 微信扫一扫
  • weinxin
  • 右白虎
  • 微信扫一扫
  • weinxin
admin
  • 本文由 发表于 2023年12月26日14:22:34
  • 转载请保留本文链接(CN-SEC中文网:感谢原作者辛苦付出):
                   使用双Tesla P4 N卡配置torch机器学习环境http://cn-sec.com/archives/2227888.html

发表评论

匿名网友 填写信息