- Can i run the default cuda 11.3 conda install on cuda 11.6 device?
- NVIDIA GeForce RTX 3090 with CUDA capability sm_86 is not compatible with the current PyTorch installation
根據以上ref 的說明,pytorch 會自帶 cuda toolkit 的 binary,部會用到 local 安裝的,所以local 甚至不用裝 cuda。
所以只要 pytorch 的cuda 版本跟 driver 是 相容可以用的,就可以了,不用管 local (host) 安裝的 cuda 版本。
-- 真正要用到 local 的 cuda toolkit,只有 build pytorch from source 的時候才需要。
另外,到 -extra-index-url https://download.pytorch.org/whl/cu113 去看,好像有 support 到 cu116..
雖然如此,package manger 版本的 pytorch 使用的 cuda 版本如果太舊,沒有支援新的 GPU,就會出現 ref:2 的錯誤。
這時候就要安裝新版本的 pytorch,或是用 url 或是 channel指定 cuda 版本。
測試一下cuda 版本與 trainning speed 有沒有關係。
titan rtx, cuda 11.2
pip 安裝 default torch 1.11,未指定 cuda 版本。
real 3m48.122s user 4m44.344s sys 0m15.251s
可以用 python module command 列出package content:
pip package default:
$ python -m torch.utils.collect_env Collecting environment information... PyTorch version: 1.11.0+cu102 Is debug build: False CUDA used to build PyTorch: 10.2 ROCM used to build PyTorch: N/A OS: Ubuntu 18.04.5 LTS (x86_64) GCC version: (Ubuntu 7.5.0-3ubuntu1~18.04) 7.5.0 Clang version: Could not collect CMake version: version 3.10.2 Libc version: glibc-2.27 Python version: 3.10.4 (main, Mar 31 2022, 08:41:55) [GCC 7.5.0] (64-bit runtime) Python platform: Linux-4.15.0-166-generic-x86_64-with-glibc2.27 Is CUDA available: True CUDA runtime version: 10.2.89 GPU models and configuration: GPU 0: TITAN RTX Nvidia driver version: 460.91.03 cuDNN version: Probably one of the following: /usr/lib/x86_64-linux-gnu/libcudnn.so.7.6.5 /usr/local/cuda-10.2/targets/x86_64-linux/lib/libcudnn.so.7.6.5 HIP runtime version: N/A MIOpen runtime version: N/A Versions of relevant libraries: [pip3] numpy==1.23.0 [pip3] torch==1.11.0 [pip3] torchvision==0.12.0 [conda] numpy 1.23.0 pypi_0 pypi [conda] torch 1.11.0 pypi_0 pypi [conda] torchvision 0.12.0 pypi_0 pypi使用: url 指定 whl/cu116:
$ python -m torch.utils.collect_env Collecting environment information... PyTorch version: 1.12.0+cu116 Is debug build: False CUDA used to build PyTorch: 11.6 ROCM used to build PyTorch: N/A OS: Ubuntu 18.04.5 LTS (x86_64) GCC version: (Ubuntu 7.5.0-3ubuntu1~18.04) 7.5.0 Clang version: Could not collect CMake version: version 3.10.2 Libc version: glibc-2.27 Python version: 3.10.4 (main, Mar 31 2022, 08:41:55) [GCC 7.5.0] (64-bit runtime) Python platform: Linux-4.15.0-166-generic-x86_64-with-glibc2.27 Is CUDA available: True CUDA runtime version: 10.2.89 GPU models and configuration: GPU 0: TITAN RTX Nvidia driver version: 460.91.03 cuDNN version: Probably one of the following: /usr/lib/x86_64-linux-gnu/libcudnn.so.7.6.5 /usr/local/cuda-10.2/targets/x86_64-linux/lib/libcudnn.so.7.6.5 HIP runtime version: N/A MIOpen runtime version: N/A Is XNNPACK available: True Versions of relevant libraries: [pip3] numpy==1.23.0 [pip3] torch==1.12.0+cu116 [pip3] torchaudio==0.12.0+cu116 [pip3] torchvision==0.13.0+cu116 [conda] numpy 1.23.0 pypi_0 pypi [conda] torch 1.12.0+cu116 pypi_0 pypi [conda] torchaudio 0.12.0+cu116 pypi_0 pypi [conda] torchvision 0.13.0+cu116 pypi_0 pypi
沒有留言:
張貼留言