매번 환경 설정할 때 마다 너무 힘들다...
나를 위한 메모...
1. GPU 정보 보기
nvidia-smi
- GPU : NVIDIA GeForce RTX 3090
- Driver Version : 530.30.02
- CUDA Version: 12.1
CUDA Version은 사용중인 드라이버에 추천 되는 CUDA의 버전.
2. 드라이버에 맞는 CUDA 버전 확인
이 사이트에서 확인 할 수 있다.
내가 사용하는 서버는 Linux 니까 CUDA 12.1 아래로 사용하면 되는 듯.
`nvidia-smi` 에서 추천한 것도 12.1 버전이었다.
3. GPU에 맞는 CUDA 버전 확인
이 사이트에서 확인할 수 있다.
`ctrl + F` 로 찾아보니 이 GPU에 호환되는 Compute capability = 8.6 이다.
초록색에서 8.6에 해당하는 부분을 보니 나는 CUDA 11.1 ~ 11.4 버전을 쓰면 되겠다.
4. CUDA 버전에 맞는 PyTorch 버전 찾기
이 사이트에서 확인할 수 있다.
내가 깔아야하는 PyTorch==2.0.0이다.
엥... 근데 위에서는 11.1~11.4 쓰랬는데.
ㅋ....
아~ 도라방스~ ㅋㅋㅋ 논문보다 이쪽 서버 GPU가 딸리나보다 ㅋㅋㅋㅋㅋㅋㅋㅋㅋ
일단 11.7 로 깔아보자. 😭😭😭
conda install pytorch==2.0.0 torchvision==0.15.0 torchaudio==2.0.0 pytorch-cuda=11.7 -c pytorch -c nvidia
참고
1. GPU 서버 사용법 - CUDA, PyTorch 버전 맞추기 (총정리)
GPU 서버 사용법 - CUDA, PyTorch 버전 맞추기 (총정리)
논문 구현을 해볼 때마다 PyTorch버전에 따라 필요한 CUDA 버전이 다르고, 버전이 서로 맞지 않아 시간을 낭비하는 경우가 많았다. 이를 해결하기 위해 (내가 썼던..) 여러 글을 참조해서 docker 컨테
jjuke-brain.tistory.com