목록딥러닝/PyTorch (6)
Deep CV
gpu가 8개인 서버에서 5,6,7,8번 째 gpu에만 데이터 병렬처리를 하려고 하는데 아래 오류가 있었다.RuntimeError: module must have its parameters and buffers on device cuda:4 (device_ids[0]) but found one of them on device: cuda:0 model = nn.DataParallel(model, device_ids=gpus).cuda()gpus는 (4,5,6,7) 이었다. 문제는 모델을 gpus[0]으로 옮긴 후 장치를 지정하지 않고 .cuda()를 호출하면 모델이 기본 GPU(일반적으로 cuda:0)로 전송되어 지정한 기본 장치와 불일치가 발생한다는 것입니다. 이를 수정하려면 DataParallel..

참고한 사이트: https://pytorch.org/docs/stable/tensorboard.html 0. scalar 값 하나씩 그래프 그리기 1. scalar 딕셔너리로 그래프 그리기 2. 히스토그램 그래프 3. 이미지 출력 4. 이미지 여러 개 한번에 5. matplotlib을 사용한 figure 이미지 출력 6. 비디오 출력 7. 오디오 - 아직 한번도 안 다뤄봐서 잘 모르겠다 8. 텍스트 9. 모델 구조 보기 10. 아래는 모름 나중에 찾아봄 11. 하이퍼파라미터 - 출력 당시의 sclae 정리
x = torch.rand(64, 32, 3) y = x.permute(2, 0, 1) y.size() --->[3, 64, 32]

CUDA 버전에 따라서 PyTorch 버전을 맞춰줘야 CUDA를 사용할 수 있었다. $ nvcc -V Cuda tool의 버전을 확인하고 버전에 맞춰 아래 사이트의 코드로 Pytorch를 install 해줬더니 해결됐다. https://pytorch.org/ PyTorch An open source machine learning framework that accelerates the path from research prototyping to production deployment. pytorch.org 옛날 pytorch 버전 설치는 아래 링크 https://pytorch.org/get-started/previous-versions/ ++ 추가) 3090, CUDA 11.3 version 사용시 pyt..
torch.clamp(input, min=None, max=None, *, out=None) min과 Max를 정하고, min보다 작으면 min으로 Max 보다 크면 Max로 제한 합니다. Parameters input (Tensor) – the input tensor. min (Number or Tensor, optional) – lower-bound of the range to be clamped to max (Number or Tensor, optional) – upper-bound of the range to be clamped to Example >>> a = torch.randn(4) >>> a tensor([-1.7120, 0.1734, -0.0478, -0.0922]) >>> torch.c..