Notice
Recent Posts
Recent Comments
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 평가지표
- FSL
- procedure
- Map-reduce
- EC2
- 동차좌표계
- git
- https
- ubuntu
- ssl
- pm2
- MySQL
- Emoji
- ml
- pytorch
- object detection
- Homogeneous Coordinates
- Anaconda
- Dual energy X-ray
- Cost Function
- relaxation time
- MRI
- error
- coursera
- AWS
- CT
- x-ray
- NRMSE
- kernel
- nodejs
Archives
- Today
- Total
목록GPU (1)
Pay it Forward
[Pytorch] 특정 GPU 사용하기 / 여러개의 multi GPU parallel 하게 사용하기
Neural network를 train을 하다보면 성능을 비교하기 위해 loss function, optimizer 등이 상이한 여러 가지 model을 돌려볼 일이 수도 없이 많다. 이 때, 한 장의 GPU만 있다면 어쩔 수 없지만 여러장의 GPU가 존재한다면 A model은 GPU 0번에서, B model은 GPU 1번에서 동시에 두 개의 model을 돌려 빠르게 결과를 보고 싶을 것이다. 이를 위하여 각 model을 특정 GPU에서 돌리는 법을 알아보고자 한다. 추가적으로, network의 weight param이 크거나 input dataset의 크기가 커서 하나의 GPU memory로는 model을 돌리기에 부족하여 CUDA out of memory error가 뜨는 경우가 많다. 이를 해결하기 ..
Machine Learning/Pytorch
2021. 6. 3. 16:07