pytorch大師請進

作者: sustainer123 (caster)   2024-12-13 07:12:21
pytorch在處理多GPU運算有data parallel跟distributed data parallel
我理解的前者是用multithread來解這問題 後者是multiprocess
在Python中 multithread要應對GIL 大量運算問題使用multithread其實不如單線程
所以data parallel實質單線程?
另外我昨天搞了個distributed data parallel
但accuracy比data parallel低超多 這為啥
超參數都一樣
pytorch好難 哇哇嗚嗚嗚
作者: argorok (s.green)   2024-12-13 07:22:00
一樣就錯了吧 batch size dp會是ddp的n倍n= gpu數量
作者: sustainer123 (caster)   2024-12-13 07:25:00
R 合理 我再研究一下超參數要怎麼改我想說正常train是0.7 搞ddp就剩0.3

Links booklink

Contact Us: admin [ a t ] ucptt.com