看板 Marginalman 關於我們 聯絡資訊
pytorch在處理多GPU運算有data parallel跟distributed data parallel 我理解的前者是用multithread來解這問題 後者是multiprocess 在Python中 multithread要應對GIL 大量運算問題使用multithread其實不如單線程 所以data parallel實質單線程? 另外我昨天搞了個distributed data parallel 但accuracy比data parallel低超多 這為啥 超參數都一樣 pytorch好難 哇哇嗚嗚嗚 -- ※ 發信站: 批踢踢實業坊(ptt.cc), 來自: 223.140.135.95 (臺灣) ※ 文章網址: https://www.ptt.cc/bbs/Marginalman/M.1734045143.A.E44.html
推文自動更新已關閉