Re: [請益] 組機器/深度學習機,自行編譯TensorFlow?

作者: geminitw (geminitw)   2018-01-04 16:38:28
不好意思自己回復一下, 後來還是接受電蝦版網友的建議就去
買了 i5 8600K + 1080ti, 因為老魯很怕吵,
還買了 FD R5 靜音機殼 基本上大概 50K 出頭 (16G RAM + 256G 545 SSD etc)
安裝 linux Ubuntu 16/17 都會導致黑畫面 (Google 一下, 有很多人反應類似問題)
修改啥 boot 參數對我都沒有用 (反正看訊息就知道一直進入 isr routine)
後來直接裝 Ubuntu 14, nVidia driver 似乎就直接裝好了 (384.90版本)
好像是因為安裝過程中網路現有給他接上, Ubuntu 自行尋找需要升級的軟體/modules.
裝玩完一陣子沒問題後, 再用軟體升級到 Ubuntu 16.
然後安裝一拖拉庫的 cuDNN/Cuda 8 (記得啟動 tf
如果有出現找不到 cuda *.so.6 的, 就記得再去下載更新版的 cuDNN library)
總之費了一番功伕... 跑起來之後, 大概時間可以縮減為 1/8,
但是 若有使用 batch learning 的話, 時間就只有縮減 1/2.
(網路上查, 應該是 我在 batch learning 採用最沒效率的 feed_dict 方式,
使用 input pipeline 可以增快)
以上野人獻曝~
※ 引述《geminitw (geminitw)》之銘言:
: 若本文有不恰當之處, 請各位老司機告知, 小的自行刪除~
: 因為最近硬體貴鬆鬆, 所以一直都用 MacBook Pro 先胡亂用一下 numpy/tf
: 不過後來發覺一般 直接用 pip install tensorflow (conda install tensorflow)
: 所安裝的 tf 並沒有用到 intel SSE/AVX 等等指令集,
: 網路上找了有人人編譯好的支援指令集的版本 tf 後, 一輪 epoch 居然可以從
: 耗時三分多鐘進步到 大約一分四十秒...
: 請問各位... 組好機子之後, 會直接就上 tf 開始跑訓練, 還是會先花時間把tf
: 由原始碼重新編譯並且安裝?
: 感謝各位的經驗分享

Links booklink

Contact Us: admin [ a t ] ucptt.com