[請益]AI算圖,新的3090/4080/4070ti怎麼選?

作者: idolater (strawberry of Wrath)   2023-02-26 14:16:05
如題,全新的3090不好找,店家開38900元。買卡目的是算AI圖,主要跑Stable Diffusion,想請問跟市面上4070ti,均價29000-33000。,4080,均價42000-49900相比,哪個比較划算?
執著的點是3090的24g記憶體,不知道是否比較有幫助,還有性價比。謝謝!
作者: hermithsieh (hermit)   2023-02-26 15:22:00
能上4系列比較沒有懸念
作者: greg7575 (顧家)   2023-02-26 15:33:00
ram越大越好
作者: matrox323 (WU)   2023-02-26 15:56:00
4090..才有性價比
作者: tint (璇月)   2023-02-26 23:05:00
只是玩玩的話 8GB VRAM就能出圖 自己訓練VRAM愈大愈好
作者: klm619 (what?)   2023-02-27 12:03:00
4090
作者: whotear (~微風香水~)   2023-02-27 16:52:00
google:stable diffusion 記憶體
作者: mystique (叛逆善良 猛虎之夜 )   2023-03-01 07:27:00
應該要看你業務規模需要什麼生產力的計算力才對。如果案件多那兩套電腦配兩張卡會比一張頂級卡有用多了
作者: xephon   2023-03-01 09:10:00
4090
作者: aalluubbaa (wenwenyenyen)   2023-03-05 21:40:00
看你業務怎麼需求,訓練的話很多colab的解決方案。3060 12g性價比最高,你生圖也不會需要秒進秒出,高階卡如果vram不夠高之後反而不會那麼棒。另一張Rtx a4000看國外論壇也有在推,vram 24gb
作者: tint (璇月)   2023-03-07 06:33:00
RTX A4000的VRAM是16GB
作者: fomzantom (龍的瞎子)   2023-03-14 23:16:00
繪圖卡64GB 但是錢不夠抱歉 是48GB
作者: saimeitetsu (Sai Meitetsu)   2023-03-19 23:04:00
Ram不夠的話會算到大概95~98%的時候跟你說記憶體炸了然後全部重來要降步驟和解析度

Links booklink

Contact Us: admin [ a t ] ucptt.com