[閒聊] 本地跑 LLM

作者: surimodo (好吃棉花糖)   2024-12-11 01:31:25
看了一下
70B 的大模型要 24G 顯示卡內存等級
差不多就是 4090
要價都是 6w 以上
那感覺還不如每月訂閱
還能隨時取消
@@
作者: Firstshadow (IamCatづミ'_'ミづ)   2024-12-11 01:34:00
訂閱是訂閱api還是GUI
作者: surimodo (好吃棉花糖)   2024-12-11 01:36:00
像是 openai 那種訂閱的本地跑最高等級 LLM 太貴了 @@而且很耗 GPU 壽命

Links booklink

Contact Us: admin [ a t ] ucptt.com