Re: [新聞] DeepSeek傳偷用5萬顆輝達H100晶片

作者: ggian123 (起)   2025-01-27 19:31:04
如題
就是純來黑的
看了一下被採訪的人 美國亞裔不意外香蕉人
美國這些搞生成式ai的就是被看破手腳
尤其是那個奧特曼 就是來純搞錢的
直接看deepseek內部人員 截了三點
在去年五月的deepseekv2推出時
在知乎的回答
——————-
羅福莉
DeepSeek
- 親自答 此回答由問題相關方親自撰寫
今天忙飛,深夜,簡單寫幾點:
1. 單論 DeepSeek-V2 模型*的中文水平(來自 20 多個微信群用戶反饋),是真實處在
國內外閉源模型的第一梯隊(GPT4、文心 4.0*等),因為沒做 RAG(檢索增強*)等功能
,所以實際在官網(@deepseek.com)的體感可能略微沒那麼驚艷,但這不妨礙 API 效果
哦!外加 1 元 / 百萬輸入 Tokens 的價格,只有 GPT4 價格的 1/100,性價比之王!
2. 怎麼兼顧模型效果和成本的?基本純靠:模型結構創新(MLA+DeepSeekMoE)+ 超強In
fra。MLA妙就妙在,它既是 training efficient MQA,也是 inference efficient MHA
。從今天起,放棄MHA/GQA,全面擁抱MLA吧。同時,不嚴謹來說,DeepSeekMoE也算是開
啟了“共享expert+細粒度expert分割”的sparse框架風
作者: event1408472 (醒世明燈)   2025-01-27 19:34:00
仇中的會看不進去
作者: tom501062003 (池袋情報商)   2025-01-27 19:40:00
葬送的福利連
作者: turndown4wat (wat)   2025-01-27 19:59:00
台灣AI人才很多好嗎印度可能要先改善空汙不然誰敢去
作者: sunpedro0202 (Pedro)   2025-01-27 20:00:00
這是來釣魚的嗎XDD
作者: lolpklol0975 (鬼邢)   2025-01-27 20:30:00
作者: niburger1001 (妮妮漢堡)   2025-01-27 20:40:00
葬送的芙莉蓮
作者: gogogogo3333 (gogogogo33333)   2025-01-27 22:43:00
羅福利 95后後,年薪破億。

Links booklink

Contact Us: admin [ a t ] ucptt.com