https://x.com/Azure/status/1884753427059609991
剛剛看到的消息
Coming soon: Customers will be able to use distilled flavors of the DeepSeek R1 model to run locally on their Copilot+ PCs.
即將推出:客戶將能夠使用 DeepSeek R1 型號的精簡版本在他們的 Copilot+ PC 上本地運行。
微軟說以後的windows會有內建的DeepSeek AI系統
免錢的就是香?
以後玩日文遊戲是不是可以靠AI實現在自己電腦上同步翻譯
不再需要代理商來翻譯了阿...?
作者:
guogu 2025-01-30 12:53:00痾 本地的有多垃圾誰用誰知道==
作者:
guogu 2025-01-30 12:54:00AI pc了不起也到14B而已 其實現在就能自己載來試了
作者:
Mareeta (尋找新樂章)
2025-01-30 12:58:00有競爭是好事r
作者:
guogu 2025-01-30 12:58:00大語言模型要跑 不是訓練 本來就不用N卡啊A卡也能加速 我用6600XT跑7B模型大概可以到35token/sec 這速度已經比用免費gpt快了但就...很蠢 7B的智商是真的低
作者:
fan17173 (要命的小方)
2025-01-30 12:59:00然而口拍擋東擋西的出圖還是得自己來
作者:
a43164910 (寺æ‰ä¼Šå…)
2025-01-30 12:59:00我尋思著日文遊戲同步翻譯不是早就有了嗎==
作者:
guogu 2025-01-30 13:01:00確實 如果是微軟幫你搞大概會擋很多東西 不如自己載當然模型本身還是會有拒絕回答的東西 但不會再套一層檢查
作者: imsaint (風二) 2025-01-30 13:03:00
早就有了 現在差在各模型誰翻的最好又便宜而已
作者:
s952013 (AllenSkywalker)
2025-01-30 13:06:00A卡有救嗎
日文翻譯有8g顯卡用sakura7b+luna就夠了
作者:
guogu 2025-01-30 13:12:00a卡看你哪張 6600xt用lm studio可以加速大概35token/sec沒用顯卡大概只有10token/sec
作者:
pikaMH (礦工獵人)
2025-01-30 13:22:0010年前的VNR不就有這種功能了?
作者:
guogu 2025-01-30 13:28:00不過如果用deepseek 它"想"的時間常常會到10幾20秒而且因為7b 8b太蠢 常常想錯方向 我覺得中文對談還不如qwen大概就數學好一點? 像9.11跟9.9誰大偶而可以答對但其實要求其他7b左右的模型仔細計算他們有時也能答對
作者:
spfy (spfy)
2025-01-30 13:36:00微軟本地的AI功能原本預計只有TEAMS去背降噪 畫圖i2i 用自然語言查電腦的使用歷程紀錄 這個看要加什麼功能在本地端這個應該是用內建NPU跑的功能 如果是自己架的隨便要什麼都可不過我是比較期待AI MAX也搞統一記憶體 如果VRAM 96G配DS比較大的模型(有嗎)效果應該很不錯?
作者:
guogu 2025-01-30 13:41:00如果你是要翻r18的東西 建議還是用llama 70b鴨鴨走那邊可以免費無限用 效果比deepseek 7b好太多了
這只是在azure和github上提供而已,沒有要加功能在本地端
作者: a2156700 (斯坦福橋) 2025-01-30 13:51:00
本地就算了
作者:
money501st (moneywayne501st)
2025-01-30 14:08:00你的英文是不是不太好...
作者:
strlen (strlen)
2025-01-30 14:19:00吹的應該沒實際用過本地AI 蠢到爆好嗎
作者:
mainsa (科科)
2025-01-30 14:19:00英文不好你可以先用你最愛的DS翻譯一下 不要來鬧笑話
作者: mhwsadb45 2025-01-30 16:10:00
will be able翻譯內建 不愧是中國翻譯