作者:
wei115 (ㄎㄎ)
2025-02-21 19:09:19沒有言論審查的 DeepSeek R1 模型登場!推理能力甚至一樣強
Perplexity AI 公布震撼消息,宣布釋出全新的「R1 1776」模型;簡而言之,它是中國
廠商所開的 DeepSeek R1 的延伸版本,但經過後訓練消除言論審查機制,能夠針對敏感
議題,例如台灣獨立提供事實回答,模型權重已上線 Hugging Face 和 Sonar API。
遵守中共規則,DeepSeek 不回答敏感言論
Perplexity AI 表示,雖然 DeepSeek R1 是一個完全開源的羽量級大型語言模型(LLM)
,其性能接近 OpenAI o1 和 o3-mini 等最先進的推理模型,然而 DeepSeek R1 最令人
詬病的痛點,就是由於中國共產黨的政策限制,因此經常拒絕回應敏感話題。
舉例來說,當被問及台灣要求獨立會如何影響 NVIDIA 股價時,DeepSeek R1 會選擇直接
無視問題,並改以所謂的「中共論調」給予使用者回答,例如中國政府始終堅持一個中國
原則之類。
然而對於 Perplexity AI 來說,公司目標是為所有使用者的問題查詢,提供足夠準確的
答案,這意味著若不先減輕 DeepSeek R1 的偏見和審查,即便模型本身強大且開源,也
不足以發揮出它全部的推理能力。
打造後訓練資料集,結合 NVIDIA 框架
因此 Perplexity AI 決定對 DeepSeek R1 執行後訓練,藉助一組擁有 40000 個多語言
提示,專注於「受審查主題」的資料集,結合 NVIDIA 的 NeMo 2.0 框架來改進模型,同
時還可以保持其推理能力不受影響,並確保 AI 所給出的答案,既真實且高度相關。
Perplexity AI 表示,為了打造這組「言論審查資料集」,他們首先聘請人類專家識別並
標記大約 300 個已知被中共審查的主題,然後再利用這些主題開發出一套「多語言審查
分類器」。
接著 Perplexity AI 嘗試藉由多樣化的使用者提示詞,意圖觸發分類器,再過濾出明確
允許訓練的查詢方式,最終得到一組擁有 40000 個多語言提示的資料集,並且用以後訓
練 AI 模型。
突破言論審查,各種表現仍然強大
為了評估 R1 1776 模型的有效性,Perplexity AI 在涵蓋廣泛敏感主題的 1000 多個範
例中,對去除言論審查版本的 DeepSeek R1 進行測試,並請人類偕同其他 AI 模型一同
評估,判斷 R1 1776 是否會嘗試逃避回答問題,或者提供過於「不沾鍋」的答案。
根據內部所進行的評估和測試表明,Perplexity AI 指出,完成後訓練的 R1 1776 已經
不會再受到中國言論審查影響,並且於推理和數學基準測試中,表現跟基本版的
DeepSeek R1 相當。
https://buzzorange.com/techorange/2025/02/19/remove-censorship-deepseek-r1/
哇
原本充滿中國特色社會主義世界觀的大模型
惡墮成民主的大模型
有沒有八卦?