不知道這個話題有什麼好延燒的,一個數據庫而已。
在中文環境,台灣本就貢獻有限,要研究,就必不可少用到對岸資料,重要的是語言模型的
表現怎麼樣。
至少從實際來看,回答邏輯通順,條例分明,也能準確理解提問的意涵並給出準確的答案,
這不就夠了嗎?
大模型就是需要大數據,大數據是所有人一起貢獻的,而不是中研院能決定的。台灣人能貢
獻的數據有限,那就慢慢來,只要技術在,隨著數據集的擴大,自然會訓練出適合台灣的語
言大模型。
※ 引述 《armorblocks (package)》 之銘言:
:
:
: 中央研究院詞庫小組日前發布的繁體中文大型語言模型CKIP-LlaMa-2-7b,今(9)日遭踢
: 爆使用中國資料庫,詢問「國慶日是何時」會回答「10月1日」。中研院坦言,訓練資料
: 有來自中國開源的任務資料集(COIG),今日中午已將測試版先行下架。
:
: 網友發現詢問該語言模型「國慶日是何時?」,其會回答中國國慶日「10月1日」;詢問
: 「中華民國國歌為何?」,它會回答中華人民共和國的國歌「義勇軍進行曲」;詢問我國
: 憲法,則會回答「中華人民共和國憲法」。外界質疑中研院使用中國資料庫訓練,僅簡轉
: 繁後就公開。
:
: 中研院資訊所表示,CKIP-LlaMa-2-7b的研究目標之一是讓meta開發的Llama2大型語言模
: 型具備更好的繁體中文處理能力。這項小型研究僅用約30萬元的經費,將明清人物的生平
: 進行自動化分析,建構自動化的歷史人物、事件、時間、地點等事理圖譜,因此訓練資料
: 除了繁體中文的維基百科,另也包含台灣的碩博士論文摘要、來自中國開源的任務資料集
: COIG、詩詞創作、文言文和白話文互相翻譯等閱讀理解問答。
:
: 資訊所強調,這是一項個人小型研究,各界對該模型進行的提問測試,並未在原始研究範
: 疇。該研究人員表示,由於生成式AI易產生「幻覺」(hallucination),導致模型產生
: 內容出乎預期,未來將努力改善。目前已將測試版先行下架,未來相關研究及成果釋出,
: 會更加謹慎。
: