各位好,
目前在windows英文介面中使用python2.7 IDLE欲處理大陸的文本分類語料庫時
遇到了中文編碼的問題。主要是想利用該語料庫找搭配詞和文本類別之間的關連
首先,我利用NLTK工具包裡的CategorizedPlaintextCorpusReader
讓python將文本及其所屬的類別對應起來。
用chardet測出文件使用的是gb2312編碼。
當我試著印出某一篇文章(中英夾雜)時
print reader.raw('C11-Space/C11-Space0001.txt').decode('gb2312',
errors='ignore').encode('cp950', errors='ignore')
雖然大部分的中文字可以印出來。但是許多重要的字卻呈現?,這樣可能會影響結果
不知道各先進有沒有比較好的處理方式呢?
另外,在網路上看到有人推薦結巴分詞對中文進行分詞,
還是說能不能用nltk裡的分詞工具對中文進行分詞?
最後想請教該如何清除中文的停止詞呢?nltk包裡的停止詞語料庫似乎不包含中文。
感謝回答先