祖克伯的Meta公司今年2月公開的「LLaMA」是體積比較小的大型語言模型(LLM)。
LLaMA依照訓練參數數量分為7B、13B、30B、65B。訓練數量雖比不上OpenAI的ChatGPT,但
是硬體需求大大降低,是個人電腦甚至旗艦手機都跑得動的程度。
根據他們paper的說法,LLaMA 13B的模型性能比GPT-3模型要好,可以作到基本對答。
一些LLaMA可以達成的任務
這邊的截圖是來自Dalai LLaMA,它只是一個LLaMA的網頁前端。
目前LLaMA只支援英文,未來應該會有中文模型。
1. 幫我把這句話翻譯成中文:Taiwan is a country.
https://i.imgur.com/G4o7TYs.png
2. 解釋Skinner行為主義心理學理論的優缺點,並舉出五個例子
https://i.imgur.com/MtYgomt.png
3. 寫個Python程式,尋找一個字串中出現最多次的字元
https://i.imgur.com/3OKMDun.png
4. 幫我想五個新文章標題候選:使用Linux當主力系統的好處
https://i.imgur.com/jjx5prE.png
5. 段落抓重點:請抓出以下有關普遍文法 (Universal Grammar) 段落的重點,並用十句
話解釋何為普遍文法。
https://i.imgur.com/6DccCwW.png
在Android手機跑LLaMA
除了LLaMA以外,還有Alpaca模型,這是史丹佛大學微調後的版本。同樣的資源耗用較小,
且有人製作了純CPU運算的版本llama.cpp,不用依賴顯示卡。
因此除了在個人電腦跑,也可以跑在Android手機上。
最小的LLaMA 7B至少需要4GB RAM,保險起見手機最好有8GB RAM才不會跑到一半手機自動
重開。
簡單的辦法就是裝Termux,解開signal9的錯誤
然後設定Proot Debian,把模型下載下來,alpaca.cpp編譯一下就可以開始聊天了。
https://i.imgur.com/M24wDqr.png
詳細安裝方法:https://reurl.cc/OVDRVg
手機RAM低於8GB的也不用灰心,你可以root後,設定chroot Ubuntu,掛載SWAP強行增大
虛擬記憶體。
手機與電腦速度比較
問一個10個字的問句
純CPU運算下,LLaMA在Intel Core i5-7400的CPU約10秒就會開始作答,寫完回答約1分鐘
。
高通s845處理器要等30秒才會開始回答,並且寫完整個回答2分鐘。
如果使用GPU加速,速度應該會快許多,要用GPU加速可嘗試Text Generation WebUI。
LLaMA的回答品質不可能像ChatGPT那麼神,胡言亂語機率更高
但好處是沒有任何道德限制~想聊什麼就聊什麼~
隨著這類模型的開源,大型語言模型可能會走向Stable Diffusion那樣的發展路徑。
(雖說LLaMA一開始是提前外洩才為人所知的)