作者:
LDPC (Channel Coding)
2024-05-23 12:35:56再次說一遍 千股NVDA 防身防失業防變成電池防小人防渣男 QQ
半導體有所謂的摩爾定律 AI也有 就是所謂的Scaling Law 他基本上給了一個大方向
AI是有三個元素組成 算力 算法 資料
Scaling Law基本定錨模型大小算力和資料相關性 沿者這條路的終點就是AGI
看看AI教父最新的訪談 https://zhuanlan.zhihu.com/p/699127896
這也意味者Scaling定錨算力類似像電力一樣 永遠不嫌多 然後你沒看到AI盈利模式是
是因為最近這幾波AI提高生產力是從業界生產工具開始 (今年老黃GTC已經暗示了很多)
像是RAG/DocAI/更別說面向設計業者影音等 等終端消費者終於看到AI落地場景時
那通常已經擴散到on-device端 從GPT4 2023/03第一次出現到僅僅只過去一年
但已經一堆黑科技大量出現 比方多模態AI能做哪些事情
幫助產業openai已經示範了很多 照這種速度 5~10年 會看到大量落地應用
包含機器人多拉a夢
AI發展正處在非常誇張的高速發展 另外個例子 2023年LLM context token length約8k
(你可以理解成他單次能吸收資訊量 每個token大概等於0.75字母
所以單次大概可以餵食6000英文字母給LLM) 到今年狗家LLM可以有1M context token
(大概等於1200頁數 pdf) 搭配多模態 這玩意能瞬間處理巨大資料量
這意味者這個虛擬助手 你隨便丟給他1200頁的百科全書 他瞬間就可以回答你要的資訊
並且不只是返回資料 它能整理成你理解形式 幫助你瞬間了解1200百科全書
再搭配diffusion這類型模型 他甚至能畫示意圖來引導你對知識認知
這種提高生產力已經超越人類助手....多模態LLM以後會非常適合處理巨大資料量
幫助人類在工作上的需求 這些需求都是指向算力(高速計算)和記憶體這倆相關產業
至於胡言亂語這部分特性 目前證據指向模型越大 數據越多 多模態越多 胡言亂語越低
而AMD的未來會在Inference端 也就是onnx轉模型c code這類型
目前現在的戰場還沒全面到Inference 所以也是充滿不確定性 主因是
老黃也開始殺到inference端了 但AMD也是少數唯一能在infernece有前瞻性
加上市值低 蘇媽也算是少數屬於能端出東西的ceo 值得可以賭賭看QQ
而on-device端會在高通果家狗家這類型公司全面廝殺 而記憶體就是那三大家HBM
然後台灣就是代工 QQ