蘋果的AI是三階段的
1.本地跑3B以下的各式模型
2.跑不動的上”蘋果自己”組的雲端來跑
3.你還不滿意可以Call外援-ChatGPT
看懂了嗎,Chat GPT最大的作用就是上WWDC露面拉一下股價,他跟瀏覽器的預設引擎一樣,
你不喜歡Google就換Bing,是具備高可替代性的。現在還在AI的高速發展期,蘋果錯過了瀏
覽器時代,這一次蘋果顯然有雲端算力也要抓在自己手裡的野心。
iPhone 15和14 Pro以下的用戶會抱怨,本地跑不動的不是可以上雲端,為什麼不下放?
這就回到上面說的,大部分的功能其實都在本地跑完了,要上蘋果私有雲端跑的也是一小部
分,而4GB和6GB ram機型的用戶如果要跑新的AI功能,基本上所有功能都得交給蘋果私有雲
端運算。
而這就造成了兩個問題:
1.很多原本設定本地跑的小功能上雲端延遲變大很多,體驗變糟糕。
2.蘋果私有雲端目前算力還不行,目前的雲端是由大量M2 Ultra組成的,但顯然和其他使用
NV顯卡的大模型廠商有很大差距,現在給8GB以上大部分都能在本地跑AI的用戶算力都捉襟見
肘。
歸根結底,蘋果還是被這麼多年叩叩搜搜的Ram給反噬了(又或者蘋果樂觀其成,畢竟到15系
列的這個時間節點,蘋果不可能不知道自家AI研發的進展,蘋果也知道15系列基礎款放6GB是
一出就被淘汰的,但他還是只給6GB)
結論就是蘋果目前在硬體的發展目標,是雲端的硬體和大模型都是自己的,所以蘋果不會買
NV的計算卡,而是採用自家晶片,之後繼續迭代M4 ultra extreme…等等。
所以短期內蘋果雲端算力是個大問題,蘋果走本地+雲端雙刀流AI,本地AI能力不足的,就只
能一刀切掉不給用AI了,以免蘋果目前的雲端算力撐不住和促進消費換代,所以可以預測到
,16系列肯定是全系列8GB起步的。