一樣哈嚕鎮樓先。
https://i.imgur.com/EsteLQN.jpg
前情提要:
[討論] M1 iPad Pro講的故事前半段
https://www.ptt.cc/bbs/iOS/M.1621091454.A.576.html
[討論] 6/7 WWDC21節錄
https://www.ptt.cc/bbs/iOS/M.1623110705.A.7F3.html
========
這次接續次一篇講的前半段,結合WWDC21發表的開發者應用技術做結合。
(可以參考節錄最末段Susan出來講API那邊)
首先是『Object Capture』。
大體是利用多個2D圖片疊加擬合3D物件所需要的深度資訊,而這個API最主要投入於AR應
用開發。
那為什麼要著重於AR應用的開發?
時間需要回朔到2014~2017這段期間。
-2014 Google Tango
2014年2月透過手機上的『雙鏡頭』來獲取物件所需要的深度資訊,但是Android手機鏡頭
百家爭鳴,沒有一個統一的規格以至於Google沒辦法很好的掌握好陣營內的各個硬體設備
,最終相關研究成果大部分轉化成後來的ARCore基礎應用。
-2017 Google ARCore
吸取前一次的教訓,Google轉而利用手機上配置的『單鏡頭』,通過不斷對同一場景進行
關鍵點獲取來重建深度資訊,這動作就是Structure from Motion(運動結構重組)
但這樣退而求其次的技術也面臨一個重大問題,那就是要進行重組必定要先進行一段鏡頭
環繞物體的動作,不可能達到打開鏡頭立刻獲取資訊,必定有時間成本放在這一塊上。
此外利用這個方式查找深度資訊所佔用的手機資源非常大,手機端要運算經常性的讓手機
發燙,電量也通常無法維持很好的續航。
-2017 Apple ARKit
在2020年前,蘋果的確和Google一樣使用『單鏡頭』進行同樣的動作。
差別在於,蘋果iPhone鏡頭的硬體參數以及手機的空間位移差等資訊,蘋果自家最清楚,
可能造成的誤差範圍都有納進去算法內做校正。不過硬體配合的掌握只是讓蘋果在當年的
技術領先一小部分。
-2020 Apple LiDAR鏡頭
Light Detection and Ranging。
光學雷達的應用直接利用感測元來獲取深度資訊,簡單又粗暴。
同一時間Android陣營也有很多手機有配備ToF鏡頭,但是Google要推,但下游廠商不領情
也沒什麼用,各家鏡頭參數不一千奇百怪,只有Google自己著急算法導致大家都只玩自己
的很難配合。
你可能會說這跟Object Capture又有什麼關聯了?
不是,正因為前面有技術的積累發展,導致WWDC21蘋果直接宣布往後要面向『XR技術』近
一步發展。
========
什麼是『XR』?
Extended Reality延展實境,有區別於虛擬實境VR、擴增實境AR、混合實境MR,XR是結合
虛、實以及人體與設備實時互動的技術,XR可應用範圍極為廣泛,各項產業肯定都沾得上
邊,舉凡道路、廣告、教育、行銷、餐飲等只要你想得到的地方都可以用。
XR技術最早可以追朔到1962年的電影製作人Morton Heilig發明的Sensorama(有興趣可以
自行查找資料),其形式類似於現今電影院內的4DX電影座椅,其包括座椅、氣味,雙鏡
片全息虛擬裝置,但由於早期的應用只能『看』不能『摸』,可謂一點互動能力都沒有。
來到1968年MIT的計算機科學家Ivan Edward Sutherland所發表的『達摩克里斯之劍』
(https://www.youtube.com/watch?v=Hp7YgZAHLos)
笨重的設備在實驗室沈寂許久,直到後來的Oculus Rift消費及產品(還有HTC VIVE)等V
R產品上市,XR技術也多少被抬升上來。
雖然2016年間大抵還是流行VR設備(我的VIVE也頂多拿來玩Beat Saber、VR Kanojo),P
S VR更是簡單,完全只靠PlayStation Camera然後和VR頭盔建立距離資訊(雖然我只拿來
玩夏日課程)有在玩Just Dance一定會覺得XBOX上用Kinect一定比PS好很多。
不過隨即而來的是2017的挖礦潮,能做複雜運算的顯卡皆無法用原價購買(跟現在一樣QQ
),此外VR多發展在娛樂遊戲方面,在日常生活工具方面沒有任何技術發展,這就導致XR
技術發展非常困難。
========
由於篇幅有點長,後面還要講『Universal Control』才是把標題完全講清,假日再補上
下半段。
那WWDC21推這技術的意義是什麼?跟後面要講的Universal Control又有什麼關聯?
如果你沒有錯過阿婆近期的“供應商消息”至少你會聽說過阿婆要推Apple Glass。
那這兩大技術的發佈是不是又確立了幾個事實,這留給你們自己想想。