無論是三星或是華為或是Apple或古早的HTC等等,人像模式淺景深的原理都是透過
雙鏡頭去計算距離或是重疊演算來得出主體與背景,並用軟體去做模糊。
也有一些廠商是用單鏡頭然後用軟體去判讀,但這類的解決方案多半效果很慘...
但是昨天發表的Google Pixel 2號稱能用機器學習來分辨主體以達成單鏡頭人像淺景
深的效果,且拍的愈多就能辨認的更準確,主鏡頭前鏡頭都可以啟用。
https://youtu.be/2iObySa91b0?t=7m24s
https://imgur.com/Yr4r284.jpg
截圖,這還是前鏡頭拍的
從測試影片跟照片中看起來,這很威啊!!難道是繼HDR+之後,又一個Google用軟體
硬幹硬體的黑科技...糟糕,心動動了!