推 mainline : 發表會是說了很多回ML 這一項portrait mode並沒有喔10/05 17:20
→ mainline : 根據verge nat 谷歌dual pixel說法倒推 他們用的就10/05 17:20
→ mainline : 是對焦像素的資料 猛
https://imgur.com/r4lLZFt.jpg
成品
https://imgur.com/31tfpJ4.jpg
像素產出的depth map
看了這隻影片有詳細講述這次Google Pixel相機的原理,真的是除了靠機器學習外
還用感光元件的雙像素去產生深度地圖,來達到軟體後製景深時的邊緣辨認,也因
此,即使拍的不是人像,Google Pixel2也能辨認出來。等於用雙像素來達到別人
雙鏡頭的功能,太神喇!
https://youtu.be/PIbeiddq_CQ
超值得觀看影片,製作的非常好且容易理解
然後影片裡頭的測試照片畫質也非常驚人,根本火上加油....
https://imgur.com/ti31FUc.jpg
https://imgur.com/JhhN0PA.jpg
https://imgur.com/5DiFhbh.jpg
熟悉的HDR+威力
以下人像模式
https://imgur.com/TqCTzpt.jpg
https://imgur.com/qaghHaE.jpg
蝴蝶這張超扯
https://imgur.com/soeAaEZ.jpg
這張是前鏡頭,效果也很不錯
https://youtu.be/PIbeiddq_CQ
再貼一次影片,訪談跟親自動手玩解說的很詳細
※ 引述《LIONDODO (LION)》之銘言:
: 無論是三星或是華為或是Apple或古早的HTC等等,人像模式淺景深的原理都是透過
: 雙鏡頭去計算距離或是重疊演算來得出主體與背景,並用軟體去做模糊。
: 也有一些廠商是用單鏡頭然後用軟體去判讀,但這類的解決方案多半效果很慘...
: 但是昨天發表的Google Pixel 2號稱能用機器學習來分辨主體以達成單鏡頭人像淺景
: 深的效果,且拍的愈多就能辨認的更準確,主鏡頭前鏡頭都可以啟用。
: https://youtu.be/2iObySa91b0?t=7m24s
: https://imgur.com/Yr4r284.jpg
: 截圖,這還是前鏡頭拍的
: 從測試影片跟照片中看起來,這很威啊!!難道是繼HDR+之後,又一個Google用軟體
: 硬幹硬體的黑科技...糟糕,心動動了!