[新聞] Google 解釋 Pixel 3 是如何靠 AI 改進人

作者: olmtw (支持htc,支持台灣貨)   2018-12-01 16:18:48
Google 解釋 Pixel 3 是如何靠 AI 改進人像功能的
機器學習依然是核心。
Sanji Feng
21 分鐘前
跟前代相比,Google 今年出的 Pixel 3 系列在處理人像拍攝時的表
現要來得更好。考慮到兩者用的都是單顆主相機的設計,所以改進大
部分還是來源於軟體。那說到底,Google 究竟做了些什麼讓 Pixel
3 的人像演算法變得更強?今天他們就決定發文來解釋一下。
在 Pixel 2 推出的時候,Google 是利用神經網路和相機上的相位對
焦技術(後者主要是跟視差效果有關)來確定拍攝時處於前景的對象
。但這套方案在面對變化不大的場景時就容易出錯,而且在以小光圈
進行拍攝的時候也比較容易發生問題。為了改善這些,Google 在
Pixel 3 上運用了新的神經網路,希望透過對象的常規形狀、場景中
不同點的清晰度等多項因素,來更準確地判斷對象距離。另外在訓練
這套系統時,Google 也採用了一些創造性的辦法。比如說他們曾做
出過把五台 Pixel 3 綁在一起的「Frankenphone」,以同步記錄深
度資訊,來消除光圈、視差方面的不足。
看到 Google 在 AI 上投入了那麼多的資源,可見他們對單相機方案
的決心是多麼之大。當然囉,你也可以反過來想。Google 一直堅持
這種小眾做法的原因,搞不好也是為了探索演算法的極限,從而秀出
自己在人工智慧領域的「肌肉」呢。
https://engt.co/2zxNIrq
心得:
單相機的決心在現在是非常少見,Googlg這樣的堅持確實是讓我們期待他的極限在哪
如果有一天看到Google的手機變成雙鏡頭甚至更多,也許就代表單鏡頭極限已到
只能說Google還是有他厲害的地方囉!
作者: lf2zxc369247 (lf2zxc369247)   2018-12-01 22:25:00
黑科技

Links booklink

Contact Us: admin [ a t ] ucptt.com