作者:
double21 (我不是雙二一)
2018-10-10 11:53:41※ 引述《talan (這個好吃嗎)》之銘言:
: 早上看報導,Google Pixel 3在發表會上秀出的Night Sight功能,
: 能在暗夜拍出清晰的照片
: 還秀了一張與iPhone Xs的對比照
: https://i.imgur.com/zfJap0o.png
: 把晚上拍成宛如白天
: 完全就是黑科技的感覺
: 不過去看發表會影片那段,有提了一下原理,感覺瞬間冷了下來,
: 原來照片中宛如白天的色彩是利用機器學習用AI填上與加強的,
: 但仔細想想,這是跟其他廠商完全不同的思維,
: 其他人都先從感光元件、光圈或鏡頭等硬體上下功夫
: 然後配合多禎合成與演算法去加強照片
: Google這種用機器學習把照片上色,可謂是另闢蹊徑
: 可能不是所有夜間情境都很合用,
: 但應該有很多用處,就不知道大眾接受度如何了
這邊可能很多人沒用過Pixel phone,之後台灣有了,大家用了之後就知道了
用過之後就相信佳評如潮不是假的,硬體明明沒有突出,但是照片就是好看
這裡的好看不是顏色,是整體的亮度和顏色的搭配
當然在這個相機的戰國時代能不能高分是很難說,但是也不至於沒競爭力就是
這邊先跟大家講解一下相機,我們平常看到的鏡頭,以及感光元件
都只是得到原始資訊,這些東西需要經過處理,才會變成人眼所見的影像
大家都知道感光元件基本上是RGB三色,但是人眼對於紅藍綠感光並不一致
(像是綠色較為敏感)
所以其實最基本的你就要調整紅藍綠的比重,也就是hue
這些就是影像工程師的範圍(Image Quality) 早期其實都是非常手動人工
大量的拍照,大量的調整,所以才會有A家比較暖,B家比較冷
也才會有 硬體sensor明明是自己開發市場上最好的
鏡頭也選大X光 明明強到頂天
但是拍起來卻油畫感十足or畫質不知道哪裡怪怪的 (S公司表示...)
在大部分人都選用高通+Sony sensor+大立光鏡頭這種組合
卻還是會有高低
後處理佔了非常大的部分
就像是攝影師都會去調整raw檔
很多照片拍得很爛,大部分都是一些參數不對,但很大部分的資訊是被放棄的
用軟體處理就能取回來,
哪些東西該放棄哪些東西該留下其實都是工程師決定的
那如果決定得不好呢?
你是藝術家,用手機拍照取顏色
結果是工程師幫你決定怎麼得到資訊
就像有的時候你調你手機照片的亮度顏色
奇怪怎麼明明就可以這樣亮度比較好看
這樣顏色看起來比較好吃
但是相機就是抓不到點
問題是你不是攝影師,給你raw檔也沒用
而且你也沒有那個時間每張去調
而Google的影像團隊就是強到不行,他們是用大量照片去訓練他們的處理
(資料來源:前室友在該部門)
其實綜觀來看大家都在講Ai相機智慧美顏
只有他們是真正在用Ai訓練,其他人就是想辦法寫一些功能判斷白平衡而已
(Google有最大的Ai開源計畫)
其實這個在發表會有講,但就不是很會講xd
比如說他們去抓畫面中的幾個東西,判斷場景(餐廳或者戶外)
然後知道大部分人在這個場景下拍照的照片都需要調亮度or顏色
然後就可以知道參數要怎麼調
以前是做不到的,就靠幾個工程師在那裡對著光箱不同亮度不同燈在調
當你的照片量大到一個程度
很多以前的概念都會被翻轉
iphone相機不是不好,事實上它的硬體非常頂尖,可能超出目前檯面上的手機兩個世代
但是他們就缺乏很強的後處理這一部分
用iphone的人應該都感覺得出來就是差一點
如果有常在打卡/IG的女生就知道
顏色亮度常常都要調啦
每一代的進步就是那個一點一點
夜拍雜點變少了,但是亮度就是很怪不夠
調了亮度又好了
先不看Pixel phone的其他問題
只是身為從業人員要跟大家說 大家認為那些東西是假的
但其實我們從活在數位相機的世界開始,這才是真的xd,只是以前做不到而已
Google現在做的才是真正應該做的作法
這不是修圖喔!修圖是實際上不是這樣,但用影像調整創造出來
現在是更加還原現場而已
但手機的相機最大的問題還是,怎麼拍都跟眼睛"不一樣"
其實現在的瓶頸不是在相機硬體,而是在後續的算法各家都沒有找到好的工程團隊來調
(從Google影像軟體工程師的薪水就知道了)
大家不覺得很奇怪嗎,常常眼睛看起來就是沒有那麼暗
手機相機拍起來超暗
結果現在來了一台拍得出比較亮的,更接近人眼的
結果大家開始懷疑這不是真的XD?
這也就是Google首先提出HDR+的概念,真正的把先進的動態範圍的調整法帶到業界
只能說從目前流出的照片,不是開玩笑的,大家是可以期待的