※ 引述《krousxchen (城府很深)》之銘言:
: 其實都假的,你的D5300也假的,全世界只有Sigma出的相機跟LEICA M Monochrom是真的
: 相片的一個像素需要紅綠藍三個顏色資訊,
: 但感光元件一個像素只能感應紅綠藍其中一個顏色
: 所以一個感光像素如果只能感應紅,得靠隔壁的綠感光像素跟藍感光像素補
: 所以全世界有九成九的相機都是補來的,假的,都是靠演算法算出來的
幫忙補充一下
這邊講的全部是數位相機
Leica M Monochrome是只有黑白
感光元件前不用加濾色鏡
而Sigma家的Foveon X3則是感光元件有3層
分別感應RGB三原色
不過上面兩種都有重大的缺點
而且Foveon有專利問題
所以不常見
常見的是Bayer結構跟衍生的結構
感光元件本身只能知道亮度 與Monochrome的相同
前面加入特定排列的色彩濾鏡
綠紅綠紅綠紅
藍綠藍綠藍綠
每個點本身只會知道亮度多少
要弄出一個有紅有綠有藍的點就是原PO講的
從鄰居家幹資料算出來
不過純粹這樣算會產生問題
像是摩爾紋這種不存在於原畫面的東西
所以會有各種演算法消除這些鬼
: 感光元件大小跟鏡頭大小是相關的,因為鏡頭有成像圈,鏡頭越小成像圈越小
: 感光元件小 -> 需要的成像圈小 -> 鏡頭小
: 相反的,大感光元件需要大鏡頭
: 手機的小感光元件因為要模組化,所以鏡頭都作定焦鏡沒辦法變焦
: 相機的大感光元件配的鏡頭,用大大的玻璃鏡片,所以光學品質一定屌打小小塑膠鏡片
: 光學品質好,一樣的1200萬像素,大感光元件的每個感光像素的平均面積當然大
: 再來就是各個相機廠都有自已的相片處理器
: 手機本來就有物理限制,別把它當作「手機廠重不重視鏡頭」的依據
關於感光元件大小
最重要的其實是每個點的大小(點距)
點距越大越不會被旁邊的影響
比較能忠實呈現該點的亮度
也就是更接近真實情況
關於畫質的話
除了感光元件還有鏡頭本身的影響
所以這邊我很難比
夜拍能體現感光元件的差別
相機跟手機會在這邊有明顯差距
尤其是在解析力上面
不過Sigma家的是例外...