理論上可以,但不能只提供單純的照片
有技術是可以掃描現實物體(比方說人臉)然後模型資料出來,
但模型需要的,是三次元的位置資料,
以照片這個媒介(或是單純的圖檔)所提供的,只有單一平面的資料,
簡單的說,照片已經把影像整個壓平在一張圖了。
就算能正確的取得人臉的範圍在哪並成功的造出模型,
那也會變成「鏡頭和照片的角度100%吻合」的時候才會一模一樣的模型,
從其他角度來看通常會是怪物。
如果常捏角色模型應該都會知道,不管在捏哪個部位一定都需要不斷的轉動視角,
否則就很容易做出, 只 有 某 些 角 度 能 看 的東西。
如果說要用照片資料就做出正確的模型,那可能會需要提供各種特定角度的照片。
比方說一個40台相機組合成的裝置,用來拍攝人頭的各種不同角度照片。
(要重現的形狀越複雜就需要更多不同的角度來判斷外形)
但要做到這樣的話為什麼不直接用3D掃描呢?