各位大家好,小弟最近想用TensorFlow來完成NN的部分 目前數據都準備好了,TensorFlow的部分則是上網查了一些資料,層及進出都設定好了 只是我遇到一個關於loss function的問題 一般訓練都是N個數據進去,M個數據出來,用這M個數據與參考值求誤差 但我的狀況是: 我有一個三維的資料: N x M x P 裡面有 N 個images,每個images有 M 個原子,每個原子有 P 個參數 希望可以利用同一個 (或者依照原子不同而分類成多個) NN 在我輸入P個數據後,可以得到答案Ep 同一個image裡面所有原子M的Ep加總後會得到一個值 En 全部資料會有N個En,這些En與參考值求誤差後即為我的loss 目前卡在不知道該如何將M次計算後的Ep全部加總在一起
你有設定batch size 嗎?還是都一個個餵?老實說你的loss function 看起來蠻蠻基本的,不懂為何會卡住我會建議你不要用一個個原子去想 而是用image的角度因為你的目標En單位是每個image就直接用(N, M, P)大小的矩陣直接去train不用拆開對應的label為長度(N,)的矩陣 這邊N就是batch size