※ 引述《NerVGear (Phantom)》之銘言:
: 乳題 明天就要考線代了
: 小魯看到Orthogonality算nullspace真的不知道在公三小
: 唯一看得懂的只有內積外積那邊QQ
: Linear Transformation也看不太懂
: 求眾書卷獎指點
Linear transformation(線性轉換)
Def T:V->W
(1)T(x+y)=T(x)+T(y)
(2)T(cx)=cT(x)
Where x y屬於V c屬於F
Nullspace of T note N(T)
蒐集所有打到0的向量,這些向量在V裡面
Range of T note R(T)
蒐集所有打過去的向量
最後你可以得到Dimension theorem
dim(V)=Nullity(T)+Rank(T)
Nullity(T)是N(T)的dimension
Rank(T)是R(T)的dimension
事實上T可以寫成一個Matrix representation
要是你有V和W的基底的情況
Orthogonal是有內積之後才去討論
我們期待基底能夠彼此Orthogonal
因為要是基底能夠Orthogonal,找出任意向量的線性組合係數會非常容易
最後甚至會討論假設你的Eigenvector也能夠有這樣的性質,則你的對角化性質會非常強
Ex:A is self-Adjoint (或者A is real symmetric)和A is normal
因為你的矩陣對角化D=Q^(-1)AQ=Q^tAQ
Q是你的Eigenvector構成
則這邊的Q是orthogonal matrix Q^t=Q^(-1)
因為妳的Eigenvector彼此互相垂直
推文說的SVD
Singular value decomposition
就是假設A非方陣,但是你的AA^t 為對稱矩陣
->Self Adjoint ->Diagonalizable
是利用這個特性去做矩陣分解
線代太多了,很難講的很完全