線性代數
A
=
[
1
2
3
4
]
{\displaystyle \mathbf {A} ={\begin{bmatrix}1&2\\3&4\end{bmatrix}}}
向量 · 向量空間 · 基底 · 行列式 · 矩陣
線性映射 (英語:linear map )是向量空間 之間,保持向量加法和純量乘法的函數 。線性映射也是向量空間作為模的同態 [ 1] 。
線性算子 (英語:linear operator )與線性轉換 (英語:linear transformation ,又稱線性變換 )是與線性映射相關的慣用名詞,但其實際意義存在許多分歧,詳見相關名詞 一節。
設
V
{\displaystyle V}
和
W
{\displaystyle W}
都是係數體 為
K
{\displaystyle K}
的向量空間,
f
:
V
→
W
{\displaystyle f:V\to W}
是一個從
V
{\displaystyle V}
送到
W
{\displaystyle W}
的一個映射 。如果
f
{\displaystyle f}
具有以下兩個性質:
維持向量加法 ——對於任意兩個
V
{\displaystyle V}
中的向量
x
{\displaystyle x}
和
y
{\displaystyle y}
:
f
(
x
+
y
)
=
f
(
x
)
+
f
(
y
)
{\displaystyle f(x+y)=f(x)+f(y)}
維持純量乘法 ——對於任何
V
{\displaystyle V}
中的向量
x
{\displaystyle x}
和任何純量
a
∈
K
{\displaystyle a\in K}
:
f
(
a
⋅
x
)
=
a
⋅
f
(
x
)
{\displaystyle f(a\cdot x)=a\cdot f(x)}
則稱
f
{\displaystyle f}
是一個
K
{\displaystyle K}
-線性映射 。在係數體不致混淆的情況下也經常簡稱線性映射。
這等價於要求
f
{\displaystyle f}
對任意向量
x
1
,
…
,
x
m
∈
V
{\displaystyle x_{1},\,\ldots ,\,x_{m}\in V}
和任意純量
a
1
,
…
,
a
m
∈
K
{\displaystyle a_{1},\,\ldots ,\,a_{m}\in K}
:
f
(
a
1
⋅
x
1
+
⋯
+
a
m
⋅
x
m
)
=
a
1
⋅
f
(
x
1
)
+
⋯
+
a
m
⋅
f
(
x
m
)
{\displaystyle f(a_{1}\cdot x_{1}+\cdots +a_{m}\cdot x_{m})=a_{1}\cdot f(x_{1})+\cdots +a_{m}\cdot f(x_{m})}
任何的體
K
{\displaystyle K}
本身就是一維的(係數為自身的)向量空間,所以可以考慮任何從係數體 同樣為
K
{\displaystyle K}
的向量空間
V
{\displaystyle V}
送往
K
{\displaystyle K}
的線性映射,這類線性映射被稱為線性泛函 。研究線性泛函的學科是線性泛函分析,是泛函分析 最成熟的分支。
線性映射中的「線性」與「函數圖形是直線」沒有任何關聯。
定義域和對應域相同的線性映射可以進行函數合成,合成的結果依然會是線性映射。但是如果改變合成的順序,那合成出來的結果通常不會相同。例如「把函數乘上
x
2
{\displaystyle x^{2}}
」和「對函數進行微分」都是線性算子,但是對一個函數「先乘上
x
2
{\displaystyle x^{2}}
再進行微分」和「先進行微分再乘上
x
2
{\displaystyle x^{2}}
」是不同的線性映射。[ 2]
維持向量加法的映射可能不維持純量乘法;同樣地,維持純量乘法的映射也可能不維持向量加法。[ 3]
線性變換 和線性算子 這兩個名詞,與本條目的線性映射 密切相關,但不同作者有不同的定義。而這種定義分歧的根源在於,如
f
:
V
→
V
{\displaystyle f:V\rightarrow V}
這樣,定義域和值域落在同個向量空間的特殊線性映射 ,有些人為了凸顯而予之不同的稱呼。
比如Axler 和龔昇 就稱這種特殊線性映射為線性算子 [ 4] [ 5] ,但另一方面將線性映射 和線性變換 視為同義詞;李尚志則將這種特殊線性映射稱為線性變換 [ 6] ;而泛函分析 的書籍一般將三者都視為本條目所定義的「線性映射 」,其他細節以函數的符號傳達[ 7] [ 8] 。
本條目採用泛函分析的習慣。
對於實數,映射
x
↦
x
2
{\displaystyle x\mapsto x^{2}}
不是線性的。
如果
A
{\displaystyle A}
是
m
×
n
{\displaystyle m\times n}
實矩陣 ,則
A
{\displaystyle A}
定義了一個從
R
n
{\displaystyle R^{n}}
到
R
m
{\displaystyle R^{m}}
的線性映射,這個映射將列向量
x
∈
R
n
{\displaystyle x\in R^{n}}
映射到列向量
A
x
∈
R
m
{\displaystyle Ax\in R^{m}}
。反過來說,在有限維向量空間之間的任何線性映射都可以用這種方式表示;參見後面章節。
積分 生成從在某個區間 上所有可積分實函數的空間到
R
{\displaystyle R}
的線性映射。這只是把積分的基本性質(「積分的可加性」和「可從積分號內提出常數倍數」)用另一種說法表述出來。[ 9]
微分 是從所有可微分函數的空間到所有函數的空間的線性映射。[ 9]
「給函數乘上
x
2
{\displaystyle x^{2}}
」是一種線性映射。[ 9] 設
C
{\displaystyle C}
是由全體連續函數所組成的函數空間,則此運算也是空間
C
{\displaystyle C}
中的算子。
後向移位(backward shift)運算是一種線性映射。即把無窮維向量
(
x
1
,
x
2
,
x
3
,
x
4
,
.
.
.
)
{\displaystyle (x_{1},x_{2},x_{3},x_{4},...)}
的第一個坐標劃去:
T
(
x
1
,
x
2
,
x
3
,
x
4
,
.
.
.
)
=
(
x
2
,
x
3
,
x
4
,
.
.
.
)
{\displaystyle \operatorname {T} (x_{1},x_{2},x_{3},x_{4},...)=(x_{2},x_{3},x_{4},...)}
。[ 9]
如果
V
{\displaystyle V}
和
W
{\displaystyle W}
為在體
F
{\displaystyle F}
上的有限維向量空間,則從線性映射
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
到在後面所描述的
dim
F
(
W
)
×
dim
F
(
V
)
{\displaystyle \dim _{F}(W)\times \dim _{F}(V)}
矩陣的函數也是線性映射。[ 9]
一次函數
y
=
f
(
x
)
=
x
+
b
{\displaystyle y=f(x)=x+b}
僅在
b
=
0
{\displaystyle b=0}
時才是一種線性變換。容易驗證一次函數僅在
b
=
0
{\displaystyle b=0}
時,線性變換的基本性質
f
(
0
)
=
0
{\displaystyle f(0)=0}
才能成立。(盡管
b
≠
0
{\displaystyle b\neq 0}
時其圖像也是一條直線,但這里所說的線性不是指函數圖像為直線 。)同理,平移變換一般也不是線性變換(平移距離為零時才是線性變換)。[ 10] [ 11]
若
V
{\displaystyle V}
和
W
{\displaystyle W}
是有限維 的、有相同的 係數體
K
{\displaystyle K}
的向量空間,則從
V
{\displaystyle V}
到
W
{\displaystyle W}
的線性映射可以用矩陣 表示。
假設
T
:
V
→
W
{\displaystyle T:V\to W}
是個線性映射,且
B
V
=
{
α
1
,
α
2
,
…
,
α
n
}
{\displaystyle {\mathfrak {B}}_{V}=\left\{\alpha _{1},\alpha _{2},\,\ldots ,\alpha _{n}\right\}}
B
W
=
{
β
1
,
β
2
,
…
,
β
m
}
{\displaystyle {\mathfrak {B}}_{W}=\left\{\beta _{1},\beta _{2},\,\ldots ,\beta _{m}\right\}}
分別是
V
{\displaystyle V}
和
W
{\displaystyle W}
的基底 。
根據基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
的基本定義,對於每個基向量
α
i
∈
B
V
{\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}}
,存在唯一一組純量
t
1
i
,
t
2
i
,
…
,
t
m
i
∈
K
{\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K}
使得
T
(
α
i
)
=
∑
j
=
1
m
t
j
i
⋅
β
j
=
t
1
i
⋅
β
1
+
t
2
i
⋅
β
2
+
⋯
+
t
m
i
⋅
β
m
{\displaystyle T(\alpha _{i})=\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}=t_{1i}\cdot \beta _{1}+t_{2i}\cdot \beta _{2}+\cdots +t_{mi}\cdot \beta _{m}}
直觀上,純量
t
1
i
,
t
2
i
,
…
,
t
m
i
∈
K
{\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K}
就是對基向量
α
i
∈
B
V
{\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}}
的作用結果
T
(
α
i
)
∈
W
{\displaystyle T(\alpha _{i})\in W}
,在基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下的諸分量。
現在任取一個
V
{\displaystyle V}
裡的向量
v
∈
V
{\displaystyle v\in V}
,因為基底
B
V
{\displaystyle {\mathfrak {B}}_{V}}
的基本定義,存在唯一一組純量
v
1
,
v
2
,
…
,
v
n
∈
K
{\displaystyle v_{1},\,v_{2},\,\ldots ,\,v_{n}\in K}
使得
v
=
∑
i
=
1
n
v
i
⋅
α
i
{\displaystyle v=\sum _{i=1}^{n}v_{i}\cdot \alpha _{i}}
這樣根據求和符號 的性質,可以得到
T
(
v
)
=
∑
i
=
1
n
v
i
⋅
(
∑
j
=
1
m
t
j
i
⋅
β
j
)
=
∑
i
=
1
n
∑
j
=
1
m
(
t
j
i
v
i
)
⋅
β
j
=
∑
j
=
1
m
∑
i
=
1
n
(
t
j
i
v
i
)
⋅
β
j
=
∑
j
=
1
m
(
∑
i
=
1
n
t
j
i
v
i
)
⋅
β
j
{\displaystyle T(v)=\sum _{i=1}^{n}v_{i}\cdot \left(\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\sum _{i=1}^{n}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\left(\sum _{i=1}^{n}t_{ji}v_{i}\right)\cdot \beta _{j}}
然後考慮到
T
(
v
)
∈
W
{\displaystyle T(v)\in W}
,所以根據基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
的基本定義,存在唯一一組純量
λ
1
,
λ
2
,
…
,
λ
m
∈
K
{\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{m}\in K}
使得
T
(
v
)
=
∑
j
=
1
m
λ
j
⋅
β
j
{\displaystyle T(v)=\sum _{j=1}^{m}\lambda _{j}\cdot \beta _{j}}
因為這樣的純量
λ
1
,
λ
2
,
…
,
λ
M
∈
K
{\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{M}\in K}
是唯一存在的,所以對
j
=
1
,
2
,
…
,
m
{\displaystyle j=1,\,2,\,\ldots ,\,m}
有
λ
j
=
∑
i
=
1
n
t
j
i
v
i
{\displaystyle \lambda _{j}=\sum _{i=1}^{n}t_{ji}v_{i}}
考慮到矩陣乘法 的定義,上式可以改寫為
[
λ
1
λ
2
⋮
λ
m
]
=
[
t
11
t
12
…
t
1
n
t
21
t
22
…
t
2
n
⋮
⋮
⋱
⋮
t
m
1
t
m
2
…
t
m
n
]
[
v
1
v
2
⋮
v
n
]
{\displaystyle {\begin{bmatrix}\lambda _{1}\\\lambda _{2}\\\vdots \\\lambda _{m}\end{bmatrix}}={\begin{bmatrix}t_{11}&t_{12}&\dots &t_{1n}\\t_{21}&t_{22}&\dots &t_{2n}\\\vdots &\vdots &\ddots &\vdots \\t_{m1}&t_{m2}&\dots &t_{mn}\end{bmatrix}}{\begin{bmatrix}v_{1}\\v_{2}\\\vdots \\v_{n}\end{bmatrix}}}
也就是說,只要知道
T
(
α
i
)
{\displaystyle T(\alpha _{i})}
在
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下的諸分量
t
j
i
{\displaystyle t_{ji}}
,任意向量
v
∈
V
{\displaystyle v\in V}
的作用結果
T
(
v
)
{\displaystyle T(v)}
,都可以表示為矩陣
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
與行向量
v
=
[
v
i
]
n
×
1
{\displaystyle \mathbf {v} ={[v_{i}]}_{n\times 1}}
的乘積。更直觀的來說,矩陣
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
就是把
T
(
α
i
)
{\displaystyle T(\alpha _{i})}
的諸分量沿行 (column )擺放所構成的。
由上面的推導可以知道,不同的基底
B
V
{\displaystyle {\mathfrak {B}}_{V}}
和
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下,矩陣
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
也不同 ,為了強調這點,也會將矩陣
T
{\displaystyle \mathbf {T} }
記為
T
=
[
T
]
B
W
B
V
{\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{W}}^{{\mathfrak {B}}_{V}}}
來強調這種關聯性。
若
T
:
V
→
V
{\displaystyle T:V\to V}
,在同個向量空間
V
{\displaystyle V}
通常沒有取不同基底的必要,那上面的推導可以在
B
V
=
B
W
{\displaystyle {\mathfrak {B}}_{V}={\mathfrak {B}}_{W}}
的前提下進行。這時上式可以進一步簡寫為
T
=
[
T
]
B
V
{\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{V}}}
若有由
m
×
n
{\displaystyle m\times n}
個純量構成的矩陣
A
=
[
a
i
j
]
m
×
n
∈
K
m
×
n
{\displaystyle \mathbf {A} ={[a_{ij}]}_{m\times n}\in K^{m\times n}}
,如果取
f
:
K
n
×
1
→
K
m
×
1
{\displaystyle f:K^{n\times 1}\to K^{m\times 1}}
為
f
(
x
)
=
A
x
{\displaystyle f(\mathbf {x} )=\mathbf {A} \mathbf {x} }
其中
x
=
[
x
1
x
2
⋮
x
n
]
∈
K
n
×
1
{\displaystyle \mathbf {x} ={\begin{bmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{bmatrix}}\in K^{n\times 1}}
因為矩陣乘法 只有唯一的結果,上面的定義的確符合函數 定義的基本要求。然後考慮
K
n
×
1
{\displaystyle K^{n\times 1}}
和
K
m
×
1
{\displaystyle K^{m\times 1}}
都可以視為定義在同個 純量體
K
{\displaystyle K}
上的向量空間 ,而且矩陣乘法是線性的,所以上述定義的函數
f
{\displaystyle f}
的確符合線性映射的基本定義。
根據積 和余積 的泛性質,我們有
H
o
m
(
⨁
i
∈
I
U
i
,
∏
j
∈
J
V
j
)
≃
∏
i
∈
I
∏
j
∈
J
H
o
m
(
U
i
,
V
j
)
.
{\displaystyle \mathrm {Hom} \left(\bigoplus _{i\in I}U_{i},\prod _{j\in J}V_{j}\right)\simeq \prod _{i\in I}\prod _{j\in J}\mathrm {Hom} \left(U_{i},V_{j}\right).}
在
K
{\displaystyle K}
-線性空間 構成的範疇 中,有限個線性空間的余積和積是一回事。對於
U
,
V
{\displaystyle U,V}
的基
b
1
,
…
,
b
n
,
b
1
′
,
…
,
b
m
′
{\displaystyle {\mathbf {b}}_{1},\dots ,{\mathbf {b}}_{n},{\mathbf {b}}'_{1},\dots ,{\mathbf {b}}'_{m}}
,取
U
i
=
b
i
K
,
V
i
=
b
i
′
k
{\displaystyle U_{i}={\mathbf {b}}_{i}K,V_{i}={\mathbf {b}}'_{i}k}
,我們有
H
o
m
(
U
i
,
V
j
)
≃
K
{\displaystyle \mathrm {Hom} (U_{i},V_{j})\simeq K}
,所以左邊的線性映射
H
o
m
(
U
,
V
)
{\displaystyle \mathrm {Hom} (U,V)}
就被拆解為了
n
m
{\displaystyle nm}
個
K
{\displaystyle K}
中的元素,這就是線性映射的矩陣表示。
把線性映射寫成具體而簡明的2維數陣形式後,就成了一種矩陣。進而由線性映射的加法規則和覆合規則來分別定義矩陣的加法規則和乘法規則是很自然的想法。[ 12] 當空間的基變化(坐標系變換)時,線性映射的矩陣也會有規律地變化。在特定的基上研究線性映射,就轉化為對矩陣的研究。利用矩陣的乘法,可以把一些線性系統的方程表達得更緊湊(比如把線性方程組用矩陣表達和研究),也使幾何意義更明顯。矩陣可以分塊 計算,可以通過適當的變換以「解耦」(把覆雜的變換分解為一些簡單變換的組合)。要求出一個線性變換的秩 ,先寫出其矩陣形式幾乎是不可避免的一個步驟。
遇到
y
=
x
+
3
{\displaystyle y=x+3}
這樣的加上了1個常量的非線性映射可以通過增加1個維度的方法,把變換映射寫成2×2維的方形矩陣形式,從而在形式上把這一類特殊的非線性映射轉化為線性映射。這個辦法也適用於處理在高維線性變換上多加了一個常向量的情形。這在計算機圖形學 和剛體理論(及其相關機械製造 和機器人學 )中都有大量應用。
對角化的矩陣具有諸多優點。線性映射在寫成矩陣後可以進行對角化 (不能對角化的矩陣可以化簡成接近對角矩陣的準對角矩陣 ),從而可以獲得對角化矩陣擁有的獨特優勢(極大地簡化乘法運算,易於分塊,容易看出與基的選取無關的不變量 )。比如,對於作用於同一個空間的可對角化的方形矩陣
A
{\displaystyle A}
,要求出
A
{\displaystyle A}
自乘
n
{\displaystyle n}
次後的結果
A
n
{\displaystyle A^{n}}
,一個一個慢慢地乘是很麻煩的事情。而知道對角化技巧的人會發現,在將這矩陣對角化後,其乘法運算會變得格外簡單。實際應用中有很多有意思的問題或解題方法都會涉及到矩陣自乘n次的計算,如1階非齊次線性遞推數列 通項公式 的線性代數求解法和馬爾可夫鏈 的極限狀態(極限分布)的求解。線性代數及矩陣論的一個主要問題就是尋找可使矩陣對角化的條件或者可使矩陣化簡到含很多個0的條件[ 13] ,以便簡化計算(這是主要原因之一)。
二維空間
R
2
{\displaystyle R^{2}}
的線性變換的一些特殊情況有:
逆時針旋轉 90度:
A
=
[
0
−
1
1
0
]
{\displaystyle A={\begin{bmatrix}0&-1\\1&0\end{bmatrix}}}
逆時針旋轉
θ
{\displaystyle \theta }
度[ 14] :
A
=
[
cos
(
θ
)
−
sin
(
θ
)
sin
(
θ
)
cos
(
θ
)
]
{\displaystyle A={\begin{bmatrix}\cos(\theta )&-\sin(\theta )\\\sin(\theta )&\cos(\theta )\end{bmatrix}}}
針對y 軸反射 :
A
=
[
1
0
0
−
1
]
{\displaystyle A={\begin{bmatrix}1&0\\0&-1\end{bmatrix}}}
在所有方向上放大 2倍:
A
=
[
2
0
0
2
]
{\displaystyle A={\begin{bmatrix}2&0\\0&2\end{bmatrix}}}
水平錯切 :
A
=
[
1
m
0
1
]
{\displaystyle A={\begin{bmatrix}1&m\\0&1\end{bmatrix}}}
擠壓 :
A
=
[
k
0
0
1
/
k
]
{\displaystyle A={\begin{bmatrix}k&0\\0&1/k\end{bmatrix}}}
向y 軸投影 :
A
=
[
0
0
0
1
]
{\displaystyle A={\begin{bmatrix}0&0\\0&1\end{bmatrix}}}
兩個線性映射的覆合映射 是線性的:如果
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
和
g
:
W
→
Z
{\displaystyle g:W\rightarrow Z}
是線性的,則
g
∘
f
:
V
→
Z
{\displaystyle g\circ f:V\rightarrow Z}
也是線性的。
若線性映射可逆 ,則該線性映射的逆 也是線性映射。
如果
f
1
:
V
→
W
{\displaystyle f_{1}:V\rightarrow W}
和
f
2
:
V
→
W
{\displaystyle f_{2}:V\rightarrow W}
是線性的,則它們的和
f
1
+
f
2
{\displaystyle f_{1}+f_{2}}
也是線性的(這是由
(
f
1
+
f
2
)
(
x
)
=
f
1
(
x
)
+
f
2
(
x
)
{\displaystyle \left(f_{1}+f_{2}\right)\left(x\right)=f_{1}\left(x\right)+f_{2}\left(x\right)}
定義的)。
如果
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
是線性的,而a 是基礎體K 的一個元素,則定義自 (af )(x ) = a (f (x ))的映射af 也是線性的。
所以從
V
{\displaystyle V}
到
W
{\displaystyle W}
的線性映射的集合
L
(
V
,
W
)
{\displaystyle L\left(V,W\right)}
自身形成在
K
{\displaystyle K}
上的向量空間,有時指示為
H
o
m
(
V
,
W
)
{\displaystyle \mathrm {Hom} \left(V,W\right)}
。進一步的說,在
V
=
W
{\displaystyle V=W}
的情況中,這個向量空間(指示為
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
)是在映射覆合 下的結合代數 ,因為兩個線性映射的覆合再次是線性映射,所以映射的覆合總是結合律的。
給定有限維的情況,如果基已經選擇好了,則線性映射的覆合對應於矩陣乘法 ,線性映射的加法對應於矩陣加法 ,而線性映射與純量的乘法對應於矩陣與純量的乘法。
自同態的線性映射在泛函分析和量子力學 中都有很重要的地位。按前文約定,我們用「線性算子」來簡稱它。(注意泛函分析中所說的「線性算子」不一定是自同態 (endomorphism)映射,但我們為了照顧不同書籍的差異以及敘述的方便,暫用「線性算子」來稱呼這種自同態。)
自同態 是一個數學對象 到它本身的保持結構的映射(同態 ),例如群
G
{\displaystyle G}
的自同態則是群同態
f
:
G
→
G
{\displaystyle f:G\to G}
。對於向量空間
V
{\displaystyle V}
,其自同態是線性算子
f
:
V
→
V
{\displaystyle f:V\rightarrow V}
;所有這種自同態的集合
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
與如上定義的加法、覆合和純量乘法一起形成一個結合代數 ,帶有在體
K
{\displaystyle K}
上的單位元(特別是一個環)。這個代數的乘法單位元是恆等映射
i
d
:
V
→
V
{\displaystyle \mathrm {id} :V\rightarrow V}
。
若
V
{\displaystyle V}
的自同態也剛好是同構 則稱之為自同構 。兩個自同構的覆合 再次是自同構,所以
V
{\displaystyle V}
的所有的自同構的集合形成一個群 ,
V
{\displaystyle V}
的自同構群 可表為
A
u
t
(
V
)
{\displaystyle \mathrm {Aut} (V)}
或
G
L
(
V
)
{\displaystyle \mathrm {GL} (V)}
。因為自同構正好是那些在覆合運算下擁有逆元的自同態,所以
A
u
t
(
V
)
{\displaystyle \mathrm {Aut} (V)}
也就是在環
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
中的可逆元群 。
如果
V
{\displaystyle V}
之維度
n
{\displaystyle n}
有限
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
同構 於帶有在
K
{\displaystyle K}
中元素的所有
n
×
n
{\displaystyle n\times n}
矩陣構成的結合代數 ,且
V
{\displaystyle V}
的自同態群同構 於帶有在
K
{\displaystyle K}
中元素的所有
n
×
n
{\displaystyle n\times n}
可逆矩陣構成的一般線性群
G
L
(
n
,
K
)
{\displaystyle \mathrm {GL} (n,K)}
。
若爾當標準型 敘述了代數閉域
K
{\displaystyle K}
上的線性空間
V
{\displaystyle V}
上的自同態
φ
{\displaystyle \varphi }
在
V
{\displaystyle V}
的基上的矩陣表示的表現,有理標準型 是將其推廣到任意域上的方法。
對於一個線性映射
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
,可以考慮以下兩個:
核 ( Kernel )——送到零向量的那些向量:
K
e
r
(
f
)
:=
f
−
1
(
0
)
=
{
x
∈
V
∣
f
(
x
)
=
0
}
⊆
V
{\displaystyle \mathrm {Ker} (f):=f^{-1}(\mathbf {0} )=\{x\in V\mid f(x)=\mathbf {0} \}\subseteq V}
像 ( Image )——把整個空間送過去後的結果:
I
m
(
f
)
:=
f
(
V
)
=
{
f
(
x
)
∈
W
∣
x
∈
V
}
⊆
W
{\displaystyle \mathrm {Im} (f):=f(V)=\{f(x)\in W\mid x\in V\}\subseteq W}
那麼
Ker
(
f
)
{\displaystyle \operatorname {Ker} (f)}
是
V
{\displaystyle V}
的子空間 ,而
Im
(
f
)
{\displaystyle \operatorname {Im} (f)}
是
W
{\displaystyle W}
的子空間。下面的叫做秩-零化度定理 的維度公式經常是有用的:
dim
(
K
e
r
(
f
)
)
+
dim
(
I
m
(
f
)
)
=
dim
(
V
)
{\displaystyle \dim(\mathrm {Ker} (f))+\dim(\mathrm {Im} (f))=\dim(V)}
dim
(
I
m
(
f
)
)
{\displaystyle \dim(\mathrm {Im} (f))}
這個數稱做「
f
{\displaystyle f}
的秩」( rank )並寫成
r
k
(
f
)
{\displaystyle \mathrm {rk} (f)}
,有時也寫成
ρ
(
f
)
{\displaystyle \rho (f)}
;而
dim
(
K
e
r
(
f
)
)
{\displaystyle \dim(\mathrm {Ker} (f))}
這個數則稱做「
f
{\displaystyle f}
的零化度」( nullity )並寫成
v
(
f
)
{\displaystyle v(f)}
。如果
V
{\displaystyle V}
和
W
{\displaystyle W}
是有限維的,那麼
f
{\displaystyle f}
的秩和零化度就是
f
{\displaystyle f}
的矩陣形式的秩 和零化度 。
這個定理在抽象代數的推廣是同構定理 。
多重線性映射 是線性映射最重要的推廣,它也是格拉斯曼代數 和張量分析 的數學基礎。其特例為雙線性映射 。
^ 見Lax 2010 ,第7頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFLax2010 (幫助 ) (位於第2章「線性映射」第1節「線性映射生成的代數」)。
^ 見Axler 2009 ,第41頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第1節「定義與例子」)。
^ 見Axler 2009 ,第59頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」末尾習題旁的說明)。
^ 見龔昇《線性代數五講》第1講第10頁。
^ 見Axler 2009 ,第38頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第1節「定義與例子」)。
^ 李尚志. 第6章“線性變換”第4節“線性變換”. 線性代數 第1版. 高等教育出版社 . 2006: 326. ISBN 7-04-019870-3 . 則V到自身的線性映射稱為V的線性變換(linear transformation)。
^ А·Н·柯爾莫哥洛夫 ,佛明(С. В. Фомин). 第4章“線性泛函與線性算子”第5節“線性算子”. Элементы теории функций и функционального анализа [函數論與泛函分析初步]. 俄羅斯數學教材選譯. 段虞榮 (翻譯),鄭洪深 (翻譯),郭思旭 (翻譯) 原書第7版,中譯本第2版. 高等教育出版社. 2006年: 162. ISBN 7-04-018407-9 .
^ 見Lax 2010 ,第131頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFLax2010 (幫助 ) (位於第15章「有界線性映射」的開頭部分)。原文為「線性映射也稱為線性算子或線性變換」。
^ 9.0 9.1 9.2 9.3 9.4 9.5 見Axler 2009 ,第38-39頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第1節「定義與例子」)。
^ 見Artin 2010 ,第156頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFArtin2010 (幫助 ) 。(位於第6章「Symmetry」第1節「
Symmetry of the Plane Figures」)
^ Walter Rudin . 第1章“Topological Vector Spaces”中的“Linear mappings”一節. Functional Analysis [泛函分析] . Higher mathematics series. McGraw-Hill Book Company . 1973: 13 .
^ 見Axler 2009 ,第51頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第3節「線性映射的矩陣」)。
^ 見Axler 2009 ,第82頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第5章「本徵值與本徵向量」第3節「上三角矩陣」)。
^ 其證明只需要用到三角函數 的基礎知識,在網上很容易找到證明過程。也可參見Feynman harvnb模板錯誤: 多個指向目標 (2個): CITEREFFeynman (幫助 ) 第11章「Vectors」第3節「Rotations」。
設
V
{\displaystyle V}
和
W
{\displaystyle W}
都是係數體 為
K
{\displaystyle K}
的向量空間,
f
:
V
→
W
{\displaystyle f:V\to W}
是一個從
V
{\displaystyle V}
送到
W
{\displaystyle W}
的一個映射 。如果
f
{\displaystyle f}
具有以下兩個性質:
維持向量加法 ——對於任意兩個
V
{\displaystyle V}
中的向量
x
{\displaystyle x}
和
y
{\displaystyle y}
:
f
(
x
+
y
)
=
f
(
x
)
+
f
(
y
)
{\displaystyle f(x+y)=f(x)+f(y)}
維持純量乘法 ——對於任何
V
{\displaystyle V}
中的向量
x
{\displaystyle x}
和任何純量
a
∈
K
{\displaystyle a\in K}
:
f
(
a
⋅
x
)
=
a
⋅
f
(
x
)
{\displaystyle f(a\cdot x)=a\cdot f(x)}
則稱
f
{\displaystyle f}
是一個
K
{\displaystyle K}
-線性映射 。在係數體不致混淆的情況下也經常簡稱線性映射。
這等價於要求
f
{\displaystyle f}
對任意向量
x
1
,
…
,
x
m
∈
V
{\displaystyle x_{1},\,\ldots ,\,x_{m}\in V}
和任意純量
a
1
,
…
,
a
m
∈
K
{\displaystyle a_{1},\,\ldots ,\,a_{m}\in K}
:
f
(
a
1
⋅
x
1
+
⋯
+
a
m
⋅
x
m
)
=
a
1
⋅
f
(
x
1
)
+
⋯
+
a
m
⋅
f
(
x
m
)
{\displaystyle f(a_{1}\cdot x_{1}+\cdots +a_{m}\cdot x_{m})=a_{1}\cdot f(x_{1})+\cdots +a_{m}\cdot f(x_{m})}
任何的體
K
{\displaystyle K}
本身就是一維的(係數為自身的)向量空間,所以可以考慮任何從係數體 同樣為
K
{\displaystyle K}
的向量空間
V
{\displaystyle V}
送往
K
{\displaystyle K}
的線性映射,這類線性映射被稱為線性泛函 。研究線性泛函的學科是線性泛函分析,是泛函分析 最成熟的分支。
線性映射中的「線性」與「函數圖形是直線」沒有任何關聯。
定義域和對應域相同的線性映射可以進行函數合成,合成的結果依然會是線性映射。但是如果改變合成的順序,那合成出來的結果通常不會相同。例如「把函數乘上
x
2
{\displaystyle x^{2}}
」和「對函數進行微分」都是線性算子,但是對一個函數「先乘上
x
2
{\displaystyle x^{2}}
再進行微分」和「先進行微分再乘上
x
2
{\displaystyle x^{2}}
」是不同的線性映射。[ 1]
維持向量加法的映射可能不維持純量乘法;同樣地,維持純量乘法的映射也可能不維持向量加法。[ 2]
線性變換 和線性算子 這兩個名詞,與本條目的線性映射 密切相關,但不同作者有不同的定義。而這種定義分歧的根源在於,如
f
:
V
→
V
{\displaystyle f:V\rightarrow V}
這樣,定義域和值域落在同個向量空間的特殊線性映射 ,有些人為了凸顯而予之不同的稱呼。
比如Axler 和龔昇 就稱這種特殊線性映射為線性算子 [ 3] [ 4] ,但另一方面將線性映射 和線性變換 視為同義詞;李尚志則將這種特殊線性映射稱為線性變換 [ 5] ;而泛函分析 的書籍一般將三者都視為本條目所定義的「線性映射 」,其他細節以函數的符號傳達[ 6] [ 7] 。
本條目採用泛函分析的習慣。
對於實數,映射
x
↦
x
2
{\displaystyle x\mapsto x^{2}}
不是線性的。
如果
A
{\displaystyle A}
是
m
×
n
{\displaystyle m\times n}
實矩陣 ,則
A
{\displaystyle A}
定義了一個從
R
n
{\displaystyle R^{n}}
到
R
m
{\displaystyle R^{m}}
的線性映射,這個映射將列向量
x
∈
R
n
{\displaystyle x\in R^{n}}
映射到列向量
A
x
∈
R
m
{\displaystyle Ax\in R^{m}}
。反過來說,在有限維向量空間之間的任何線性映射都可以用這種方式表示;參見後面章節。
積分 生成從在某個區間 上所有可積分實函數的空間到
R
{\displaystyle R}
的線性映射。這只是把積分的基本性質(「積分的可加性」和「可從積分號內提出常數倍數」)用另一種說法表述出來。[ 8]
微分 是從所有可微分函數的空間到所有函數的空間的線性映射。[ 8]
「給函數乘上
x
2
{\displaystyle x^{2}}
」是一種線性映射。[ 8] 設
C
{\displaystyle C}
是由全體連續函數所組成的函數空間,則此運算也是空間
C
{\displaystyle C}
中的算子。
後向移位(backward shift)運算是一種線性映射。即把無窮維向量
(
x
1
,
x
2
,
x
3
,
x
4
,
.
.
.
)
{\displaystyle (x_{1},x_{2},x_{3},x_{4},...)}
的第一個坐標劃去:
T
(
x
1
,
x
2
,
x
3
,
x
4
,
.
.
.
)
=
(
x
2
,
x
3
,
x
4
,
.
.
.
)
{\displaystyle \operatorname {T} (x_{1},x_{2},x_{3},x_{4},...)=(x_{2},x_{3},x_{4},...)}
。[ 8]
如果
V
{\displaystyle V}
和
W
{\displaystyle W}
為在體
F
{\displaystyle F}
上的有限維向量空間,則從線性映射
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
到在後面所描述的
dim
F
(
W
)
×
dim
F
(
V
)
{\displaystyle \dim _{F}(W)\times \dim _{F}(V)}
矩陣的函數也是線性映射。[ 8]
一次函數
y
=
f
(
x
)
=
x
+
b
{\displaystyle y=f(x)=x+b}
僅在
b
=
0
{\displaystyle b=0}
時才是一種線性變換。容易驗證一次函數僅在
b
=
0
{\displaystyle b=0}
時,線性變換的基本性質
f
(
0
)
=
0
{\displaystyle f(0)=0}
才能成立。(盡管
b
≠
0
{\displaystyle b\neq 0}
時其圖像也是一條直線,但這里所說的線性不是指函數圖像為直線 。)同理,平移變換一般也不是線性變換(平移距離為零時才是線性變換)。[ 9] [ 10]
若
V
{\displaystyle V}
和
W
{\displaystyle W}
是有限維 的、有相同的 係數體
K
{\displaystyle K}
的向量空間,則從
V
{\displaystyle V}
到
W
{\displaystyle W}
的線性映射可以用矩陣 表示。
假設
T
:
V
→
W
{\displaystyle T:V\to W}
是個線性映射,且
B
V
=
{
α
1
,
α
2
,
…
,
α
n
}
{\displaystyle {\mathfrak {B}}_{V}=\left\{\alpha _{1},\alpha _{2},\,\ldots ,\alpha _{n}\right\}}
B
W
=
{
β
1
,
β
2
,
…
,
β
m
}
{\displaystyle {\mathfrak {B}}_{W}=\left\{\beta _{1},\beta _{2},\,\ldots ,\beta _{m}\right\}}
分別是
V
{\displaystyle V}
和
W
{\displaystyle W}
的基底 。
根據基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
的基本定義,對於每個基向量
α
i
∈
B
V
{\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}}
,存在唯一一組純量
t
1
i
,
t
2
i
,
…
,
t
m
i
∈
K
{\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K}
使得
T
(
α
i
)
=
∑
j
=
1
m
t
j
i
⋅
β
j
=
t
1
i
⋅
β
1
+
t
2
i
⋅
β
2
+
⋯
+
t
m
i
⋅
β
m
{\displaystyle T(\alpha _{i})=\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}=t_{1i}\cdot \beta _{1}+t_{2i}\cdot \beta _{2}+\cdots +t_{mi}\cdot \beta _{m}}
直觀上,純量
t
1
i
,
t
2
i
,
…
,
t
m
i
∈
K
{\displaystyle t_{1i},\,t_{2i},\,\ldots ,\,t_{mi}\in K}
就是對基向量
α
i
∈
B
V
{\displaystyle \alpha _{i}\in {\mathfrak {B}}_{V}}
的作用結果
T
(
α
i
)
∈
W
{\displaystyle T(\alpha _{i})\in W}
,在基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下的諸分量。
現在任取一個
V
{\displaystyle V}
裡的向量
v
∈
V
{\displaystyle v\in V}
,因為基底
B
V
{\displaystyle {\mathfrak {B}}_{V}}
的基本定義,存在唯一一組純量
v
1
,
v
2
,
…
,
v
n
∈
K
{\displaystyle v_{1},\,v_{2},\,\ldots ,\,v_{n}\in K}
使得
v
=
∑
i
=
1
n
v
i
⋅
α
i
{\displaystyle v=\sum _{i=1}^{n}v_{i}\cdot \alpha _{i}}
這樣根據求和符號 的性質,可以得到
T
(
v
)
=
∑
i
=
1
n
v
i
⋅
(
∑
j
=
1
m
t
j
i
⋅
β
j
)
=
∑
i
=
1
n
∑
j
=
1
m
(
t
j
i
v
i
)
⋅
β
j
=
∑
j
=
1
m
∑
i
=
1
n
(
t
j
i
v
i
)
⋅
β
j
=
∑
j
=
1
m
(
∑
i
=
1
n
t
j
i
v
i
)
⋅
β
j
{\displaystyle T(v)=\sum _{i=1}^{n}v_{i}\cdot \left(\sum _{j=1}^{m}t_{ji}\cdot \beta _{j}\right)=\sum _{i=1}^{n}\sum _{j=1}^{m}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\sum _{i=1}^{n}(t_{ji}v_{i})\cdot \beta _{j}=\sum _{j=1}^{m}\left(\sum _{i=1}^{n}t_{ji}v_{i}\right)\cdot \beta _{j}}
然後考慮到
T
(
v
)
∈
W
{\displaystyle T(v)\in W}
,所以根據基底
B
W
{\displaystyle {\mathfrak {B}}_{W}}
的基本定義,存在唯一一組純量
λ
1
,
λ
2
,
…
,
λ
m
∈
K
{\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{m}\in K}
使得
T
(
v
)
=
∑
j
=
1
m
λ
j
⋅
β
j
{\displaystyle T(v)=\sum _{j=1}^{m}\lambda _{j}\cdot \beta _{j}}
因為這樣的純量
λ
1
,
λ
2
,
…
,
λ
M
∈
K
{\displaystyle \lambda _{1},\,\lambda _{2},\,\ldots ,\,\lambda _{M}\in K}
是唯一存在的,所以對
j
=
1
,
2
,
…
,
m
{\displaystyle j=1,\,2,\,\ldots ,\,m}
有
λ
j
=
∑
i
=
1
n
t
j
i
v
i
{\displaystyle \lambda _{j}=\sum _{i=1}^{n}t_{ji}v_{i}}
考慮到矩陣乘法 的定義,上式可以改寫為
[
λ
1
λ
2
⋮
λ
m
]
=
[
t
11
t
12
…
t
1
n
t
21
t
22
…
t
2
n
⋮
⋮
⋱
⋮
t
m
1
t
m
2
…
t
m
n
]
[
v
1
v
2
⋮
v
n
]
{\displaystyle {\begin{bmatrix}\lambda _{1}\\\lambda _{2}\\\vdots \\\lambda _{m}\end{bmatrix}}={\begin{bmatrix}t_{11}&t_{12}&\dots &t_{1n}\\t_{21}&t_{22}&\dots &t_{2n}\\\vdots &\vdots &\ddots &\vdots \\t_{m1}&t_{m2}&\dots &t_{mn}\end{bmatrix}}{\begin{bmatrix}v_{1}\\v_{2}\\\vdots \\v_{n}\end{bmatrix}}}
也就是說,只要知道
T
(
α
i
)
{\displaystyle T(\alpha _{i})}
在
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下的諸分量
t
j
i
{\displaystyle t_{ji}}
,任意向量
v
∈
V
{\displaystyle v\in V}
的作用結果
T
(
v
)
{\displaystyle T(v)}
,都可以表示為矩陣
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
與行向量
v
=
[
v
i
]
n
×
1
{\displaystyle \mathbf {v} ={[v_{i}]}_{n\times 1}}
的乘積。更直觀的來說,矩陣
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
就是把
T
(
α
i
)
{\displaystyle T(\alpha _{i})}
的諸分量沿行 (column )擺放所構成的。
由上面的推導可以知道,不同的基底
B
V
{\displaystyle {\mathfrak {B}}_{V}}
和
B
W
{\displaystyle {\mathfrak {B}}_{W}}
下,矩陣
T
=
[
t
j
i
]
m
×
n
{\displaystyle \mathbf {T} ={[t_{ji}]}_{m\times n}}
也不同 ,為了強調這點,也會將矩陣
T
{\displaystyle \mathbf {T} }
記為
T
=
[
T
]
B
W
B
V
{\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{W}}^{{\mathfrak {B}}_{V}}}
來強調這種關聯性。
若
T
:
V
→
V
{\displaystyle T:V\to V}
,在同個向量空間
V
{\displaystyle V}
通常沒有取不同基底的必要,那上面的推導可以在
B
V
=
B
W
{\displaystyle {\mathfrak {B}}_{V}={\mathfrak {B}}_{W}}
的前提下進行。這時上式可以進一步簡寫為
T
=
[
T
]
B
V
{\displaystyle \mathbf {T} ={[T]}_{{\mathfrak {B}}_{V}}}
若有由
m
×
n
{\displaystyle m\times n}
個純量構成的矩陣
A
=
[
a
i
j
]
m
×
n
∈
K
m
×
n
{\displaystyle \mathbf {A} ={[a_{ij}]}_{m\times n}\in K^{m\times n}}
,如果取
f
:
K
n
×
1
→
K
m
×
1
{\displaystyle f:K^{n\times 1}\to K^{m\times 1}}
為
f
(
x
)
=
A
x
{\displaystyle f(\mathbf {x} )=\mathbf {A} \mathbf {x} }
其中
x
=
[
x
1
x
2
⋮
x
n
]
∈
K
n
×
1
{\displaystyle \mathbf {x} ={\begin{bmatrix}x_{1}\\x_{2}\\\vdots \\x_{n}\end{bmatrix}}\in K^{n\times 1}}
因為矩陣乘法 只有唯一的結果,上面的定義的確符合函數 定義的基本要求。然後考慮
K
n
×
1
{\displaystyle K^{n\times 1}}
和
K
m
×
1
{\displaystyle K^{m\times 1}}
都可以視為定義在同個 純量體
K
{\displaystyle K}
上的向量空間 ,而且矩陣乘法是線性的,所以上述定義的函數
f
{\displaystyle f}
的確符合線性映射的基本定義。
根據積 和余積 的泛性質,我們有
H
o
m
(
⨁
i
∈
I
U
i
,
∏
j
∈
J
V
j
)
≃
∏
i
∈
I
∏
j
∈
J
H
o
m
(
U
i
,
V
j
)
.
{\displaystyle \mathrm {Hom} \left(\bigoplus _{i\in I}U_{i},\prod _{j\in J}V_{j}\right)\simeq \prod _{i\in I}\prod _{j\in J}\mathrm {Hom} \left(U_{i},V_{j}\right).}
在
K
{\displaystyle K}
-線性空間 構成的範疇 中,有限個線性空間的余積和積是一回事。對於
U
,
V
{\displaystyle U,V}
的基
b
1
,
…
,
b
n
,
b
1
′
,
…
,
b
m
′
{\displaystyle {\mathbf {b}}_{1},\dots ,{\mathbf {b}}_{n},{\mathbf {b}}'_{1},\dots ,{\mathbf {b}}'_{m}}
,取
U
i
=
b
i
K
,
V
i
=
b
i
′
k
{\displaystyle U_{i}={\mathbf {b}}_{i}K,V_{i}={\mathbf {b}}'_{i}k}
,我們有
H
o
m
(
U
i
,
V
j
)
≃
K
{\displaystyle \mathrm {Hom} (U_{i},V_{j})\simeq K}
,所以左邊的線性映射 \(\mathrm{Hom}(U, V)\) 就被拆解為了 \(nm\) 個 \(K\) 中的元素,這就是線性映射的矩陣表示。
把線性映射寫成具體而簡明的2維數陣形式後,就成了一種矩陣。進而由線性映射的加法規則和覆合規則來分別定義矩陣的加法規則和乘法規則是很自然的想法。[ 11] 當空間的基變化(坐標系變換)時,線性映射的矩陣也會有規律地變化。在特定的基上研究線性映射,就轉化為對矩陣的研究。利用矩陣的乘法,可以把一些線性系統的方程表達得更緊湊(比如把線性方程組用矩陣表達和研究),也使幾何意義更明顯。矩陣可以分塊 計算,可以通過適當的變換以「解耦」(把覆雜的變換分解為一些簡單變換的組合)。要求出一個線性變換的秩 ,先寫出其矩陣形式幾乎是不可避免的一個步驟。
遇到
y
=
x
+
3
{\displaystyle y=x+3}
這樣的加上了1個常量的非線性映射可以通過增加1個維度的方法,把變換映射寫成2×2維的方形矩陣形式,從而在形式上把這一類特殊的非線性映射轉化為線性映射。這個辦法也適用於處理在高維線性變換上多加了一個常向量的情形。這在計算機圖形學 和剛體理論(及其相關機械製造 和機器人學 )中都有大量應用。
對角化的矩陣具有諸多優點。線性映射在寫成矩陣後可以進行對角化 (不能對角化的矩陣可以化簡成接近對角矩陣的準對角矩陣 ),從而可以獲得對角化矩陣擁有的獨特優勢(極大地簡化乘法運算,易於分塊,容易看出與基的選取無關的不變量 )。比如,對於作用於同一個空間的可對角化的方形矩陣
A
{\displaystyle A}
,要求出
A
{\displaystyle A}
自乘
n
{\displaystyle n}
次後的結果
A
n
{\displaystyle A^{n}}
,一個一個慢慢地乘是很麻煩的事情。而知道對角化技巧的人會發現,在將這矩陣對角化後,其乘法運算會變得格外簡單。實際應用中有很多有意思的問題或解題方法都會涉及到矩陣自乘n次的計算,如1階非齊次線性遞推數列 通項公式 的線性代數求解法和馬爾可夫鏈 的極限狀態(極限分布)的求解。線性代數及矩陣論的一個主要問題就是尋找可使矩陣對角化的條件或者可使矩陣化簡到含很多個0的條件[ 12] ,以便簡化計算(這是主要原因之一)。
二維空間
R
2
{\displaystyle R^{2}}
的線性變換的一些特殊情況有:
逆時針旋轉 90度:
A
=
[
0
−
1
1
0
]
{\displaystyle A={\begin{bmatrix}0&-1\\1&0\end{bmatrix}}}
逆時針旋轉
θ
{\displaystyle \theta }
度[ 13] :
A
=
[
cos
(
θ
)
−
sin
(
θ
)
sin
(
θ
)
cos
(
θ
)
]
{\displaystyle A={\begin{bmatrix}\cos(\theta )&-\sin(\theta )\\\sin(\theta )&\cos(\theta )\end{bmatrix}}}
針對y 軸反射 :
A
=
[
1
0
0
−
1
]
{\displaystyle A={\begin{bmatrix}1&0\\0&-1\end{bmatrix}}}
在所有方向上放大 2倍:
A
=
[
2
0
0
2
]
{\displaystyle A={\begin{bmatrix}2&0\\0&2\end{bmatrix}}}
水平錯切 :
A
=
[
1
m
0
1
]
{\displaystyle A={\begin{bmatrix}1&m\\0&1\end{bmatrix}}}
擠壓 :
A
=
[
k
0
0
1
/
k
]
{\displaystyle A={\begin{bmatrix}k&0\\0&1/k\end{bmatrix}}}
向y 軸投影 :
A
=
[
0
0
0
1
]
{\displaystyle A={\begin{bmatrix}0&0\\0&1\end{bmatrix}}}
兩個線性映射的覆合映射 是線性的:如果
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
和
g
:
W
→
Z
{\displaystyle g:W\rightarrow Z}
是線性的,則
g
∘
f
:
V
→
Z
{\displaystyle g\circ f:V\rightarrow Z}
也是線性的。
若線性映射可逆 ,則該線性映射的逆 也是線性映射。
如果
f
1
:
V
→
W
{\displaystyle f_{1}:V\rightarrow W}
和
f
2
:
V
→
W
{\displaystyle f_{2}:V\rightarrow W}
是線性的,則它們的和
f
1
+
f
2
{\displaystyle f_{1}+f_{2}}
也是線性的(這是由
(
f
1
+
f
2
)
(
x
)
=
f
1
(
x
)
+
f
2
(
x
)
{\displaystyle \left(f_{1}+f_{2}\right)\left(x\right)=f_{1}\left(x\right)+f_{2}\left(x\right)}
定義的)。
如果
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
是線性的,而a 是基礎體K 的一個元素,則定義自 (af )(x ) = a (f (x ))的映射af 也是線性的。
所以從
V
{\displaystyle V}
到
W
{\displaystyle W}
的線性映射的集合
L
(
V
,
W
)
{\displaystyle L\left(V,W\right)}
自身形成在
K
{\displaystyle K}
上的向量空間,有時指示為
H
o
m
(
V
,
W
)
{\displaystyle \mathrm {Hom} \left(V,W\right)}
。進一步的說,在
V
=
W
{\displaystyle V=W}
的情況中,這個向量空間(指示為
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
)是在映射覆合 下的結合代數 ,因為兩個線性映射的覆合再次是線性映射,所以映射的覆合總是結合律的。
給定有限維的情況,如果基已經選擇好了,則線性映射的覆合對應於矩陣乘法 ,線性映射的加法對應於矩陣加法 ,而線性映射與純量的乘法對應於矩陣與純量的乘法。
自同態的線性映射在泛函分析和量子力學 中都有很重要的地位。按前文約定,我們用「線性算子」來簡稱它。(注意泛函分析中所說的「線性算子」不一定是自同態 (endomorphism)映射,但我們為了照顧不同書籍的差異以及敘述的方便,暫用「線性算子」來稱呼這種自同態。)
自同態 是一個數學對象 到它本身的保持結構的映射(同態 ),例如群
G
{\displaystyle G}
的自同態則是群同態
f
:
G
→
G
{\displaystyle f:G\to G}
。對於向量空間
V
{\displaystyle V}
,其自同態是線性算子
f
:
V
→
V
{\displaystyle f:V\rightarrow V}
;所有這種自同態的集合
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
與如上定義的加法、覆合和純量乘法一起形成一個結合代數 ,帶有在體
K
{\displaystyle K}
上的單位元(特別是一個環)。這個代數的乘法單位元是恆等映射
i
d
:
V
→
V
{\displaystyle \mathrm {id} :V\rightarrow V}
。
若
V
{\displaystyle V}
的自同態也剛好是同構 則稱之為自同構 。兩個自同構的覆合 再次是自同構,所以
V
{\displaystyle V}
的所有的自同構的集合形成一個群 ,
V
{\displaystyle V}
的自同構群 可表為
A
u
t
(
V
)
{\displaystyle \mathrm {Aut} (V)}
或
G
L
(
V
)
{\displaystyle \mathrm {GL} (V)}
。因為自同構正好是那些在覆合運算下擁有逆元的自同態,所以
A
u
t
(
V
)
{\displaystyle \mathrm {Aut} (V)}
也就是在環
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
中的可逆元群 。
如果
V
{\displaystyle V}
之維度
n
{\displaystyle n}
有限
E
n
d
(
V
)
{\displaystyle \mathrm {End} (V)}
同構 於帶有在
K
{\displaystyle K}
中元素的所有
n
×
n
{\displaystyle n\times n}
矩陣構成的結合代數 ,且
V
{\displaystyle V}
的自同態群同構 於帶有在
K
{\displaystyle K}
中元素的所有
n
×
n
{\displaystyle n\times n}
可逆矩陣構成的一般線性群
G
L
(
n
,
K
)
{\displaystyle \mathrm {GL} (n,K)}
。
若爾當標準型 敘述了代數閉域
K
{\displaystyle K}
上的線性空間
V
{\displaystyle V}
上的自同態
φ
{\displaystyle \varphi }
在
V
{\displaystyle V}
的基上的矩陣表示的表現,有理標準型 是將其推廣到任意域上的方法。
對於一個線性映射
f
:
V
→
W
{\displaystyle f:V\rightarrow W}
,可以考慮以下兩個:
核 ( Kernel )——送到零向量的那些向量:
K
e
r
(
f
)
:=
f
−
1
(
0
)
=
{
x
∈
V
∣
f
(
x
)
=
0
}
⊆
V
{\displaystyle \mathrm {Ker} (f):=f^{-1}(\mathbf {0} )=\{x\in V\mid f(x)=\mathbf {0} \}\subseteq V}
像 ( Image )——把整個空間送過去後的結果:
I
m
(
f
)
:=
f
(
V
)
=
{
f
(
x
)
∈
W
∣
x
∈
V
}
⊆
W
{\displaystyle \mathrm {Im} (f):=f(V)=\{f(x)\in W\mid x\in V\}\subseteq W}
那麼
Ker
(
f
)
{\displaystyle \operatorname {Ker} (f)}
是
V
{\displaystyle V}
的子空間 ,而
Im
(
f
)
{\displaystyle \operatorname {Im} (f)}
是
W
{\displaystyle W}
的子空間。下面的叫做秩-零化度定理 的維度公式經常是有用的:
dim
(
K
e
r
(
f
)
)
+
dim
(
I
m
(
f
)
)
=
dim
(
V
)
{\displaystyle \dim(\mathrm {Ker} (f))+\dim(\mathrm {Im} (f))=\dim(V)}
dim
(
I
m
(
f
)
)
{\displaystyle \dim(\mathrm {Im} (f))}
這個數稱做「
f
{\displaystyle f}
的秩」( rank )並寫成
r
k
(
f
)
{\displaystyle \mathrm {rk} (f)}
,有時也寫成
ρ
(
f
)
{\displaystyle \rho (f)}
;而
dim
(
K
e
r
(
f
)
)
{\displaystyle \dim(\mathrm {Ker} (f))}
這個數則稱做「
f
{\displaystyle f}
的零化度」( nullity )並寫成
v
(
f
)
{\displaystyle v(f)}
。如果
V
{\displaystyle V}
和
W
{\displaystyle W}
是有限維的,那麼
f
{\displaystyle f}
的秩和零化度就是
f
{\displaystyle f}
的矩陣形式的秩 和零化度 。
這個定理在抽象代數的推廣是同構定理 。
多重線性映射 是線性映射最重要的推廣,它也是格拉斯曼代數 和張量分析 的數學基礎。其特例為雙線性映射 。
^ 見Axler 2009 ,第41頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第1節「定義與例子」)。
^ 見Axler 2009 ,第59頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」末尾習題旁的說明)。
^ 見龔昇《線性代數五講》第1講第10頁。
^ 見Axler 2009 ,第38頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第1節「定義與例子」)。
^ 李尚志. 第6章“線性變換”第4節“線性變換”. 線性代數 第1版. 高等教育出版社 . 2006: 326. ISBN 7-04-019870-3 . 則V到自身的線性映射稱為V的線性變換(linear transformation)。
^ А·Н·柯爾莫哥洛夫 ,佛明(С. В. Фомин). 第4章“線性泛函與線性算子”第5節“線性算子”. Элементы теории функций и функционального анализа [函數論與泛函分析初步]. 俄羅斯數學教材選譯. 段虞榮 (翻譯),鄭洪深 (翻譯),郭思旭 (翻譯) 原書第7版,中譯本第2版. 高等教育出版社. 2006年: 162. ISBN 7-04-018407-9 .
^ 見Lax 2010 ,第131頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFLax2010 (幫助 ) (位於第15章「有界線性映射」的開頭部分)。原文為「線性映射也稱為線性算子或線性變換」。
^ 8.0 8.1 8.2 8.3 8.4 8.5 見Axler 2009 ,第38-39頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第1節「定義與例子」)。
^ 見Artin 2010 ,第156頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFArtin2010 (幫助 ) 。(位於第6章「Symmetry」第1節「
Symmetry of the Plane Figures」)
^ Walter Rudin . 第1章“Topological Vector Spaces”中的“Linear mappings”一節. Functional Analysis [泛函分析] . Higher mathematics series. McGraw-Hill Book Company . 1973: 13 .
^ 見Axler 2009 ,第51頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第3章「線性映射」第3節「線性映射的矩陣」)。
^ 見Axler 2009 ,第82頁 harvnb模板錯誤: 多個指向目標 (2個): CITEREFAxler2009 (幫助 ) (位於第5章「本徵值與本徵向量」第3節「上三角矩陣」)。
^ 其證明只需要用到三角函數 的基礎知識,在網上很容易找到證明過程。也可參見Feynman harvnb模板錯誤: 多個指向目標 (2個): CITEREFFeynman (幫助 ) 第11章「Vectors」第3節「Rotations」。