洪信安的數位歷程檔 - 洪信安
介紹倒傳遞演算法,
並以EXCEL練習其計算,
(輔以EXCEL的巨集與VBA按鈕)
並討論
(1)以牛頓法調整學習速率,
(2)以隨機初始值起算的收斂成功率。
(
全文...)
在類神經網路中加入隱藏層,可加強其模擬能力。
至於weight,bias的求解,可用EXCEL的規劃求解功能。
(
全文...)
補上感知機講義,並更新感知機練習檔。
(
全文...)
以"AND運算"為例,
用EXCEL 軟體來示範感知機的學習方式。
(
全文...)
本人最近將在本校製造科技研究所教授"類神經網路"課程,
內容將鎖定倒傳遞網路的實務應用為主。
為方便學生未來能使用免費軟體來作類神經模擬
(
全文...)
Maxima 5.23.0 的電輔工數講義與相關使用說明
1. 電輔工數講義 (講義,含指令操作及自訂程式)
2. Maxima小幫手 (較少用指令的小幫手)
3. MaximaMacHelp (自訂程式的UltraEditor編輯環境設計)
(
全文...)
更新電腦輔助工數講義,版本為Maxima 5.23.0,範圍是Ch10.1~2。
並包含題例練習之指令檔Ch10.1~2,
及自訂程式 MyLaplace.mac, MyFourTran.mac 與 其所呼叫的相
(
全文...)
更新電腦輔助工數講義,版本為Maxima 5.23.0,範圍是Ch09.1~3。
並包含題例練習之指令檔Ch09.1~3,
及自訂程式 MyFourTran.mac 與 其所呼叫的相關自訂程式(
(
全文...)
更新電腦輔助工數講義,版本為Maxima 5.23.0,範圍是Ch08.1~2。
並包含題例練習之指令檔Ch08.1~2,
及自訂程式 MyVectorCalculus.mac 與 MyPlot.mac 。
(向量微積分)
(
全文...)
Copyright 2010 建國科技大學. All rights reserved.
台灣數位學習科技 建置
Engineering math
線性代數
壹、重點分析
線代可將其分為四大重點,分述如下:
-
矩陣運算:各種基本矩陣運算、可逆矩陣、trace、行列式、反矩陣、方塊矩陣、行運算、列運算、Vandermonde行列式、Crammer公式、正交矩陣、伴隨矩陣、對稱矩陣、反對稱矩陣、方程組求解、QR分解、LU分解、奇異值分解、相似矩陣。
-
向量空間及線性映射:向量空間定義、子空間、和空間、行空間、列空間、核空間、空間的生成、獨立、基底換算、維度定理、座標化、座標變換、Syliester定理,此部分定理證明題很常見。
-
內積空間:對角化問題、特徵值、特徵向量、特徵多項式、代數重根、幾何重根、投影算子、光譜分析、Gram-Schmidt正交化、正投影、標準內積、複內積、orthogonal、orthonormal
basis、最小平方近似解。
-
Jordan Form:如何求Jordan Form、廣義固有空間及固有向量、Jordan
Form分解、Cayley-Hamilton定理、最小多項式、方陣多項式。
其中以向量空間、對角化理論、內積空間最為重要,而Jordan
Form理論為最難,但近年有愈考愈多之趨勢,若有志於台清交的同學,不可不注意,其實對角化理論即為Jordan
Form理論的special case,所以如果Jordan Form弄懂,對角化理論不看都無妨。
線性代數的考題主要是分為計算題與證明題兩類,雖偶爾會出現選擇題或是非題,但也多半要求解釋,仍等於是證明題,計算題較易準備,應確實掌握,當作基本得分,而證明題一般人較難掌握,這也是區分高下的關鍵所在,證明題若抓不到要領,雖不至於就名落孫山,但要考上一流學校的機會也會因此降低,所以證明題較弱的考生務必要確實掌握住計算題才行。
貳、準備要領
線性代數是一門完整體系的學科,涵蓋範圍相當廣泛,舉凡數學統計、電機電子、資工資管、工管企管等有關系所的入學考試,都佔有相當份量之比重,然而不同的系所,卻有不同的命題重點,其準備方向需多加注意,以免徒勞無功,得不償失,例如資工所線代不能以準備數研所的方式來準備,其題目不像數研所那樣重視定理證明,因為資工所較重視計算題與應用題目,故較艱澀之定理證明不要死背,只要理解就好,即使公式的由來不是很懂,但是只要會套入計算題中運用,還是可以考得很好,所以準備時最好能注重各種類型的計算題,多做考古題演練,才能掌握較多的分數,而像一些應用問題的例子中,例如題目中若有要用到微分方程、多重微分的技巧運算,其屬工程數學的範圍,在電機所才會考,而像Rayleigh定理、Markov矩陣的題目通常在統研所或工工所考較多,對於準備資工所的同學大可不必花太多時間。
線性代數與離散數學最大的不同在於線代是一個整體的系統,從頭到尾必須一氣呵成,千萬不可有部分一知半解而跳過,否則會愈念到後來會愈困難,之後的章節就學不通了,所以念線代一定要由第一章觀念開始入手,一步一步循序漸進地打好基礎,然而離散正好相反,其各部分重點真的很離散,關連性不大,所以若有一、二個地方不太熟,不會影響其他部分,還是不會考得太差,這也是為什麼許多人會半途棄守線代而猛攻離散的原因了,其實線代不是很難,放棄此科目實在蠻可惜的,但僅念一、二次是不夠的,須花較多的時間,因為關連性大,要融會貫通一定要多念幾次,熟悉各定理後再去練習考古題與分析預測題,切記,線性代數每練習一次,就能多理解一分,多增一分實力,數學科目最重要的部分就是在於練習題目。
在考前,就已沒有時間可以用地毯式的讀法複習整個線性代數了,若平時已打好基礎當然最好,但若不幸實力不足或讀不完,也不要心急,因為大家在這一科普遍都不好,在考前還是可以利用考古題,由熱門題型著手,遇到不清楚的地方,依隨破隨補的方式,用跳島戰術將自己不熟的地方一步步弄清楚,研究所考試重要題型重複再出現的機率極高,要花最小代價拿到最大可能的得分還是做得到的,沒有人是因為沒讀完而落榜,都是因為沒讀懂而垮掉,千萬不要花太多時間在冷僻的題目上,寧可確實掌握五分題目,也絕對不要去讀十分題目卻弄得到處似懂非懂。
考資工所的同學一定要記住,數學這一科絕對不要放棄,勝負的關鍵就在這一科,數學考八、九十分與考二、三十分的人都有,而數學好的人一下子就可以贏個一般人三十幾分,但若是計概、系程或資結其分數差距可能就無法這麼大了,若可以考個六、七十分就算是考很好了,但也只是贏個一般人十來分左右而已。
參、參考書籍
|
書名
|
作者
|
特色
|
|
Linear Algebra
|
Huffman
|
本書為數研所專研,太函數化,奉勸工學院的同學不要碰。
|
|
Linear Algebra
|
Friedberg & Insel &
Spence
|
非常適合準備電機、資工所同學閱讀,其中True
or False 的題目很多,非常重要。
|
|
Linear Algebra
|
Nobel & Daniel
|
此本為應用線代,交大資工、交大資科用此。
|
|
綜合線性代數
|
廖亦德
|
以理工研究所的需求為取材標準,並綜合各研究所歷屆考題,值得參考。
|
|
線性代數—
綜合剖析題型演練
|
廖亦德
|
內容兼顧傳統線性代數與應用線性代數,易讀易懂,是基本用書。
|
有一點需多加注意,在不同的線代教科書中,其數學符號代表的意思可能不太一樣,所以考試最好少用符號,若真的要用符號,最好在旁邊多加個註解,或者事先打聽出所要考的所是用哪一本教科書,再去使用那一本書所定義的符號較好。最後奉勸各位同學,其實只要把廖亦德老師所編的綜合剖析題型演練與綜合線性代數弄懂念熟,去應付考試以措措有餘了,除非您時間真的還有很多,再去鑽研原文教科書。
肆、線性代數準備方向:
-
矩陣運算:各種基本矩陣運算、可逆矩陣、trace、行列式、反矩陣、行運算列運算、方程組求解等基本矩陣的性質我們都要非常熟悉。而其中特殊的矩陣,例如正交矩陣、伴隨矩陣、對稱矩陣、反對稱矩陣、相似矩陣等我們都要了解這些矩陣的特性,尤其統研所很喜歡考正交矩陣、對稱矩陣的考題,讓考生球對角化及相關問題。
-
向量空間及線性映射:向量空間的定義、子空間(今年成大考了一題)、和空間、空間的生成及獨立(今年中興考一題)、基底換算、維度定理、座標化、座標轉換等基本線代定理,我們還是要知道定理且應用它,至於定理的證明,則是屬於數學系會考的範圍,我們不必去理會。
-
內積空間:內積空間是線性代數理最重要的部分,也是統研所最愛考的地方,其中對角化、特徵值、特徵向量、投影算子、Gram-Schmidt正交化、正投影、最小平方求解等題型是統研所的最愛,幾乎每年都會有類似題出現。另外特徵多項式、代數重根、幾何重根、正交基底、正交單位化基底等觀念,大家還是要熟悉一下。
-
Jordan form:這一部份是線代最難的部分,不過幸運的是,統研所幾乎不考Jordan-form的部份,大部份都是數研所在考的。但其中Cayley-Hamilton定理、最小多項式的觀念要熟悉一下。
-
統研所近年來有考到光譜分析、Markov矩陣的部份,大家可加強一下。
--以上摘錄自高點研究所
線性代數--黃子嘉 老師

一. 線性代數很難嗎?
其實線性代數並不是一門很難的數學, 可是一般學生學不好的原因大都是因為線性代數是一個各個主題連貫性很重的數學,
往往前面的章節弄不懂就會造成後面的章節也學不來。其實線性代數的核心觀念就像一條主幹線一樣, 而其他的相關問題及應用則視為它的支幹線, 只要把主幹線的觀念完全弄懂後再來看其他相關的問題就會發現很多問題都變簡單了,
那時就會發現其實它並沒有想像中的難。
二. 那到底該如何準備呢?
這應該是大部份學生最想問的一個問題, 就如前面所提要弄懂線性代數要先把核心觀念串連起來,
我建議針對考生來說可分成三個階段來準備。
第一階段 :
利用一段約三到四個月的時間很集中地熟讀線性代數的各個主題, 在這個階段你需要一本好書及一個好老師來引導你, 錯誤的引導常常造成對觀念的一知半解。這個階段主要是把線性代數的核心觀念串連起來。它是最辛苦的階段卻也是最很重要的階段。
第二階段 :
對線性代數有個全盤的了解後, 第二個階段就是複習的階段, 把第一階段整理的講義或書重新看過一遍, 並進一步做相關的習題以加強觀念並增加熟度。在這個階段可以參考不同的書籍,
預估大概花三到四個月的時間。
第三階段 :
最後的階段則是專心做考古題, 用考古題來複習, 以考古題為中心平常的講義及書籍當參考用。在研究所的考試中考古題會重複出現的機率相當地高, 所以一定要針對想考的學校的考古題精讀。另一方面,
做考古題可以訓練臨場考試的作答方式, 並進而減少考試怯場的情形。這個階段你需要去印一些考古題或找有關考古題的書籍。
三. 有那些比較好的書籍呢?
外面的線性代數書很多, 在此我們只列出一些比較好的書籍
原文書方面 :
- Kenneth Hoffman, "Linear Algebra",
這本書比較偏理論, 線性代數的聖經本, 考數研所必備的書, 不過非考數研所學生不建議讀這本書
- Stephen H. Friedberg, Arnold, J. Insel, and Lawrence
E. Spence, "Linear Algebra", 這本書理論及應用皆有提到, 書的內容很紮實, 台大電機、台大資工及很多數研所的上課用書,
非常適合當參考書
- Steven J. Leon, "Linear Algebra with Application",
交大、清大及很多電機所及資工所的上課用書, 這本書比較偏應用, 雖然理論部份沒有上一本書來得多, 不過針對非台大電機及台大資工卻相當足夠。
- Gilbert Strang, "Linear Algebra and Its Application",
這一本書比較偏數值線性代數, 很多應數及資工採用的上課用書, 它比較強調在觀念上, 內容則較偏數值分析的應用。
- Ben Noble and James W. Daniel, "Applied Linear
Algebra", 這本書與上一本書很像, 同樣是偏數值線性代數, 不過談的東西比較多, 不過寫的沒有上一本好, 採用的學校也比上一本少。
- Howard Anton and Chris Rorres, "Elementary
Linear Algebra - Applications Version", 這本書比較簡單, 比較適合線性代數基礎比較差的學生,
可當成入門的書籍, 這本書的另一個重點在於它有三分之一的篇幅在談線性代數在各個領域的應用, 可讓你看到線性代數抽象的數學背後廣大的應用。
中文書方面 :
線性代數及其應用上下冊(鼎茂) - - - 黃子嘉
線性代數及其應用習題詳解(鼎茂) - - - 黃子嘉
線性代數試題詳解(含研究所84, 85, 86, 87, 88各所的試題詳解)(鼎茂) - - - 黃子嘉
線性代數重要內容
授課老師:黃子嘉老師
|
內容
|
重要性
|
|
矩陣、列運算與解線性聯立方程式
|
****
|
|
行列式與古典伴隨矩陣
|
**
|
|
向量空間與子空間
|
****
|
|
生成集、獨立集與基底
|
*****
|
|
線性映射(座標化、矩陣表示與換底公式)
|
****
|
|
核空間、像集與四大子空間
|
****
|
|
對角化理論
|
****
|
|
對角化應用
|
*****
|
|
Jordan form理論及應用
|
***
|
|
Cayley-Hamilton定理及極小多項式
|
****
|
|
內積
|
*****
|
|
正交投影理論
|
*****
|
|
正規算子
|
****
|
|
么正、正交對角化及其應用
|
****
|
|
其他重要的應用
|
***
|
線性代數講義
線性代數講義
PDF檔
第一章(Vector Spaces)
第二章(Linear
Transformations)
第三章(Matrix Operations
& Determinants)
第四章(Diagonalizations)
第五章(Inner Product Spaces)
第六章(Jordan
Forms of Matrices)
第七章(Special Applications
of Matrices)
WORD檔
第一章(Vector Spaces)
第二章(Linear
Transformations)
第三章(Matrix Operations
& Determinants)
第四章(Diagonalizations)
第五章(Inner Product Spaces)
第六章(Jordan
Forms of Matrices)
第七章(Special Applications
of Matrices)
PowerPoint 檔
第一章(Vector Spaces)
第二章(Linear
Transformations)
第三章(Matrix Operations
& Determinants)
第四章(Diagonalizations)
第五章(Inner Product Spaces)
第六章(Jordan
Forms of Matrices)
第七章(Special Applications
of Matrices)
劉宗憲 助理教授
線性代數
線性代數
課程簡介
- 重要聲明: 這份講義只是我上課內容的摘要,
光讀這份講義絕對不足以應付考試, 更不足以把線性代數學好,
請同學務必按照進度詳讀課本/參考書並仔細作其中習題.
(這裡幾乎沒有習題與例子, 更沒有證明 ...)
- 請取得
rlab octave 矩陣計算機
(有各種 UNIX 版本, Windows 版, 甚至有 DOS 版)。 另外
「gnuplot: 函數與資料繪圖」
與本課程無直接關係, 但有助於學習數學。
-
參考書: 大學生應該學習選擇適合自己閱讀習慣的書.
這裡所列的未必適合每個人, 只是我個人覺得不錯的書而已.
學期當中這個列表會隨時改變.
- R. E. Larson and B. H. Edwards. Elementary Linear
Algebra Heath and Company (高立圖書代理)
- Steven J. Leon. Linear Algebra with
Applications Macmillan (臺北圖書代理)
我個人的擇書重點供大家參考: 原文 (即作者以其母語撰寫,
可以是中文或英文書); 多一點直覺解釋, 而不是只有證明;
配合軟體操作.
- 更多線上講義
已獨立出來的講義
- 幾何常識
- 矩陣
- 用消去法解線性方程
- 矩陣的代數運算
- Normal Equation 的直覺解釋
若 A 為一 n*n 方陣, 則以下諸命題等價:
- A 為可逆
- A 與 I 為列等價 (row-equivalent)
- |A| != 0
- rank(A) = n
- N(A) = { 0 }
- A 的列向量是 Rn 的一組基底
- A 的行向量是 Rn 的一組基底
- A x = 0 恰有唯一解
- A x = b 恰有唯一解 x = A-1 b
- A 可表為數個基本矩陣之乘積
-
Elementary Matrices
- 對一個矩陣 A 做 elementary row operations, 相當於在 A
的左邊乘上 elementary matrices. (越後來乘的, 在越左邊)
- 每個 elementary matrix 都是 invertible, 而且它的 inverse
也是一個 elementary matrix. (每一對都長得還很像咧!
而且很容易求.)
- invertible 方陣必可化為 elementary matrices 的乘積; 反之,
elementary matrices 的乘積當然是 invertible.
學習重點: 要會把 "elementary row operation" 與 "elementary
matrix 對原矩陣的乘法" 互換, 並會求效果相反的 elementary row
operation.
-
Triangular Matrices and LU-factorization
- Upper triangular matrix (上三角矩陣): 對角線
(不含) 以下全部為 0 的矩陣.
- Lower triangular matrix (下三角矩陣): 對角線
(不含) 以上全部為 0 的矩陣.
- Q: 所有 lower triangular matrices 與所有 upper triangular
matrices 的交集是什麼樣的矩陣?
- "腳踏實地法" 可以證得:
數個上三角矩陣的乘積依舊為上三角矩陣;
數個下三角矩陣的乘積依舊為下三角矩陣.
(畫圖很容易就可以看出來.)
- 觀察: 用 Gauss-Jordan Elimination 在求反矩陣時,
如果都沒有用到列對換 (row-interchange), 則: 前半段所乘的都是
lower triangular matrix; 後半段所乘的都是 upper triangular
matrix.
- 結論: upper triangular matrix 的反矩陣
(如果它確實有反矩陣的話) 也是 upper triangular; lower
triangular matrix 的反矩陣 (如果它確實有反矩陣的話) 也是 lower
triangular.
- 結論: 用 Gaussian Elimination 在求 A 的 row-echelon form
時, 如果都沒有用到列對換 (row-interchange), 則: A
可寫成下三角矩陣與上三角矩陣的乘積: A = L * U. (注意這裡的條件:
A 未必需要是 invertible.)
- 把 A 寫成 L*U 有什麼好處? Triangular matrices 比較容易處理,
例如若 A 為 non-singular, 則要解 A x =
b 可改為解 L U x =
b. 令 U x =
y 則可分兩步: 先用 forward
substitution 把 y 解出來, 再用 backward
substitution 把 x 解出來.
R^n 向量空間
- 向量: 固定長度, 固定方向, 但位置可移動的箭頭. 用
"每個方向的位移量" 來表示. 例如 u = (u1, u2,
u3).
-
向量運算: (重要! 應像 9-9 乘法表一樣熟記!)
| 運算 |
運算式 |
意義 |
| 加法 |
u + v = (u1+v1, u2+v2, u3+v3) |
將兩向量首尾相接, 另兩端點所成的新向量. |
| 減法 |
u - v = (u1-v1, u2-v2, u3-v3) |
將兩向量首首相接, 另兩端點所成的新向量. |
| 乘以常數倍 |
c*u = (c*u1, c*u2, c*u3) |
把向量沿原來的方向延伸那麼多倍. |
| 長度 |
|u| = sqrt(u1*u1+u2*u2+u3*u3) |
向量的長度 |
| 內積 |
u ? v =
u1*v1+u2*v2+u3*v3 |
|u| |v| cos(t) |
內積的英文為 inner product 或 dot
product. 注意到: 兩向量內積為 0 若且唯若兩者互相 垂直
(orthogonal).
-
為什麼按照內積計算出來的值會是兩向量長度與其夾角 cos 的乘積?
- 先畫圖導出餘弦公式: c*c = a*a + b*b - 2*a*b*cos(t)
- 把向量長度的運算式代進去
- 請注意: 以上運算式不論在幾度空間 R^n 都是正確的. (嚴格地說, 當
n>3 時, 其實是我們故意把 "夾角"
定義成讓內積公式保留它的幾何意義.)
- (這個定義只在 R^3 有效) 兩向量的 外積 (cross product)
為另外一個向量 a ? b = (a2*b3-a3*b2, a3*b1-a1*b3,
a1*b2-a2*b1).
-
在 R^3 中, 兩向量 a 與 b
的外積具有以下特性 (值得背一下):
- 它與 a 垂直.
- 它與 b 垂直.
- 它的長度等於 a 與 b
所張出來的平行四邊形面積.
Q: 給定 a 與 b, 請問 R^3
空間中有幾個滿足以上三個條件的向量? 提示:
把滿足各條件的向量末端繪出來, 各成一個平面或曲面.
求這三個面的交集.
- 平面上 a 與 b
兩向量所張出來的平行四邊形的面積為:
|a| * |b| * sin(t) = ... =
|a1*b2 - a2*b1|
- 空間中 a, b,
c 三向量所張出來的平行六面體的體積為:
|a ? b| * |c| * sin(u) = ... = |
a1*b2*c3 - a1*b3*c2 + a2*b3*c1 - a2*b1*c3 + a3*b1*c2 - a3*b2*c1
|
Determinants
- Determinant (行列式) 的定義 (1): 從 n*n 方陣中任意取出
n 個元素, 每列要恰有一個代表; 每行也要恰有一個代表. 把這 n
個元素相乘, 即得到 determinant 的一項. 總共有 n! 種取法, 把這 n!
項相加減, 即得到 determinant. 其中奇排列用減的; 偶排列用加的.
-
幾個最小的例子:
- det(A1) = a11
- det(A2) = a11*a22-a12*a21
- det(A3) = a11*a22*a33 - a11*a23*a32 + a12*a23*a31 -
a12*a21*a33 + a13*a21*a32 - a13*a22*31
- 一個 n*n 方陣 A 的 minor: 把 A 的第 i 列與第 j 行去掉,
剩下來的那個 (n-1)*(n-1) 方陣 的行列式值 叫做 A 的一個
minor, 記為 Mi,j
- Determinant 的定義 (2) (正式的定義): |A| = a11
M11 - a12 M12 + a13
M13 - a14 M14 ...
- Q: 數數看這樣定義下來的行列式值公式, 展開後共有多少項?
(與線性代數不太相關; 複習一下你的離散數學/排列組合)
- 事實上想求行列式值, 不一定要對第一列展開,
可以對任何一列或任何一行展開.
- 根據定義, 一個 upper triangular 或 lower triangular matrix
的行列式值很好求.
-
Elementary row operation 如何影響行列式值?
- 對調兩列: 行列式值變號
- 整列乘以常數倍: 行列式值也乘以同樣倍數
- 整列加上另外列的常數倍: 行列式值不變
- 可以想像有所謂的 elementary column operation;
從求行列式的角度來看, 可以想像對一個矩陣做 elementary column
operation 的效果, 和對它做 elementary row operation
的效果類似.
-
定理: (可以記一下)
- |A B| = |A| |B|
這個非常重要. 這是由上面有關 elementary row operation
的性質證得的; 但是偷偷告訴你記這個就可以不要記上面的性質.
(數學家會罵我亂教 ...)
- |c A| = c^n |A|
-
設 A 為一個 n*n 方陣, 則以下敘述等價: 重要!
- A is invertible (non-singular)
- 不論 b 為多少, A x =
b 必然恰有一解.
- A is row equivalent to In.
- A 可以寫成 elementary matrices 的乘積.
- |A| != 0.
提示: 請與純量的相對應敘述做比較 (a 的倒數存在, ax=b
恰有一解, a 可化為某些非零數字的乘積, |a| != 0)
- |inv(A)| = 1 / |A|
- |A'| = |A|
-
行列式的幾何應用:
- R^2: 測試三點是否共線.
- R^2: 給定兩點座標, 求過這兩點的直線方程式.
- R^3: 測試四點是否共面.
- R^3: 給定三點座標, 求過這三點的平面方程式.
(公式的內容是其次;
真正重要的是知道給了那些條件, 可以問什麼問題.
你可以不知道 strstr 是怎麼實作的; 但是不能不知道有 strstr
這樣的函數可以幫助你到一個字串當中去找子字串.)
(一般的, 抽象的, 不一定具有幾何意義的) 向量空間
-
向量空間
-
請比較下列幾個問題:
- 試把 5x^2-3x+1 寫成 -x^2+x+1, x^2-x+1, x^2+x-1
這三個多項式的常數倍的和.
- 試把 [5, -3; 0, 1] 寫成 [-1, 1; 0, 1], [1, -1; 0, 1],
[1, 1; 0, -1] 這三個方陣的常數倍的和.
- 試把 5 cos(x) - 3 sin(x) + log(x) 寫成
-cos(x)+sin(x)+log(x), cos(x)-sin(x)+log(x),
cos(x)+sin(x)-log(x) 這三個函數的常數倍的和.
結論: 其實都是在解同一個線性聯立方程組.
-
解讀向量空間的定義:
- 所有 "向量" 所成的集合 V: 這裡面每個元素都可以是非常
"厚重", "複雜", "沒有學過", "只有外星人才看得懂", ...
-
但是元素與元素之間的關係卻很簡單:
- 兩個元素相加的結果, 居然又是這個集合 V
當中的另一個元素.
- 一個元素乘以常數倍的結果, 居然又是這個集合 V
當中的另一個元素.
- 所有元素當中有一個特別的元素, 它是所有力量的平衡,
是宇宙的中心, 任何元素與它相加都沒有變化; 但是 V
這個集合裡面如果少了它就不完整. 我們姑且把它記做粗體字的
0, 稱之為零向量.
- 線性代數研究的就是 V 當中 元素與元素之間的關係
(乘以常數倍, 相加, 還有這兩者的組合與變化). 線性代數不研究 V
中元素的內在特性. (可以鬆一口氣了吧?) 因為將來我們所看的定理,
都是根據向量空間的定義導出來的, 幾乎從來不會用到 V
中元素內在的特性 (不要忘記, 這些元素的內在特性可能是非常複雜的,
連數學家都無法理解 ...) 所以這些定理適用的範圍很廣. 更明確地說,
只要是滿足向量空間所有公設 (axioms) 的 V, 我們的定理便可以適用.
(有點像是在 C 當中, 你要使用 qsort 時,
必須傳進去一個具有特定行為模式的副程式 cmp, 只要它滿足某些條件,
qsort 就會把你的資料排序完成.)
- 唯一需要把 V 的元素拆開來看的時候, 是在證明 V
是一個向量空間的時候, 也就是在證明 V 滿足下列公設的時候.
-
向量空間的公設:
| 公式 |
英文名稱 |
| u + v is in V. |
closure under addition |
| u + v = v + u |
commutativity of addition |
| u + (v + w) = (u + v) + w |
associativity of addition |
| u + 0 = u |
existence of additive identity |
| u + (-u) = 0 |
existence of additive inverse |
| c u is in V. |
closure under scalar multiplication |
| c (u + v) = cu +
cv |
distributivity |
| (c + d)u = cu +
du |
distributivity |
| c (d u) = (cd)
u |
associtivity |
| 1 u = u |
scalar identity |
-
其他可證得的簡單性質:
- 0 u = 0
- c 0 = 0
- 若 c u = 0 則 c = 0
或 v = 0
- (-1) u = -u
-
subspace (子空間):
- 定義: 一個向量空間 V 的 (非空) 子集合 W,
如果本身又是一個向量空間, 則稱之為 V 的subspace
子空間. (要使用原來的乘法與加法才算數.)
- 定理: 一個向量空間 V 的 (非空) 子集合 W,
如果滿足加法與乘法的封閉性, 則必為 V 的子空間.
- 定理: 子空間的交集必為子空間.
- Q: R^2 有那些子空間? R^3 有那些子空間? 猜猜看 R^n
有那些子空間?
- Q: C[-1,1] 在函數的加法,
及函數與純量的乘法這兩個運算下構成一個向量空間.
試問以下集合是否為 C[-1,1] 的子空間: V1 = { f(x) in C[-1,1] :
f(-1)=-1 }, V2 = { f(x) in C[-1,1] : |f(x)| = f(x) for all x in
[-1,1] }, V3 = { f(x) in C[-1,1] : f(-1) = f(1) = 0 }.
-
linear combination (線性組合):
- 定義: 一堆 (有限個) 向量的常數倍的和即稱為這些向量的一個
linear combination (線性組合)
- 把一個向量化為數個向量線性組合的問題,
其實就是解線性方程組的問題.
- 定義: 把一堆 (有限個) 向量 A 的 所有
線性組合搜集起來所成的集合, 稱為 A 的 span; 記為 span(A).
- 定理: span(A) 是一個子空間. 不僅如此, 它是所有包含 A
的子空間當中最小的一個.
- 定義: span(A) 稱為 A 所張的子空間; A 稱為 span(A) 的一個
spanning set. (注意: 一個子空間可以有很多組不同的 spanning
sets.)
- 定義: 一堆 (有限個) 向量,
如果只有唯一一種方式可以讓它們的線性組合為 0,
則稱它們彼此 linearly independent (線性獨立);
如果不只一種方式, 則稱它們彼此 linearly dependent
(線性相依).
- 註: 上面所說的唯一一種方式就是取所有的係數為 0
- 定理: 線性相依的一堆向量,
其中必有向量可化為其他向量的線性組合. 反之亦然.
- 線性獨立/線性相依的直覺解釋: 在 R^n 當中, k 個向量 (k <=
n) 必定落在同一個 k-flat 上. 如果它們竟然落在同一個 (k-1)-flat
上 (它們所張開的平行 xxx 的 x 積等於零), 就叫做線性相依;
否則就叫做線性獨立.
- Q: 在多項式的加法, 及多項式與常數的乘法下,
所有的多項式構成一個向量空間. 請問 {x^2-5x+6, x^-4x+4}
這兩個向量線性相依或線性獨立? 若取 x=2 就可以任取不全為 0
的係數讓兩者的線性組合為 0, 這樣對嗎?
- 小考必考題: 給你幾個向量,
問它們之間究竟是線性獨立亦或是線性相依; 若是線性相依,
請將其中一個表示為其他的線性組合.
- Q: 請描述空間中兩個向量何時線性相依, 何時線性獨立.
三個向量呢?
- Q: 若 u 與 v 線性獨立,
試問 u, v,
u+v, u-v 當中,
有那幾對也是彼此線性獨立?
-
(要變成你的反射動作!) 重要圖象: A * x
可以解釋成
- A 的行向量的線性組合 (以 x1, x2, ... xn 為係數)
- A 的列向量分別與 x 做內積的結果
-
基底
- 何謂向量空間 V 的一組 basis 基底? 多到足以張出整個
V; 少到彼此線性獨立.
- 定理: (uniqueness of basis representation) 給定一組基底,
每個向量可以用唯一的一組數字 (即線性組合當中的係數) 來表示.
(而不會出現 "兩組數字都代表同一個向量" 的窘境.) 換句話說,
一組基底之於它所張的向量空間,
就像一個長度的單位之於長度這個觀念一樣,
可以把一個觀念化簡為數字表示出來. (給定一個長度單位,
每個長度可以用唯一的一個數字來表示, 而不會出現
"兩個數字都代表同一個長度" 的窘境.)
- 定理: 一個向量空間 V 它的每一組基底的元素個數都一樣.
把這個固定的元素個數稱為 V 的 dimension
- 對基底的直覺解釋: (以 R^3 為例)
在原點上隨便豎起三根不共面的筷子 (長度不必一樣), 成為一組基底.
想像把這樣一組筷子複製無限多份, 平移到空間中各處,
形成一個筷子方格網 (每個方格都是一模一樣的平行六面體),
如此一來空間中每個方格頂點 (筷子交叉處) 都可用一組 (三個)
整數座標表示. 空間中其他點也可用一組實數座標表示.
- 定理: 從 n 維向量空間 V 當中隨便挑 n 個向量,
如果它們彼此線性獨立, 則它們可構成 V 的一組基底.
- 定理: 從 n 維向量空間 V 當中隨便挑 n 個向量,
如果它們可以張出整個 V, 則它們可構成 V 的一組基底.
-
說明: 一種好的表示法 (例如用公分描述長度, 用身份證字號描述人,
...) 應該滿足以下三個條件:
- 每個物件都可以表示得出來.
- 每個物件都只有唯一的一種表達方式.
- 不同的物件有不同的表達方式.
- 一個 (有點牽強的) 例子: 如何表達顏色? RGB, CMY, HSB
(其實顏色的空間並非向量空間, 且 HSB 並不滿足 (2) ).
-
矩陣的秩 (rank)
- 一個矩陣 A 的 row space: A
的列向量所張出來的空間
- 一個矩陣 A 的 column space: A
的行向量所張出來的空間
- 定理: 對一個矩陣做基本列運算, 所得到的新矩陣具有相同的 row
space. 所以可以用基本列運算化簡矩陣至 row-echelon form,
進而得到 row space 的一組基底.
- Q: 為什麼不直接拿原來的列向量當做基底就好了?
- 定理: 一個方陣的 row space 與 column space 具有相同的
dimension.
- 定義: 一個方陣 A 的 row space (或 column space) 的
dimension 就稱為 A 的 rank 秩.
- 定理: 若 A 為一個 m * n 矩陣, 則 A x =
0 的解集合構成 R^n 的一個子空間.
這個子空間稱為 A 的 nullspace, 它的 dimension 稱為 A
的 nullity.
- 幾何解釋: 與 A 的所有列向量垂直的向量有那些?
- 定理: 若 A 為一個 m * n 矩陣, 則 rank(A) + nullity(A) =
n.
- 直覺提示: n 為變數個數 ...
- 定理: (如何求 A x = b
的所有解) 若 x0 為 A
x = b 的一組解,
則完整的解集合即是 { x0 +
xh : xh
屬於 A 的 nullspace }.
- 幾何解釋: A x = b, A
x = c, A x =
d, ... 等等各題的解集合為空間中平行的 k-flat
其中 k 為 A 的 nullity.
- 定理: A x = b 為
consistent 若且唯若 b 屬於 A 的 column
space.
- 定理: 與 "A 為 invertible" 這句話 (及其他許多句話)
等價的還有: "A 的行向量線性獨立", "A 的列向量線性獨立".
-
座標及座標轉換
- 定義: 在向量空間 V 當中, 把一個向量 x
用一組基底 B 的線性組合來表示時, 所取的係數稱為
x 相對於 B 的 座標 (coordinates),
記做 [x]B.
-
直覺解釋: 向量是我們真正有興趣的東西; 基底是度量用的單位;
而座標則只是一組數字, 脫離基底單獨存在並沒有任何意義. 例如
"臺灣島的海岸線長度為 1139 公里" 這句話當中,
"臺灣島的海岸線長度" 是我們真正有興趣的東西,
就算這個世界上沒有人在這裡測量, 它還是存在;
公里是一個度量用的單位; 而 1139 只是一組數字, 脫離 "公里"
單獨存在並沒有任何意義. 請仔細對照比較:
向量 = 基底 * 座標
真實的量 = 度量單位 * 讀數
(注意: 如果我們把基底與疪標都用行向量表示, 則基底一定要寫在左邊.)
- 平常我們寫 (2, -3, 5)^T 的意思其實是把 x =
2e1 - 3 e2 + 5
e3 這個向量用 "它相對於標準基底 S = {
e1, e2, e3 }
的 座標" 來表示. 所以嚴格說來, 我們不應該寫
x = (2, -3, 5)^T, 而應該寫
[x]S = (2, -3, 5)^T.
- transition matrix: 把 (可以是很抽象的) 向量空間 V
當中的一組基底 C = { c1, c2,
... cn } 的每個向量用 V
當中的標準基底寫出它的座標: [c1]S,
[c2]S, ...
[cn]S 得到 n 個 R^n 當中的行向量.
把這 n 個 R^n 當中的行向量並排在一起, 形成一個 n*n 方陣,
我們姑且把它記為 [C]S. 請仔細思考下式的意義:
[C]S [x]C =
[x]S
"若已知向量 x 相對於 C 的座標, 則在它左邊乘上
「C 相對於標準基底的座標」, 可以求得向量 x
相對於標準基底的座標". 所以稱 [C]S 為 transition
matrix from C to S.
- 請比較:
1.609 * 707.9 = 1139
"英哩" 這個單位用 "公里" 來表示, 它的值是 1.609;
"臺灣海岸線長度" 用英哩來表示, 它的值是 707.9; "臺灣海岸線長度"
用公里來表示, 它的值是 1139.
- 不過我們平常比較常問的問題是: "已知向量 x
相對於標準基底的座標, 求它相對於新基底 C 的座標",
那麼就把上式倒過來用:
[x]C =
([C]S)(-1)
[x]S
(所謂倒過來用當然不是隨便把等式亂改, 而是把輸入與輸出互換,
看應該如何調整原等式.)
-
座標轉換 (change of coordinate system; change of basis)
當然不僅止於標準基底與非標準基底,
也可以在兩套非標準基底之間發生.
可以從下列兩個式子當中隨便選一個來理解:
- [C]B [x]C =
[x]B
- [C]S [x]C =
[B]S [x]B
-
請比較:
- 1.151 * 615.0 = 707.9
- 1.852 * 615.0 = 1.609 * 707.9
1 海浬 = 1.151 英哩; 1 英哩 = 1.609 公里; 1 海浬 = 1.852
公里.
臺灣海岸線長度 = 1139 公里 = 707.9 英哩 = 615 海浬.
- 如果連續做好幾次座標轉換呢? 每次都把最新的 transition
matrix 乘在最左邊.
(一般的, 抽象的, 不一定具有幾何意義的) 內積空間
-
內積空間的定義: 一個向量空間加上一個 "傳入兩個向量, 傳出一個純量"
的內積函數 inner product, 即稱為一個內積空間 inner
product space. 兩個向量 u 及
v 的內積記作 < u,
v >, 且這個函數必須滿足下列公設 (axioms):
- < u, v > = <
v, u >
- < u, v + w > = <
u, v > + <
u, w >
- c < u, v > = < c
u, v >
- < v, v >
必然大於或等於零, 而且等號只有在 v =
0 時才成立.
-
內積的性質:
- < 0, v > = <
v, 0 > = 0;
- < u + v, w > = <
u, w > + <
v, w >
- c < u, v > = <
u, c v >
(後兩項其實都只是把交換律應用到定義所得的結果而已.)
-
由內積衍生出來的定義:
- 定義向量 u 的 norm (length, 長度)
為 | u | = sqrt(< u,
u >)
- 定義向量 u 與 v 之間的
distance (距離) 為
d(u,v) = | u -
v |.
- 定義向量 u 與 v 之間的
夾角 為 < u, v
> / ( |u| * | v | ) 的
cos^(-1)
- 若 < u, v > = 0
則稱 u 與 v orthogonal
(正交).
- 內積的直覺解釋: 為了要能夠表達兩個向量之間的夾角,
及一個向量之間的距離, 而定義出來的觀念. 一個向量空間 (例如 P_n)
上可以定義很多種不同的內積 (例如對應項係數乘積的和, 或定積分);
究竟那一個定義比較符合直覺或符合應用問題的需要,
就多少需要主觀的判斷了.
-
重要定理:
- Cauchy-Schwarz Inequality (哥西/舒瓦茲不等式): | <
u, v > | <=
|u| * |v|
- Triangle Inequality (三角不等式): | u + v
| <= |u| + |v|
- Pythagorean Theorem (畢氏定理): u 與
v 正交 若且唯若 |u+v|^2 =
|u|^2 + |v|^2
- 定義: orthogonal projection of u onto
v (u 在 v
上面的投影?): (< u, v
> / < v, v >)
v
- 投影的特性: u 在 v
上面的投影, 是 v 的延伸線上所有向量當中, 離
u 最近的一個.
- 定義: 一組基底 B, 若其中所有向量兩兩正交, (則 B
內所有向量必然線性獨立) 則稱 B 為一組 orthogonal basis
(正交基底); 一組正交基底 B, 若其中所有向量均為單位向量, 則稱 B
為一組 orthonormal basis (正么基底).
- 例: 在 C[0, 2pi] 中, 若以一般的定積分做為內積的定義, 則 S = {
1, sin x, cos x, sin 2x, cos 2x, ... sin nx, cos nx } 為 span(S)
的一組正交基底.
- 為何我們喜歡使用正么基底? 因為座標轉換容易: 若 B = {
v_i | i = 1,2, ... n } 為一組正么基底,
w 為同一個空間中任何一個向量, 則
w = <w, v_1
> v_1 + <w,
v_2 > v_2 + ... +
<w, v_n >
v_n (提示: 以 R^n 為例, 若把一組正么基底寫成一個
n*n 方陣 A, 則 A^T * A = I, 也就是說 A^(-1) = A^T,
所以兩個方向的座標轉換都不必解聯立方程組, 只要做矩陣乘法)
-
Gram-Schmidt Orthonormalization Process: 如何從一組基底 V = {
v_i | i = 1, 2, ... n } 產生出另外一組正么基底 U
= { u_i | i = 1, 2, ... n } 且 span(U) =
span(V)?
u_1 = v_1 / |v_1|
u_2 = w_2 / |w_2| 其中 w_2 = v_2 - <v_2,u_1>u_1
u_3 = w_3 / |w_3| 其中 w_3 = v_3 - <v_3,u_1>u_1 - <v_3,u_2>u_2
...
如何求 w_(i+1)? 把前 i
個向量所張開來的子空間找出來, 把 v_(i+1)
在這個子空間上的投影去掉, 就是 w_(i+1).
再找出這個方向的單位向量, 就是 u_(i+1).
- QR factorization: 若把 R^m 當中 n 個線性獨立的向量 (當然 m
>= n) 寫成一個矩陣 A, 則根據 Gram-Schmidt Orthonormalization
Process 的過程, 可以把 A 化為 Q 與 R 的乘積, 其中 Q * Q^T = I
(它的行向量就是最後產生出來的那組正么基底), 而 R
為一個上三角矩陣.
- 最小方差問題: 欲解 A x = b,
但無解時 (通常是因為條件個數太多, 變數個數太少), 可以改解 A^T (A
x' - b) = 0.
這個方程組稱為原方程組的 normal equations. 所得到的這個解
x' 當然不一定滿足原方程組, 但它是所有
x 當中, "讓誤差最小" 的那個解.
(最小方差公式的口訣: "讓誤差向量與 A 的 column space 正交!")
Linear Transformations
-
矩陣乘以向量的兩種解釋:
- alias interpretation: 座標轉換 coordinate
transformation
- alibi interpretation: 線性映射 linear transformation
- simliarity: A' = S^(-1) A S 同一個線性映射,
在兩個不同的座標系統下的表達方式.
Eigenvalues and Eigenvectors
- 何謂一個矩陣 A 的 eigenvectors? 那些被 A 作用後,
不改變方向的向量. A x = c x
Hermitian Matrices
hermitian.fgeo
線性代數 => 近代物理 => 哲學
近代物理的哲學觀