您的位置:首頁>正文

線性代數被高數感染,也開始變……了

正交矩陣,

只是一個矩陣!

不好意思, 你們要的老大被我正交了。

談起正交變換, 不知道模友們是否記得之前一篇文章——如何通過心形線快速認識秩的幾何意義?裡面提到一位很牛逼的數學家費羅貝尼烏斯(F.G.Frobenius,

1849-1917)。

他討論了最小多項式問題, 引進了矩陣的秩、不變因數和初等因數、正交矩陣、矩陣的相似變換、合同矩陣等概念, 以合乎邏輯的形式整理了不變因數和初等因數的理論,

並討論了正交矩陣與合同矩陣的一些重要性質。

沒錯, 今天要討論的就是他的貢獻之一, 正交矩陣與正交變換。

故事開始, 先從代數角度理解一下正交矩陣。

其實很簡單, 我們找到兩個相同的矩陣Q, 它們一起睡覺, 一個躺著睡(仰臥), 一個翻轉過來睡(俯臥), 通過一晚上的成長, 早上起來它們生出了一個簡單又特殊的矩陣——單位矩陣(主對角線都是1, 其餘為0), 因此就稱Q為正交矩陣。

站在更高角度看, 我們把n階正交矩陣全體和矩陣乘法運算看成一個正交群, 記作O(n)。 如果這些正交矩陣的行列式恰好都是1, 那就更特殊了(因為它們的娃單位矩陣行列式也是1, 有種遺傳性能的感覺), 我們稱之為特殊正交群, 記作SO(n)。

下面我們舉一個栗子,

驗證一下二維旋轉矩陣是不是正交矩陣

它們一起睡覺, 開始造人了

這樣就得到了結論:旋轉矩陣就是正交矩陣。

模友們可以通過簡單運算判斷下面這個矩陣是否是正交矩陣(看看誰能最快算出來)

我相信, 中國的最強大腦在這裡!

那接下來, 再從幾何角度理解一下正交變換。

先給出一個大家非常熟悉的定義:

這段比較通俗的正交變換解釋出自於在同濟大學的《線性代數》教材上(如果想不起來那有可能上課睡過去了

), 當然, 超模君覺得它十分不嚴格, 如果要嚴格版本, 就沒有那麼顯然易懂了:

正交變換就是一個保持內積的線性變換φ, 它從V映到V, 其中V為實內積空間。 具體的, 對任意向量u, v∈V, 我們有(其中(u,v)表示內積)。

我們也知道,

正交變換能保持三角形形狀不變, 這讓超模君想到了正交變換中的平移和旋轉變換。

確實!通過平移或旋轉, 不會改變三角形的形狀。

那正交變換的優良是什麼梗?

那是因為它還有許多不變的性質, 稱之為忠心耿耿變換再好不過了。

點、線、面的全家福

點、線、面正是吃了正交變換這顆“仙丹”, 使它們保持身體健康青春有活力:

正交變換把點變為點, 直線(線段)變為直線(長度相等的線段), 把平行線變為平行線, 把共線(不共線)三點變為共線(不共線)三點;保持直線夾角不變, 最下面三個圖形經過正交變換後形狀、大小完全不變(全等)。

多麼漂亮優美的性質啊!試想一下, 換成別的變換, 哪怕是一個正方形, 變換過去就“面目猙獰, 六親不認”了。

如果登場的是一個出身不菲的大佬……

怪形

怎麼是凸的?看著不爽,我們先移動節點讓它每兩條直線都不香蕉

(相交)吧:

最強大腦現場

那麼通過正交變換後,這個圖形的形狀和大小會改變嗎?

沒有思路?我們連幾條輔助線就豁然開朗了:

好了,超模君要問一個問題了,原來的怪形,通過正交變換,形狀也會不變嗎?

最後來說說正交變換(矩陣)的應用。電腦中使用的軟體工具無不離開強大的數學原理,影像處理也不例外,這在之前的特徵向量文章中就有提及過。

用矩陣表示圖像,構造正交均值差分變換矩陣,通過矩陣的乘法對原始圖像進行正交變換,進一步取閾值,我們只存儲絕對值大於閾值的係數(刪去矩陣上一些係數),來實現資料圖像的壓縮。我們來看一組圖片:

小貓原始圖像及不同閾值下的解碼圖像

可以看到,雖然貓越來越模糊,但仍然不失真,不會把貓變成一隻狗,通過最後一幅圖片我們還是可以辨別它就是貓。

這讓超模君想起了經常使用的動圖壓縮工具,如果動圖時間越長,壓縮出來的圖像就越是av畫質了,可以看到下面一張動圖,壓縮前是一個旋轉,壓縮後就像打雷一樣。

本文系網易新聞·網易號“各有態度”特色內容

部分資料來源於網路

轉載請在公眾號中,回復“轉載”

-----這裡是數學思維的聚集地------

“超級數學建模”(微信號supermodeling),每天學一點小知識,輕鬆瞭解各種思維,做個好玩的理性派。50萬數學精英都在關注!

怪形

怎麼是凸的?看著不爽,我們先移動節點讓它每兩條直線都不香蕉

(相交)吧:

最強大腦現場

那麼通過正交變換後,這個圖形的形狀和大小會改變嗎?

沒有思路?我們連幾條輔助線就豁然開朗了:

好了,超模君要問一個問題了,原來的怪形,通過正交變換,形狀也會不變嗎?

最後來說說正交變換(矩陣)的應用。電腦中使用的軟體工具無不離開強大的數學原理,影像處理也不例外,這在之前的特徵向量文章中就有提及過。

用矩陣表示圖像,構造正交均值差分變換矩陣,通過矩陣的乘法對原始圖像進行正交變換,進一步取閾值,我們只存儲絕對值大於閾值的係數(刪去矩陣上一些係數),來實現資料圖像的壓縮。我們來看一組圖片:

小貓原始圖像及不同閾值下的解碼圖像

可以看到,雖然貓越來越模糊,但仍然不失真,不會把貓變成一隻狗,通過最後一幅圖片我們還是可以辨別它就是貓。

這讓超模君想起了經常使用的動圖壓縮工具,如果動圖時間越長,壓縮出來的圖像就越是av畫質了,可以看到下面一張動圖,壓縮前是一個旋轉,壓縮後就像打雷一樣。

本文系網易新聞·網易號“各有態度”特色內容

部分資料來源於網路

轉載請在公眾號中,回復“轉載”

-----這裡是數學思維的聚集地------

“超級數學建模”(微信號supermodeling),每天學一點小知識,輕鬆瞭解各種思維,做個好玩的理性派。50萬數學精英都在關注!

同類文章
Next Article
喜欢就按个赞吧!!!
点击关闭提示