线性代数注记


今天终于从网易离职了, 从网易大门离开时, 真的是感慨万千, 期待还会有再会的一天叭, 毕竟这是自己职业生涯的起点~ 山高水长, 希望能和朋友们江湖再见~ 回归正题, 目前读到了Shirley P, Ashikhmin M, Marschner S. Fundamentals of computer graphics[M]. AK Peters/CRC Press, 2009.的第5章Linear Algebra, 由于自己高考后也学过, 故本文只是作一些要点上的复习, 不会纪录得太详细~

参考材料
1. 利用行列式求直線、平面和圓方程式
2. 列正交矩阵一定是行正交矩阵,反之亦然
3. 矩阵乘积的行列式等于行列式的乘积 |AB|=|A||B|
4. 通俗地解释行列式与其转置行列式相等的原因?
5. 混合积
6. Volume of tetrahedron using cross and dot product
7. Existence and uniqueness of the eigen decomposition of a square matrix
8. Eigenvalues are unique?
9. 三角形的面积公式八叙

1. 特征值与矩阵对角化

一个方阵$\mathbf{A}$总有特征值$\lambda$与特征向量$\mathbf{a}$, 而特征向量$\mathbf{a}$则是与矩阵$\mathbf{A}$相乘时方向不变的非零向量, 即$$\mathbf{A} \mathbf{a} = \lambda \mathbf{a}.$$这意味着我们拉伸或压缩了$\mathbf{a}$, 但它的方向没有改变. 放缩因子$\lambda$被称为与特征向量$\mathbf{a}$相关的特征值. 了解矩阵的特征值和特征向量的各种实际应用是有帮助的. 接下来将简单介绍一下特征值与特征向量, 以深入了解几何变换矩阵, 并作为迈向下一节中描述的奇异值与奇异向量的一步.
$\\$ 若假设一个方阵至少有一个特征向量, 那么我们可以通过如下方法进行计算. 首先, 我们把$\mathbf{A} \mathbf{a} = \lambda \mathbf{a}$两边写成方阵与向量$\mathbf{a}$的乘积:$$\mathbf{A} \mathbf{a} = \lambda \mathbf{I} \mathbf{a},$$其中, $\mathbf{I}$为单位矩阵. 上式可以被重写为$$\mathbf{A} \mathbf{a} – \lambda \mathbf{I} \mathbf{a} = 0.$$由于矩阵乘法满足分配律, 我们可得:$$(\mathbf{A} – \lambda \mathbf{I})\mathbf{a} = 0.$$矩阵$(\mathbf{A} – \lambda \mathbf{I})$为奇异矩阵当且仅当其行列式方为零, 且其对角线上的元素均为$\mathbf{A}$中的元素. 例如, 一个$2 \times 2$矩阵的特征方程为$$\begin{vmatrix}
a_{11} – \lambda & a_{12}\\
a_{21} & a_{22} – \lambda
\end{vmatrix} = \lambda^2 – (a_{11} + a_{22})\lambda + (a_{11} a_{22} – a_{12} a_{21}) = 0.$$由于这是一个一元二次方程, 我们知道$\lambda$有两个值, 但不一定为实数. 对于$n \times n$矩阵的特征方程, 由为Abel-Ruffini定理可知, 五次(含) 以上的方程没有求根公式, 这里所谓的求根公式只涉及加、减、乘、除以及开任意次根, 故对于较大的矩阵, 数值方法是唯一的选择.
$\\$ 实对称矩阵的特征值总是实数, 且不同特征值对应的特征向量是相互正交的. 实对称矩阵可以写成对角线形式:$$\mathbf{A} = \mathbf{Q} \mathbf{D} \mathbf{Q}^T,$$其中, $\mathbf{Q}$为正交矩阵, $\mathbf{D}$为对角矩阵. 正交矩阵$\mathbf{Q}$的每一列构成的向量均为实对称矩阵$\mathbf{A}$的特征向量, 对角矩阵$\mathbf{D}$的每一个对角线元素均为实对称矩阵$\mathbf{A}$的特征值. 把实对称矩阵$\mathbf{A}$写为上述形式也称为实对称矩阵的特征值分解, 它把实对称矩阵$\mathbf{A}$分解成几个更简单的矩阵的乘积, 从而我们可以直接得到它的特征向量与特征值.

2. 奇异值分解

我们可以将针对对称矩阵的特征值分解推广到非对称(甚至非方阵) 矩阵, 即奇异值分解(SVD). 对称矩阵的特征值分解与非对称矩阵的奇异值分解的主要区别在于, 分解得到的左右正交矩阵在奇异值分解中不要求相同: $\mathbf{A} = \mathbf{U} \mathbf{S} \mathbf{V}^T.$其中, $\mathbf{U}$, $\mathbf{V}$为两个可能不同的正交矩阵, 其列分别称为矩阵$\mathbf{A}$的左奇异向量与右奇异向量; $\mathbf{S}$为一个对角矩阵, 其对角线上的元素称为矩阵$\mathbf{A}$的奇异值. 当矩阵$\mathbf{A}$为对称矩阵且其特征值均为非负数时, SVD与特征值分解得到的结果是相同的.
$\\$ 奇异值与特征值之间还有另一种关系, 借此可以用于计算SVD(尽管这并非工业界的标准做法). 首先, 我们定义矩阵$\mathbf{M} = \mathbf{A} \mathbf{A}^T$, 并假设可以对矩阵$\mathbf{M}$进行SVD:$$\mathbf{M} = \mathbf{A} \mathbf{A}^T = (\mathbf{U} \mathbf{S} \mathbf{V}^T)(\mathbf{U} \mathbf{S} \mathbf{V}^T)^T = \mathbf{U} \mathbf{S} (\mathbf{V}^T \mathbf{V}) \mathbf{S} \mathbf{U}^T = \mathbf{U} \mathbf{S}^2 \mathbf{U}^T.$$显然, 矩阵$\mathbf{M}$为对称矩阵, $\mathbf{U} \mathbf{S}^2 \mathbf{U}^T$为其特征值分解, $\mathbf{S}^2$对角线上的元素为矩阵$\mathbf{M}$的所有非负特征值. 因此, 易知一个矩阵的奇异值为该矩阵与该矩阵的转置的乘积的特征值的平方根, 其左奇异向量为该乘积矩阵的特征向量. 类似地, 矩阵$\mathbf{A}$的右奇异向量为乘积矩阵$\mathbf{A}^T \mathbf{A}$的特征向量.

3. 常见问题

问1: 为什么矩阵乘法不定义为逐元素乘积?
$\\$ 答1: 逐元素乘积确实是一个定义矩阵乘法的好方法. 然而, 它并不是很实用. 毕竟, 大多数矩阵都是用来变换列向量的. 例如, 在3D空间中$$\mathbf{b} = \mathbf{M} \mathbf{a},$$其中, $\mathbf{a}$, $\mathbf{b}$为3维向量, $\mathbf{M}$为$3 \times 3$矩阵. 为了支持旋转等几何运算, 3维向量$\mathbf{b}$的每个元素均为3维向量$\mathbf{a}$的所有元素的组合, 这便要求我们需要逐行或逐列地处理矩阵$\mathbf{M}$, 这亦为矩阵乘法定义的基础. 此外, 矩阵与向量之间的乘法满足结合律:$$\mathbf{M}_2(\mathbf{M}_1 \mathbf{a}) = (\mathbf{M}_2 \mathbf{M}_1)\mathbf{a},$$这意味着矩阵乘法允许我们使用一个复合矩阵$\mathbf{C} = \mathbf{M}_2 \mathbf{M}_1$来变换一个向量.

问2: 什么情况下矩阵的特征值与其奇异值是一样的, 而什么情况下矩阵的奇异值为其对应的特征值的平方?
$\\$ 答2: 若一个实矩阵$\mathbf{A}$是对称的, 并且其特征值均为非负数, 则其特征值与奇异值是相同的. 而若矩阵$\mathbf{A}$不对称, 则矩阵$\mathbf{M} = \mathbf{A} \mathbf{A}^T$是对称的, 且矩阵$\mathbf{M}$具有非负的实特征值. 此外, 矩阵$\mathbf{A}$与其转置矩阵$\mathbf{A}^T$的特征值是相同的, 均为矩阵$\mathbf{M}$的奇异值/特征值的平方根.

4. 相关习题

4.1 用2维行列式写出一条经过点$(x_0, y_0)$与点$(x_1, y_1)$的2维直线的隐式方程.
$\\$ 解: 假设直线方程为$ax + by + c = 0$. 因为$(x_0, y_0)$与$(x_1, y_1)$在此直线上, 未知数$a$, $b$与$c$必定满足$$ax_0 + by_0 + c = 0, \\ ax_1 + by_1 + c = 0.$$因为存在三个未知数, 却只有两个方程式, 不妨将直线方程式加入联立方程组, 如下:$$ax + by + c = 0, \\ ax_0 + by_0 + c = 0, \\ ax_1 + by_1 + c = 0,$$或用矩阵形式表示为$$\begin{bmatrix}
x & y & 1\\
x_0 & y_0 & 1\\
x_1 & y_1 & 1
\end{bmatrix}\begin{bmatrix}
a \\
b \\
c
\end{bmatrix} = \begin{bmatrix}
0 \\
0 \\
0
\end{bmatrix}.$$因为$k(ax + by + c) = 0$, $k \ne 0$, 代表同一条直线, 无限多组$(a, b, $$ c)$满足这个齐次方程. 由此推论系数矩阵不可逆, 行列式必定为0, 于是导出直线方程式的行列式表达:$$\begin{vmatrix}
x & y & 1\\
x_0 & y_0 & 1\\
x_1 & y_1 & 1
\end{vmatrix} = 0.$$从几何面解释, 想想我们将$XOY$平面上三个共线点$(x, y)$, $(x_0, y_0)$与$(x_1, y_1)$沿着$z$轴移动一单位, 新的空间坐标即为$(x, y, 1)$, $(x_0, y_0, 1)$与$(x_1, y_1, 1)$. 这三个向量位于同一平面上, 因此所张的平行六面体体积为0, 即知三向量合并成的行列式等于0.
$\\$ 继续使用行列式简化直线方程式,$$\begin{vmatrix}
x & y & 1\\
x_0 & y_0 & 1\\
x_1 & y_1 & 1
\end{vmatrix} = \begin{vmatrix}
x & y & 1\\
x_0 & y_0 & 1\\
x_1 – x_0 & y_1 – y_0 & 0
\end{vmatrix} = \begin{vmatrix}
x & y & 1\\
x_0 – x & y_0 – y & 0\\
x_1 – x_0 & y_1 – y_0 & 0
\end{vmatrix} \\ = \begin{vmatrix}
x_0 – x & y_0 – y\\
x_1 – x_0 & y_1 – y_0
\end{vmatrix} = (x_0 – x)(y_1 – y_0) – (x_1 – x_0)(y_0 – y) = 0,$$可得点斜式$$y – y_0 = \frac{y_1 – y_0}{x_1 – x_0}(x – x_0),$$其中, $\frac{y_1 – y_0}{x_1 – x_0}$是直线的斜率.

4.2 证明如果矩阵的列向量是相互正交的, 那么行向量也是相互正交的.
$\\$ 证: 若矩阵$\mathbf{A}$为列正交矩阵, 则矩阵$\mathbf{A}$的每个列向量两两正交, 即任意两个列向量内积为0, 任意一个列向量与自身的内积为1, 则显然有$\mathbf{A}^T $$ \mathbf{A} = \mathbf{I}$. 由于两两正交, 则其列向量组线性无关, 矩阵$\mathbf{A}$满秩, 矩阵$\mathbf{A}$必然可逆. 从而我们有$\mathbf{A}^T = $$ \mathbf{A}^{-1}$, 即$\mathbf{A} \mathbf{A}^T = \mathbf{A} \mathbf{A}^{-1} = \mathbf{I}$, 即矩阵$\mathbf{A}$的任意两个行向量内积为0, 任意一个行向量与自身的内积为1. 综上所述, 矩阵$\mathbf{A}$的行向量也是相互正交的, 命题得证.

4.3 对于两个方阵$\mathbf{A}$, $\mathbf{B}$, 证明下述矩阵行列式的性质:
$\\$ (1) $|\mathbf{A} \mathbf{B}| = |\mathbf{A}| |\mathbf{B}|$;
$\\$ (2) $|\mathbf{A}^{-1}| = \frac{1}{|\mathbf{A}|}$;
$\\$ (3) $|\mathbf{A}^T| = |\mathbf{A}|$.
$\\$ 证: (1) 先列出下述证明过程中使用的引理:
$\\$ Lemma 1 $\begin{vmatrix}
\mathbf{A} & \mathbf{0} \\
\mathbf{C} & \mathbf{B}
\end{vmatrix} = |\mathbf{A}||\mathbf{B}|$.
$\\$ Lemma 2 $\begin{vmatrix}
\mathbf{A} & \mathbf{C} \\
\mathbf{0} & \mathbf{B}
\end{vmatrix} = |\mathbf{A}||\mathbf{B}|$.
$\\$ Lemma 3 $\begin{vmatrix}
\begin{pmatrix}
\mathbf{I} & \mathbf{0} \\
\mathbf{X} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{A} & \mathbf{B} \\
\mathbf{C} & \mathbf{D}
\end{pmatrix}
\end{vmatrix} = \begin{vmatrix}
\begin{pmatrix}
\mathbf{A} & \mathbf{B} \\
\mathbf{C} & \mathbf{D}
\end{pmatrix}
\end{vmatrix}$(利用了行列式的性质, 把某行的某倍加到另外一行, 行列式不变).
$\\$ Lemma 4 $\begin{vmatrix}
\begin{pmatrix}
\mathbf{I} & \mathbf{X} \\
\mathbf{0} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{A} & \mathbf{B} \\
\mathbf{C} & \mathbf{D}
\end{pmatrix}
\end{vmatrix} = \begin{vmatrix}
\begin{pmatrix}
\mathbf{A} & \mathbf{B} \\
\mathbf{C} & \mathbf{D}
\end{pmatrix}
\end{vmatrix}$.
$\\$ 综合上述引理可得:$$|\mathbf{A}||\mathbf{B}| = \begin{vmatrix}
\begin{pmatrix}
\mathbf{A} & \mathbf{0} \\
\mathbf{I} & \mathbf{B}
\end{pmatrix}
\end{vmatrix}(Lemma\ 1) \\ = \begin{vmatrix}
\begin{pmatrix}
\mathbf{I} & -\mathbf{A} \\
\mathbf{0} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{A} & \mathbf{0} \\
\mathbf{I} & \mathbf{B}
\end{pmatrix}
\end{vmatrix}(Lemma\ 4) \\ = \begin{vmatrix}
\begin{pmatrix}
\mathbf{I} & \mathbf{I} \\
\mathbf{0} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{I} & -\mathbf{A} \\
\mathbf{0} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{A} & \mathbf{0} \\
\mathbf{I} & \mathbf{B}
\end{pmatrix}
\end{vmatrix}(Lemma\ 4) \\ = \begin{vmatrix}
\begin{pmatrix}
\mathbf{I} & \mathbf{I} \\
\mathbf{0} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{I} & \mathbf{0} \\
-\mathbf{I} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{I} & -\mathbf{A} \\
\mathbf{0} & \mathbf{I}
\end{pmatrix}\begin{pmatrix}
\mathbf{A} & \mathbf{0} \\
\mathbf{I} & \mathbf{B}
\end{pmatrix}
\end{vmatrix}(Lemma\ 3) \\ = \begin{vmatrix}
\begin{pmatrix}
\mathbf{I} & \mathbf{B} – \mathbf{A} \mathbf{B} \\
\mathbf{0} & \mathbf{A} \mathbf{B}
\end{pmatrix}
\end{vmatrix} = |\mathbf{I}||\mathbf{A} \mathbf{B}|(—Lemma\ 2) = |\mathbf{A} \mathbf{B}|.$$

(2) 由(1)可得, $1 = |\mathbf{I}| = |\mathbf{A} \mathbf{A}^{-1}| = |\mathbf{A}| |\mathbf{A}^{-1}|$, 故命题得证.

(3) 考虑一个线性变换$$\mathbf{y} = \mathbf{A} \mathbf{x},$$它的几何意义是把空间中的一个向量$\mathbf{x}$通过线性变换$\mathbf{A}$变到另外一个向量$\mathbf{y}$. $|\mathbf{A}|$大概表示了从向量$\mathbf{x}$变换到向量$\mathbf{y}$的一个缩放因子.
$\\$ 根据SVD, $\mathbf{A} \mathbf{x}$可以分解成$$\mathbf{A} \mathbf{x} = \mathbf{U} \mathbf{S} \mathbf{V}^T \mathbf{x},$$其中, $\mathbf{U}$, $\mathbf{V}$为正交矩阵, 几何意义是旋转. 也就是说线性变换$A$作用于向量$\mathbf{x}$等价于先对向量$\mathbf{x}$旋转得到$\mathbf{V}^T \mathbf{x}$, 再缩放得到$\mathbf{S} \mathbf{V}^T \mathbf{x}$, 最后再旋转得到$\mathbf{U} \mathbf{S} \mathbf{V}^T \mathbf{x}$.
$\\$ 同样的道理, $\mathbf{A}^T \mathbf{x}$可以分解成$$\mathbf{A}^T \mathbf{x} = \mathbf{V} \mathbf{S} \mathbf{U}^T \mathbf{x}.$$因为影响缩放的对角矩阵$S$没有变化, 所以$|\mathbf{A}| = |\mathbf{A}^T|$.

4.4 证明对角矩阵的对角线元素即为其特征值.
$\\$ 证: 设$n \times n$对角矩阵$\mathbf{A}$的对角线元素为$\lambda_1, \cdots, \lambda_n$, 则其特征多项式为$$|\mathbf{A} – \lambda \mathbf{I}| = (\lambda – \lambda_1) \cdots (\lambda – \lambda_n),$$故对角矩阵$\mathbf{A}$的特征值为$\lambda_1, \cdots, \lambda_n$, 从而命题得证.

4.5 证明对于方阵$\mathbf{A}$, $\mathbf{A} \mathbf{A}^T$为对称矩阵.
$\\$ 证: $\because (\mathbf{A} \mathbf{A}^T)^T = \mathbf{A} \mathbf{A}^T$, 故命题得证.

4.6 证明对于3个3维向量$\mathbf{a}$, $\mathbf{b}$与$\mathbf{c}$, 有如下恒等式成立:$$|\mathbf{a} \mathbf{b} \mathbf{c}| = (\mathbf{a} \times \mathbf{b}) \cdot \mathbf{c}.$$证: 设$$\mathbf{a} = a_1 \mathbf{i} + a_2 \mathbf{j} + a_3 \mathbf{k}, \\ \mathbf{b} = b_1 \mathbf{i} + b_2 \mathbf{j} + b_3 \mathbf{k}, \\ \mathbf{c} = c_1 \mathbf{i} + c_2 \mathbf{j} + c_3 \mathbf{k},$$则有$$(\mathbf{a} \times \mathbf{b}) \cdot \mathbf{c} = \begin{vmatrix}
\mathbf{i} & \mathbf{j} & \mathbf{k}\\
a_1 & a_2 & a_3\\
b_1 & b_2 & b_3
\end{vmatrix} \cdot (c_1 \mathbf{i} + c_2 \mathbf{j} + c_3 \mathbf{k}) \\ = (\mathbf{i} \begin{vmatrix}
a_2 & a_3\\
b_2 & b_3
\end{vmatrix} – \mathbf{j} \begin{vmatrix}
a_1 & a_3\\
b_1 & b_3
\end{vmatrix} + \mathbf{k} \begin{vmatrix}
a_1 & a_2\\
b_1 & b_2
\end{vmatrix}) \cdot (c_1 \mathbf{i} + c_2 \mathbf{j} + c_3 \mathbf{k}) \\ = c_1 \begin{vmatrix}
a_2 & a_3\\
b_2 & b_3
\end{vmatrix} – c_2 \begin{vmatrix}
a_1 & a_3\\
b_1 & b_3
\end{vmatrix} + c_3 \begin{vmatrix}
a_1 & a_2\\
b_1 & b_2
\end{vmatrix} = \begin{vmatrix}
a_1 & a_2 & a_3\\
b_1 & b_2 & b_3\\
c_1 & c_2 & c_3
\end{vmatrix}.$$故命题得证.

4.7 证明边向量为$\mathbf{a}$, $\mathbf{b}$与$\mathbf{c}$的四面体体积为$V = \frac{1}{6} |\mathbf{a} \mathbf{b} \mathbf{c}|$.
$\\$ 证: 注意到$$V = \frac{1}{3}Bh = \frac{1}{6} ||\mathbf{a} \times \mathbf{b}|| \cdot h,$$其中, $h = ||c|| \cdot |cos \theta|$, $\theta$为向量$\mathbf{a} \times \mathbf{b}$与边向量$\mathbf{c}$之间的夹角.
$\\$ 又由习题4.5知, $$|\mathbf{a} \mathbf{b} \mathbf{c}| = (\mathbf{a} \times \mathbf{b}) \cdot \mathbf{c} = ||\mathbf{a} \times \mathbf{b}|| \cdot ||c|| \cdot |cos \theta|,$$故命题得证.

4.8 证明若矩阵$\mathbf{A}$有特征值分解$\mathbf{A} = \mathbf{Q} \mathbf{D} \mathbf{Q}^T$, $\mathbf{v}$为正交矩阵$\mathbf{Q}$的第$i$行元素构成的向量, $\lambda$为对角矩阵$\mathbf{D}$对角线上的第$i$个元素, 则$\mathbf{v}$为矩阵$\mathbf{A}$的特征向量, 对应的特征值为$\lambda$.
$\\$ 证: 令$\mathbf{e}_i$为第$i$个元素为1, 其余元素为0的列向量, s.t. $\mathbf{v} = \mathbf{Q} \mathbf{e}_i$, 则$$\mathbf{A} \mathbf{v} = \mathbf{A}(\mathbf{Q} \mathbf{e}_i) = \mathbf{Q} \mathbf{D} \mathbf{Q}^T (\mathbf{Q} \mathbf{e}_i) = \mathbf{Q}(\mathbf{D} \mathbf{e}_i) = \mathbf{Q} d_{ii} \mathbf{e}_i = d_{ii} (\mathbf{Q} \mathbf{e}_i),$$从而$\mathbf{v} = \mathbf{Q} \mathbf{e}_i$为矩阵$\mathbf{A}$的特征向量, 对应的特征值为$\lambda$.

4.9 证明若矩阵$\mathbf{A}$有特征值分解$\mathbf{A} = \mathbf{Q} \mathbf{D} \mathbf{Q}^T$, 矩阵$\mathbf{A}$的特征值都是不同的, $\mathbf{v}$为矩阵$\mathbf{A}$的特征值为$\lambda$对应的特征向量, 则$\exists i$, s.t. 特征向量$\mathbf{v}$为正交矩阵$\mathbf{Q}$的第$i$行元素构成的向量, 对应的特征值$\lambda$为对角矩阵$\mathbf{D}$对角线上的第$i$个元素.
$\\$ 证: 问题即要证: 若矩阵$\mathbf{A}$有特征值分解$\mathbf{A} = \mathbf{Q} \mathbf{D} \mathbf{Q}^T$, 且矩阵$\mathbf{A}$的特征值都是不同的, 则矩阵$\mathbf{A}$的特征值分解是唯一的. 这意味着如下两点事实成立:
$\\$ (1) 若矩阵$\mathbf{A}$有另外一个特征值分解$\mathbf{A} = \mathbf{E} \mathbf{F} \mathbf{E}^{-1}$, 则若不考虑对角线元素的顺序, 对角矩阵$\mathbf{F}$的对角线元素与对角矩阵$\mathbf{D}$的对角线元素相同.
$\\$ (2) 若$\mathbf{F} = \mathbf{D}$, 则$\mathbf{E} = \mathbf{Q} \mathbf{P}$, 其中, $\mathbf{P}$为一个可逆的对角矩阵矩阵(i.e. 对角元素均非0).
$\\$ 首先证明(1), 由于$n \times n$的矩阵$\mathbf{A}$的特征值为特征方程$det(\mathbf{A} – \lambda \mathbf{I}) $$ = 0$的根, 且该特征方程为一个一元$n$次方程, 由代数基本定理可知, 该特征方程最多只有$n$个根, 即矩阵$\mathbf{A}$的特征值最多只有$n$个. 在对角矩阵$\mathbf{D}$为一个$n \times n$的矩阵的前提下, 对角矩阵$\mathbf{D}$的对角线上的元素已包含了$n$个特征值(习题4.8), 对角矩阵$\mathbf{D}$的对角线上不可能出现第$n + 1$个特征值, 故(1)得证.
$\\$ 再证明(2), 由于矩阵$\mathbf{A}$的特征值都是不同的, 则所有的特征子空间均为1维线性空间. 又正交矩阵$\mathbf{Q}$与正交矩阵$\mathbf{E}$的第$i$列构成的向量对应于同一个特征值, 故它们一定是平行的, 从而可以诱导出一个对角矩阵$\mathbf{P}$, s.t. $\mathbf{E} = \mathbf{Q} \mathbf{P}$.
$\\$ 综上所述, 命题得证.

4.10 给定一个2维三角形$\triangle ABC$的三个顶点的$(x, y)$坐标($A(x_0, y_0)$, $B(x_1,
$$ y_1)$与$C(x_2, y_2)$), 证明其面积为$$S_\triangle = \frac{1}{2} \begin{vmatrix}
x_0 & x_1 & x_2\\
y_0 & y_1 & y_2\\
1 & 1 & 1
\end{vmatrix}.$$证: 我们采用构造已知图形面积的方法来求解未知图形面积的方法, 所以我们在坐标系里对$\triangle ABC$三个顶点作$x$轴和$y$轴的垂线, 于是$\triangle ABC$的面积可以看成是一个矩形面积减去三个周围的小三角形面积$S_1$, $S_2$, $S_3$的差, 即$$S_\triangle = S – S_1 – S_2 – S_3,$$其中, $S$为$\triangle ABC$的外接矩形的面积. 矩形面积使用底乘高, 三角形面积使用底乘高的一半, 可得:$$S = |x_2 – x_0| \cdot |y_2 – y_1|, \\ S_1 = \frac{1}{2} |x_2 – x_0| \cdot |y_2 – y_0|, \\ S_2 = \frac{1}{2} |x_1 – x_0| \cdot |y_1 – y_0|, \\ S_3 = \frac{1}{2} |x_2 – x_1| \cdot |y_2 – y_1|,$$代入化简可以得到:$$S_\triangle = \frac{1}{2} |(x_1 – x_0)(y_2 – y_0) – (x_2 – x_0)(y_1 – y_0)|,$$写成三阶行列式的形式就是:$$S_\triangle = \frac{1}{2} \begin{vmatrix}
x_0 & x_1 & x_2\\
y_0 & y_1 & y_2\\
1 & 1 & 1
\end{vmatrix}.$$

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注