Матрица1) – прямоугольная таблица $$ A= \left(\begin{array}{llll} 3 & -7 & \dots & \sqrt{\pi} \\ &&& \\ C_n^1 & 101.(66) & \dots & \frac{5}{7} \\ \dots & & & \dots \\ \aleph_0 & 0 & \dots & e \end{array}\right) , $$ в каждой ячейке которой располагается некоторое число (или, в общем случае, элемент из некоторого множества – лишь бы только были определены те операции, что нам потребуются ниже), называемое элементом матрицы.
Будем обозначать матрицы прописными латинскими буквами $ \, A_{},B,\dots, {\mathfrak A},{\mathfrak B},\dots $, а – при необходимости – их элементы буквами строчными $ a_{},b,\dots,{\mathfrak a},{\mathfrak b},\dots $ Сами таблицы условимся ограничивать скобками – либо круглыми $ ( \quad )_{} $, либо квадратными $ [ \quad ]_{} $.
В матрице $ A_{} $ естественным образом выделяются строки и столбцы, при этом отсчет строк и столбцов уславливаются вести, начиная от левого верхнего угла матрицы. Упорядоченная пара чисел
(количество строк, количество столбцов)
матрицы называется порядком (или размерностью) матрицы. Так, если матрица имеет $ m_{} $ строк и $ n_{} $ столбцов, то о ней говорят как о матрице порядка $ \mathbf m_{} $ на $ \mathbf n_{} $, и записывают порядок в виде $ m\times n_{} $.
Любая $ m\times n_{} $-матрица содержит всего $ \,mn_{} $ элементов, и каждому из этих элементов можно поставить в соответствие «координаты его местоположения» в матрице, т.е. упорядоченную пару натуральных чисел $ (j,k)_{} $, в которой первое число отвечает за номер строки элемента, а второе — за номер его столбца.
Часто будет возникать необходимость записи матрицы общего вида, т.е. матрицы с элементами, числовые значения которых могут быть переменными. В самом общем случае — когда все элементы матрицы $ A_{} $ могут быть произвольными — будем их записывать в виде $ a_{jk}^{} $ или же, когда необходимо избежать недоразумения, в виде $ a_{j,k}^{} $. Так, $ a_{11}^{} $ означает элемент матрицы $ A_{} $, стоящий в ее левом верхнем углу; $ b_{10,3}^{} $ – элемент матрицы $ B\, $, стоящий в $ 10_{} $-й строке и $ 3_{} $-м столбце; $ {\mathfrak c}_{m-3,2n-7}^{} $ – элемент матрицы $ {\mathfrak C}_{} $, стоящий в $ (m-3)_{} $-й строке и $ (2n-7)_{} $-м столбце. Такая договоренность позволяет записывать компактно матрицы, для элементов которых имеется функциональная зависимость от местоположения в таблице. К примеру, совершенно произвольную $ m\times n_{} $-матрицу $$ A= \left( \begin{array}{lllll} a_{11} & a_{12} & a_{13}& \dots & a_{1n} \\ a_{21} & a_{22} & a_{23}& \dots & a_{2n} \\ \dots & & & & \dots \\ a_{m1} & a_{m2} & a_{m3}& \dots & a_{mn} \end{array} \right) $$ мы можем записать в виде $ A_{}=\left [a_{jk} \right ]_{j=1,\dots,m \atop k=1,\dots,n} $.
Пример.
$$ A=\left [\frac{1}{j+k-1} \right ]_{j=1,2,3,4 \atop k=1,2,3} = \left(\begin{array}{rrr} 1 & \frac{1}{2} & \frac{1}{3} \\ && \\ \frac{1}{2} & \frac{1}{3} & \frac{1}{4} \\ && \\ \frac{1}{3} & \frac{1}{4} & \frac{1}{5} \\ && \\ \frac{1}{4} & \frac{1}{5} & \frac{1}{6} \end{array}\right) . $$
Найти развернутое выражение для матриц, представленных в компактной форме
a) $ A_{} =\left [ \max (j,k) \right ]_{j=1,2,3,4 \atop k=1,2\quad} $ ;
б) $ B_{} =\left [ |j-k| \right ]_{j=1,2,3 \atop k=1,2,3 } $ ;
в) $ C_{}=\left [\delta_{jk} \right ]_{j=1,\dots,5 \atop k=1,2,3 } $,
где $ \delta_{jk}^{} $ означает символ Кронекера.
В принятых обозначениях $ j_{} $-й строкой произвольной матрицы $ A_{} $ будет матрица
$$ A^{[j]}=\left(a_{j1},a_{j2},\dots,a_{jn} \right) , $$
а ее $ k_{} $-м столбцом – матрица
$$ A_{[k]}=\left( \begin{array}{c} a_{1k} \\ a_{2k} \\ \vdots \\ a_{mk} \end{array} \right) . $$
Матрицы $ A_{} $ и $ B_{} $ называются равными если равны их порядки и совпадают элементы на соответствующих местах: $$ A=\left[a_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \ , \ B=\left[b_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \ , $$ $$ \quad \Rightarrow \quad \ A=B \ \iff \ a_{jk} =b_{jk} \ \forall j\in \{1,\dots,m \},\ k\in \{1,\dots,n \} . $$ Матрицы разных порядков не считаются равными.
Еще одно упрощение записи – часто применяемое для матриц заранее не специфицированного порядка – заключается в том, что если некоторый участок матрицы занят равными нулю элементами, то они либо не указываются вовсе, либо вся их совокупность обозначается $ {\mathbb O}_{} $.
Матрица, состоящая только из нулей, называется нулевой матрицей соответствующего порядка. Ее будем записывать в виде $ {\mathbb O}_{m\times n}^{} $.
Пример.
$$ \left(\begin{array}{rrrr} 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 \end{array}\right) = {\mathbb O}_{2\times 4} \ . $$
Произведением матрицы $ A_{} $ на число (скаляр) $ c_{} $ называется матрица, каждый элемент которой равен произведению соответствующего элемента матрицы $ A_{} $ на число $ c_{} $: $$ A=\left[a_{jk} \right ]_{j=1,\dots,m \atop k=1,\dots,n} \ {\color{RubineRed} \Rightarrow } \ c\cdot A = \left [ca_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \ . $$
$$ 3\cdot \left(\begin{array}{rrr} 1& 0 & 1 \\ -1 & 1 & 0 \\ 0 & 1 & 2 \end{array} \right) = \left(\begin{array}{rrr} 3& 0 & 3 \\ -3 & 3 & 0 \\ 0 & 3 & 6 \end{array} \right) , \quad 2\cdot \left( \begin{array}{r} 1 \\ 0 \\ -1 \end{array} \right) = . $$
Для матриц $ A_{} $ и $ B_{} $ одного порядка их суммой называется матрица, каждый элемент которой равен сумме соответствующих элементов складываемых матриц: $$A =\left[a_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n}, \ B=\left[b_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \quad{\color{RubineRed} \Rightarrow } \quad A+B = \left[a_{jk} + b_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \, .$$
$$ \left( \begin{array}{rrr} 1& -2 & -1 \\ 2 & -1 & -2 \\ 1 & 2 & \sqrt{3} \\ 0 & 1 & 7 \end{array} \right) + \left( \begin{array}{rrr} -1& 3 & 2 \\ 1 & 0 & 1 \\ -1 & -2 & 3 \\ -1 & 1 & -5 \end{array} \right)= $$
Теорема. Множество матриц фиксированного порядка $ m \times n_{} $ образует линейное пространство относительно двух этих введенных операций.
Будем обозначать это пространство $ \mathbb R^{m \times n} $ в случае, когда рассматриваются только числа (элементы матрицы и скаляры, на которые допускается их домножение) вещественные, и $ \mathbb C^{m \times n} $ если рассматриваются и мнимые.
Преобразование матрицы, при котором ее строки становятся столбцами новой матрицы, называется транспонированием матрицы:
$$
\left( \begin{array}{lllll}
a_{11} & a_{12} & a_{13}& \dots & a_{1n} \\
a_{21} & a_{22} & a_{23}& \dots & a_{2n} \\
\dots & & & & \dots \\
a_{m1} & a_{m2} & a_{m3}& \dots & a_{mn}
\end{array}
\right)^{\top}=
\left(\begin{array}{llll}
a_{11} & a_{21} & \dots & a_{m1} \\
a_{12} & a_{22} & \dots & a_{m2} \\
a_{13} & a_{23} & \dots & a_{m3} \\
\vdots & & & \vdots \\
a_{1n} & a_{2n} & \dots & a_{mn}
\end{array}
\right)
$$
В компактном виде:
$$
\left( \left[a_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \right)^{\top}=\left[a_{kj} \right]_{k=1,\dots,n \atop j=1,\dots,m}
,
$$
а в схематичном:
В литературе для операции транспонирования используются также обозначения $ A^{t}=\mbox{ }^{t}A=A^{\prime}=A^{\ast} $.
Показать справедливость следующих свойств операции транспонирования:
а) $ \left( A^{\top} \right)^{\top} = A $;
б) $ (A+B)^{\top}=A^{\top} + B^{\top} $;
в) $ (cA)^{\top}=c A^{\top} $, где $ c_{} $ — число;
г) $ (AB)^{\top}= B^{\top} A^{\top} $
при условии, что все операции в левых частях равенств определены (операция умножения матриц определяется ☟ НИЖЕ ).
Для матриц $ A_{} $ и $ B_{} $ с одинаковым количеством строк можно определить операцию $ A\mid B_{} $ (будем также использовать обозначение $ [A \mid B] $) конкатенации2) матриц:
$$ A= \left(\begin{array}{llll} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \dots & & & \dots \\ a_{m1} & a_{m2} & \dots & a_{mn} \end{array}\right) \ , \ B= \left(\begin{array}{llll} b_{11} & b_{12} & \dots & b_{1k} \\ b_{21} & b_{22} & \dots & b_{2k} \\ \dots & & & \dots \\ b_{m1} & b_{m2} & \dots & b_{mk} \end{array}\right) \Rightarrow $$ $$ \Rightarrow A\mid B= \left(\begin{array}{llllllll} a_{11} & a_{12} & \dots & a_{1n} & b_{11} & b_{12} & \dots & b_{1k} \\ a_{21} & a_{22} & \dots & a_{2n} & b_{21} & b_{22} & \dots & b_{2k} \\ \dots & & & &&& & \dots \\ a_{m1} & a_{m2} & \dots & a_{mn} & b_{m1} & b_{m2} & \dots & b_{mk} \end{array}\right). $$ Проще говоря: к матрице $ A_{} $ «приписывается» справа матрица $ B_{} $. В этом смысле саму матрицу $ A_{} $ можно считать результатом конкатенации ее столбцов:
$$ A= A_{[1]}\mid A_{[2]} \mid \dots \mid A_{[m]}=\left[ A_{[1]}\mid A_{[2]} \mid \dots \mid A_{[m]} \right] \ . $$
Можно также производить конкатенацию матриц «по вертикали», т.е. по строкам3). Одновременную конкатенацию — когда к матрице $ A_{m\times n}^{} $ приписывается столбец $ U_{m\times 1 } $ справа и строка $ V_{1\times (n+1)} $ снизу — называют окаймлением4) матрицы.
матрицы5) произвольного порядка образно означает «вытягивание» ее в вектор-столбец. Если представить матрицу как результат конкатенации ее столбцов: $$ A=\left[A_{[1]} \mid A_{[2]} \mid \dots \mid A_{[n]}\right] , $$ то $$ \operatorname{Vec}(A)=\left(\begin{array}{c} A_{[1]} \\ A_{[2]}\\ \vdots \\ A_{[n]} \end{array} \right) \, . $$ Так, например $$ \operatorname{Vec}\left(\begin{array}{ccc} a_1 & b_1 & c_1 \\ a_2 & b_2 & c_2 \end{array} \right)= \left(\begin{array}{c} a_1 \\ a_2 \\ b_1 \\ b_2 \\ c_1 \\ c_2 \end{array} \right)\, . $$
Для матрицы-строки $ U=(u_{1},\dots,u_n) $ и матрицы-столбца $ V=\left(\begin{array}{c} v_{1}\\ \vdots\\ v_n \end{array}\right) $ определим произведение $ U\cdot V_{} $ как число
$$ U\cdot V= u_1v_1+\dots+u_nv_n . $$
т.е. если матрица $ A_{} $ имеет порядок $ m\times n_{} $, то матрица $ B_{} $ может иметь порядок $ n\times k_{} $ при $ \forall k\in{\mathbb N}_{} $. В этом случае произведение матрицы $ A_{} $ на матрицу $ B_{} $ обозначается6) $ A\cdot B_{} $ и представляет собой матрицу $ C_{} $ порядка $ m\times k_{} $: $$ \begin{array}{ccccc} C&=&A&\cdot&B ,\\ {m\times k}&&{m\times n}&&{n\times k} \end{array} $$ элементы которой вычисляются по следующему правилу $$ C=[c_{j\ell}]_{_{j=1,\dots,m\atop \ell=1,\dots,k }},\quad c_{j\ell}= A^{[j]}B_{[\ell]}=a_{j1}b_{1\ell}+a_{j2}b_{2\ell}+\dots+a_{jn}b_{n\ell} . $$ Таким образом, элемент, стоящий в $ j_{} $-й строке и $ \ell_{} $-м столбце матрицы $ C_{} $, равен произведению $ j_{} $-й строки матрицы $ A_{} $ на $ \ell_{} $-й столбец матрицы $ B_{} $.
В схематичном виде:
Порядок («размеры») матрицы $ C_{} $ определяется следующим образом: высота берется от первого сомножителя, а ширина — от второго.
Пример.
$$ A=\left(\begin{array}{rr} 1&2\\ -1&0\\ 3&7 \end{array}\right),B=\left(\begin{array}{rrrr} \mathbf i&0&0&-1\\ 4&2&0&-2 \end{array}\right) \Longrightarrow A\cdot B=\left(\begin{array}{rrrr} 8+ \mathbf i&4&0&-5\\ -\mathbf i&0&0&1\\ 28+3\mathbf i&14&0&-17 \end{array}\right) $$
Пример.
$$ A=\left( \begin{array}{rrr} 3&-1&-1\\ 2&0&1\\ 1&1&1 \end{array}\right),B=\left(\begin{array}{rr} 2&1\\ -1&0\\ 0&1 \end{array}\right)\Longrightarrow A\cdot B= \left(\begin{array}{rr} 7&2\\ 4&3\\ 1&2 \end{array}\right) $$
Пример.
$$ A=\left(\begin{array}{c} 1\\ 0\\ 1\\ 1 \end{array}\right), B=(1,2,-1,-2) \Longrightarrow A\cdot B= \left(\begin{array}{rrrr} 1&2&-1&-2\\ 0&0&0&0\\ 1&2&-1&-2\\ 1&2&-1&-2 \end{array}\right) $$ $$ B \cdot A = ( - 2 ) \ . $$
Теорема. Операция умножения матриц подчиняется ассоциативному закону: $$ (A\cdot B) \cdot D = A\cdot (B \cdot D) $$ если хотя бы в одной части равенства произведение определено.
Доказательство ☞ ЗДЕСЬ.
Что послужило причиной введения такой операции умножения?
– Для ответа на этот вопрос нужно сказать об изначальной области применения матричного формализма: матрицы служат удобным средством исследования систем линейных уравнений.
Пример: Cистему уравнений от четырех переменных
$$ \left\{ \begin{array}{rrrrcr} 2x_1&-3x_2&+x_3 &-5x_4 &=& 1 \\ -x_1& &+4x_3 &-3x_4 &=& -2 \\ & x_2 &-3x_3 &+7x_4 &=& 5 \end{array} \right. $$ можно переписать в виде: $$ \left( \begin{array}{r} 2 \\ -1 \\ 0 \end{array} \right)x_1 + \left( \begin{array}{r} -3 \\ 0 \\ 1 \end{array} \right)x_2+ \left( \begin{array}{r} 1 \\ 4 \\ -3 \end{array} \right)x_3+ \left( \begin{array}{r} -5 \\ -3 \\ 7 \end{array} \right)x_4= \left( \begin{array}{r} 1 \\ -2 \\ 5 \end{array} \right) , $$ и переформулировать задачу поиска решений этой системы в виде: найти такую линейную комбинацию столбцов $$ \left( \begin{array}{r} 2 \\ -1 \\ 0 \end{array} \right), \left( \begin{array}{r} -3 \\ 0 \\ 1 \end{array} \right), \left( \begin{array}{r} 1 \\ 4 \\ -3 \end{array} \right), \left( \begin{array}{r} -5 \\ -3 \\ 7 \end{array} \right) \ , $$ которая будет совпадать со столбцом $$ \left( \begin{array}{r} 1 \\ -2 \\ 5 \end{array} \right) \ . $$ Таким образом, мы задействовали операцию сложения матриц. С другой стороны, ту же самую систему уравнений можно переписать с помощью операции умножения матриц. Так, c использованием правила умножения строки на столбец, первое из уравнений системы переписывается в виде: $$ (2,-3,1,-5) \cdot \left( \begin{array}{r} x_1 \\ x_2 \\ x_3 \\ x_4 \end{array} \right) = 1 \ ; $$ обобщая этот результат, получаем матричную форму записи системы уравнений: $$ \left( \begin{array}{rrrr} 2&-3&1 &-5 \\ -1&0 &4 &-3 \\ 0& 1 &-3 &7 \end{array} \right) \left( \begin{array}{r} x_1 \\ x_2 \\ x_3 \\ x_4 \end{array} \right)= \left( \begin{array}{r} 1 \\ -2 \\ 5 \end{array} \right) \ . $$ Преимущества такой формы записи по сравнению с обычной, на первый взгляд, не очевидны. Попробуем, однако, усложнить задачу. Предположим, что неизвестные $ x_1,x_2,x_3,x_4 $, в свою очередь, зависят от других неизвестных — $ y_1,y_2,y_3 $, и эта зависимость линейная: $$ \begin{array}{rrrrr} x_1&=&3y_1 &-2y_2&+3y_3, \\ x_2&=&-y_1 &+5y_2&-7y_3, \\ x_3&=&y_1 &-y_2&+y_3, \\ x_4&=& &2y_2&-2y_3. \end{array} $$ Задачей ставится нахождение значений именно неизвестных $ y_1,y_2,y_3 $. Задачу в такой постановке можно решать последовательно: сначала выразить $ x_1,x_2,x_3,x_4 $ из системы уравнений (отметим, что приведенная система имеет бесконечное множество решений), а потом подставить каждый из получившихся наборов значений $ x_1,x_2,x_3,x_4 $ в уравнения, связывающую их с $ y_1,y_2,y_3 $. И попытаться решить получившиеся системы линейных уравнений относительно новых переменных (а вот эти новые системы, в большинстве своем, решений иметь не будут).
Ту же задачу можно решать и напрямую: в исходную систему уравнений относительно $ x_1,x_2,x_3,x_4 $ подставить выражения этих переменных через $ y_1,y_2,y_3 $ и решать уже получившуюся систему — которая, очевидно, также будет линейной. Осталось только выяснить по какому правилу образуются коэффициенты этой новой системы. При подстановке в первое уравнение системы $$ 2x_1-3x_2+x_3 -5x_4 = 1 $$ выражений для $ x_1,x_2,x_3,x_4 $ получаем: $$ 2(3y_1 -2y_2+3y_3)-3(-y_1 +5y_2-7y_3)+(y_1 -y_2+y_3) -5(2y_2-2y_3) = 1 \ . $$ Понаблюдаем каким образом генерируются коэффициенты при новых переменных: $$ \begin{array}{llllcl} (2\cdot 3 &+ (-3)\cdot (-1)& + 1 \cdot 1 & + (-5) \cdot 0)y_1 &+ \\ (2\cdot (-2)& + (-3)\cdot 5 & + 1 \cdot (-1)& + (-5) \cdot 2)y_2 &+ \\ (2\cdot 3 &+ (-3)\cdot (-7) &+ 1 \cdot 1 &+ (-5) \cdot (-2))y_3 &=1. \end{array} $$ Эти коэффициенты могут быть получены как результат перемножения матриц. Если переписать замену переменных в матричном виде: $$ \left( \begin{array}{r} x_1 \\ x_2 \\ x_3 \\ x_4 \end{array} \right)=\left( \begin{array}{rrr} 3&-2 &3 \\ -1& 5 &-7 \\ 1 &-1 &1 \\ 0 & 2 & -2 \end{array} \right) \left( \begin{array}{r} y_1 \\ y_2 \\ y_3 \end{array} \right) \ , $$ то умножение $$ (2,-3,1, -5) \left( \begin{array}{rrr} 3&-2 &3 \\ -1& 5 &-7 \\ 1 &-1 &1 \\ 0 & 2 & -2 \end{array} \right) \left( \begin{array}{r} y_1 \\ y_2 \\ y_3 \end{array} \right) $$ даст ту же левую часть уравнения относительно $ y_1,y_2,y_3 $. А результат замены переменных во всей системе может быть записан в матричном виде. Обозначим матрицу системы уравнений $$ A=\left( \begin{array}{rrrr} 2&-3&1 &-5 \\ -1&0 &4 &-3 \\ 0& 1 &-3 &7 \end{array} \right) $$ столбец правых частей системы: $$ {\mathcal H}= \left( \begin{array}{r} 1 \\ -2 \\ 5 \end{array} \right)\ , $$ и матрицу замены переменных $$ B=\left( \begin{array}{rrr} 3&-2 &3 \\ -1& 5 &-7 \\ 1 &-1 &1 \\ 0 & 2 & -2 \end{array} \right) \ . $$ Имеем: $$ A \cdot X={\mathcal H},\ X=B \cdot Y $$ и замена переменных в системе уравнений производится так, как если бы это были обычные числовые равенства: $$ A \cdot B \cdot Y ={\mathcal H} \ \iff \ \left( \begin{array}{rrrr} 2&-3&1 &-5 \\ -1&0 &4 &-3 \\ 0& 1 &-3 &7 \end{array} \right) \left( \begin{array}{rrr} 3&-2 &3 \\ -1& 5 &-7 \\ 1 &-1 &1 \\ 0 & 2 & -2 \end{array} \right) \left( \begin{array}{r} y_1 \\ y_2 \\ y_3 \end{array} \right) = \left( \begin{array}{r} 1 \\ -2 \\ 5 \end{array} \right) $$ $$ \left( \begin{array}{rrr} 10&-30 &38 \\ 1& -8 &7 \\ -4 &22 &-24 \end{array} \right)\left( \begin{array}{r} y_1 \\ y_2 \\ y_3 \end{array} \right) = \left( \begin{array}{r} 1 \\ -2 \\ 5 \end{array} \right) \ . $$ Переписав теперь это уравнение в привычном виде системы уравнений: $$ \left\{ \begin{array}{rrrr} 10y_1 &-30y_2&+38y_3 & = 1 \\ y_1 &-8y_2&+7y_3 &=-2 \\ -4y_1 &+22y_2&-24y_3 & =5. \end{array} \right. $$ мы можем ее решить, последовательно выражая переменные (см. ☞ метод Гаусса): $$ y_1=23/10,\ y_2=1/10,\ y_3=-1/2 \ . $$ ♦
Вывод. Произведение матриц вводится именно так, чтобы обеспечить операцию линейной замены переменных в системе линейных уравнений. Некоторые из свойств этой операции совпадают со свойствами обычного произведения чисел — и эта аналогия упрощает формализацию ряда алгоритмов. Однако, эта аналогия не распространяется на все свойства числовых операций — из-за отсутствия хотя бы той же коммутативности умножения матриц.
Выполнение равенства $ A \cdot B = 0 $ для чисел $ A $ и $ B $ влечет за собой обязательное выполнение хотя бы одного из равенств $ A = 0 $ или $ B = 0 $. Справедливо ли аналогичное утверждение для матриц?
Какую матрицу надо умножить на матрицу $ A_{} $, чтобы результатом стала матрица $ c\,A $, где $ c_{} $ — произвольное фиксированное число?
Матрица $ A_{} $ называется квадратной, если количество ее строк равно количеству ее столбцов. О квадратной $ n\times n_{} $-матрице будем говорить как о матрице порядка $ \mathbf n $, а записывать ее компактно в виде
$$A=\left[ a_{jk} \right]_{j,k=1}^n$$
Если матрицы $ A_{} $ и $ B_{} $ – квадратные порядка $ n_{} $, то обе матрицы $ AB_{} $ и $ BA_{} $ являются тоже квадратными порядка $ n_{} $. Тем не менее, и в этом случае, как правило, $ AB\ne BA_{} $.
Пример.
$$ A= \begin{pmatrix} 1 & 2 \\ 3 & 4 \end{pmatrix} ,\quad B= \begin{pmatrix} 1 & 2 \\ 5 & 3 \end{pmatrix} \Rightarrow AB= \begin{pmatrix} 11 & 8 \\ 23 & 18 \end{pmatrix},\ BA= \begin{pmatrix} 7 & 10 \\ 14 & 22 \end{pmatrix} . $$
Говорят, что матрицы $ A_{} $ и $ B_{} $ коммутируют (или перестановочны), если $ AB=BA_{} $.
Главной диагональю квадратной матрицы $ A_{} $ называется ее диагональ, идущая из левого верхнего в правый нижний угол, т.е. эта диагональ совпадает с вектором $ (a_{11},\dots,a_{jj},\dots,a_{nn}^{}) $.
Матрица $ A_{} $ называется симметричной если она удовлетворяет соотношению $$A=A^{\top} .$$
Из определения следует, что симметричная матрица может быть только квадратной, а ее элементы должны удовлетворять соотношению: $$ a_{jk}=a_{kj} \quad npu \ \{j,k \} \subset \{1,\dots, n\} . $$ Иными словами, симметричная матрица — это такая матрица, которая симметрична относительно своей главной диагонали.
Сколько элементов надо задать, чтобы однозначно определить симметричную матрицу порядка $ n_{} $?
Частным случаем симметричной матрицы является диагональная матрица: $$ D=\left( \begin{array}{cccc} a_{11} & & & \\ & a_{22} & & {\mathbb O} \\ {\mathbb O} & & \ddots & \\ & & & a_{nn} \end{array} \right) . $$
Подробнее о симметричной матрице
☞
ЗДЕСЬ.
Матрица $$ E_n = \left( \begin{array}{cccc} 1 & & & \\ & 1 & & {\mathbb O} \\ {\mathbb O} & & \ddots & \\ & & & 1 \end{array} \right)_{n}= \left[\delta_{jk} \right]_{j,k=1}^n $$ называется единичной матрицей порядка $ n_{} $.
Матрица $ A_{} $ называется кососимметричной если она удовлетворяет соотношению $$A=-A^{\top} .$$
Из определения следует, что кососимметричная матрица может быть только квадратной, а ее элементы должны удовлетворять соотношению: $$ a_{jk}=-a_{kj} \quad , \ \{j,k \} \subset \{1,\dots, n\} . $$ Отсюда вытекает, что все элементы главной диагонали кососимметричной матрицы должны быть равны 0.
Пример. Векторное произведение вектора $ X=(x_{1},x_2,x_3) $ на вектор $ Y=(y_{1},y_2,y_3) $ может быть задано с помощью кососимметричной матрицы:
$$ X\times Y = (x_{1},x_2,x_3) \left(\begin{array}{rrr} 0 & -y_3 & y_2 \\ y_3 & 0 & -y_1 \\ -y_2 & y_1 & 0 \end{array} \right) \, . $$
Указать все элементы кососимметричной матрицы
$$ \left( \begin{array}{rrr} \color{Red}{\Box} & 1 & \color{Red}{\Box} \\ \color{Red}{\Box} & \color{Red}{\Box} & 3 \\ -2 & \color{Red}{\Box} & \color{Red}{\Box} \end{array} \right)_{3\times 3} . $$
Доказать, что при любой квадратной матрице $ A_{} $
а) матрицы $ A_{}+A^{\top} $ и $ A_{}A^{\top} $ будут симметричными;
б) матрица $ A_{}-A^{\top} $ будет кососимметричной.
Теорема. Для любой квадратной матрицы $ A_{} $ существует и единственно ее представление в виде суммы симметричной и кососимметричной матриц, а именно:
$$ A = \frac{1}{2} (A+A^{\top}) + \frac{1}{2} (A-A^{\top}) \ . $$
Свойства кососимметричной матрицы
☞
ЗДЕСЬ
Не очень удачный перевод на русский выражения reciprocal symmetric matrix. Формально определяется как квадратная матрица с ненулевыми элементами, удовлетворяющая соотношению $$ A=[a_{jk}]_{j,k=1}^n , a_{jk}=1/a_{kj} \ . $$ Из этого определения следует, что все элементы главной диагонали такой матрицы равны $ 1_{} $. Обычно рассматриваются положительные обратно симметричные матрицы.
Пример. $$ \left( \begin{array}{rrr} 1 & \sqrt{2} & 3 \\ 1/\sqrt{2} & 1 & 1/4 \\ 1/3 & 4 & 1 \end{array} \right) \ . $$
Матрицы встречаются в теории принятия решений. Пусть имеется $ n_{} $ различных критериев $ C_1,C_2,\dots, C_n $ и человек, принимающий решения (эксперт), может оценить во сколько раз критерий $ C_j $ важнее (предпочтительней) критерия $ C_k $; соответствующую величину $ a_{jk} $ называют интенсивностью (мощностью) предпочтения7). Особенно удачно, если эксперт оказывается достаточно квалифицированным (или самоуверенным) и в состоянии ранжировать набор критериев, придав каждому определенные веса $ w_1,w_2,\dots, w_n $. Тогда матрица $$ \left[\frac{w_j}{w_k} \right]_{j,k=1}^n $$ представляет собой обратно симметричную матрицу, обладающую свойством $$ a_{jk}=a_{j\ell}a_{\ell k} \ . $$ В этом случае про обратно симметричную матрицу говорят, что она мощностно-транзитивная8).
Так называется квадратная матрица, у которой все элементы выше главной диагонали или ниже ее равны нулю.
Различают верхнетреугольную9)
$$
U=\left(\begin{array}{ccccc}
a_{11} & a_{12} &a_{13} & \dots & a_{1n} \\
& a_{22} & a_{23} & \dots & a_{2n} \\
& & \ddots & & \\
& \mathbb O & & \ddots & \vdots \\
& & & & a_{nn}
\end{array}
\right)
$$
и нижнетреугольную
$$
L=\left(\begin{array}{ccccc}
a_{11} & & & & \\
a_{21} & a_{22} & & & \\
& & \ddots & \mathbb O & \\
\vdots & & & \ddots & \\
a_{n1} & a_{n2} & \dots & & a_{nn}
\end{array}
\right)
$$
матрицы. Часто эти матрицы называют право- и левотреугольными соответственно и обозначают тогда $ R_{} $ и $ L_{} $. В одной и той же книге можно встретить одновременно
LU-разложение матрицы и QR-разложение матрицы; при этом вторые буквы означают именно верхнетреугольные матрицы. Так исторически сложилось: неудобно, но привычно!
Матрица вида $$ \left(\begin{array}{llllll} a_{11} & a_{12} & a_{13} & \dots & a_{1,n-1} & a_{1n} \\ a_{21} & a_{22} & a_{23} & \dots & a_{2,n-1} & a_{2n} \\ 0 & a_{32} & a_{33} & \dots & a_{3,n-1} & a_{3n} \\ \vdots & & \ddots & & & \\ 0 & 0 & 0 & \dots & a_{n,n-1} & a_{nn} \end{array} \right) \ , $$ т.е. с элементами $ a_{ij}=0 $ при $ i<j+1 $ называется верхней матрицей Хессенберга.
матрица — это квадратная матрица $ A_{} $ с вещественными элементами, удовлетворяющая соотношению: $$ A \cdot A^{\top} = E \ , $$ здесь $ E_{} $ — единичная матрица того же порядка, а $ {}^{\top} $ означает транспонирование. Иными словами, строки матрицы $ A_{} $ удовлетворяют условию $$ A^{[j]}\cdot \left( A^{[k]} \right)^{\top} = a_{j1}a_{k1}+a_{j2}a_{k2} + \dots + a_{jn}a_{kn}= \delta_{jk} \ , $$ где $ \delta_{jk}^{} $ — символ Кронекера. Если определить скалярное произведение для строк $ X=(x_1,x_2,\dots,x_{n}) $ и $ Y=(y_1,y_2,\dots,y_{n}) $ по правилу, естественно обобщающему определение скалярного произведения в двух- и трехмерном пространстве: $$ \langle X,Y \rangle =x_1y_1+x_2y_2+\dots+x_ny_n \ , $$ то определение ортогональной матрицы оправдано тем, что ее строки оказываются взаимно ортогональными. К тому же, они все имеют «единичную длину»: сумма квадратов элементов любой строки равна 1.
Пример. Матрица $$ \left( \begin{array}{rr} \cos \theta & - \sin \theta \\ \sin \theta & \cos \theta \end{array} \right) $$ — ортогональная.
Теорема. Если матрица $ A_{} $ — ортогональная, то и матрица $ A_{}^{\top} $ — ортогональная, т.е. у ортогональной матрицы взаимно ортогональны не только строки, но и столбцы.
Подробнее об ортогональной матрице
☞
ЗДЕСЬ
Следующий класс матриц не относится ко множеству ортогональных, но близок к нему по смыслу.
Матрица $ A_{} $ называется матрицей Адамара10) если любой ее элемент равен либо $ +1_{} $ либо $ - 1_{} $ и ее строки взаимно ортогональны. Иными словами для матрицы Адамара порядка $ n_{} $ должно быть выполнено: $$ A^{\top} \cdot A = n E \ , $$ где $ E_{} $ — единичная матрица того же порядка.
Пример. Матрицы
$$ \left( \begin{array}{rr} 1 & 1 \\ 1 & -1 \end{array} \right) \quad u \quad \left( \begin{array}{rrrr} 1 & 1 & 1 & 1 \\ 1 & -1 &1 & -1 \\ 1 & 1 & -1 & -1 \\ 1 & -1 & -1 & 1 \end{array} \right) $$ — матрицы Адамара. С помощью последней матрицы и следующего результата можно сконструировать матрицу Адамара порядка $ 2^{n} $.
Теорема. Если $ H_{} $ — матрица Адамара порядка $ n_{} $, то блочная матрица $$ \left[ \begin{array}{rr} H & H \\ H & -H \end{array} \right] $$ является матрицей Адамара порядка $ 2\,n $.
Если при $ n> 2 $ матрица Адамара существует, то $ n_{} $ должно быть кратно $ 4_{} $. Обратное утверждение составляет содержание следующей гипотезы:
Гипотеза Адамара: для любого натурального $ n_{} $ кратного $ 4_{} $ существует матрица Адамара порядка $ n_{} $. Не доказана.11)
Применение матрицы Адамара
:
☞ КОДИРОВАНИЕ.
☞ Максимальное значение определитедя матрицы порядка $ n $, элементы которой по модулю не превосходят $ 1 $ достигается на матрицах Адамара (в случае их существования для данного $ n $); оно равно $ n^{n/2} $. См. ☞ Неравенство Адамара
матрица — это квадратная матрица вида
$$
\left(\begin{array}{lllll}
h_0 & h_1 & h_2 & \dots & h_{n-1} \\
h_1 & h_2 & h_3 & \dots & h_n \\
h_2 & h_3 & h_4 & \dots & h_{n+1} \\
\vdots & & & \ddots & \vdots \\
h_{n-1} & h_{n} & h_{n+1} & \dots & h_{2n-2}
\end{array}
\right)_{n\times n}= \left[ h_{j+k}\right]_{j,k=0}^{n-1}
$$
Симметричная матрица, на каждой диагонали которой, перпендикулярной главной, стоят одинаковые элементы. Таким образом, ганкелева12) матрица полностью определяется заданием своих крайних элементов:
$$ h_0,h_1,\dots, h_{2n-2} $$
— они называются образующими ганкелевой матрицы.
Подробнее о ганкелевой матрице ☞ ЗДЕСЬ.
Так называется квадратная матрица вида
$$
\left(\begin{array}{lllll}
t_0 & t_{-1} & t_{-2} & \dots & t_{-n+1} \\
t_1 & t_0 & t_{-1} & \dots & t_{-n+2} \\
t_2 & t_1 & t_0 & \dots & t_{-n+3} \\
\vdots & & & & \vdots \\
t_{n-1} & t_{n-2} & t_{n-3} & \dots & t_{0}
\end{array}
\right)= \left[ t_{j-k}\right]_{j,k=0}^{n-1} \ .
$$
Элементы каждой диагонали, параллельной главной, одинаковы. В отличие от ганкелевой матрицы, теплицева13) матрица не обязательно симметрична.
Частным случаем тёплицевой матрицы является циклическая матрица: $$ \left(\begin{array}{lllll} a_1 & a_2 & a_3 & \dots & a_n \\ a_n & a_1 & a_2 & \dots & a_{n-1} \\ a_{n-1} & a_n & a_1 & \dots & a_{n-2} \\ \vdots & & & & \vdots \\ a_2 & a_3 & a_4 & \dots & a_1 \end{array} \right) \ ; $$ (иногда называется циркулянтом, хотя в отечественной литературе циркулянтом чаще называют ее определитель). Каждая строка, начиная со второй, получается сдвигом предыдущей вправо на один элемент; тот элемент, что при этом сдвиге «вываливается» за пределы матрицы, переставляется в начало строки.
Подробнее о циклической матрице
☞
ЗДЕСЬ
Так называется матрица $ A_{} $ все элементы которой положительны (определяется для матриц произвольного порядка — не обязательно квадратных). Обозначается $ A > 0 $ или $ A > \mathbb O $. По аналогии определяются неотрицательная ( $ A \ge 0 $), отрицательная и неположительная матрицы.
Неотрицательная матрица, в которой сумма элементов каждой строки равна $ 1 $: $$ \left(\begin{array}{cccc} p_{11} & p_{12} & \dots & p_{1n} \\ p_{21} & p_{22} & \dots & p_{2n} \\ & & & \\ p_{n1} & p_{n2} & \dots & p_{nn} \end{array} \right) $$ $$\sum_{j=1}^n p_{kj}=1 \ npu \ k \in \{1,\dots,n \} . $$
Пример.
$$ \left(\begin{array}{cccc} 1/3 & 1/2 & 1/6 & 0 \\ 0 & 1 & 0 & 0\\ 0.13 & 0.35 & 0.21 & 0.31 \\ 1/4 & 1/4 & 1/4 & 1/4 \end{array} \right) $$
Используется в теории вероятностей (цепи Маркова).
Для квадратной матрицы $ A_{} $ умножение ее на единичную матрицу $ E_{} $ того же порядка не приводит к изменению матрицы: $ A \cdot E = E\cdot A=A_{} $. Теперь «испортим» матрицу $ E_{} $ хотя бы в одном ее элементе и понаблюдаем за результатами аналогичных умножений.
Пример. а) Изменяется элемент вне главной диагонали: $ 0_{} $ меняется на какое-то число $ {\color{Red}{ \alpha} } \in \mathbb A_{} $.
$$ \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & 0 \\ 0 & {\color{Red}{ \alpha} } & 1 \end{array} \right) \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{array} \right)= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} + {\color{Red}{ \alpha} } a_{21} & a_{32} + {\color{Red}{ \alpha} } a_{22} & a_{33} + {\color{Red}{ \alpha} } a_{23} \end{array} \right) \ ; $$ $$ \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 1 & {\color{Red}{ \alpha} } \\ 0 & 0& 1 \end{array} \right) \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{array} \right)= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} + {\color{Red}{ \alpha} } a_{31} & a_{22} + {\color{Red}{ \alpha} } a_{32} & a_{23} + {\color{Red}{ \alpha} } a_{33} \\ a_{31} & a_{32} & a_{33} \end{array} \right) \ . $$
Вывод. Умножение матрицы такого вида ( $ 0_{} $ в $ j_{} $-й строке и $ k_{} $-м столбце матрицы $ E_{} $ меняется на $ {\color{Red}{ \alpha} } $) слева на матрицу $ A_{} $ эквивалентно прибавлению к $ j_{} $-й строке матрицы $ A_{} $ ее $ k_{} $-й строки, домноженной на $ {\color{Red}{ \alpha} } $.
б) Изменяется элемент главной диагонали: $ 1_{} $ меняется на какое-то число $ {\color{Red}{ \alpha} } \in \mathbb A_{} $. $$ \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & {\color{Red}{ \alpha} } & 0 \\ 0 & 0& 1 \end{array} \right) \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{array} \right)= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ {\color{Red}{ \alpha} } a_{21} & {\color{Red}{ \alpha} } a_{22} & {\color{Red}{ \alpha} } a_{23} \\ a_{31} & a_{32} & a_{33} \end{array} \right) $$
Вывод. Умножение матрицы такого вида ( $ 1_{} $ в $ j_{} $-й строке матрицы $ E_{} $ меняется на $ {\color{Red}{ \alpha} } $) слева на матрицу $ A_{} $ эквивалентно домножению на $ {\color{Red}{ \alpha} } $ соответствующей строки матрицы $ A_{} $.
в) Произведем еще одну «экзекуцию» с матрицей $ E_{} $: переставим местами две ее строки. Такая матрица иногда называется матрицей перестановки (и, кстати, является ортогональной ) , что оправдано следующим ее свойством: умножим ее на $ A_{} $: $$ \left( \begin{array}{ccc} 1 & 0 & 0 \\ 0 & 0 & 1 \\ 0 & 1& 0 \end{array} \right) \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{array} \right)= \left( \begin{array}{ccc} a_{11} & a_{12} & a_{13} \\ a_{31} & a_{32} & a_{33} \\ a_{21} & a_{22} & a_{23} \end{array} \right) $$
Вывод. Умножение матрицы такого вида (переставляются $ j_{} $-я и $ k_{} $-я строки матрицы $ E_{} $) слева на матрицу $ A_{} $ эквивалентно перестановке соответствующих строк матрицы $ A_{} $. ♦
Для общего случая матриц порядка $ n_{} $ матрицы, построенные по аналогии с предыдущим примером, называются матрицами элементарных преобразований.
Показать, что умножение матриц преобразований справа на матрицу $ A_{} $ эквивалентно соответствующим преобразованиям столбцов матрицы $ A_{} $.
Какое действие с матрицей $ A_{} $ оказывает умножение ее на матрицу
$$ \left( \begin{array}{ccccc} 0 & 0 & \dots & 0 & 1 \\ 0 & 0 & \dots & 1 & 0 \\ \vdots & & & & \vdots \\ 0 & 1 & \dots & 0 & 0 \\ 1 & 0 & \dots & 0 & 0 \end{array} \right) \ ? $$
Последняя матрица относится к классу матриц, обобщающих класс матриц элементарных преобразований. Матрица $ P_{} $ называется матрицей перестановки если в любой ее строке и любом ее столбце в точности один элемент равен $ 1_{} $ при всех остальных равных $ 0_{} $. Она тесно связана с понятием перестановки элементов. Пусть имеются различные числа14) $ \{\alpha_1,\dots, \alpha_n\} $. Любое их упорядочивание называется перестановкой. Если имеются две перестановки одного и того же набора чисел, записываемые в виде векторов-строк: $ (x_1,\dots,x_{n}) $ и $ (y_1,\dots,y_n) $, то они связаны между собой посредством умножения на матрицу перестановки $ P_{} $ порядка $ n_{} $: $$ (y_1,\dots,y_n) =(x_1,\dots,x_n)P \ . $$ Так, к примеру, если $ (y_1,y_2,y_3,y_4)=(x_2,x_4,x_3,x_1) $, то $$(y_1,y_2,y_3,y_4)=(x_1,x_2,x_3,x_4) \left(\begin{array}{cccc} 0 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \\ 0 & 0 & 1 & 0 \\ 0 & 1 & 0 & 0 \end{array} \right) \ . $$ Очевидно действие матрицы перестановки при умножении на произвольную квадратную матрицу $ A_{} $; также очевидно, что результат этого действия эквивалентен последовательным действиям матриц элементарных преобразований, т.е. любая матрица перестановки может быть представлена как произведение матриц элементарных преобразований.
Матрицы элементарных преобразований используются при анализе метода Гаусса решения систем линейных уравнений.
Пронумеруем диагонали квадратной матрицы, начиная с главной — в обе стороны. Если все диагонали, начиная с некоторого их номера, будут заполнены нулевыми элементами, то такая матрица называется ленточной. Аналитически: $$ a_{jk}=0 \quad npu \quad |j-k| \ge L \ .$$ Минимальное из возможных значений $ L $, при которых последнее будет выполнено, называется шириной ленточной матрицы: в этом случае матрица имеет не более $ 2L-1 $ диагоналей, которые могут содержать ненулевые элементы.
Пример. Ленточная матрица ширины $ 1_{} $ является диагональной матрицей; ленточная матрица ширины $ 2_{} $ является трехдиагональной:
$$ \left( \begin{array}{lllllllll} a_{11} & a_{12} & 0 & 0 & 0 & 0 & \dots & 0 & 0 \\ a_{21} & a_{22} & a_{23} & 0 & 0 & 0 & \dots & 0 & 0 \\ 0 & a_{32} & a_{33} & a_{34} & 0 & 0 & \dots & 0 & 0 \\ 0 & 0 & a_{43} & a_{44} & a_{45} & 0 & \dots & 0 & 0 \\ \vdots & & & & \ddots & & & & \vdots \\ 0 & 0 & 0 & 0 & 0 & 0 & \dots & a_{n,n-1} & a_{n,n} \end{array} \right). $$
Ленточные матрицы возникают в численных методах решения граничных задач для обыкновенных дифференциальных уравнений; см. ☞ МЕТОД КОНЕЧНЫХ РАЗНОСТЕЙ.
$$ \mathbf V(x_1,\dots,x_n)= \left[ x_j^{k-1} \right]_{j,k=1}^{n}= \left(\begin{array}{ccccc} 1 &x_1&x_1^2&\ldots&x_1^{n-1}\\ 1 &x_2&x_2^2&\ldots&x_2^{n-1}\\ \vdots& &&& \vdots\\ 1 &x_n&x_n^2&\ldots&x_n^{n-1} \end{array}\right)_{n\times n} $$ или ей транспонированная. Иногда рассматривают неквадратные матрицы Вандермонда.
Подробнее о матрице Вандермонда
☞
ЗДЕСЬ.
Частным случаем матрицы Вандермонда является матрица дискретного преобразования Фурье: $$ F=\left[ \varepsilon_j^{k} \right]_{j,k=0}^{n-1}= \left( \begin{array}{lllll} 1 & 1 & 1 & \dots & 1 \\ 1 & \varepsilon_1 & \varepsilon_1^2 & \dots & \varepsilon_1^{n-1} \\ 1 & \varepsilon_2 & \varepsilon_2^2 & \dots & \varepsilon_2^{n-1} \\ 1 & \varepsilon_3 & \varepsilon_3^2 & \dots & \varepsilon_3^{n-1} \\ \vdots & & & & \vdots \\ 1 & \varepsilon_{n-1} & \varepsilon_{n-1}^{2} & \dots & \varepsilon_{n-1}^{n-1} \end{array} \right)_{n\times n} \quad npu \quad \varepsilon_j = \cos \frac{2 \pi j}{n} + {\mathbf i} \, \sin \frac{2 \pi j}{n} $$ — корне n-й степени из 1. Основываясь на свойстве $ \varepsilon_j=\varepsilon_1^j $, матрицу часто записывают в эквивалентном виде $$ F= \left[ \varepsilon^{jk} \right]_{j,k=0}^{n-1}= \left( \begin{array}{lllll} 1 & 1 & 1 & \dots & 1 \\ 1 & \varepsilon & \varepsilon^2 & \dots & \varepsilon^{n-1} \\ 1 & \varepsilon^2 & \varepsilon^4 & \dots & \varepsilon^{2(n-1)} \\ 1 & \varepsilon^3 & \varepsilon^6 & \dots & \varepsilon^{3(n-1)} \\ \vdots & & & & \vdots \\ 1 & \varepsilon^{n-1} & \varepsilon^{2(n-1)} & \dots & \varepsilon^{(n-1)^2} \end{array} \right)_{n\times n} \quad npu \quad \varepsilon = \cos \frac{2 \pi}{n} + {\mathbf i} \, \sin \frac{2 \pi}{n} \ . $$
Свойства матрицы дискретного преобразования Фурье
☞
ЗДЕСЬ; ее применение
☞
ТРИГОНОМЕТРИЧЕСКАЯ ИНТЕРПОЛЯЦИЯ.
Матрица, составленная из частных производных второго порядка функции $ f(x_1,\dots,x_{\ell}) $ $$ H (f) = \left( \begin{array}{cccc} {\partial^2 f}/{\partial x_1^2} & {\partial^2 f}/{\partial x_1 \partial x_2} & \dots & {\partial^2 f}/{\partial x_1 \partial x_{\ell}} \\ {\partial^2 f}/{\partial x_2 \partial x_1} & {\partial^2 f}/{\partial x_2^2} & \dots & {\partial^2 f}/{\partial x_2 \partial x_{\ell}} \\ \dots & && \dots \\ {\partial^2 f}/{\partial x_{\ell} \partial x_1} & {\partial^2 f}/{\partial x_{\ell} \partial x_2} & \dots & {\partial^2 f}/{\partial x_{\ell}^2} \end{array} \right)= \left[ \frac{\partial^2 f}{\partial x_j \partial x_k} \right]_{j,k=1}^{\ell} $$ (в предположении, что эти производные существуют). Определитель матрицы Гессе называется гессианом.
Подробнее о применениях матрицы Гессе к задачам исследования стационарных точек функции на экстремум, а также самой функции на выпуклость
☞
ЗДЕСЬ.
Пусть в линейном пространстве $ \mathbb E $ определено скалярное произведение векторов, которое обозначим $ \langle X,Y \rangle $.
Матрицей Грама системы векторов $ \{X_1,\dots,X_{m} \} $ называется квадратная матрица $$ G(X_1,\dots,X_m)= \left( \begin{array}{cccc} \langle X_1,X_1 \rangle & \langle X_1,X_2 \rangle & \dots & \langle X_1,X_m \rangle \\ \langle X_2,X_1 \rangle & \langle X_2,X_2 \rangle & \dots & \langle X_2,X_m \rangle \\ \dots & & & \dots \\ \langle X_m,X_1 \rangle & \langle X_m,X_2 \rangle & \dots & \langle X_m,X_m \rangle \end{array} \right) = \left[ \langle X_j,X_k \rangle \right]_{j,k=1}^m \ . $$
Если векторы $ \{X_1,\dots,X_{n} \} $ составляют базис линейного пространства, то задание их матрицы Грама сведет вычисление скалярного произведения произвольных векторов пространства к действию с их координатами: если $$X=x_1X_1+ \dots +x_nX_n \quad u \quad Y=y_1X_1+ \dots +y_nX_n \ , $$ то $$ \langle X,Y \rangle=\left(x_1,x_2,\dots,x_n \right) \left( \begin{array}{cccc} \langle X_1,X_1 \rangle & \langle X_1,X_2 \rangle & \dots & \langle X_1,X_n \rangle \\ \langle X_2,X_1 \rangle & \langle X_2,X_2 \rangle & \dots & \langle X_2,X_n \rangle \\ \dots & & & \dots \\ \langle X_n,X_1 \rangle & \langle X_n,X_2 \rangle & \dots & \langle X_n,X_n \rangle \end{array} \right) \left( \begin{array}{c} y_1 \\ y_2 \\ \vdots \\ y_n \end{array} \right) \ . $$
Подробнее о свойствах матрицы Грама и ее применении к задачам вычисления расстояний
☞
ЗДЕСЬ.
Матрица $$ {\mathfrak F}= \left( \begin{array}{lllllll} 0 & 1 & 0 & 0 & \dots & 0 & 0 \\ 0 & 0 & 1 & 0 & \dots & 0 & 0 \\ 0 & 0 & 0 & 1 & \dots & 0 & 0 \\ \vdots& &&&\ddots & & \vdots \\ 0 & 0 & 0 & 0 & \dots & 0 & 1 \\ a_n & a_{n-1} & a_{n-2} & & \dots & a_2 & a_1 \end{array} \right)_{n \times n} $$ или ей транспонированная. Ее характеристический полином имеет вид $$ \det ({\mathfrak F} - x E) = (-1)^n(x^n-a_1x^{n-1}-\dots-a_{n}) \, . $$ Тем самым, матрица Фробениуса является решением задачи построения матрицы простейшего вида, имеющей заданный характеристический полином. Исходя из этого соображения, матрицу $ {\mathfrak F} $ часто называют сопровождающей матрицей полинома15) $ f(x)=x^n-a_1x^{n-1}-a_2x^{n-2}- \dots - a_n $.
Применение матрицы Фробениуса
☞
РЕШЕНИЕ ЛИНЕЙНОГО РАЗНОСТНОГО УРАВНЕНИЯ.
Матрицей Якоби системы из $ m_{} $ функций $ \{f_1(x_1,\dots,x_n),\dots,f_{m}(x_1,\dots,x_n)\} $ по переменным $ x_{1},\dots,x_n $ называется матрица, составленная из всевозможных частных производных: $$ \mathbf J = \left[ \frac{\partial f_j}{\partial x_k} \right]_{j=1,\dots,m, \atop k=1,\dots,n} = \left( \begin{array}{cccc} {\partial f_1}/{\partial x_1} & {\partial f_1}/{\partial x_2} & \dots & {\partial f_1}/{\partial x_n} \\ {\partial f_2}/{\partial x_1} & {\partial f_2}/{\partial x_2} & \dots & {\partial f_2}/{\partial x_n} \\ \dots & && \dots \\ {\partial f_m}/{\partial x_1} & {\partial f_m}/{\partial x_2} & \dots & {\partial f_m}/{\partial x_n} \end{array} \right)_{m\times n} . $$ В частном случае $ m=1_{} $ матрица Якоби состоит из одной строки: этот вектор в $ \mathbb R_{}^{n} $ или в $ \mathbb C^{n} $ называется градиентом функции $ f_{} $ (в точке $ (x_1,\dots,x_{n}) $): $$ \operatorname{grad} (f) = \left( \frac{\partial f}{\partial x_1},\dots, \frac{\partial f}{\partial x_n} \right) \ . $$
Применение матрицы Якоби
☞
ЗДЕСЬ
или детерминант16) определяется для произвольной квадратной матрицы $ A_{} $, и представляет из себя полином от всех ее элементов. Обозначается - либо $ \det (A_{}) $, либо $ \det A_{} $, либо - в развернутом виде - $$ \left| \begin{array}{cccc} a_{11} & a_{12} & \dots & a_{1n} \\ a_{21} & a_{22} & \dots & a_{2n} \\ \dots & & & \dots \\ a_{n1} & a_{n2} & \dots & a_{nn} \end{array} \right| $$ (матрица ограничивается вертикальными чертами). Имея в виду порядок матрицы $ A_{} $, о ее определителе говорят как об определителе порядка $ n_{} $.
Для $ n=1_{} $: $$ \det (A) = a_{11} \ ; $$ для $ n=2_{} $: $$ \det (A) = \left| \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right|=a_{11}a_{22}-a_{12}a_{21} \ ; $$ для $ n=3_{} $: $$ \det (A) = \left| \begin{array}{lll} a_{11} & a_{12} & a_{13}\\ a_{21} & a_{22} & a_{23} \\ a_{31} & a_{32} & a_{33} \end{array} \right| = $$ $$ =a_{11}a_{22}a_{33}+a_{12}a_{23} a_{31} + a_{21}a_{32} a_{13} - a_{31} a_{22} a_{13} - a_{21}a_{12}a_{33} - a_{11} a_{32} a_{23} \ ; $$ для $ n=4_{} $ формула становится громоздкой.
Понятие определителя вводится с целью компактной записи критерия разрешимости системы линейных уравнений $$ \left\{ \begin{array}{lllll} a_{11}x_1 &+a_{12}x_2&+ \ldots&+a_{1n}x_n &=b_1,\\ a_{21}x_1 &+a_{22}x_2&+ \ldots&+a_{2n}x_n &=b_2,\\ \dots & & & \dots & \\ a_{n1}x_1 &+a_{n2}x_2&+ \ldots&+a_{nn}x_n &=b_n. \end{array} \right. $$ и представления ее решения.
Теорема. Если определитель матрицы, составленной из коэффициентов $ a_{jk} $, отличен от нуля, то система имеет единственное решение относительно неизвестных $ x_{1},\dots,x_n $.
Определение, свойства и применения определителя
☞
ЗДЕСЬ
Для неквадратных матриц понятие определителя не вводится, но имеется понятие миноров матрицы. Если выбрана подматрица матрицы $ A_{} $ — т.е. взяты ее элементы, стоящие на пересечении строк с номерами $ i_1,i_2,\dots,i_{k} $ и столбцов с номерами $ j_1,\dots,j_{\ell} $ (номера указаны строго в порядке возрастания) и эта подматрица — квадратная, т.е. $ k=\ell $, то ее определитель называется минором матрицы (k-го порядка). Обозначать будем $$ A\left( \begin{array}{llll} i_1 & i_2 & \dots & i_{k} \\ j_1 & j_2 & \dots & j_{k} \end{array} \right) \ . $$
определяется для произвольной квадратной матрицы $ A_{} $ как сумма элементов ее главной диагонали; обозначается17) $ \operatorname{Sp}(A_{}) $ или $ \operatorname{tr}(A_{}) $: $$ \operatorname{Sp}(A)=a_{11}+a_{22}+\dots+a_{nn} . $$
Свойства. Для квадратных матриц одинакового порядка имеют место равенства:
a) $ \operatorname{Sp}(A+B) = \operatorname{Sp}(A) + \operatorname{Sp}(B_{}) $;
б) $ \operatorname{Sp}(\alpha A_{}) = \alpha \operatorname{Sp}(A) $ для любого числа $ \alpha_{} $;
в) $ \operatorname{Sp}(AB) = \operatorname{Sp}(BA_{}) $;
г) $ \operatorname{Sp} (A^{\top}) = \operatorname{Sp} (A_{}) $
д) $ \operatorname{Sp}(A^{\top} B) = \sum_{j,l=1}^n a_{jk} b_{jk} $
определяется для произвольной квадратной матрицы $ A_{} $ как $ \det (A_{}- x E) $, где $ E_{} $ – единичная матрица одинакового с $ A_{} $ порядка. Если порядок матрицы равен $ n_{} $, то указанный определитель является полиномом степени $ n_{} $ по $ x_{} $.
Пример. Для $ n=2_{} $:
$$ \det (A-x E)= \begin{vmatrix} a_{11}-x & a_{12}\\ a_{21}& a_{22}-x \end{vmatrix}=x^2-(a_{11}+a_{22})x + (a_{11}a_{22}-a_{12}a_{21}) ; $$ для $ n=3 $: $$ \det (A-x E)= \begin{vmatrix} a_{11}-x & a_{12} & a_{13}\\ a_{21}& a_{22}-x & a_{23} \\ a_{31}& a_{32} & a_{33}-x \end{vmatrix}= $$ $$ =-x^3+(a_{11}+a_{22}+a_{33})x^2 - \left \{ \begin{vmatrix} a_{11}& a_{12}\\ a_{21}& a_{22} \end{vmatrix} +\begin{vmatrix} a_{22}& a_{23}\\ a_{32}& a_{33} \end{vmatrix}+ \begin{vmatrix} a_{11}& a_{13}\\ a_{31}& a_{33} \end{vmatrix} \right \}x+ $$ $$ +\det A . $$
Структура, свойства и методы вычисления характеристического полинома
☞
ЗДЕСЬ
определяется для произвольной (не обязательно квадратной) матрицы $ A_{} $ как наибольший порядок ее отличных от нуля миноров. Иначе говоря: $ \operatorname{rank} (A_{}) ={\mathfrak r}\in {\mathbb N} $ тогда и только тогда, когда существует ее минор порядка $ {\mathfrak r} $, отличный от нуля, а все миноры более высокого порядка равны нулю. Кроме того, полагают ранг нулевой матрицы равным нулю: $ \operatorname{rank} ({\mathbb O}_{m\times n}) = 0_{} $.
Методы вычисления, свойства и применения ранга матрицы
☞
ЗДЕСЬ
Функция, ставящая в соответствие произвольной квадратной матрице $ A_{} $ порядка $ n_{} $ вещественное число, называется матричной нормой если для нее выполняются следующие аксиомы:
Норма вводится не только для квадратных матриц. Подробнее ☞ ЗДЕСЬ.
Для квадратной матрицы $ A_{} $ матрица $ B_{} $ называется левой обратной, если $ BA=E_{} $, где $ E_{} $ – единичная матрица одинакового порядка с $ A_{} $. Отсутствие свойства коммутативности умножения приводит к необходимости определения еще одной обратной матрицы — правой обратной, т.е. матрицы $ C_{} $ такой, что $ AC= E_{} $. К счастью, необходимость в этом «дублировании» практически сразу пропадает:
Для того, чтобы существовала левая обратная матрица для матрицы $ A_{} $ необходимо и достаточно, чтобы $ \det A_{} \ne 0 $. В этом случае, левая обратная матрица будет единственной, и будет совпадать с правой обратной.
Для обратной к матрице $ A_{} $ закреплено обозначение $ A_{}^{-1} $, а сама процедура нахождения обратной матрицы называется обращением. Матрица, определитель которой отличен от нуля, называется неособенной или невырожденной или обратимой.
Доказательство. Необходимость условия $ \det A_{} \ne 0 $ для существования, например, левой обратной матрицы следует из условия $$ \det (B \cdot A)= \det E \quad \iff \quad (\det B) (\det A) =1 \ . $$
Покажем достаточность. Вычислим все алгебраические дополнения к элементам матрицы $ A_{} $, составим из них новую матрицу порядка $ n_{} $ и транспонируем ее. Полученная матрица $$ \tilde A =\left(\left[A_{jk} \right]_{jk}^n \right)^{\top} = \left( \begin{array}{llll} A_{11} & A_{21}& \dots & A_{n1} \\ A_{12} & A_{22} & \dots & A_{n2} \\ \dots & & & \dots \\ A_{1n} & A_{2n} & \dots & A_{nn} \end{array} \right) $$ называется взаимной или союзной матрице $ A_{} $. Для любой матрицы $ A_{} $ имеет место равенство $$ A \cdot \tilde A = \left( \begin{array}{cccc} \det A & & & \\ & \det A & & {\mathbb O} \\ {\mathbb O} & & \ddots & \\ & & & \det A \end{array} \right) = \det A \cdot E \ . $$ Справедливость этого факта следует из теории определителей: сумма произведений элементов строки матрицы на их алгебраические дополнения равна определителю матрицы; а на алгебраические дополнения к элементам любой другой строки — нулю (см. ☞ ЗДЕСЬ ).
При выполнении условия $ \det A_{} \ne 0 $ можем взять $$ A^{-1}=\frac{\tilde A }{\det A}= \left( \begin{array}{llll} \frac{A_{11}}{\det A} & \frac{A_{21}}{\det A} & \dots & \frac{A_{n1}}{\det A} \\ &&& \\ \frac{A_{12}}{\det A} & \frac{A_{22}}{\det A} & \dots & \frac{A_{n2}}{\det A} \\ &&& \\ \vdots & & & \vdots \\ \frac{A_{1n}}{\det A} & \frac{A_{2n}}{\det A} & \dots & \frac{A_{nn}}{\det A} \end{array} \right) \ . $$ Пока что мы получили правую обратную матрицу: доказано, что она удовлетворяет условию $ A C = E_{} $. Проверка того, что полученная матрица будет являться и левой обратной, т.е. удовлетворяет условию $ C A=E $, производится снова с использованием теоремы о сумме произведений элементов столбца матрицы $ A_{} $ на алгебраические дополнения к другому столбцу той же матрицы (см. ☞ ЗДЕСЬ ). Теперь покажем, единственность полученной обратной матрицы. Предположим, что каким-то другим способом найдена еще одна матрица $ C_1 $ обладающая тем же самым свойством $ A C_1 = E $. Домножим это равенство слева на матрицу $ C_{} $: $$ C(AC_1) = C E \ . $$ Операция умножения матриц подчиняется ассоциативному закону, поэтому $$ (CA) C_1 = C , $$ но, по доказанному ранее, $ CA=E_{} $. И мы получили равенство $ C_1 = C $, доказывающее единственность правой обратной матрицы. Аналогично доказывается единственность и левой обратной. ♦
Пример. Вычислить $$ \left( \begin{array}{rrr} 4 & 8 & -5\\ -4 & 7 &-1 \\ -3 & 5 & 1 \end{array} \right)^{-1} \ . $$
Решение. Вычисляем определитель этой матрицы: $ \det A = 99 \ne 0 $. Обратная матрица существует. Вычисляем алгебраические дополнения элементов: $$ \overbrace{\left| \begin{array}{rr} 7 &-1 \\ 5 & 1 \end{array} \right|}^{A_{11}}=12, \ \overbrace{-\left| \begin{array}{rrr} -4 &-1 \\ -3 & 1 \end{array} \right|}^{A_{12}}=7, \overbrace{\left| \begin{array}{rrr} -4 & 7 \\ -3 & 5 \end{array} \right|}^{A_{13}}=1, $$ $$ \overbrace{-\left| \begin{array}{rr} 8 &-5 \\ 5 & 1 \end{array} \right|}^{A_{21}}=-33,\ \overbrace{\left| \begin{array}{rr} 4 &-5 \\ -3 & 1 \end{array} \right|}^{A_{22}}=-11,\ \overbrace{-\left| \begin{array}{rr} 4 &8 \\ -3 & 5 \end{array} \right|}^{A_{23}}=-44, $$ $$ \overbrace{\left| \begin{array}{rr} 8 &-5 \\ 7 & -1 \end{array} \right|}^{A_{31}}=27,\ \overbrace{-\left| \begin{array}{rr} 4 &-5 \\ -4 & -1 \end{array} \right|}^{A_{32}}=24,\ \overbrace{\left| \begin{array}{rr} 4 &8 \\ -4 & 7 \end{array} \right|}^{A_{33}}=60\ . $$ Cоставляем из них матрицу: $$ \left( \begin{array}{rrr} 12 & 7 & 1\\ -33 & -11 &-44 \\ 27 & 24 & 60 \end{array} \right) $$ и не забываем ее транспонировать, а также поделить на определитель!
Ответ. $$ \left( \begin{array}{rrr} \frac{\scriptstyle 4}{\scriptstyle 33} & -\frac{\scriptstyle 1}{\scriptstyle 3} & \frac{\scriptstyle 3}{\scriptstyle 11} \\ && \\ \frac{\scriptstyle 7}{\scriptstyle 99} & -\frac{\scriptstyle 1}{\scriptstyle 9} & \frac{\scriptstyle 8}{\scriptstyle 33} \\ && \\ \frac{\scriptstyle 1}{\scriptstyle 99} & -\frac{\scriptstyle 4}{\scriptstyle 9} & \frac{\scriptstyle 20}{\scriptstyle 33} \end{array} \right) \ . $$
Показать справедливость следующих свойств операции обращения :
a) $ (A^{-1})^{-1}=A_{} $;
б) $ (A\cdot B)^{-1} = B^{-1}A_{}^{-1} $;
в) $ (A_{}^{\top})^{-1}=(A^{-1})^{\top} $;
г) $ \det A_{}^{-1} = (\det A)^{-1} $.
Предполагается, что в левой части каждого равенства операции определены.
Методы вычисления, свойства и применения обратной матрицы
☞
ЗДЕСЬ
Для квадратной матрицы $ A_{} $ ее $ k_{} $-й степенью ($ k_{}\in \mathbb N $) называют результат умножения ее на себя $ k_{} $ раз: $$ A^k = \underbrace{A\times \dots \times A}_k \ . $$ В виду ассоциативности операции умножения, скобки в этом произведении можно расставить произвольным образом. Дополнительно полагают $ A^{0} = E $ при ненулевой матрице $ A_{} $ и, в случае существования обратной матрицы, определяют и отрицательную степень: $$ A^{-k} = (A^{-1})^k \ . $$
Показать, что
a) cтепени матрицы $ A_{} $ коммутируют: $ A^{k} A^{\ell}= A^{\ell} A^k $;
б) $ \det (A^k) = \left( \det A \right)^{k} $.
Пример. Вычислить $$ \left( \begin{array}{rrr} -3 & 2 & -3 \\ -2 & 3 & -3 \\ 1 &-1 & 1 \end{array} \right)^9 $$
Решение. Чтобы сэкономить на количестве матричных умножений, будем осуществлять их по схеме $$ \left(\left(A^2 \right)^2\right)^2 A \ . $$ Имеем $$ A^2=\left( \begin{array}{rrr} 2 & 3 & 0 \\ -3 & 8 & -6 \\ 0 &-2 & 1 \end{array} \right) \quad \Rightarrow \quad \left(A^2 \right)^2= \left( \begin{array}{rrr} -5 & 30 & -18 \\ -30 & 67 & -54 \\ 6 &-18 & 13 \end{array} \right) \quad \Rightarrow \quad \left(\left(A^2 \right)^2\right)^2= \left( \begin{array}{rrr} -983 & 2184 & -1764 \\ -2184 & 4561 & -3780 \\ 588 & -1260 & 1033 \end{array} \right) $$ и окончательно $$ \left(\left(A^2 \right)^2\right)^2A= \left( \begin{array}{rrr} -3183 & 6350 & -5367 \\ -6350 & 13095 & -10911 \\ 1789 & -3637 & 3049 \end{array} \right) \ . $$ ♦
Проверить, что для матрицы из предыдущего примера, любая ее степень $$ B=A^n $$ будет подчиняться условиям: $ b_{12}=-b_{21}^{} $ и $ b_{23}^{}=3 b_{32} $.
Обобщением возведения в степень является операция вычисления полинома от матрицы. Если $ g(x)=b_0x^m+b_1x^{m-1}+\dots+b_{m} $ — полином по переменной $ x_{} $, то значением этого полинома на квадратной матрице $ A_{} $ называется матрица $$ g(A)=b_0A^m +b_1A^{m-1}+\dots+b_m E \ , $$ где $ E_{} $ — единичная матрица того же порядка, что и $ A_{} $.
Пример. Вычислить $ g(A)_{} $ для $$ g(x)= 3\,x^4-x^3+2\,x^2-4\,x-1 \quad u \quad A=\left( \begin{array}{rrr} 1 & -3 & 4 \\ 3& 1 &8 \\ -4 & -8 & 1 \end{array} \right) \ . $$
Решение. Можно было бы производить вычисления напрямую, но мы снова попытаемся сэкономить на количестве операций, действуя по схеме Хорнера: $$ g(A)=(((3A-E)A+2E)A-4E)A-E \ . $$ $$ B_1 = 3A-E = \left( \begin{array}{rrr} 2 & -9 & 12 \\ 9& 2 & 24 \\ -12 & -24 & 2 \end{array} \right) ; $$ $$ B_2=B_1A+2E= \left( \begin{array}{rrr} -71 & -111 & -52 \\ -81& -215 & 76 \\ -92 & -4 & -236 \end{array} \right) ; $$ $$ B_3=B_2A-4E= \left( \begin{array}{rrr} -200 & 518 & -1224 \\ -1030& -584 & -1968 \\ 840 & 2160 & -640 \end{array} \right) ; $$ $$ g(A)=B_4=B_3A-E= \left( \begin{array}{rrr} 6249 & 10910 & 2120 \\ 5090& 18249 & -10760 \\ 9880 & 4760 & 19999 \end{array} \right) $$ ♦
Более подробный анализ структуры и изложение способов вычисления полинома от матрицы (а также таких функций как $ e^x, \cos x , \sin x , \sqrt{x} $) ☞ ЗДЕСЬ.
Следующее определение сходно по звучанию с предыдущим, но не совпадает с ним по смыслу. Имеются разночтения в определении matrix polynomial — см. статьи Википедии Polynomial matrix и Matrix polynomial.
Рассмотрим квадратную матрицу, элементами которой являются полиномы над множеством $ \mathbb A_{} $ (мы ограничимся случаями, когда это множество совпадает с одним из множеств $ \mathbb Z_{},\mathbb Q, \mathbb R $ или $ \mathbb C_{} $).
Пример.
$$ A(x)=\left( \begin{array}{ccc} 3x^2+4x+1 & x^3 - \sqrt{3} & -2\,x +1 \\ x^2-1 & 7\,x^3-x+4 & 6\,x^2-3\,x+1 \\ 4\,x^3-7\,x^2+3\,x-2 & 2\,x-17 & x^2 \end{array} \right) \ . $$
Такую матрицу можно представить в виде полинома по $ x_{} $ с матричными коэффициентами: $$ A(x)= \left( \begin{array}{ccc} 0 & 1 & 0 \\ 0 & 7 & 0 \\ 4 & 0 & 0 \end{array} \right) x^3 + \left( \begin{array}{rcc} 3 & 0 & 0 \\ 1 & 0 & 6 \\ -7 & 0 & 1 \end{array} \right) x^2 + \left( \begin{array}{rrr} 4 & 0 & -2 \\ 0 & -1 & -3 \\ 3 & 2 & 0 \end{array} \right) x +\left( \begin{array}{rrr} 1 & - \sqrt{3} & 1 \\ -1 & 4 & 1 \\ -2 & -17 & 0 \end{array} \right) \ . $$
В общем случае полиномиальная матрица имеет вид $$ A(x)=A_0 x^m + A_1 x^{m-1}+\dots+A_m \ , $$ где $ A_0,\dots,A_{m} $ — квадратные числовые матрицы одинакового порядка $ n_{} $. Часто полиномиальная матрица называется матричным полиномом по $ x_{} $ (или же полиномом по $ x_{} $ с матричными коэффициентами). Если при этом $ A_0 \ne \mathbb O $, то $ n_{} $ называют степенью полиномиальной матрицы. Если, вдобавок, матрица $ A_{0} $ невырожденная, то матричный полином называется регулярным.
Матрица может быть определена не только явным образом, но и заданием соотношения, которому она должна удовлетворять. Так, к примеру обратная матрица для квадратной матрицы $ A $ фактически определялась как решение матричного уравнения $ AX= E $. Отсутствие свойства коммутативности умножения порождает причудливые комбинации, не имеющие аналогов в скалярном случае.
имеет вид $$ A^{\top}X+XA=C $$ при заданной матрице $ A_{} $ и заданной симметричной матрице $ C_{} $ (обе — квадратные одинакового порядка $ n_{} $), относительно неизвестной матрицы $ X_{} $, которая разыскивается также во множестве симметричных матриц порядка $ n_{} $.
Имеет важное значение в теории управления.
Уравнение является частным случаем матричного уравнения Сильвестра $$ AX+XB=C $$ при произвольных квадратных матрицах $ A,B,C_{} $.
Далее идет сложный для понимания материал!
Пример. Решить матричное уравнение Сильвестра для матриц второго порядка: $$ A=\left( \begin{array}{cc} a_{11} & a_{12} \\ a_{21} & a_{22} \end{array} \right) \ , \ B=\left( \begin{array}{cc} b_{11} & b_{12} \\ b_{21} & b_{22} \end{array} \right) \ , \ C=\left( \begin{array}{cc} c_{11} & c_{12} \\ c_{21} & c_{22} \end{array} \right) \ . $$
Решение. Подставляя в уравнение матрицу $$ X=\left( \begin{array}{cc} x_{11} & x_{12} \\ x_{21} & x_{22} \end{array} \right) \ , $$ с пока неопределенными элементами, получаем систему линейных уравнений, которую тоже запишем в матричном виде: $$ \left( \begin{array}{cccc} a_{11}+b_{11} & a_{12} & b_{21} & 0 \\ a_{21} & a_{22}+b_{11} & 0 & b_{21} \\ b_{12} & 0 & a_{11}+b_{22} & a_{12} \\ 0 & b_{12} & a_{21} & a_{22}+b_{22} \end{array} \right) \left( \begin{array}{c} x_{11} \\ x_{21} \\ x_{12} \\ x_{22} \end{array} \right)= \left( \begin{array}{c} c_{11} \\ c_{21} \\ c_{12} \\ c_{22} \end{array} \right) $$ (матрицы $ X_{} $ и $ C_{} $ «вытянули» в строки). Матрица в левой части имеет порядок $ 4_{} $ и может быть представлена в виде суммы двух матриц: $$ \left( \begin{array}{cccc} a_{11}+b_{11} & a_{12} & b_{21} & 0 \\ a_{21} & a_{22}+b_{11} & 0 & b_{21} \\ b_{12} & 0 & a_{11}+b_{22} & a_{12} \\ 0 & b_{12} & a_{21} & a_{22}+b_{22} \end{array} \right)= \left( \begin{array}{cccc} a_{11} & a_{12} & 0 & 0 \\ a_{21} & a_{22} & 0 & 0 \\ 0 & 0 & a_{11} & a_{12} \\ 0 & 0 & a_{21} & a_{22} \end{array} \right) + \left( \begin{array}{cccc} b_{11} & 0 & b_{21} & 0 \\ 0 & b_{11} & 0 & b_{21} \\ b_{12} & 0 & b_{22} & 0 \\ 0 & b_{12} & 0 & b_{22} \end{array} \right) \ . $$ Для формализации записи этих двух слагаемых придумана специальная операция ☞ КРОНЕКЕРОВО ПРОИЗВЕДЕНИЕ. Пока не останавливаясь на этом формализме, вычислим определитель: получим крайне громоздкий полином $ 4_{} $-й степени относительно элементов матриц $ A_{} $ и $ B_{} $. Оказывается, этот полином совпадает с результантом характеристического полинома матрицы $ A_{} $ и характеристического полинома матрицы $ (-B_{}) $: $$ \mathcal R (\det(A-\lambda E), \det(-B-\lambda E)) \ . $$ Если это выражение отличо от нуля, то матричное уравнение $ AX+XB=C $ имеет решение при любой матрице $ C_{} $. ♦
Уравнение $ x^2=-1 $ не имеет решения в вещественных числах. Можно ли утверждать аналогичное для уравнения матричного: $$X^2=- \left( \begin{array}{rr} 1 & 0 \\ 0 & 1 \end{array} \right) \ ? $$
Эта задача — вычисления квадратного корня из матрицы — является частью общей задачи о вычислении аналитической функции от матрицы, т.е. произвольной функции $ g(x) $, представимой в виде сходящегося ряда. Частным случаем задачи является рассмотренная выше задача вычисления полинома от матрицы. Подробнее об этой задаче ☞ ЗДЕСЬ.
Уравнение $$ A^{\top}X+XA-X^{\top}BX=C $$ называется матричным уравнением Риккати. Уравнение Ляпунова получается из него при нулевой матрице $ B $.
рассматривается ☞ ЗДЕСЬ
— это матрица, связывающая координаты произвольного вектора $ X_{} $ из $ n_{} $—мерного линейного пространства в двух различных базисах $ \{X_1,\dots,X_n\} $ и $ \{{\mathfrak X}_1,\dots,{\mathfrak X}_n\} $ этого пространства: $$X=x_1X_1+\dots+x_nX_n={\mathfrak x}_1{\mathfrak X}_1+\dots+{\mathfrak x}_n{\mathfrak X}_n \ .$$ Называется также матрицей перехода от базиса к базису. Подробнее ☞ ЗДЕСЬ.
— это матрица, связывающая координаты произвольного вектора $ X_{} $ из линейного пространства $ \mathbb V_{} $ с координатами его образа $ Y_{} $ в линейном пространстве $ \mathbb W_{} $ при выборе некоторых фиксированных базисов этих пространств. Подробнее ☞ ЗДЕСЬ.
☞ ЗДЕСЬ.