==Матрица==
~~TOC~~
===Определение, обозначения===
**Матрица**[[matrix (//лат.//) - праматерь, первопричина, первоисточник.]] -- прямоугольная таблица
$$ A=
\left(\begin{array}{llll}
3 & -7 & \dots & \sqrt{\pi} \\
&&& \\
C_n^1 & 101.(66) & \dots & \frac{5}{7} \\
\dots & & & \dots \\
\aleph_0 & 0 & \dots & e
\end{array}\right) ,
$$
в каждой ячейке которой располагается некоторое число (или, в общем случае, элемент из некоторого множества -- лишь бы только были определены те операции, что нам потребуются ниже), называемое **элементом матрицы**.
Будем обозначать матрицы прописными латинскими буквами $ \, A_{},B,\dots, {\mathfrak A},{\mathfrak B},\dots $, а -- при необходимости -- их элементы буквами строчными $ a_{},b,\dots,{\mathfrak a},{\mathfrak b},\dots $ Сами таблицы условимся ограничивать скобками -- либо круглыми $ ( \quad )_{} $, либо квадратными $ [ \quad ]_{} $.
В матрице $ A_{} $ естественным образом выделяются строки и столбцы, при этом отсчет строк и столбцов уславливаются вести, начиная от левого верхнего угла матрицы. Упорядоченная пара чисел
**(количество строк, количество столбцов)**
матрицы называется **порядком** (или **размерностью**) матрицы. Так, если матрица имеет $ m_{} $ строк и $ n_{} $ столбцов, то о ней говорят как о **матрице порядка** $ \mathbf m_{} $ **на** $ \mathbf n_{} $, и записывают порядок в виде $ m\times n_{} $.
Любая $ m\times n_{} $-матрица содержит всего $ \,mn_{} $ элементов, и каждому из этих элементов можно поставить в соответствие "координаты его местоположения" в матрице, т.е. упорядоченную пару натуральных чисел $ (j,k)_{} $, в которой первое число отвечает за номер строки элемента, а второе --- за номер его столбца.
Часто будет возникать необходимость записи матрицы общего вида, т.е. матрицы с элементами, числовые значения которых могут быть переменными. В самом общем случае --- когда все элементы матрицы $ A_{} $ могут быть произвольными --- будем их записывать в виде $ a_{jk}^{} $ или же, когда необходимо избежать недоразумения, в виде $ a_{j,k}^{} $. Так, $ a_{11}^{} $ означает элемент матрицы $ A_{} $, стоящий в ее левом верхнем углу; $ b_{10,3}^{} $ -- элемент матрицы $ B\, $, стоящий в $ 10_{} $-й строке и $ 3_{} $-м столбце; $ {\mathfrak c}_{m-3,2n-7}^{} $ -- элемент матрицы $ {\mathfrak C}_{} $, стоящий в $ (m-3)_{} $-й строке и $ (2n-7)_{} $-м столбце. Такая договоренность позволяет записывать компактно матрицы, для элементов которых имеется функциональная зависимость от местоположения в таблице. К примеру, совершенно произвольную $ m\times n_{} $-матрицу
$$
A=
\left( \begin{array}{lllll}
a_{11} & a_{12} & a_{13}& \dots & a_{1n} \\
a_{21} & a_{22} & a_{23}& \dots & a_{2n} \\
\dots & & & & \dots \\
a_{m1} & a_{m2} & a_{m3}& \dots & a_{mn}
\end{array}
\right)
$$
мы можем записать в виде $ A_{}=\left[a_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} $.
!!П!! **Пример.**
$$
A=\left [\frac{1}{j+k-1}
\right ]_{j=1,2,3,4 \atop k=1,2,3}
=
\left(\begin{array}{rrr}
1 & \frac{1}{2} & \frac{1}{3} \\
&& \\
\frac{1}{2} & \frac{1}{3} & \frac{1}{4} \\
&& \\
\frac{1}{3} & \frac{1}{4} & \frac{1}{5} \\
&& \\
\frac{1}{4} & \frac{1}{5} & \frac{1}{6}
\end{array}\right)
.
$$
!!?!!
Найти развернутое выражение для матриц, представленных в компактной форме\\
**a)** $ A_{} =\left [ \max (j,k) \right ]_{j=1,2,3,4 \atop k=1,2\quad} $ ;\\
**б)** $ B_{} =\left [ |j-k| \right ]_{j=1,2,3 \atop k=1,2,3 } $ ;\\
**в)** $ C_{}=\left [\delta_{jk} \right ]_{j=1,\dots,5 \atop k=1,2,3 } $,
где $ \delta_{jk}^{} $ означает ((algebra2:notations#Символ_Кронекера символ Кронекера)).
В принятых обозначениях $ j_{} $**-й строкой** произвольной матрицы $ A_{} $ будет матрица
$$ A^{[j]}=\left(a_{j1},a_{j2},\dots,a_{jn} \right) , $$
а ее $ k_{} $**-м столбцом** -- матрица
$$
A_{[k]}=\left( \begin{array}{c} a_{1k} \\ a_{2k} \\ \vdots \\ a_{mk} \end{array} \right) .
$$
Матрицы $ A_{} $ и $ B_{} $ называются **равными** если равны их порядки и совпадают элементы на соответствующих местах:
$$ A=\left[a_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \ , \
B=\left[b_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \ ,
$$
$$
\quad \Rightarrow \quad \ A=B \ \iff \ a_{jk} =b_{jk} \ \forall j\in \{1,\dots,m \},\
k\in \{1,\dots,n \} .
$$
Матрицы разных порядков не считаются равными.
Еще одно упрощение записи -- часто применяемое для матриц заранее не специфицированного порядка -- заключается в том, что если некоторый участок матрицы занят равными нулю элементами, то они либо не указываются вовсе, либо вся их совокупность обозначается $ {\mathbb O}_{} $.
Матрица, состоящая только из нулей, называется **нулевой матрицей** соответствующего порядка.
Ее будем записывать в виде $ {\mathbb O}_{m\times n}^{} $.
!!П!! **Пример.**
$$
\left(\begin{array}{rrrr}
0 & 0 & 0 & 0 \\
0 & 0 & 0 & 0
\end{array}\right) = {\mathbb O}_{2\times 4} \ .
$$
===Элементарные операции===
====умножение на число====
**Произведением матрицы** $ A_{} $ **на число** (**скаляр**) $ c_{} $ называется матрица, каждый элемент которой равен произведению соответствующего элемента матрицы $ A_{} $ на число $ c_{} $:
$$
A=\left[a_{jk} \right ]_{j=1,\dots,m \atop k=1,\dots,n} \ {\color{RubineRed} \Rightarrow } \
c\cdot A = \left [ca_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \ .
$$
$$
3\cdot
\left(\begin{array}{rrr}
1& 0 & 1 \\
-1 & 1 & 0 \\
0 & 1 & 2
\end{array}
\right) =
\left(\begin{array}{rrr}
3& 0 & 3 \\
-3 & 3 & 0 \\
0 & 3 & 6
\end{array}
\right) , \quad
2\cdot
\left(
\begin{array}{r}
1 \\ 0 \\ -1
\end{array}
\right) =
.
$$
====сложение====
Для матриц $ A_{} $ и $ B_{} $ одного порядка их **суммой** называется матрица, каждый элемент которой равен сумме соответствующих элементов складываемых матриц:
$$A =\left[a_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n}, \ B=\left[b_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \quad{\color{RubineRed} \Rightarrow } \quad A+B = \left[a_{jk} + b_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \, .$$
$$
\left(
\begin{array}{rrr}
1& -2 & -1 \\
2 & -1 & -2 \\
1 & 2 & \sqrt{3} \\
0 & 1 & 7
\end{array}
\right)
+
\left(
\begin{array}{rrr}
-1& 3 & 2 \\
1 & 0 & 1 \\
-1 & -2 & 3 \\
-1 & 1 & -5
\end{array}
\right)=
$$
!!Т!! **Теорема.** //Множество матриц фиксированного порядка// $ m \times n_{} $ //образует ((:linear_space линейное пространство)) относительно двух этих введенных операций.//
Будем обозначать это пространство $ \mathbb R^{m \times n} $ в случае, когда рассматриваются только числа (элементы матрицы и скаляры, на которые допускается их домножение) вещественные, и $ \mathbb C^{m \times n} $ если рассматриваются и мнимые.
====транспонирование====
Преобразование матрицы, при котором ее строки становятся столбцами новой матрицы, называется **транспонированием** матрицы:
$$
\left( \begin{array}{lllll}
a_{11} & a_{12} & a_{13}& \dots & a_{1n} \\
a_{21} & a_{22} & a_{23}& \dots & a_{2n} \\
\dots & & & & \dots \\
a_{m1} & a_{m2} & a_{m3}& \dots & a_{mn}
\end{array}
\right)^{\top}=
\left(\begin{array}{llll}
a_{11} & a_{21} & \dots & a_{m1} \\
a_{12} & a_{22} & \dots & a_{m2} \\
a_{13} & a_{23} & \dots & a_{m3} \\
\vdots & & & \vdots \\
a_{1n} & a_{2n} & \dots & a_{mn}
\end{array}
\right)
$$
В компактном виде:
$$
\left( \left[a_{jk} \right]_{j=1,\dots,m \atop k=1,\dots,n} \right)^{\top}=\left[a_{kj} \right]_{k=1,\dots,n \atop j=1,\dots,m}
,
$$
а в схематичном:
{{ transpose.gif |}}
!!§!! В литературе для операции транспонирования используются также обозначения $ A^{t}=\mbox{ }^{t}A=A^{\prime}=A^{\ast} $.
!!?!! Показать справедливость следующих свойств операции транспонирования:
**а)** $ \left( A^{\top} \right)^{\top} = A $;
**б)** $ (A+B)^{\top}=A^{\top} + B^{\top} $;
**в)** $ (cA)^{\top}=c A^{\top} $, где $ c_{} $ --- число;
**г)** $ (AB)^{\top}= B^{\top} A^{\top} $
при условии, что все операции в левых частях равенств определены (операция умножения матриц определяется
☟
((#умножение_матриц НИЖЕ)) ).
====конкатенация====
Для матриц $ A_{} $ и $ B_{} $ с одинаковым количеством строк можно определить операцию $ A\mid B_{} $ (будем также использовать обозначение $ [A \mid B] $) **конкатенации**[[concatenatio (//лат.//) --- сцепление, связь]] матриц:
$$ A=
\left(\begin{array}{llll}
a_{11} & a_{12} & \dots & a_{1n} \\
a_{21} & a_{22} & \dots & a_{2n} \\
\dots & & & \dots \\
a_{m1} & a_{m2} & \dots & a_{mn}
\end{array}\right) \ , \
B=
\left(\begin{array}{llll}
b_{11} & b_{12} & \dots & b_{1k} \\
b_{21} & b_{22} & \dots & b_{2k} \\
\dots & & & \dots \\
b_{m1} & b_{m2} & \dots & b_{mk}
\end{array}\right) \Rightarrow
$$
$$
\Rightarrow A\mid B=
\left(\begin{array}{llllllll}
a_{11} & a_{12} & \dots & a_{1n} & b_{11} & b_{12} & \dots & b_{1k} \\
a_{21} & a_{22} & \dots & a_{2n} & b_{21} & b_{22} & \dots & b_{2k} \\
\dots & & & &&& & \dots \\
a_{m1} & a_{m2} & \dots & a_{mn} & b_{m1} & b_{m2} & \dots & b_{mk}
\end{array}\right).
$$
Проще говоря: к матрице $ A_{} $ "приписывается" справа матрица $ B_{} $. В этом смысле саму матрицу $ A_{} $ можно считать результатом конкатенации ее столбцов:
$$ A= A_{[1]}\mid A_{[2]} \mid \dots \mid A_{[m]}=\left[ A_{[1]}\mid A_{[2]} \mid \dots \mid A_{[m]} \right] \ . $$
Можно также производить конкатенацию матриц "по вертикали", т.е. по строкам[[Обозначения для этой операции не встречал.]]. Одновременную конкатенацию --- когда к матрице $ A_{m\times n}^{} $ приписывается столбец $ U_{m\times 1 } $ справа и строка $ V_{1\times (n+1)} $ снизу --- называют **окаймлением**[[(//англ.//) bordering of the matrix]] матрицы.
====векторизация====
матрицы[[vectorization (//англ.//)]] произвольного порядка образно означает "вытягивание" ее в вектор-столбец. Если
представить матрицу как результат конкатенации ее столбцов:
$$ A=\left[A_{[1]} \mid A_{[2]} \mid \dots \mid A_{[n]}\right] , $$
то
$$ \operatorname{Vec}(A)=\left(\begin{array}{c}
A_{[1]} \\ A_{[2]}\\ \vdots \\ A_{[n]}
\end{array}
\right) \, .
$$
Так, например
$$
\operatorname{Vec}\left(\begin{array}{ccc}
a_1 & b_1 & c_1 \\
a_2 & b_2 & c_2
\end{array}
\right)=
\left(\begin{array}{c}
a_1 \\
a_2 \\
b_1 \\
b_2 \\
c_1 \\
c_2
\end{array}
\right)\, .
$$
====перезагрузка==
((algebra2:reloading перезагрузка))...
===Умножение матриц===
Для матрицы-строки $ U=(u_{1},\dots,u_n) $ и матрицы-столбца $ V=\left(\begin{array}{c} v_{1}\\ \vdots\\ v_n \end{array}\right) $ определим произведение $ U\cdot V_{} $ как число \\
$$ U\cdot V= u_1v_1+\dots+u_nv_n . $$
Для произвольных матриц $ A_{} $ и $ B_{} $ произведение матрицы $ A_{} $ на матрицу $ B_{} $ определяется тогда и только тогда, когда их порядки связаны ограничением:\\
\\
**количество столбцов матрицы** $ A_{} $ = **количество строк матрицы** $ B_{} $
т.е. если матрица $ A_{} $ имеет порядок $ m\times n_{} $, то матрица $ B_{} $ может иметь порядок $ n\times k_{} $ при $ \forall k\in{\mathbb N}_{} $. В этом случае произведение матрицы $ A_{} $ на матрицу $ B_{} $ обозначается[[Я также буду использовать и обозначение $ A\times B_{} $, хотя и реже...]] $ A\cdot B_{} $ и представляет собой матрицу $ C_{} $ порядка $ m\times k_{} $:
$$
\begin{array}{ccccc}
C&=&A&\cdot&B ,\\
{m\times k}&&{m\times n}&&{n\times k}
\end{array}
$$
элементы которой вычисляются по следующему правилу
$$
C=[c_{j\ell}]_{_{j=1,\dots,m\atop
\ell=1,\dots,k
}},\quad
c_{j\ell}= A^{[j]}B_{[\ell]}=a_{j1}b_{1\ell}+a_{j2}b_{2\ell}+\dots+a_{jn}b_{n\ell} .
$$
Таким образом, элемент, стоящий в $ j_{} $-й строке и $ \ell_{} $-м столбце матрицы $ C_{} $, равен произведению $ j_{} $-й строки матрицы $ A_{} $ на $ \ell_{} $-й столбец матрицы $ B_{} $.
В схематичном виде:
{{ mat_mul.gif |}}
Порядок ("размеры") матрицы $ C_{} $ определяется следующим образом: высота берется от первого сомножителя, а ширина --- от второго.
При этом произведение $ B \cdot A_{} $ может и не быть определено!
!!П!! **Пример.**
$$
A=\left(\begin{array}{rr}
1&2\\
-1&0\\
3&7
\end{array}\right),B=\left(\begin{array}{rrrr}
\mathbf i&0&0&-1\\
4&2&0&-2
\end{array}\right) \color{Red}{\Longrightarrow} A\cdot B=\left(\begin{array}{rrrr}
8+ \mathbf i&4&0&-5\\
-\mathbf i&0&0&1\\
28+3\mathbf i&14&0&-17
\end{array}\right)
$$
!!П!! **Пример.**
$$
A=\left(
\begin{array}{rrr}
3&-1&-1\\
2&0&1\\
1&1&1
\end{array}\right),B=\left(\begin{array}{rr}
2&1\\
-1&0\\
0&1
\end{array}\right) \color{Red}{\Longrightarrow} A\cdot B= \left(\begin{array}{rr}
7&2\\
4&3\\
1&2
\end{array}\right)
$$
!!П!! **Пример.**
$$
A=\left(\begin{array}{c}
1\\ 0\\ 1\\ 1
\end{array}\right), B=(1,2,-1,-2) \color{Red}{\Longrightarrow} A\cdot B=
\left(\begin{array}{rrrr}
1&2&-1&-2\\
0&0&0&0\\
1&2&-1&-2\\
1&2&-1&-2
\end{array}\right)
$$
$$
B \cdot A = ( - 2 ) \ .
$$
!!Т!! **Теорема.** //Операция умножения матриц подчиняется ассоциативному закону://
$$ (A\cdot B) \cdot D = A\cdot (B \cdot D) $$
//если хотя бы в одной части равенства произведение определено//.
**Доказательство**
☞
((:algebra2:assoc ЗДЕСЬ)).
Операция умножения матриц
некоммутативна
: даже если определены оба произведения $ A\cdot B_{} $ и $ B \cdot A_{} $, то, __как правило__, $ A\cdot B \ne B \cdot A $.
Что послужило причиной введения такой операции умножения?
**Ответ** и дальнейшие свойства операции умножения
☞
((:algebra2:assoc#obosnovanie_pravila_umnozhenija_matric ЗДЕСЬ)).
В приложениях используются и другие определения произведения двух матриц. Например, для матриц $ A_{} $ и $ B_{} $ одинакового порядка их **адамаровым произведением** называется матрица того же порядка, состоящая из поэлементных произведений: $ C=\left[ a_{jk} b_{jk} \right] $. См. также и
☞
((algebra2:kronecker_prod КРОНЕКЕРОВО ПРОИЗВЕДЕНИЕ)).
===Квадратные матрицы===
Матрица $ A_{} $ называется **квадратной**, если количество ее строк равно количеству ее столбцов. О квадратной $ n\times n_{} $-матрице будем говорить как о **матрице порядка** $ \mathbf n $, а записывать ее компактно в виде
$$A=\left[ a_{jk} \right]_{j,k=1}^n$$
Если матрицы $ A_{} $ и $ B_{} $ -- квадратные порядка $ n_{} $, то обе матрицы $ AB_{} $ и $ BA_{} $ являются тоже квадратными порядка $ n_{} $. Тем не менее, и в этом случае, как правило, $ AB\ne BA_{} $.
!!П!! **Пример.**
$$
A=
\begin{pmatrix}
1 & 2 \\
3 & 4
\end{pmatrix}
,\quad
B=
\begin{pmatrix}
1 & 2 \\
5 & 3
\end{pmatrix} \color{Red}{\Longrightarrow}
AB=
\begin{pmatrix}
11 & 8 \\
23 & 18
\end{pmatrix},\
BA=
\begin{pmatrix}
7 & 10 \\
14 & 22
\end{pmatrix}
.
$$
----
Говорят, что квадратные матрицы $ A $ и $ B $ **коммутируют** (или **перестановочны**), если $ AB=BA $.
====симметричная====
**Главной диагональю** квадратной матрицы $ A_{} $ называется ее диагональ, идущая из левого верхнего в правый нижний угол, т.е. эта диагональ совпадает с вектором $ (a_{11},\dots,a_{jj},\dots,a_{nn}^{}) $.
Матрица $ A_{} $ называется **симметричной** если она удовлетворяет соотношению
$$A=A^{\top} .$$
Из определения следует, что симметричная матрица может быть только квадратной, а ее элементы должны удовлетворять соотношению:
$$ a_{jk}=a_{kj} \quad npu \ \{j,k \} \subset \{1,\dots, n\} . $$
Иными словами, симметричная матрица --- это такая матрица, которая симметрична относительно своей главной диагонали.
!!?!!
Сколько элементов надо задать, чтобы однозначно определить симметричную матрицу порядка $ n_{} $?
Частным случаем симметричной матрицы является **диагональная** матрица:
$$
D=\left(
\begin{array}{cccc}
a_{11} & & & \\
& a_{22} & & {\mathbb O} \\
{\mathbb O} & & \ddots & \\
& & & a_{nn}
\end{array}
\right) .
$$
!!§!! ''Подробнее о симметричной матрице''
☞
((:algebra2:symmetric ЗДЕСЬ)).
====единичная====
Матрица $$
E_n =
\left(
\begin{array}{cccc}
1 & & & \\
& 1 & & {\mathbb O} \\
{\mathbb O} & & \ddots & \\
& & & 1
\end{array}
\right)_{n}=
\left[\delta_{jk} \right]_{j,k=1}^n
$$ называется **единичной матрицей порядка** $ n_{} $.
====кососимметричная====
Матрица $ A_{} $ называется **кососимметричной** если она удовлетворяет соотношению
$$A=-A^{\top} .$$
Из определения следует, что кососимметричная матрица может быть только квадратной, а ее элементы должны удовлетворять соотношению:
$$ a_{jk}=-a_{kj} \quad , \ \{j,k \} \subset \{1,\dots, n\} . $$
Отсюда вытекает, что все элементы главной диагонали кососимметричной матрицы должны быть равны 0.
!!П!! **Пример.** Векторное произведение вектора $ X=(x_{1},x_2,x_3) $ на вектор $ Y=(y_{1},y_2,y_3) $ может быть задано с помощью кососимметричной матрицы:
$$
X\times Y = (x_{1},x_2,x_3) \left(\begin{array}{rrr}
0 & -y_3 & y_2 \\
y_3 & 0 & -y_1 \\
-y_2 & y_1 & 0
\end{array}
\right)
\, .
$$
!!?!! Указать все элементы кососимметричной матрицы
$$
\left(
\begin{array}{rrr}
\color{Red}{\Box} & 1 & \color{Red}{\Box} \\
\color{Red}{\Box} & \color{Red}{\Box} & 3 \\
-2 & \color{Red}{\Box} & \color{Red}{\Box}
\end{array}
\right)_{3\times 3} .
$$
!!?!! Доказать, что при любой квадратной матрице $ A_{} $ \\
**а)** матрицы $ A_{}+A^{\top} $ и $ A_{}A^{\top} $ будут симметричными;\\
**б)** матрица $ A_{}-A^{\top} $ будет кососимметричной.
!!Т!! **Теорема.** //Для любой квадратной матрицы// $ A_{} $ //существует и единственно ее представление в виде суммы симметричной и кососимметричной матриц, а именно//:
$$ A = \frac{1}{2} (A+A^{\top}) + \frac{1}{2} (A-A^{\top}) \ . $$
!!§!! ''Свойства кососимметричной матрицы''
☞
((algebra2:skewsym ЗДЕСЬ))
====обратно симметричная матрица==
Не очень удачный перевод на русский выражения reciprocal symmetric matrix. Формально определяется как квадратная матрица с ненулевыми элементами, удовлетворяющая соотношению
$$ A=[a_{jk}]_{j,k=1}^n , a_{jk}=1/a_{kj} \ . $$
Из этого определения следует, что все элементы главной диагонали такой матрицы равны $ 1_{} $.
Обычно рассматриваются ((#положительная положительные)) обратно симметричные матрицы.
!!П!! **Пример.**
$$
\left( \begin{array}{rrr}
1 & \sqrt{2} & 3 \\
1/\sqrt{2} & 1 & 1/4 \\
1/3 & 4 & 1
\end{array}
\right) \ .
$$
Матрицы встречаются в ((https://ru.wikipedia.org/wiki/%D0%A2%D0%B5%D0%BE%D1%80%D0%B8%D1%8F_%D0%BF%D1%80%D0%B8%D0%BD%D1%8F%D1%82%D0%B8%D1%8F_%D1%80%D0%B5%D1%88%D0%B5%D0%BD%D0%B8%D0%B9 теории принятия решений)). Пусть имеется $ n_{} $ различных критериев $ C_1,C_2,\dots, C_n $ и человек, принимающий решения (эксперт), может оценить во сколько раз критерий $ C_j $ важнее (предпочтительней) критерия $ C_k $; соответствующую величину $ a_{jk} $ называют интенсивностью (мощностью) предпочтения[[preference intensivity]]. Особенно удачно, если эксперт оказывается достаточно квалифицированным (или самоуверенным) и в состоянии ранжировать набор критериев, придав каждому определенные //веса// $ w_1,w_2,\dots, w_n $. Тогда матрица
$$
\left[\frac{w_j}{w_k} \right]_{j,k=1}^n
$$
представляет собой обратно симметричную матрицу, обладающую свойством
$$ a_{jk}=a_{j\ell}a_{\ell k} \ . $$
В этом случае про обратно симметричную матрицу говорят, что она мощностно-транзитивная[[intensity transitive]].
====треугольная====
Так называется квадратная матрица, у которой все элементы выше ((#симметричная главной диагонали)) или ниже ее равны нулю.
{{ upper_trian21.gif|}}
Различают **верхнетреугольную**[[ Upper и Lower (//англ.//)]]
$$
U=\left(\begin{array}{ccccc}
a_{11} & a_{12} &a_{13} & \dots & a_{1n} \\
& a_{22} & a_{23} & \dots & a_{2n} \\
& & \ddots & & \\
& \mathbb O & & \ddots & \vdots \\
& & & & a_{nn}
\end{array}
\right)
$$
и **нижнетреугольную**
{{ low_trian21.gif|}}
$$
L=\left(\begin{array}{ccccc}
a_{11} & & & & \\
a_{21} & a_{22} & & & \\
& & \ddots & \mathbb O & \\
\vdots & & & \ddots & \\
a_{n1} & a_{n2} & \dots & & a_{nn}
\end{array}
\right)
$$
матрицы. Часто эти матрицы называют **право**- и **левотреугольными** соответственно и обозначают тогда $ R_{} $ и $ L_{} $. В одной и той же книге можно встретить одновременно
**LU**-разложение матрицы и **QR**-разложение матрицы; при этом вторые буквы означают именно верхнетреугольные матрицы. Так исторически сложилось: неудобно, но привычно!
====Хессенберга====
Матрица вида
$$
\left(\begin{array}{llllll}
a_{11} & a_{12} & a_{13} & \dots & a_{1,n-1} & a_{1n} \\
a_{21} & a_{22} & a_{23} & \dots & a_{2,n-1} & a_{2n} \\
0 & a_{32} & a_{33} & \dots & a_{3,n-1} & a_{3n} \\
\vdots & & \ddots & & & \\
0 & 0 & 0 & \dots & a_{n,n-1} & a_{nn}
\end{array}
\right) \ ,
$$
т.е. с элементами $ a_{ij}=0 $ при $ i
В литературе под ортогональной матрицей иногда понимают и матрицу с комплексными элементами, удовлетворяющую соотношению
$ A \cdot A^{\top} = E $. Тогда для матрицы из приведенного выше случая используют название //вещественная ортогональная матрица//.
!!П!! **Пример.** Матрица
$$
\left(
\begin{array}{rr}
\cos \theta & - \sin \theta \\
\sin \theta & \cos \theta
\end{array}
\right)
$$
--- ортогональная.
!!Т!! **Теорема.** //Если матрица// $ A_{} $ --- //ортогональная, то и матрица// $ A_{}^{\top} $ --- //ортогональная, т.е. у ортогональной матрицы взаимно ортогональны не только строки, но и столбцы.//
!!§!! ''Подробнее об ортогональной матрице''
☞
((:algebra2:ort_matrix ЗДЕСЬ))
Следующий класс матриц не относится ко множеству ортогональных, но близок к нему по смыслу.
Матрица $ A_{} $ называется **матрицей Адамара**[[Адамар Жак (Hadamard Jacques Salomon, 1865-1963) --- французский математик. Биография
☞
((http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Hadamard.html ЗДЕСЬ))]] если любой ее элемент равен либо $ +1_{} $ либо $ - 1_{} $ и ее строки взаимно ортогональны. Иными словами для матрицы Адамара порядка $ n_{} $ должно быть выполнено:
$$ A^{\top} \cdot A = n E \ , $$
где $ E_{} $ --- единичная матрица того же порядка.
!!П!! **Пример.** Матрицы
$$
\left(
\begin{array}{rr}
1 & 1 \\
1 & -1
\end{array}
\right) \quad u \quad
\left(
\begin{array}{rrrr}
1 & 1 & 1 & 1 \\
1 & -1 &1 & -1 \\
1 & 1 & -1 & -1 \\
1 & -1 & -1 & 1
\end{array}
\right)
$$
--- матрицы Адамара. С помощью последней матрицы и следующего результата можно сконструировать матрицу Адамара порядка $ 2^{n} $.
!!Т!! **Теорема.** //Если// $ H_{} $ --- //матрица Адамара порядка// $ n_{} $, //то блочная матрица// $$ \left[ \begin{array}{rr}
H & H \\
H & -H
\end{array}
\right]
$$
//является матрицей Адамара порядка// $ 2\,n $.
Если при $ n> 2 $ матрица Адамара существует, то $ n_{} $ должно быть кратно $ 4_{} $. Обратное утверждение составляет содержание следующей гипотезы:
**Гипотеза Адамара**: для любого натурального $ n_{} $ кратного $ 4_{} $ существует матрица Адамара порядка $ n_{} $. Не доказана.[[По состоянию на 2020 г.]]
!!§!! ''Применение матрицы Адамара'':
☞
((:codes:hamming#расстояние_хэмминга КОДИРОВАНИЕ)).
☞
Максимальное значение определитедя матрицы порядка $ n $, элементы которой по модулю не превосходят $ 1 $ достигается на матрицах Адамара (в случае их существования для данного $ n $); оно равно $ n^{n/2} $. См.
☞
((:algebra2:dets#оценка_величины_определителя Неравенство Адамара))
====ганкелева====
{{ hankel.gif|}}
матрица --- это квадратная матрица вида
$$
\left(\begin{array}{lllll}
h_0 & h_1 & h_2 & \dots & h_{n-1} \\
h_1 & h_2 & h_3 & \dots & h_n \\
h_2 & h_3 & h_4 & \dots & h_{n+1} \\
\vdots & & & \ddots & \vdots \\
h_{n-1} & h_{n} & h_{n+1} & \dots & h_{2n-2}
\end{array}
\right)_{n\times n}= \left[ h_{j+k}\right]_{j,k=0}^{n-1}
$$
((#симметричная Симметричная)) матрица, на каждой диагонали которой, перпендикулярной главной, стоят одинаковые элементы. Таким образом, ганкелева[[Ганкель Герман (Hankel Hermann, 1839-1873) --- немецкий математик. Биография
☞
((http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Hankel.html ЗДЕСЬ))]] матрица полностью определяется заданием своих крайних элементов:
$$ h_0,h_1,\dots, h_{2n-2} $$
--- они называются **образующими ганкелевой матрицы**.
!!§!! Подробнее о ганкелевой матрице
☞
((:algebra2:hankel ЗДЕСЬ)).
====тёплицева====
{{ toeplitz.gif|}}
Так называется квадратная матрица вида
$$
\left(\begin{array}{lllll}
t_0 & t_{-1} & t_{-2} & \dots & t_{-n+1} \\
t_1 & t_0 & t_{-1} & \dots & t_{-n+2} \\
t_2 & t_1 & t_0 & \dots & t_{-n+3} \\
\vdots & & & & \vdots \\
t_{n-1} & t_{n-2} & t_{n-3} & \dots & t_{0}
\end{array}
\right)= \left[ t_{j-k}\right]_{j,k=0}^{n-1} \ .
$$
Элементы каждой диагонали, параллельной главной, одинаковы. В отличие от ((#ганкелева ганкелевой)) матрицы, теплицева[[Тёплиц Отто (Toeplitz Otto, 1881-1940) --- немецкий математик. Биография
☞
((http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Toeplitz.html ЗДЕСЬ)).]] матрица не обязательно симметрична.
Частным случаем тёплицевой матрицы является **циклическая** матрица:
$$
\left(\begin{array}{lllll}
a_1 & a_2 & a_3 & \dots & a_n \\
a_n & a_1 & a_2 & \dots & a_{n-1} \\
a_{n-1} & a_n & a_1 & \dots & a_{n-2} \\
\vdots & & & & \vdots \\
a_2 & a_3 & a_4 & \dots & a_1
\end{array}
\right) \ ;
$$
(иногда называется **циркулянтом**, хотя в отечественной литературе циркулянтом чаще называют ее определитель).
Каждая строка, начиная со второй, получается сдвигом предыдущей вправо на один элемент; тот элемент, что при этом сдвиге "вываливается" за пределы матрицы, переставляется в начало строки.
!!§!! ''Подробнее о циклической матрице''
☞
((:algebra2:cyclic ЗДЕСЬ))
==== положительная ==
Так называется матрица $ A_{} $ все элементы которой положительны (определяется для матриц произвольного порядка --- не обязательно квадратных). Обозначается $ A > 0 $ или $ A > \mathbb O $. По аналогии определяются неотрицательная ( $ A \ge 0 $), отрицательная и неположительная матрицы.
====стохастическая====
Неотрицательная матрица, в которой сумма элементов каждой строки равна $ 1 $:
$$
\left(\begin{array}{cccc}
p_{11} & p_{12} & \dots & p_{1n} \\
p_{21} & p_{22} & \dots & p_{2n} \\
& & & \\
p_{n1} & p_{n2} & \dots & p_{nn}
\end{array}
\right)
$$
$$\sum_{j=1}^n p_{kj}=1 \ npu \ k \in \{1,\dots,n \} . $$
!!П!! **Пример.**
$$
\left(\begin{array}{cccc}
1/3 & 1/2 & 1/6 & 0 \\
0 & 1 & 0 & 0\\
0.13 & 0.35 & 0.21 & 0.31 \\
1/4 & 1/4 & 1/4 & 1/4
\end{array}
\right)
$$
Используется в теории вероятностей, см.
☞
((:markov_chain цепи Маркова)).
====элементарных преобразований====
Для квадратной матрицы $ A_{} $ умножение ее на единичную матрицу $ E_{} $ того же порядка не приводит к изменению матрицы: $ A \cdot E = E\cdot A=A_{} $. Теперь "испортим" матрицу $ E_{} $ хотя бы в одном ее элементе и понаблюдаем за результатами аналогичных умножений.
!!П!! **Пример.** **а)** Изменяется элемент вне главной диагонали: $ 0_{} $ меняется на какое-то число $ {\color{Red}{ \alpha} } \in \mathbb A_{} $.
$$
\left(
\begin{array}{ccc}
1 & 0 & 0 \\
0 & 1 & 0 \\
0 & {\color{Red}{ \alpha} } & 1
\end{array}
\right)
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right)=
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} + {\color{Red}{ \alpha} } a_{21} & a_{32} + {\color{Red}{ \alpha} } a_{22} & a_{33} + {\color{Red}{ \alpha} } a_{23}
\end{array}
\right) \ ;
$$
$$
\left(
\begin{array}{ccc}
1 & 0 & 0 \\
0 & 1 & {\color{Red}{ \alpha} } \\
0 & 0& 1
\end{array}
\right)
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right)=
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{21} + {\color{Red}{ \alpha} } a_{31} & a_{22} + {\color{Red}{ \alpha} } a_{32} & a_{23} + {\color{Red}{ \alpha} } a_{33} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right) \ .
$$
**Вывод.** Умножение матрицы такого вида ( $ 0_{} $ в $ j_{} $-й строке и $ k_{} $-м столбце матрицы $ E_{} $ меняется на $ {\color{Red}{ \alpha} } $) слева на матрицу $ A_{} $ эквивалентно прибавлению к $ j_{} $-й строке матрицы $ A_{} $ ее $ k_{} $-й строки, домноженной на $ {\color{Red}{ \alpha} } $.
**б)** Изменяется элемент главной диагонали: $ 1_{} $ меняется на какое-то число $ {\color{Red}{ \alpha} } \in \mathbb A_{} $.
$$
\left(
\begin{array}{ccc}
1 & 0 & 0 \\
0 & {\color{Red}{ \alpha} } & 0 \\
0 & 0& 1
\end{array}
\right)
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right)=
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
{\color{Red}{ \alpha} } a_{21} & {\color{Red}{ \alpha} } a_{22} & {\color{Red}{ \alpha} } a_{23} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right)
$$
**Вывод.** Умножение матрицы такого вида ( $ 1_{} $ в $ j_{} $-й строке матрицы $ E_{} $ меняется на $ {\color{Red}{ \alpha} } $) слева на матрицу $ A_{} $ эквивалентно домножению на $ {\color{Red}{ \alpha} } $ соответствующей строки матрицы $ A_{} $.
**в)** Произведем еще одну "экзекуцию" с матрицей $ E_{} $: переставим местами две ее строки. Такая матрица иногда называется **матрицей перестановки** (и, кстати, является ((#ортогональная ортогональной)) ) , что оправдано следующим ее свойством: умножим ее на $ A_{} $:
$$
\left(
\begin{array}{ccc}
1 & 0 & 0 \\
0 & 0 & 1 \\
0 & 1& 0
\end{array}
\right)
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right)=
\left(
\begin{array}{ccc}
a_{11} & a_{12} & a_{13} \\
a_{31} & a_{32} & a_{33} \\
a_{21} & a_{22} & a_{23}
\end{array}
\right)
$$
**Вывод.** Умножение матрицы такого вида (переставляются $ j_{} $-я и $ k_{} $-я строки матрицы $ E_{} $) слева на матрицу $ A_{} $ эквивалентно перестановке соответствующих строк матрицы $ A_{} $.
♦
Для общего случая матриц порядка $ n_{} $ матрицы, построенные по аналогии с предыдущим примером, называются **матрицами элементарных преобразований**.
!!?!! Показать, что умножение матриц преобразований __справа__ на матрицу $ A_{} $ эквивалентно соответствующим преобразованиям __столбцов__ матрицы $ A_{} $.
!!?!! Какое действие с матрицей $ A_{} $ оказывает умножение ее на матрицу
$$
\left(
\begin{array}{ccccc}
0 & 0 & \dots & 0 & 1 \\
0 & 0 & \dots & 1 & 0 \\
\vdots & & & & \vdots \\
0 & 1 & \dots & 0 & 0 \\
1 & 0 & \dots & 0 & 0
\end{array}
\right) \ ?
$$
Последняя матрица относится к классу матриц, обобщающих класс матриц элементарных преобразований. Матрица $ P_{} $ называется **матрицей перестановки** если в любой ее строке и любом ее столбце в точности один элемент равен $ 1_{} $ при всех остальных равных $ 0_{} $. Она тесно связана с понятием ((:basics:combinatorics#перестановки перестановки элементов)). Пусть имеются различные числа[[Все последующие рассуждения будут справедливы и для элементов любой природы, для которых умножение на $ 0_{} $ и $ 1_{} $ определяется как для чисел.]] $ \{\alpha_1,\dots, \alpha_n\} $. Любое их упорядочивание называется перестановкой. Если имеются две перестановки одного и того же набора чисел, записываемые в виде векторов-строк: $ (x_1,\dots,x_{n}) $ и $ (y_1,\dots,y_n) $, то они связаны между собой посредством умножения на матрицу перестановки $ P_{} $ порядка $ n_{} $:
$$ (y_1,\dots,y_n) =(x_1,\dots,x_n)P \ . $$
Так, к примеру, если $ (y_1,y_2,y_3,y_4)=(x_2,x_4,x_3,x_1) $, то
$$(y_1,y_2,y_3,y_4)=(x_1,x_2,x_3,x_4)
\left(\begin{array}{cccc}
0 & 0 & 0 & 1 \\
1 & 0 & 0 & 0 \\
0 & 0 & 1 & 0 \\
0 & 1 & 0 & 0
\end{array}
\right) \ .
$$
Очевидно действие матрицы перестановки при умножении на произвольную квадратную матрицу $ A_{} $; также очевидно, что результат этого действия эквивалентен последовательным действиям матриц элементарных преобразований, т.е. любая матрица перестановки может быть представлена как ((#умножение_матриц произведение)) матриц элементарных преобразований.
Матрицы элементарных преобразований используются при ((:algebra2:linearsystems:matrix_for анализе метода Гаусса)) решения систем линейных уравнений.
====ленточная====
Пронумеруем диагонали квадратной матрицы, начиная с главной --- в обе стороны. Если все диагонали, начиная с некоторого их номера, будут заполнены нулевыми элементами, то такая матрица называется **ленточной**. Аналитически:
$$ a_{jk}=0 \quad npu \quad |j-k| \ge L \ .$$
Минимальное из возможных значений $ L $, при которых последнее будет выполнено, называется **шириной** ленточной матрицы: в этом случае матрица имеет не более $ 2L-1 $ диагоналей, которые могут содержать ненулевые элементы.
!!П!! **Пример.** Ленточная матрица ширины $ 1_{} $ является ((#симметричная диагональной)) матрицей; ленточная матрица ширины $ 2_{} $ является **трехдиагональной**:
$$
\left(
\begin{array}{lllllllll}
a_{11} & a_{12} & 0 & 0 & 0 & 0 & \dots & 0 & 0 \\
a_{21} & a_{22} & a_{23} & 0 & 0 & 0 & \dots & 0 & 0 \\
0 & a_{32} & a_{33} & a_{34} & 0 & 0 & \dots & 0 & 0 \\
0 & 0 & a_{43} & a_{44} & a_{45} & 0 & \dots & 0 & 0 \\
\vdots & & & & \ddots & & & & \vdots \\
0 & 0 & 0 & 0 & 0 & 0 & \dots & a_{n,n-1} & a_{n,n}
\end{array}
\right).
$$
!!§!! Ленточные матрицы возникают в численных методах решения граничных задач для обыкновенных дифференциальных уравнений; см.
☞
((:recurr#метод_конечных_разностей МЕТОД КОНЕЧНЫХ РАЗНОСТЕЙ)).
===Часто встречающиеся ("именные") матрицы==
====Вандермонда==
$$ \mathbf V(x_1,\dots,x_n)= \left[ x_j^{k-1} \right]_{j,k=1}^{n}=
\left(\begin{array}{ccccc}
1 &x_1&x_1^2&\ldots&x_1^{n-1}\\
1 &x_2&x_2^2&\ldots&x_2^{n-1}\\
\vdots& &&& \vdots\\
1 &x_n&x_n^2&\ldots&x_n^{n-1}
\end{array}\right)_{n\times n}
$$
или ей ((#транспонирование транспонированная)). Иногда рассматривают неквадратные матрицы Вандермонда.
!!§!! ''Подробнее о матрице Вандермонда''
☞
((:algebra2:vander ЗДЕСЬ)).
Частным случаем матрицы Вандермонда является **матрица дискретного преобразования Фурье**:
$$
F=\left[ \varepsilon_j^{k} \right]_{j,k=0}^{n-1}=
\left( \begin{array}{lllll}
1 & 1 & 1 & \dots & 1 \\
1 & \varepsilon_1 & \varepsilon_1^2 & \dots & \varepsilon_1^{n-1} \\
1 & \varepsilon_2 & \varepsilon_2^2 & \dots & \varepsilon_2^{n-1} \\
1 & \varepsilon_3 & \varepsilon_3^2 & \dots & \varepsilon_3^{n-1} \\
\vdots & & & & \vdots \\
1 & \varepsilon_{n-1} & \varepsilon_{n-1}^{2} & \dots & \varepsilon_{n-1}^{n-1}
\end{array}
\right)_{n\times n}
\quad npu \quad \varepsilon_j = \cos \frac{2 \pi j}{n} + {\mathbf i} \, \sin \frac{2 \pi j}{n}
$$
--- ((:complex_num#корни_из_единицы корне n-й степени из 1)). Основываясь на свойстве $ \varepsilon_j=\varepsilon_1^j $, матрицу часто записывают в эквивалентном виде
$$
F=
\left[ \varepsilon^{jk} \right]_{j,k=0}^{n-1}=
\left( \begin{array}{lllll}
1 & 1 & 1 & \dots & 1 \\
1 & \varepsilon & \varepsilon^2 & \dots & \varepsilon^{n-1} \\
1 & \varepsilon^2 & \varepsilon^4 & \dots & \varepsilon^{2(n-1)} \\
1 & \varepsilon^3 & \varepsilon^6 & \dots & \varepsilon^{3(n-1)} \\
\vdots & & & & \vdots \\
1 & \varepsilon^{n-1} & \varepsilon^{2(n-1)} & \dots & \varepsilon^{(n-1)^2}
\end{array}
\right)_{n\times n} \quad npu \quad \varepsilon = \cos \frac{2 \pi}{n} + {\mathbf i} \, \sin \frac{2 \pi}{n} \ .
$$
!!§!! ''Свойства матрицы дискретного преобразования Фурье''
☞
((:algebra2:fourier ЗДЕСЬ)); ''ее применение''
☞
((:interpolation:dft#дискретное_преобразование_фурье ТРИГОНОМЕТРИЧЕСКАЯ ИНТЕРПОЛЯЦИЯ)).
====Гессе==
Матрица, составленная из частных производных второго порядка функции $ f(x_1,\dots,x_{\ell}) $
$$
H (f) = \left(
\begin{array}{cccc}
{\partial^2 f}/{\partial x_1^2} & {\partial^2 f}/{\partial x_1 \partial x_2} & \dots & {\partial^2 f}/{\partial x_1 \partial x_{\ell}} \\
{\partial^2 f}/{\partial x_2 \partial x_1} & {\partial^2 f}/{\partial x_2^2} & \dots & {\partial^2 f}/{\partial x_2 \partial x_{\ell}} \\
\dots & && \dots \\
{\partial^2 f}/{\partial x_{\ell} \partial x_1} & {\partial^2 f}/{\partial x_{\ell} \partial x_2} & \dots & {\partial^2 f}/{\partial x_{\ell}^2}
\end{array}
\right)= \left[ \frac{\partial^2 f}{\partial x_j \partial x_k} \right]_{j,k=1}^{\ell}
$$
(в предположении, что эти производные существуют). Определитель матрицы Гессе называется **гессианом**.
!!§!! ''Подробнее о применениях матрицы Гессе к задачам исследования стационарных точек функции на экстремум, а также самой функции на выпуклость''
☞
((:polynomialm#экстремумы_полинома ЗДЕСЬ)).
====Грама==
Пусть в линейном пространстве $ \mathbb E $ определено ((:euclid_space скалярное произведение)) векторов, которое обозначим $ \langle X,Y \rangle $.
**Матрицей Грама** системы векторов $ \{X_1,\dots,X_{m} \} $ называется квадратная матрица
$$
G(X_1,\dots,X_m)=
\left(
\begin{array}{cccc}
\langle X_1,X_1 \rangle & \langle X_1,X_2 \rangle & \dots & \langle X_1,X_m \rangle \\
\langle X_2,X_1 \rangle & \langle X_2,X_2 \rangle & \dots & \langle X_2,X_m \rangle \\
\dots & & & \dots \\
\langle X_m,X_1 \rangle & \langle X_m,X_2 \rangle & \dots & \langle X_m,X_m \rangle
\end{array}
\right)
= \left[ \langle X_j,X_k \rangle \right]_{j,k=1}^m
\ .
$$
Если векторы $ \{X_1,\dots,X_{n} \} $ составляют базис линейного пространства, то задание их матрицы Грама сведет вычисление скалярного произведения произвольных векторов пространства к действию с их координатами:
если
$$X=x_1X_1+ \dots +x_nX_n \quad u \quad Y=y_1X_1+ \dots +y_nX_n \ ,
$$
то
$$
\langle X,Y \rangle=\left(x_1,x_2,\dots,x_n \right)
\left(
\begin{array}{cccc}
\langle X_1,X_1 \rangle & \langle X_1,X_2 \rangle & \dots & \langle X_1,X_n \rangle \\
\langle X_2,X_1 \rangle & \langle X_2,X_2 \rangle & \dots & \langle X_2,X_n \rangle \\
\dots & & & \dots \\
\langle X_n,X_1 \rangle & \langle X_n,X_2 \rangle & \dots & \langle X_n,X_n \rangle
\end{array}
\right)
\left(
\begin{array}{c}
y_1 \\
y_2 \\
\vdots \\
y_n
\end{array}
\right)
\ .
$$
!!§!! ''Подробнее о свойствах матрицы Грама и ее применении к задачам вычисления расстояний''
☞
((:dets:gram ЗДЕСЬ)).
====Фробениуса==
Матрица
$$
{\mathfrak F}=
\left( \begin{array}{lllllll}
0 & 1 & 0 & 0 & \dots & 0 & 0 \\
0 & 0 & 1 & 0 & \dots & 0 & 0 \\
0 & 0 & 0 & 1 & \dots & 0 & 0 \\
\vdots& &&&\ddots & & \vdots \\
0 & 0 & 0 & 0 & \dots & 0 & 1 \\
a_n & a_{n-1} & a_{n-2} & & \dots & a_2 & a_1
\end{array} \right)_{n \times n}
$$
или ей транспонированная. Ее ((algebra2/charpoly#xarakteristicheskij_polinom_sobstvennye_chisla_sobstvennye_vektory_matricy характеристический полином)) имеет вид
$$ \det ({\mathfrak F} - x E) = (-1)^n(x^n-a_1x^{n-1}-\dots-a_{n}) \, . $$
Тем самым, матрица Фробениуса является решением задачи построения матрицы простейшего вида, имеющей заданный характеристический полином. Исходя из этого соображения, матрицу $ {\mathfrak F} $ часто называют **сопровождающей матрицей полинома**[[companion matrix of a polynomial]] $ f(x)=x^n-a_1x^{n-1}-a_2x^{n-2}- \dots - a_n $.
!!§!! ''Применение матрицы Фробениуса''
☞
((recurr#метод_матричной_степени РЕШЕНИЕ ЛИНЕЙНОГО РАЗНОСТНОГО УРАВНЕНИЯ)).
====Якоби==
**Матрицей Якоби** системы из $ m_{} $ функций
$ \{f_1(x_1,\dots,x_n),\dots,f_{m}(x_1,\dots,x_n)\} $ по переменным $ x_{1},\dots,x_n $ называется матрица,
составленная из всевозможных частных производных:
$$
\mathbf J = \left[ \frac{\partial f_j}{\partial x_k} \right]_{j=1,\dots,m, \atop k=1,\dots,n} =
\left(
\begin{array}{cccc}
{\partial f_1}/{\partial x_1} & {\partial f_1}/{\partial x_2} & \dots & {\partial f_1}/{\partial x_n} \\
{\partial f_2}/{\partial x_1} & {\partial f_2}/{\partial x_2} & \dots & {\partial f_2}/{\partial x_n} \\
\dots & && \dots \\
{\partial f_m}/{\partial x_1} & {\partial f_m}/{\partial x_2} & \dots & {\partial f_m}/{\partial x_n}
\end{array}
\right)_{m\times n} .
$$
В частном случае $ m=1_{} $ матрица Якоби состоит из одной строки:
этот вектор в $ \mathbb R_{}^{n} $ или в $ \mathbb C^{n} $ называется **градиентом** функции $ f_{} $ (в точке $ (x_1,\dots,x_{n}) $):
$$
\operatorname{grad} (f) = \left( \frac{\partial f}{\partial x_1},\dots, \frac{\partial f}{\partial x_n} \right) \ .
$$
!!§!! ''Применение матрицы Якоби''
☞
((:algebra2:dets:jacobian ЗДЕСЬ))
((:algebra2:frank f))
===Функции от матрицы===
====определитель==
или **детерминант**[[determinator (//лат.//) --- определяющий.]] определяется для произвольной __квадратной__ матрицы $ A_{} $, и представляет из себя ((:polynomialm полином)) от всех ее элементов. Обозначается - либо $ \det (A_{}) $, либо $ \det A_{} $, либо - в развернутом виде -
$$
\left|
\begin{array}{cccc}
a_{11} & a_{12} & \dots & a_{1n} \\
a_{21} & a_{22} & \dots & a_{2n} \\
\dots & & & \dots \\
a_{n1} & a_{n2} & \dots & a_{nn}
\end{array}
\right|
$$
(матрица ограничивается вертикальными чертами). Имея в виду порядок матрицы $ A_{} $, о ее определителе говорят как об **определителе порядка** $ n_{} $.
Для $ n=1_{} $:
$$
\det (A) = a_{11} \ ;
$$
для $ n=2_{} $:
$$
\det (A) = \left|
\begin{array}{cc}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{array}
\right|=a_{11}a_{22}-a_{12}a_{21} \ ;
$$
для $ n=3_{} $:
$$
\det (A) =
\left|
\begin{array}{lll}
a_{11} & a_{12} & a_{13}\\
a_{21} & a_{22} & a_{23} \\
a_{31} & a_{32} & a_{33}
\end{array}
\right| =
$$
$$
=a_{11}a_{22}a_{33}+a_{12}a_{23} a_{31} +
a_{21}a_{32} a_{13} - a_{31} a_{22} a_{13} - a_{21}a_{12}a_{33} -
a_{11} a_{32} a_{23} \ ;
$$
для $ n=4_{} $ формула ((algebra2:det4x4 == становится громоздкой)).
Понятие определителя вводится с целью компактной записи критерия разрешимости системы линейных уравнений
$$
\left\{
\begin{array}{lllll}
a_{11}x_1 &+a_{12}x_2&+ \ldots&+a_{1n}x_n &=b_1,\\
a_{21}x_1 &+a_{22}x_2&+ \ldots&+a_{2n}x_n &=b_2,\\
\dots & & & \dots & \\
a_{n1}x_1 &+a_{n2}x_2&+ \ldots&+a_{nn}x_n &=b_n.
\end{array} \right.
$$
и ((algebra2:linearsystems#формулы_крамера представления ее решения)).
!!Т!! **Теорема.**// Если определитель матрицы, составленной из коэффициентов// $ a_{jk} $, //отличен от нуля, то система имеет единственное решение относительно неизвестных// $ x_{1},\dots,x_n $.
!!§!! ''Определение, свойства и применения определителя''
☞
((algebra2:dets ЗДЕСЬ))
Для неквадратных матриц понятие определителя не вводится, но имеется понятие **миноров матрицы**.
Если выбрана подматрица матрицы $ A_{} $ --- т.е. взяты ее элементы, стоящие на пересечении
строк с номерами $ i_1,i_2,\dots,i_{k} $ и столбцов с номерами $ j_1,\dots,j_{\ell} $ (номера указаны строго в порядке возрастания) и эта подматрица --- квадратная, т.е. $ k=\ell $, то ее определитель называется **минором матрицы** (**k-го порядка**). Обозначать будем
$$ A\left( \begin{array}{llll} i_1 & i_2 & \dots & i_{k} \\
j_1 & j_2 & \dots & j_{k}
\end{array}
\right) \ . $$
====след====
определяется для произвольной квадратной матрицы $ A_{} $ как сумма элементов ее главной диагонали;
обозначается[[Spur (//нем//.), trace (//англ//.) - след.]] $ \operatorname{Sp}(A_{}) $ или $ \operatorname{tr}(A_{}) $:
$$ \operatorname{Sp}(A)=a_{11}+a_{22}+\dots+a_{nn} . $$
**Свойства.** Для квадратных матриц одинакового порядка имеют место равенства: \\
**a)** $ \operatorname{Sp}(A+B) = \operatorname{Sp}(A) + \operatorname{Sp}(B_{}) $;
**б)** $ \operatorname{Sp}(\alpha A_{}) = \alpha \operatorname{Sp}(A) $ для любого числа $ \alpha_{} $;
**в)** $ \operatorname{Sp}(AB) = \operatorname{Sp}(BA_{}) $;
**г)** $ \operatorname{Sp} (A^{\top}) = \operatorname{Sp} (A_{}) $
**д)** $ \operatorname{Sp}(A^{\top} B) = \sum_{j,l=1}^n a_{jk} b_{jk} $
====характеристический полином====
определяется для произвольной квадратной матрицы $ A_{} $ как $ \det (A_{}- x E) $, где $ E_{} $ -- единичная матрица одинакового с $ A_{} $ порядка. Если порядок матрицы равен $ n_{} $, то указанный определитель является ((:polynomial полиномом степени)) $ n_{} $ по $ x_{} $.
!!П!! **Пример.** Для $ n=2_{} $:
$$ \det (A-x E)=
\begin{vmatrix}
a_{11}-x & a_{12}\\
a_{21}& a_{22}-x
\end{vmatrix}=x^2-(a_{11}+a_{22})x + (a_{11}a_{22}-a_{12}a_{21}) ;
$$
для $ n=3 $:
$$
\det (A-x E)=
\begin{vmatrix}
a_{11}-x & a_{12} & a_{13}\\
a_{21}& a_{22}-x & a_{23} \\
a_{31}& a_{32} & a_{33}-x
\end{vmatrix}=
$$
$$
=-x^3+(a_{11}+a_{22}+a_{33})x^2 - \left \{
\begin{vmatrix}
a_{11}& a_{12}\\
a_{21}& a_{22}
\end{vmatrix}
+\begin{vmatrix}
a_{22}& a_{23}\\
a_{32}& a_{33}
\end{vmatrix}+
\begin{vmatrix}
a_{11}& a_{13}\\
a_{31}& a_{33}
\end{vmatrix}
\right \}x+
$$
$$
+\det A .
$$
!!§!! ''Структура, свойства и методы вычисления характеристического полинома''
☞
((algebra2:charpoly ЗДЕСЬ))
====ранг====
определяется для произвольной (не обязательно квадратной) матрицы $ A_{} $ как наибольший порядок ее отличных от нуля миноров. Иначе говоря: $ \operatorname{rank} (A_{}) ={\mathfrak r}\in {\mathbb N} $ тогда и только тогда, когда существует ее минор порядка $ {\mathfrak r} $, отличный от нуля, а все миноры более высокого порядка равны нулю. Кроме того, полагают ранг нулевой матрицы равным нулю: $ \operatorname{rank} ({\mathbb O}_{m\times n}) = 0_{} $.
!!§!! ''Методы вычисления, свойства и применения ранга матрицы''
☞
((algebra2:rank ЗДЕСЬ))
====норма==
Функция, ставящая в соответствие произвольной квадратной матрице $ A_{} $ порядка $ n_{} $ вещественное число, называется **матричной нормой** если для нее выполняются следующие аксиомы:
1. $ || A_{} || \geq 0 $ (неотрицательность);
2. $ || A_{} || = 0 $ тогда и только тогда, когда $ A_{}=\mathbb{O} $ (положительность);
3. $ || \alpha A_{} ||=|\alpha|\cdot || A || $ для всех $ \alpha_{}\in \mathbb{C} $ (абсолютная однородность);
4. $ || A + B_{} || \le ||A||+||B|| $ (неравенство треугольника);
5. $ ||AB||\le ||A|| \cdot ||B_{}|| $.
!!§!! Норма вводится не только для квадратных матриц. Подробнее
☞
((:norm_space ЗДЕСЬ)).
===Обращение матрицы==
Для квадратной матрицы $ A_{} $ матрица $ B_{} $ называется **левой обратной**, если $ BA=E_{} $, где $ E_{} $ -- ((:algebra2#единичная)) матрица одинакового порядка с $ A_{} $. ((#умножение_матриц Отсутствие свойства коммутативности умножения)) приводит к необходимости определения еще одной обратной матрицы --- **правой обратной**, т.е. матрицы $ C_{} $ такой, что $ AC= E_{} $. К счастью, необходимость в этом "дублировании" практически сразу пропадает:
!!Т!! //Для того, чтобы существовала левая обратная матрица для матрицы// $ A_{} $ //необходимо и достаточно, чтобы// $ \det A_{} \ne 0 $. //В этом случае левая обратная матрица является единственной и совпадает с правой обратной//.
Для обратной к матрице $ A_{} $ закреплено обозначение $ A_{}^{-1} $, а сама процедура нахождения обратной матрицы называется **обращением**. Матрица, определитель которой отличен от нуля, называется **неособенной** или **невырожденной** или **обратимой**.
**Доказательство.** Необходимость условия $ \det A_{} \ne 0 $ для существования, например, левой обратной матрицы следует из условия
$$ \det (B \cdot A)= \det E \quad \iff \quad (\det B) (\det A) =1 \ . $$
Покажем достаточность. Вычислим все ((algebra2:dets#миноры_и_алгебраические_дополнения алгебраические дополнения)) к элементам матрицы $ A_{} $, составим из них новую матрицу порядка $ n_{} $ и ((:algebra2#транспонирование транспонируем)) ее. Полученная матрица
$$
\operatorname{adj}(A) =\left(\left[A_{jk} \right]_{jk}^n \right)^{\top} =
\left(
\begin{array}{llll}
A_{11} &
A_{21}& \dots &
A_{n1} \\
A_{12} &
A_{22} & \dots &
A_{n2} \\
\dots & & & \dots \\
A_{1n} &
A_{2n} & \dots &
A_{nn}
\end{array}
\right)
$$
называется **взаимной** или **союзной** матрице $ A_{} $. Для любой матрицы $ A_{} $ имеет место равенство
$$
A \cdot \operatorname{adj}(A) =
\left(
\begin{array}{cccc}
\det A & & & \\
& \det A & & {\mathbb O} \\
{\mathbb O} & & \ddots & \\
& & & \det A
\end{array}
\right) = \det A \cdot E \ .
$$
Справедливость этого факта следует из теории определителей: сумма произведений элементов строки матрицы на их алгебраические дополнения равна определителю матрицы; а на алгебраические
дополнения к элементам любой другой строки --- нулю (см.
☞
((:algebra2:dets#миноры_и_алгебраические_дополнения ЗДЕСЬ)) ).
При выполнении условия $ \det A_{} \ne 0 $ можем взять
$$
A^{-1}=\frac{ \operatorname{adj}(A) }{\det A}=
\left(
\begin{array}{llll}
\frac{A_{11}}{\det A} &
\frac{A_{21}}{\det A} & \dots &
\frac{A_{n1}}{\det A} \\
&&& \\
\frac{A_{12}}{\det A} &
\frac{A_{22}}{\det A} & \dots &
\frac{A_{n2}}{\det A} \\
&&& \\
\vdots & & & \vdots \\
\frac{A_{1n}}{\det A} &
\frac{A_{2n}}{\det A} & \dots &
\frac{A_{nn}}{\det A}
\end{array}
\right) \ .
$$
Пока что мы получили __правую__ обратную матрицу: доказано, что она удовлетворяет условию $ A C = E_{} $. Проверка того, что полученная матрица будет являться и __левой__ обратной, т.е. удовлетворяет условию $ C A=E $, производится снова с использованием теоремы о сумме произведений элементов столбца матрицы $ A_{} $ на алгебраические дополнения к другому столбцу той же матрицы (см.
☞
((:algebra2:dets#миноры_и_алгебраические_дополнения ЗДЕСЬ)) ). Теперь покажем, единственность полученной обратной матрицы. Предположим, что каким-то другим способом найдена еще одна матрица $ C_1 $ обладающая тем же самым свойством $ A C_1 = E $. Домножим это равенство __слева__ на матрицу $ C_{} $:
$$ C(AC_1) = C E \ . $$
Операция умножения матриц подчиняется ассоциативному закону, поэтому
$$ (CA) C_1 = C , $$
но, по доказанному ранее, $ CA=E_{} $. И мы получили равенство $ C_1 = C $, доказывающее единственность правой обратной матрицы. Аналогично доказывается единственность и левой обратной.
♦
!!П!! **Пример.** Вычислить
$$
\left( \begin{array}{rrr}
4 & 8 & -5\\
-4 & 7 &-1 \\
-3 & 5 & 1
\end{array}
\right)^{-1} \ .
$$
**Решение.** Вычисляем определитель этой матрицы: $ \det A = 99 \ne 0 $. Обратная матрица существует. Вычисляем алгебраические дополнения элементов:
$$
\overbrace{\left| \begin{array}{rr}
7 &-1 \\
5 & 1
\end{array}
\right|}^{A_{11}}=12, \
\overbrace{-\left| \begin{array}{rrr}
-4 &-1 \\
-3 & 1
\end{array}
\right|}^{A_{12}}=7,
\overbrace{\left| \begin{array}{rrr}
-4 & 7 \\
-3 & 5
\end{array}
\right|}^{A_{13}}=1,
$$
$$
\overbrace{-\left| \begin{array}{rr}
8 &-5 \\
5 & 1
\end{array}
\right|}^{A_{21}}=-33,\
\overbrace{\left| \begin{array}{rr}
4 &-5 \\
-3 & 1
\end{array}
\right|}^{A_{22}}=-11,\
\overbrace{-\left| \begin{array}{rr}
4 &8 \\
-3 & 5
\end{array}
\right|}^{A_{23}}=-44,
$$
$$
\overbrace{\left| \begin{array}{rr}
8 &-5 \\
7 & -1
\end{array}
\right|}^{A_{31}}=27,\
\overbrace{-\left| \begin{array}{rr}
4 &-5 \\
-4 & -1
\end{array}
\right|}^{A_{32}}=24,\
\overbrace{\left| \begin{array}{rr}
4 &8 \\
-4 & 7
\end{array}
\right|}^{A_{33}}=60\ .
$$
Cоставляем из них матрицу:
$$
\left( \begin{array}{rrr}
12 & 7 & 1\\
-33 & -11 &-44 \\
27 & 24 & 60
\end{array}
\right)
$$
и не забываем ее транспонировать, а также поделить на определитель!
**Ответ.**
$$
\left( \begin{array}{rrr}
\frac{\scriptstyle 4}{\scriptstyle 33} &
-\frac{\scriptstyle 1}{\scriptstyle 3} &
\frac{\scriptstyle 3}{\scriptstyle 11} \\
&& \\
\frac{\scriptstyle 7}{\scriptstyle 99} &
-\frac{\scriptstyle 1}{\scriptstyle 9} &
\frac{\scriptstyle 8}{\scriptstyle 33} \\
&& \\
\frac{\scriptstyle 1}{\scriptstyle 99} &
-\frac{\scriptstyle 4}{\scriptstyle 9} &
\frac{\scriptstyle 20}{\scriptstyle 33}
\end{array}
\right) \ .
$$
!!?!! Показать справедливость следующих свойств операции обращения :
**a)** $ (A^{-1})^{-1}=A_{} $;
**б)** $ (A\cdot B)^{-1} = B^{-1}A_{}^{-1} $;
**в)** $ (A_{}^{\top})^{-1}=(A^{-1})^{\top} $;
**г)** $ \det A_{}^{-1} = (\det A)^{-1} $.
Предполагается, что в левой части каждого равенства операции определены.
!!§!! ''Методы вычисления, свойства и применения обратной матрицы''
☞
((algebra2:inverse ЗДЕСЬ))
===Полином от матрицы и матричный полином==
Для квадратной матрицы $ A_{} $ ее $ k_{} $**-й степенью** ($ k_{}\in \mathbb N $) называют результат ((#умножение_матриц умножения)) ее на себя $ k_{} $ раз:
$$ A^k = \underbrace{A\times \dots \times A}_k \ . $$
В виду ассоциативности операции умножения, скобки в этом произведении можно расставить произвольным образом. Дополнительно полагают $ A^{0} = E $ при ненулевой матрице $ A_{} $ и, в случае ((#обращение_матрицы существования обратной матрицы)), определяют и отрицательную степень:
$$ A^{-k} = (A^{-1})^k \ . $$
!!?!! Показать, что
**a)** cтепени матрицы $ A_{} $ коммутируют: $ A^{k} A^{\ell}= A^{\ell} A^k $;
**б)** $ \det (A^k) = \left( \det A \right)^{k} $.
!!П!! **Пример.** Вычислить
$$
\left( \begin{array}{rrr}
-3 & 2 & -3 \\
-2 & 3 & -3 \\
1 &-1 & 1
\end{array}
\right)^9
$$
**Решение.** Чтобы сэкономить на количестве матричных умножений, будем осуществлять их по схеме
$$
\left(\left(A^2 \right)^2\right)^2 A \ .
$$
Имеем
$$
A^2=\left( \begin{array}{rrr}
2 & 3 & 0 \\
-3 & 8 & -6 \\
0 &-2 & 1
\end{array}
\right) \quad \Rightarrow \quad \left(A^2 \right)^2=
\left( \begin{array}{rrr}
-5 & 30 & -18 \\
-30 & 67 & -54 \\
6 &-18 & 13
\end{array}
\right) \quad \Rightarrow \quad \left(\left(A^2 \right)^2\right)^2=
\left( \begin{array}{rrr}
-983 & 2184 & -1764 \\
-2184 & 4561 & -3780 \\
588 & -1260 & 1033
\end{array}
\right)
$$
и окончательно
$$
\left(\left(A^2 \right)^2\right)^2A=
\left( \begin{array}{rrr}
-3183 & 6350 & -5367 \\
-6350 & 13095 & -10911 \\
1789 & -3637 & 3049
\end{array}
\right) \ .
$$
♦
!!?!! Проверить, что для матрицы из предыдущего примера, любая ее степень
$$ B=A^n $$
будет подчиняться условиям: $ b_{12}=-b_{21}^{} $ и $ b_{23}^{}=3 b_{32} $.
Обобщением возведения в степень является операция вычисления **полинома от матрицы**. Если $ g(x)=b_0x^m+b_1x^{m-1}+\dots+b_{m} $ --- ((polynomial#общая_информация полином)) по переменной $ x_{} $, то значением этого полинома на __квадратной__ матрице $ A_{} $ называется матрица
$$ g(A)=b_0A^m +b_1A^{m-1}+\dots+b_m E \ , $$
где $ E_{} $ --- единичная матрица того же порядка, что и $ A_{} $.
!!П!! **Пример.** Вычислить $ g(A)_{} $ для
$$ g(x)= 3\,x^4-x^3+2\,x^2-4\,x-1 \quad u \quad
A=\left( \begin{array}{rrr}
1 & -3 & 4 \\
3& 1 &8 \\
-4 & -8 & 1
\end{array}
\right) \ .
$$
**Решение.** Можно было бы производить вычисления напрямую, но мы снова попытаемся сэкономить на количестве операций, действуя по ((:polynomial#схема_хорнера схеме Хорнера)):
$$
g(A)=(((3A-E)A+2E)A-4E)A-E \ .
$$
$$
B_1 = 3A-E =
\left( \begin{array}{rrr}
2 & -9 & 12 \\
9& 2 & 24 \\
-12 & -24 & 2
\end{array}
\right) ;
$$
$$
B_2=B_1A+2E=
\left( \begin{array}{rrr}
-71 & -111 & -52 \\
-81& -215 & 76 \\
-92 & -4 & -236
\end{array}
\right) ;
$$
$$
B_3=B_2A-4E=
\left( \begin{array}{rrr}
-200 & 518 & -1224 \\
-1030& -584 & -1968 \\
840 & 2160 & -640
\end{array}
\right) ;
$$
$$
g(A)=B_4=B_3A-E=
\left( \begin{array}{rrr}
6249 & 10910 & 2120 \\
5090& 18249 & -10760 \\
9880 & 4760 & 19999
\end{array}
\right)
$$
♦
!!§!! Более подробный анализ структуры и изложение способов вычисления полинома от матрицы (а также таких функций как $ e^x, \cos x , \sin x ,
\sqrt{x} $)
☞
((:algebra2:funmatrix ЗДЕСЬ)).
Следующее определение сходно по звучанию с предыдущим, но не совпадает с ним по смыслу. Имеются разночтения в определении matrix polynomial --- см. статьи Википедии ((http://en.wikipedia.org/wiki/Polynomial_matrix Polynomial matrix)) и ((http://en.wikipedia.org/wiki/Matrix_polynomial Matrix polynomial)).
Рассмотрим квадратную матрицу, элементами которой являются ((polynomial#общая_информация полиномы над множеством)) $ \mathbb A_{} $ (мы ограничимся случаями, когда это множество совпадает с одним из множеств $ \mathbb Z_{},\mathbb Q, \mathbb R $ или $ \mathbb C_{} $).
!!П!! **Пример.**
$$
A(x)=\left(
\begin{array}{ccc}
3x^2+4x+1 & x^3 - \sqrt{3} & -2\,x +1 \\
x^2-1 & 7\,x^3-x+4 & 6\,x^2-3\,x+1 \\
4\,x^3-7\,x^2+3\,x-2 & 2\,x-17 & x^2
\end{array}
\right) \ .
$$
Такую матрицу можно представить в виде полинома по $ x_{} $ с матричными коэффициентами:
$$
A(x)= \left(
\begin{array}{ccc}
0 & 1 & 0 \\
0 & 7 & 0 \\
4 & 0 & 0
\end{array}
\right) x^3 +
\left(
\begin{array}{rcc}
3 & 0 & 0 \\
1 & 0 & 6 \\
-7 & 0 & 1
\end{array}
\right) x^2 +
\left(
\begin{array}{rrr}
4 & 0 & -2 \\
0 & -1 & -3 \\
3 & 2 & 0
\end{array}
\right) x
+\left(
\begin{array}{rrr}
1 & - \sqrt{3} & 1 \\
-1 & 4 & 1 \\
-2 & -17 & 0
\end{array}
\right) \ .
$$
В общем случае полиномиальная матрица имеет вид
$$
A(x)=A_0 x^m + A_1 x^{m-1}+\dots+A_m \ ,
$$
где $ A_0,\dots,A_{m} $ --- квадратные числовые матрицы одинакового порядка $ n_{} $.
Часто полиномиальная матрица называется **матричным полиномом** по $ x_{} $ (или же полиномом по $ x_{} $ с матричными коэффициентами).
Если при этом $ A_0 \ne \mathbb O $, то $ n_{} $ называют **степенью** полиномиальной матрицы. Если,
вдобавок, матрица $ A_{0} $
((#обращение_матрицы невырожденная)), то матричный полином называется **регулярным**.
===Матричные уравнения==
Матрица может быть определена не только явным образом, но и заданием соотношения, которому она должна удовлетворять. Так, к примеру ((#обращение_матрицы обратная матрица)) для квадратной матрицы $ A $ фактически определялась как решение матричного уравнения $ AX= E $. Отсутствие свойства коммутативности умножения порождает причудливые комбинации, не имеющие аналогов в скалярном случае.
==== Уравнение Ляпунова ==
имеет вид
$$ A^{\top}X+XA=C $$
при заданной матрице $ A_{} $ и заданной ((:algebra2#симметричная симметричной)) матрице $ C_{} $ (обе --- квадратные одинакового порядка $ n_{} $),
относительно неизвестной матрицы $ X_{} $, которая разыскивается также во множестве симметричных матриц порядка $ n_{} $.
Имеет важное значение в теории управления.
Уравнение является частным случаем **матричного уравнения Сильвестра**
$$ AX+XB=C $$
при произвольных квадратных матрицах $ A,B,C_{} $.
!!!!! Далее идет сложный для понимания материал!
**Пример.** Решить матричное уравнение Сильвестра для матриц второго порядка:
$$ A=\left(
\begin{array}{cc}
a_{11} & a_{12} \\
a_{21} & a_{22}
\end{array}
\right) \ , \
B=\left(
\begin{array}{cc}
b_{11} & b_{12} \\
b_{21} & b_{22}
\end{array}
\right) \ , \
C=\left(
\begin{array}{cc}
c_{11} & c_{12} \\
c_{21} & c_{22}
\end{array}
\right) \ .
$$
**Решение.** Подставляя в уравнение матрицу
$$
X=\left(
\begin{array}{cc}
x_{11} & x_{12} \\
x_{21} & x_{22}
\end{array}
\right) \ ,
$$
с пока неопределенными элементами, получаем систему линейных уравнений, которую тоже запишем в матричном виде:
$$
\left( \begin{array}{cccc}
a_{11}+b_{11} & a_{12} & b_{21} & 0 \\
a_{21} & a_{22}+b_{11} & 0 & b_{21} \\
b_{12} & 0 & a_{11}+b_{22} & a_{12} \\
0 & b_{12} & a_{21} & a_{22}+b_{22}
\end{array}
\right)
\left( \begin{array}{c}
x_{11} \\ x_{21} \\ x_{12} \\ x_{22}
\end{array}
\right)=
\left( \begin{array}{c}
c_{11} \\ c_{21} \\ c_{12} \\ c_{22}
\end{array}
\right)
$$
(матрицы $ X_{} $ и $ C_{} $ "вытянули" в строки). Матрица в левой части имеет порядок $ 4_{} $ и может быть представлена в виде суммы двух матриц:
$$
\left( \begin{array}{cccc}
a_{11}+b_{11} & a_{12} & b_{21} & 0 \\
a_{21} & a_{22}+b_{11} & 0 & b_{21} \\
b_{12} & 0 & a_{11}+b_{22} & a_{12} \\
0 & b_{12} & a_{21} & a_{22}+b_{22}
\end{array}
\right)=
\left( \begin{array}{cccc}
a_{11} & a_{12} & 0 & 0 \\
a_{21} & a_{22} & 0 & 0 \\
0 & 0 & a_{11} & a_{12} \\
0 & 0 & a_{21} & a_{22}
\end{array}
\right)
+
\left( \begin{array}{cccc}
b_{11} & 0 & b_{21} & 0 \\
0 & b_{11} & 0 & b_{21} \\
b_{12} & 0 & b_{22} & 0 \\
0 & b_{12} & 0 & b_{22}
\end{array}
\right) \ .
$$
Для формализации записи этих двух слагаемых придумана специальная операция
☞
((algebra2/kronecker_prod КРОНЕКЕРОВО ПРОИЗВЕДЕНИЕ)). Пока не останавливаясь на этом формализме, вычислим определитель: получим крайне громоздкий ((:polynomial полином)) $ 4_{} $-й степени относительно элементов матриц $ A_{} $ и $ B_{} $. Оказывается, этот полином совпадает
с ((dets:resultant результантом)) ((algebra2:charpoly характеристического полинома)) матрицы $ A_{} $ и характеристического полинома матрицы $ (-B_{}) $:
$$ \mathcal R (\det(A-\lambda E), \det(-B-\lambda E)) \ . $$
Если это выражение отличо от нуля, то матричное уравнение $ AX+XB=C $ имеет решение при любой матрице $ C_{} $.
♦
====Квадратные уравнения ==
!!?!! Уравнение $ x^2=-1 $ не имеет решения в вещественных числах. Можно ли утверждать аналогичное для уравнения матричного:
$$X^2=-
\left(
\begin{array}{rr}
1 & 0 \\
0 & 1
\end{array}
\right) \ ?
$$
Эта задача --- вычисления **квадратного корня из матрицы** --- является частью общей задачи о вычислении аналитической функции от матрицы, т.е. произвольной функции $ g(x) $, представимой в виде сходящегося ряда. Частным случаем задачи является рассмотренная выше задача вычисления ((#полином_от_матрицы полинома)) от матрицы. Подробнее об этой задаче
☞
((:algebra2:funmatrix ЗДЕСЬ)).
Уравнение
$$ A^{\top}X+XA-X^{\top}BX=C $$
называется **матричным уравнением Риккати**. Уравнение Ляпунова получается из него при нулевой матрице $ B $.
===Матрица квадратичной формы ==
рассматривается
☞
((:2form#матричная_форма_записи_квадратичной_формы ЗДЕСЬ))
===Матрица преобразования координат ==
--- это матрица, связывающая координаты произвольного
вектора $ X_{} $ из $ n_{} $---мерного линейного пространства в двух различных базисах $ \{X_1,\dots,X_n\} $ и $ \{{\mathfrak X}_1,\dots,{\mathfrak X}_n\} $ этого пространства:
$$X=x_1X_1+\dots+x_nX_n={\mathfrak x}_1{\mathfrak X}_1+\dots+{\mathfrak x}_n{\mathfrak X}_n
\ .$$
Называется также **матрицей перехода от базиса к базису**. Подробнее
☞
((:linear_space#преобразование_координат_при_замене_базиса ЗДЕСЬ)).
===Матрица линейного отображения ==
--- это матрица, связывающая координаты произвольного вектора $ X_{} $ из линейного пространства $ \mathbb V_{} $ с координатами его образа $ Y_{} $ в линейном пространстве $ \mathbb W_{} $ при выборе некоторых фиксированных базисов этих пространств.
Подробнее
☞
((:mapping#матрица_линейного_отображения ЗДЕСЬ)).
==Задачи==
☞
((:algebra2:problems ЗДЕСЬ)).
==Источники==