==Обратная матрица==
~~TOC~~
Для матрицы $ A_{} $ порядка $ m\times n $ матрица $ B_{} $ порядка $ n\times m $ называется **левой обратной** если $ BA=E_n $, где $ E_n $ --- ((:algebra2#единичная)) матрица порядка $ n $; для матрицы $ A_{} $ матрица $ C $ порядка $ n\times m $ называется **правой обратной** если $ AC=E_m $.
!!П!! **Пример.** Для матрицы
$$ A= \left( \begin{array}{cc}
1 & 0 \\
0 & 1 \\
1 & 1
\end{array}
\right) \ .
$$
существует левая обратная матрица:
$$
B= \left( \begin{array}{rrr}
2/3 & -1/3 & 1/3 \\
-1/3 & 2/3 & 1/3
\end{array}
\right)\ ,
$$
но не существует правой обратной матрицы. Действительно, для любой матрицы $ C $ порядка $ 2\times 3 $ имеем, вследствие ((:algebra/dets/binet_cauchy теоремы Бине-Коши)), $ \det (AC)=0 $. И это условие блокирует возможность выполнения равенства $ AC=E_{3\times 3} $.
Для матрицы
$$
A=
\left( \begin{array}{rrr}
1 & 2 & 3 \\
-1 & 1 & 0
\end{array}
\right)
$$
существует правая обратная матрица
$$
C=\left( \begin{array}{rr}
1/9 & -5/9 \\
1/9 & 4/9 \\
2/9 &-1/9
\end{array}
\right) \ ,
$$
но не существует левой обратной.
♦
Оказывается, что для квадратной матрицы условия существования левой и правой обратных матриц совпадают. Более того, справедлив следующий результат.
!!Т!!** Теорема.** //Для того, чтобы существовала левая обратная матрица для __квадратной__ матрицы// $ A_{} $ //необходимо и достаточно, чтобы// $ \det A_{} \ne 0 $. //В этом случае, левая обратная матрица будет единственной и совпадает с правой обратной:// $ AB=BA=E $.
**Доказательство.** Необходимость условия $ \det A_{} \ne 0 $ для существования, например, левой обратной матрицы следует из условия
$$ \det (B \cdot A)= \det E \quad \iff \quad (\det B) (\det A) =1 \ . $$
Покажем достаточность. Вычислим все ((algebra2:dets#миноры_и_алгебраические_дополнения алгебраические дополнения)) к элементам матрицы $ A_{} $, составим из них новую матрицу порядка $ n_{} $ и ((:algebra2#транспонирование транспонируем)) ее. Полученная матрица
$$
\operatorname{adj}(A) =\left(\left[A_{jk} \right]_{jk}^n \right)^{\top} =
\left(
\begin{array}{llll}
A_{11} &
A_{21}& \dots &
A_{n1} \\
A_{12} &
A_{22} & \dots &
A_{n2} \\
\dots & & & \dots \\
A_{1n} &
A_{2n} & \dots &
A_{nn}
\end{array}
\right)
$$
называется **взаимной** или **союзной** матрице[[(//Англ.//) adjugate или adjoint matrix.]] $ A_{} $ (а также **присоединненой к матрице** $ A $). Для любой матрицы $ A_{} $ имеет место равенство
$$
A \cdot \operatorname{adj}(A) =
\left(
\begin{array}{cccc}
\det A & & & \\
& \det A & & {\mathbb O} \\
{\mathbb O} & & \ddots & \\
& & & \det A
\end{array}
\right) = \det A \cdot E \ .
$$
Справедливость этого факта следует из теории определителей: сумма произведений элементов строки матрицы на их алгебраические дополнения равна определителю матрицы; а на алгебраические
дополнения к элементам любой другой строки --- нулю (см. теорему $ 2 $
☞
((:algebra2:dets:minors ЗДЕСЬ)) ).
При выполнении условия $ \det A_{} \ne 0 $ можем взять
$$
A^{-1}=\frac{ \operatorname{adj}(A) }{\det A}=
\left(
\begin{array}{llll}
\frac{A_{11}}{\det A} &
\frac{A_{21}}{\det A} & \dots &
\frac{A_{n1}}{\det A} \\
&&& \\
\frac{A_{12}}{\det A} &
\frac{A_{22}}{\det A} & \dots &
\frac{A_{n2}}{\det A} \\
&&& \\
\vdots & & & \vdots \\
\frac{A_{1n}}{\det A} &
\frac{A_{2n}}{\det A} & \dots &
\frac{A_{nn}}{\det A}
\end{array}
\right) \ .
$$
Пока что мы получили __правую__ обратную матрицу: доказано, что она удовлетворяет условию $ A C = E_{} $. Проверка того, что полученная матрица будет являться и __левой__ обратной, т.е. удовлетворяет условию $ C A=E $, производится снова с использованием теоремы о сумме произведений элементов столбца матрицы $ A_{} $ на алгебраические дополнения к другому столбцу той же матрицы (см. теорему $ 2 $
☞
((:algebra2:dets:minors ЗДЕСЬ)) ). Теперь покажем, единственность полученной обратной матрицы. Предположим, что каким-то другим способом найдена еще одна матрица $ \widetilde C $ обладающая тем же самым свойством $ A \widetilde C = E $. Домножим это равенство __слева__ на матрицу $ C $:
$$ C(A \widetilde C) = C E \ . $$
Операция умножения матриц подчиняется ((:algebra2:assoc ассоциативному закону)), поэтому
$$ (CA) \widetilde C = C , $$
но, по доказанному ранее, $ CA=E_{} $. И мы получили равенство $ \widetilde C = C $, доказывающее единственность правой обратной матрицы. Аналогично доказывается единственность и левой обратной.
♦
Обратную матрицу к квадратной матрице $ A_{} $ обозначают $ A_{}^{-1} $, а сама процедура нахождения такой матрицы называется **обращением матрицы** $ A $. Матрица, определитель которой отличен от нуля, называется **неособенной** или **невырожденной** или **обратимой**.
===Способы построения===
1.
Первый способ следует из ((:algebra2#обращение_матрицы доказательства предыдущей теоремы)). Вычислим все ((algebra2:dets#миноры_и_алгебраические_дополнения алгебраические дополнения)) к элементам матрицы $ A_{} $, составим из них новую матрицу порядка $ n_{} $ и ((:algebra2#транспонирование транспонируем)) ее. Полученная матрица
$$
\operatorname{adj}(A) =\left(\left[A_{jk} \right]_{jk}^n \right)^{\top} =
\left(
\begin{array}{llll}
A_{11} &
A_{21}& \dots &
A_{n1} \\
A_{12} &
A_{22} & \dots &
A_{n2} \\
\dots & & & \dots \\
A_{1n} &
A_{2n} & \dots &
A_{nn}
\end{array}
\right)
$$
называется **взаимной** или **союзной** матрице $ A_{} $. При условии $ \det A_{} \ne 0 $ будем иметь:
$$
A^{-1}=\frac{\operatorname{adj}(A) }{\det A}=
\left(
\begin{array}{llll}
\frac{A_{11}}{\det A} &
\frac{A_{21}}{\det A} & \dots &
\frac{A_{n1}}{\det A} \\
&&& \\
\frac{A_{12}}{\det A} &
\frac{A_{22}}{\det A} & \dots &
\frac{A_{n2}}{\det A} \\
&&& \\
\vdots & & & \vdots \\
\frac{A_{1n}}{\det A} &
\frac{A_{2n}}{\det A} & \dots &
\frac{A_{nn}}{\det A}
\end{array}
\right)
$$
Этот способ вычисления обратной матрицы имеет исключительно теоретическое значение.
!!П!! **Пример.** Вычислить
$$
\left( \begin{array}{rrrr}
4&7& 1 &5 \\
3 & 4 & 0 &-6 \\
-11 & 8 & 2 & 9\\
-12 & -10 &0 & 8
\end{array}
\right)^{-1} \ .
$$
**Решение.** Вычисляем определитель этой матрицы: $ \det A = -226 \ne 0 $. Обратная матрица существует. Вычисляем алгебраические дополнения элементов:
$$
\overbrace{\left| \begin{array}{rrr}
4 & 0 &-6 \\
8 & 2 & 9\\
-10 &0 & 8
\end{array}
\right|}^{A_{11}}=-56, \
\overbrace{-\left| \begin{array}{rrr}
3 & 0 &-6 \\
-11 & 2 & 9\\
-12 &0 & 8
\end{array}
\right|}^{A_{12}}=96,
\overbrace{\left| \begin{array}{rrr}
3 & 4 &-6 \\
-11 & 8 & 9\\
-12 &-10 & 8
\end{array}
\right|}^{A_{13}}=-854,
\overbrace{-\left| \begin{array}{rrr}
3 & 4 & 0 \\
-11 & 8 & 2 \\
-12 & -10 &0
\end{array}
\right|}^{A_{14}}=36,
$$
$$
A_{21}=-58,\ A_{22}=164,\ A_{23}=-1506,\ A_{24}=118, \dots,
A_{44}=58 \ .
$$
Cоставляем из них матрицу:
$$
\left( \begin{array}{rrrr}
-56 & 96 & -854 & 36 \\
-58 & 164 & -1506 & 118 \\
28&-48 & 314& -9 \\
-40& 117 & -949 & 58
\end{array}
\right) \ .
$$
и не забываем ее транспонировать, а также поделить на определитель!
**Ответ.**
$$
\left( \begin{array}{rrrr}
\frac{\scriptstyle 28}{\scriptstyle 113} &
\frac{\scriptstyle 29}{\scriptstyle 113} &
-\frac{\scriptstyle 14}{\scriptstyle 113} &
\frac{\scriptstyle 20}{\scriptstyle 113} \\
&&& \\
-\frac{\scriptstyle 48}{\scriptstyle 113} &
-\frac{\scriptstyle 82}{\scriptstyle 113} &
\frac{\scriptstyle 24}{\scriptstyle 113} &
-\frac{\scriptstyle 117}{\scriptstyle 226} \\
&&& \\
\frac{\scriptstyle 427}{\scriptstyle 113} &
\frac{\scriptstyle 753}{\scriptstyle 113} &
-\frac{\scriptstyle 157}{\scriptstyle 113} &
\frac{\scriptstyle 949}{\scriptstyle 226} \\
&&& \\
-\frac{\scriptstyle 18}{\scriptstyle 113} &
-\frac{\scriptstyle 59}{\scriptstyle 113} &
\frac{\scriptstyle 9}{\scriptstyle 113} &
-\frac{\scriptstyle 29}{\scriptstyle 113}
\end{array}
\right) \ .
$$
2.
Второй способ нахождения $ A^{-1}_{} $ часто называют **методом Гаусса-Йордана**[[Йордан Вильгельм (Jordan Wilhelm,1842-1899) --- немецкий геодезист. Биография
☞
((https://ru.wikipedia.org/wiki/%D0%99%D0%BE%D1%80%D0%B4%D0%B0%D0%BD,_%D0%92%D0%B8%D0%BB%D1%8C%D0%B3%D0%B5%D0%BB%D1%8C%D0%BC_%28%D0%B3%D0%B5%D0%BE%D0%B4%D0%B5%D0%B7%D0%B8%D1%81%D1%82%29 ЗДЕСЬ)). В отечественной литературе его принято путать с французским математиком Камиллом Жорданом (Jordan Camille, 1838-1922).]] или **методом приписывания единичной матрицы**. Он, фактически, заключается в одновременном решении семейства систем линейных уравнений
$$
AX_1=E_{[1]}, AX_2=E_{[2]},\dots, AX_n=E_{[n]}
$$
где $ E_{[1]}, E_{[2]},\dots, E_{[n]} $ -- столбцы единичной матрицы:
$$
E_{[1]}=\left(
\begin{array}{c}
1 \\ 0 \\ 0 \\ \vdots \\ 0
\end{array}
\right),\
E_{[2]}=\left(
\begin{array}{c}
0 \\ 1 \\ 0 \\ \vdots \\ 0
\end{array}
\right),\dots,
E_{[n]}=\left(
\begin{array}{c}
0 \\ 0 \\ 0 \\ \vdots \\ 1
\end{array}
\right),\
$$
Левые части этих систем одинаковы, поэтому ((:algebra2:linearsystems#исключение_переменных_метод_гаусса метод исключения переменных Гаусса)), примененный к одной, будет действителен и для другой - различия будут проявляться лишь в правых частях. Строго формальное обоснование метода следующее. Рассмотрим систему линейных уравнений относительно неизвестных $ x_1,\dots,x_n,y_1,\dots,y_n $:
$$ AX=Y \ . $$
Здесь $ X=(x_1,\dots,x_n)^{\top}, Y=(y_1,\dots,y_n)^{\top} $. Если $ A_{}^{-1} $ существует, то эту систему можно разрешить относительно столбца переменных $ X_{} $:
$$ X=A^{-1}Y \ . $$
С другой стороны, перепишем ту же систему в матричном виде:
$$AX=Y \quad \iff \quad AX=EY \quad \iff \quad \left[A \mid E \right] \left(\begin{array}{r} X \\ -Y
\end{array} \right)= \mathbb O_{2n\times 1} \ ; $$
здесь $ E_{} $ --- единичная матрица порядка $ n_{} $. Элементарными преобразованиями над строками
матрицы $ \left[A \mid E \right] $ добиваемся того, чтобы в левой ее половине возникла единичная матрица: $ \left[E \mid Q \right] $ (этого всегда можно добиться при условии $ \det A_{}\ne 0 $). Поскольку элементарные преобразования приводят систему линейных уравнений к эквивалентной ей системе (т.е. имеющей то же множество решений), то
$$
\left[A \mid E \right] \left(\begin{array}{r} X \\ -Y
\end{array} \right)= \mathbb O \quad \iff \quad \left[E \mid Q \right] \left(\begin{array}{r} X \\ -Y
\end{array} \right)= \mathbb O \quad \iff \quad X=QY \ .
$$
Сравнивая два представления решений системы, приходим к равенству
$$ A^{-1}Y = QY $$
справедливому для __любого__ столбца $ Y_{} $. Выбираем $ Y_{} $ из множества столбцов единичной матрицы, получаем:
$$ A^{-1}E_{[1]}= QE_{[1]},\ A^{-1}E_{[2]}= QE_{[2]},\dots, A^{-1}E_{[n]}= QE_{[n]} \quad \iff \quad A^{-1}E=QE \quad \iff \quad A^{-1}=Q \ . $$
----
Алгоритм обращения матрицы посредством приписыванием к ней единичной
1.
Осуществляем ((:algebra2#конкатенация конкатенацию матриц)) $ A $ и единичной матрицы $ E $ того же порядка: формируем расширенную $ n\times 2n_{} $-матрицу $ \left[A \mid E \right] $.
2.
((:algebra2:rank#ранг_системы_строк_столбцов Элементарными преобразованиями строк)) расширенной матрицы, добиваемся, чтобы в левой ее половине получилась единичная матрица.
3.
Если это удается сделать, то матрица, получившаяся в правой половине и будет $ A_{}^{-1} $. Если это сделать невозможно, то $ \det A_{}=0 $, т.е. $ A_{}^{-1} $ не существует.
----
!!П!! **Пример.** Вычислить
$$
\left( \begin{array}{rrr}
4& 5 &1 \\
1 & 3 &-2 \\
3 & 1 & 2
\end{array}
\right)^{-1}
$$
приписыванием единичной матрицы.
**Решение.** $$\left(\begin{array}{rrr|rrr}
4& 5 &1&1&0&0\\
1 & 3 &-2&0&1&0\\
3 & 1 & 2&0&0&1
\end{array}\right)\to
\left(\begin{array}{rrr|rrr}
1 & 3 &-2&0&1&0\\
4& 5 &1&1&0&0\\
3 & 1 & 2&0&0&1
\end{array}\right) \to
$$
$$
\to
\left(\begin{array}{rrr|rrr}
1&3&-2&0&1&0\\
0&-7&9&1&-4&0\\
0&-8&8&0&-3&1
\end{array}\right)
\to \left(\begin{array}{rrr|rrr}
1&3&-2&0&1&0\\
0&-8&8&0&-3&1\\
0&-7&9&1&-4&0
\end{array}\right)
\to
$$
$$
\to \left(\begin{array}{rrr|rrr}
1&3&-2&0&1&0\\
0&-1&1&0&-3/8& 1/8\\
0&-7&9&1&-4&0
\end{array}\right)\to
\left(\begin{array}{rrr|rrr}
1&3&-2&0&1&0\\
0&-1&1&0&-3/8& 1/8\\
0&0&2&1&-11/8&-7/8
\end{array}\right)
\to
$$
$$
\to \left(\begin{array}{rrr|rrr}
1&3&-2&0&1&0\\
0&-1&1&0&-3/8& 1/8\\
0&0&1&1/2&-11/16&
-7/16
\end{array}\right)\to
$$
$$
\to
\left(\begin{array}{rrr|rrr}
1&3&-2&0&1&0\\
0&-1&0&-1/2& 5/16& 9/16\\
0&0&1&1/2&-11/16&-7/16
\end{array}\right)\to
$$
$$
\to \left(\begin{array}{rrr|rrr}
1&0&0&-1/2& 9/16 &13/16\\
0&1&0&1/2&-5/16& -9/16\\
0&0&1&1/2&-11/16&-7/16
\end{array}\right) .
$$
**Ответ.** $$
\left( \begin{array}{rrr}
-1/2& 9/16 & 13/16 \\
1/2&-5/16 & -9/16 \\
1/2&-11/16 &-7/16
\end{array}
\right)
$$
!!?!! ((http://ru.wikipedia.org/wiki/Advanced_Encryption_Standard Алгоритм шифрования Rijndael)), используемый в мобильной телефонии, имеет в одной из стадий следующее преобразование
байтов
$$
\begin{pmatrix}
y_0 \\ y_1 \\ y_2 \\ y_3 \\ y_4 \\ y_5 \\ y_6 \\ y_7
\end{pmatrix}
=
\begin{pmatrix}
1 & 0 & 0 & 0 & 1 & 1 & 1 & 1 \\
1 & 1 & 0 & 0 & 0 & 1 & 1 & 1 \\
1 & 1 & 1 & 0 & 0 & 0 & 1 & 1 \\
1 & 1 & 1 & 1 & 0 & 0 & 0 & 1 \\
1 & 1 & 1 & 1 & 1 & 0 & 0 & 0 \\
0 & 1 & 1 & 1 & 1 & 1 & 0 & 0 \\
0 & 0 & 1 & 1 & 1 & 1 & 1 & 0 \\
0 & 0 & 0 & 1 & 1 & 1 & 1 & 1
\end{pmatrix}
\begin{pmatrix}
x_0 \\ x_1 \\ x_2 \\ x_3 \\ x_4 \\ x_5 \\ x_6 \\ x_7
\end{pmatrix}
+
\begin{pmatrix}
1 \\ 1 \\ 0 \\ 0 \\ 0 \\ 1 \\ 1 \\ 1
\end{pmatrix}
\pmod{2}
$$
Найти обратное преобразование.
**Ответ**
☞
((algebra2:solut1 ЗДЕСЬ)).
3.
Этот способ основан на теореме ((algebra2:charpoly#теорема_гамильтона-кэли Гамильтона-Кэли)). Если найден характеристический полином матрицы $ A_{} $:
$$ \det(A-\lambda E)\equiv (-1)^n (\lambda^n + a_1 \lambda^{n-1} + \dots + a_{n-1}\lambda + a_n ) \, $$
то при условии $ a_n \ne 0 $ матрица $ A_{} $ обратима и
$$ A^{-1}= - \frac{1}{a_n} \left( A^{n-1}+a_1 A^{n-2} + \dots + a_{n-1} E \right) \ , $$
т.е. $ A^{-1} $ может быть вычислена посредством ((:algebra2#полином_от_матрицы_и_матричный_полином возведения в степень)) матрицы $ A_{} $.
===Свойства операции обращения===
Если в левой части каждого каждого из следующих равенств операции определены, то равенства справедливы:
1.
$ (A^{-1})^{-1}=A_{} $;
2.
$ (A\cdot B)^{-1} = B^{-1}A_{}^{-1} $;
3.
$ (A_{}^{\top})^{-1}=(A^{-1})^{\top} $;
4.
$ \det (A^{-1}) = (\det A)^{-1} $.
===Использование для решения систем линейных уравнений==
Рассмотрим систему линейных уравнений с квадратной матрицей $ A $, т.е. такую, у которой число уравнений совпадает с числом неизвестных:
$$
\left\{\begin{array}{ccc}
a_{11}x_1 +a_{12}x_2+\ldots+a_{1n}x_n &=&b_1\\
a_{21}x_1 +a_{22}x_2+\ldots+a_{2n}x_n &=&b_2\\
\ldots& & \ldots \\
a_{n1}x_1 +a_{n2}x_2+\ldots+a_{nn}x_n &=&b_n
\end{array}\right. \quad \iff \quad AX={\mathcal B}
$$
((algebra2:linearsystems#формулы_крамера Теорема Крамера)) утверждает, что такая система имеет единственное решение тогда и только тогда, когда определитель матрицы этой системы отличен от нуля: $ \det A \ne 0 $. Это же условие является необходимым и достаточным и для существования обратной матрицы $ A^{-1} $. Но тогда решение системы можно записать в матричной форме:
$$
X=A^{-1} {\mathcal B} \ ,
$$
и такое представление бывает удобно в тех задачах, в которых требуется решить семейства систем с одинаковой матрицей $ A $, но различными столбцами правых частей $ {\mathcal B} $. Как соотносятся формулы Крамера и только что полученная формула? --- Для пояснения, распишем первую компоненту решения, воспользовавшись представлением обратной матрицы по способу
1
( см.
☞
((#способы_построения ЗДЕСЬ)) ). Имеем:
$$
x_1 = \frac{A_{11}}{\det A} b_1 + \frac{A_{21}}{\det A} b_2 + \dots + \frac{A_{n1}}{\det A} b_n
$$
Но полученное выражение совпадает с ((algebra2:dets#миноры_и_алгебраические_дополнения разложением определителя))
$$
\frac{1}{\det A}
\left|
\begin{array}{rrrr}
b_{1} & a_{12} & \dots & a_{1n} \\
b_{2} & a_{22} & \dots & a_{2n} \\
\dots &&& \dots \\
b_{n} & a_{n2} & \dots & a_{nn}
\end{array}
\right|
$$
по первому столбцу, т.е. мы получили первую из формул Крамера.
===Обратные к конкретным типам матриц==
Обратная к
1.
((:algebra2#треугольная треугольной матрице)) (верхней или нижней) существует при условии отличия от нуля элементов главной диагонали
$$a_{11}\ne 0, \dots, a_{nn} \ne 0 ; $$
и она будет треугольной матрицей (того же типа, алгоритм обращения см.
☟
((#obraschenie_blochnyx_matric НИЖЕ)) );
2.
((:algebra2#симметричная симметричной)) матрице, если существует, то будет симметричной матрицей;
3.
((:algebra2:skewsym кососимметричной)) матрице нечетного порядка не существует, а в случае четного порядка, если существует, то будет кососимметричной матрицей;
4.
((:algebra2#ортогональная ортогональной)) матрице $ Q_{} $ всегда существует и получается транспонированием матрицы: $ Q^{-1} = Q^{\top} $.
5.
((:algebra2:vander квадратной матрице Вандермонда))
$$ \left(
\begin{array}{llll}
1& 1& \ldots& 1\\
x_1& x_2& \ldots& x_n\\
x_1^2& x_2^2& \ldots& x_n^2\\
\vdots& \vdots& & \vdots \\
x_1^{n-1}& x_2^{n-1}& \ldots& x_n^{n-1}
\end{array}
\right) $$
существует тогда и только тогда, когда все $ x_1,\dots,x_n $ различны. Выражение
☞
((:algebra2:vander#обратная_матрица ЗДЕСЬ)).
В некоторых приложениях важно по виду матрицы быстро определить существует ли у нее обратная --- без непосредственного нахождения этой обратной. Для некоторых типов матриц можно получить "вычислительно дешевые" критерии отличия их определителей от нуля.
Следующая теорема основана на связи определителя матрицы с ее ((:algebra2:charpoly#собственное_число собственными числами)).
!!Т!! **Теорема.** //Матрица// $ A_{} $, //у которой элементы каждой строки обладают свойством//
$$ |a_{jj}|>|a_{j1}|+\dots+|a_{j,j-1}|+|a_{j,j+1}|+\dots+|a_{jn}| \quad npu \quad \forall j\in \{1,\dots,n\} $$
(//модуль элемента на главной диагонали больше суммы модулей остальных элементов строки//) //называется// **матрицей с диагональным доминированием** (**преобладанием**). //Такая матрица всегда обратима.//
**Доказательство** следует из того факта, что $ \det A_{} \ne 0 $ тогда и только тогда, когда в наборе собственных чисел матрицы[[Он еще называется **спектром матрицы**.]] $ A_{} $ нет нулевого (см. следствие к теореме 1
☞
((:algebra2:charpoly#собственное_число ЗДЕСЬ)) ). Локализовать собственные числа матрицы можно с помощью ((:algebra2:charpoly#собственное_число теоремы Гершгорина)): любое собственное число $ \lambda_{} $ матрицы $ A_{} $ должно удовлетворять хотя бы одному неравенству
$$ |\lambda - a_{jj}| < \sum_{k=1 \atop k \ne j}^n |a_{jk} | \ . $$
Геометрический смысл последнего неравенства: число $ \lambda_{} $ лежит в круге комплексной плоскости с центром в точке $ a_{jj}^{} $ и радиусом --- на основании предположения теоремы --- меньшим, чем расстояние от $ 0_{} $ до $ a_{jj} $. Следовательно $ \lambda_{} \ne 0 $.
♦
Поскольку $ \det A_{} = \det A^{\top} $, то утверждение теоремы будет справедливо и для матриц, у которых диагональное доминирование определяется через неравенства на элементы столбцов.
=== Обращение блочных матриц==
!!Т!! **Теорема [Фробениус].**[[Фробениус Георг (Frobenius Ferdinand Georg, 1849-1917) --- немецкий математик, ученик Вейерштрасса. Биография
☞
((http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Frobenius.html ЗДЕСЬ))]]. //Пусть имеется блочная квадратная матрица вида//
$$
\left(
\begin{array}{rr}
A & B \\
C & D
\end{array}
\right) \quad ,
$$
//где матрица// $ A_{} $ --- //квадратная порядка// $ k_{} $,// а матрица// $ D_{} $ --- //квадратная порядка// $ \ell_{} $. //Тогда//
$$\left(
\begin{array}{rr}
A & B \\
C & D
\end{array}
\right)^{-1}=
\left(
\begin{array}{cc}
A^{-1} +A^{-1}BK^{-1}CA^{-1} & -A^{-1}BK^{-1} \\
-K^{-1}CA^{-1} & K^{-1}
\end{array}
\right) \ ,
$$
//где матрица//
$$ K=D-CA^{-1}B $$
//называется// **шуровским дополнением**[[Шур Исай (Schur Issai, 1875-1941) --- немецкий математик, ученик Фробениуса. Родился в Могилёве. Биография
☞
((http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Schur.html ЗДЕСЬ)).]] //к подматрице// $ A_{} $. //Здесь предполагается, что матрицы// $ A_{} $ и $ K_{} $ --- //неособенные.//
!!=>!! При $ B=\mathbb O $
имеем:
$$
\left(
\begin{array}{rr}
A & \mathbb O \\
C & D
\end{array}
\right)^{-1}=
\left(
\begin{array}{cc}
A^{-1} & \mathbb O \\
-D^{-1}CA^{-1} & D^{-1}
\end{array}
\right) \ ,
$$
если матрицы $ A_{} $ и $ D_{} $ --- неособенные.
**Доказательство.** Будем искать
$$
\left(
\begin{array}{rr}
A & \mathbb O \\
C & D
\end{array}
\right)^{-1}
$$
в виде
$$
\left(
\begin{array}{rr}
X & Y \\
U & V
\end{array}
\right)_{n\times n}
$$
при $ k\times k $-матрице $ X $ и $ \ell\times \ell $-матрице $ V $. Разбиваем
матричное равенство
$$
\left(
\begin{array}{rr}
X & Y \\
U & V
\end{array}
\right)
\left(
\begin{array}{rr}
A & \mathbb O \\
C & D
\end{array}
\right)
=\left(
\begin{array}{rr}
E_k & \mathbb O \\
\mathbb O & E_{\ell}
\end{array}
\right)
$$
на четыре отдельных
$$
\begin{array}{cc}
XA+YC=E_k, & YD=\mathbb O, \\
UA+VC=\mathbb O, & VD=E_{\ell}
\end{array}
\quad \Rightarrow \quad
\begin{array}{l}
Y=\mathbb O, \\
V=D^{-1}.
\end{array}
$$
Подставляем полученное в два оставшихся равенства: $ X=A^{-1} $, $ U=-D^{-1}CA^{-1} $.
♦
Теорема Фробениуса имеет, в основном, теоретическое значение --- за исключением одного частного случая, когда матрица $ D_{} $ имеет порядок 1, т.е. является числом. Пусть, например, уже найдена обратная матрица для матрицы
$$ A =
\left(
\begin{array}{llll}
a_{11} & \dots & a_{1n} \\
a_{21} & \dots & a_{2n} \\
\vdots & & \vdots \\
a_{n1} & \dots & a_{nn}
\end{array}
\right)
$$
порядка $ n_{} $ и ставится задача нахождения обратной матрицы для ((:algebra2#конкатенация окаймляющей)) ее матрицы
$$
\left(
\begin{array}{rr}
A & B \\
C & D
\end{array}
\right) =
\left(
\begin{array}{llll}
a_{11} & \dots & a_{1n} & a_{1,n+1} \\
a_{21} & \dots & a_{2n} & a_{2,n+1} \\
\vdots & && \vdots \\
a_{n1} & \dots & a_{nn} & a_{n,n+1} \\
a_{n+1,1} & \dots & a_{n+1,n} & a_{n+1,n+1}
\end{array}
\right)
$$
порядка $ n+1_{} $. Тогда из теоремы следует:
$$
\left(
\begin{array}{rr}
A & B \\
C & D
\end{array}
\right)^{-1}=
\frac{1}{\kappa}
\left(
\begin{array}{cc}
A^{-1}(\kappa E+BCA^{-1}) & -A^{-1}B \\
-CA^{-1} & 1
\end{array}
\right) ;
$$
здесь $ E_{} $ --- единичная матрица порядка $ n_{} $, а __число__
$$
\kappa=a_{n+1,n+1}-CA^{-1}B=\underbrace{a_{n+1,n+1}}_D-\underbrace{\left( a_{n+1,1} , \dots , a_{n+1,n} \right)}_CA^{-1}
\underbrace{\left(\begin{array}{l}
a_{1,n+1} \\
a_{2,n+1} \\
\vdots \\
a_{n,n+1}
\end{array}
\right)}_B
$$
очевидно связано с определителем новой матрицы:
$$
\det\left(
\begin{array}{rr}
A & B \\
C & D
\end{array}
\right)= \kappa \det A \ .
$$
Этот метод обращения матрицы известен в литературе как **метод окаймления**, он подробно изложен в ((#источники [1])).
!!?!! Найти обратную матрицу для **матрицы Фробениуса**
$$
{\mathfrak F}=
\left( \begin{array}{lllllll}
0 & 1 & 0 & 0 & \dots & 0 & 0 \\
0 & 0 & 1 & 0 & \dots & 0 & 0 \\
0 & 0 & 0 & 1 & \dots & 0 & 0 \\
\dots& &&&\ddots & & \dots \\
0 & 0 & 0 & 0 & \dots & 0 & 1 \\
a_n & a_{n-1} & a_{n-2} & & \dots & a_2 & a_1
\end{array} \right)_{n \times n}
$$
**Решение и ответ**
☞
((algebra2:inverse:test1 ЗДЕСЬ))
!!=>!! //Если матрица// $ A $ //имеет следующую структуру//
$$
A=\left( \begin{array}{ccccc}
a_{11} & a_{12} & \dots & a_{1n} \\
0 & a_{22} & \dots & a_{2n} \\
0 & a_{32} & \dots & a_{3n} \\
\vdots & \vdots & & \vdots \\
0 & a_{n2} & \dots & a_{nn}
\end{array}
\right)
$$
//при// $ a_{11} \ne 0 $ //и невырожденной подматрице//
$$
\widetilde A=
\left( \begin{array}{cccc}
a_{22} & \dots & a_{2n} \\
a_{32} & \dots & a_{3n} \\
\vdots & & \vdots \\
a_{n2} & \dots & a_{nn}
\end{array}
\right) \, ,
$$
//то//
$$
A^{-1}=
\left[ \begin{array}{cc}
1/a_{11} & B \widetilde A^{-1} \\
0 & \widetilde A^{-1}
\end{array}
\right] \quad \mbox{при} \ B:=-\frac{1}{a_{11}}[ a_{22}, \dots , a_{2n} ] \, .
$$
Этот результат позволяет организовать вычисление обратной матрицы для верхнетреугольной последовательным вычислением обратных к ее подматрицам из правого нижнего угла:
$$
a_{nn}^{-1} \ \rightarrow \
\left( \begin{array}{cc}
a_{n-1,n-1} & a_{n-1,n} \\
0 & a_{nn}
\end{array}
\right)^{-1}
\ \rightarrow \
\left( \begin{array}{ccc}
a_{n-2,n-2} & a_{n-2,n-1} & a_{n-2,n} \\
0 & a_{n-1,n-1} & a_{n-1,n} \\
0 & 0 & a_{nn}
\end{array}
\right)^{-1}
\ \rightarrow \dots
$$
=== Обращение "возмущенных" матриц==
Довольно часто ставится задача нахождения обратной к матрице $ A+B_{} $ при условии, что известна матрица $ A^{-1} $ и доступна некоторая дополнительная информация о "возмущении" --- о матрице $ B_{} $.
Следующий результат формулируем только для случая вещественных матриц, хотя существует его обобщение для комплексных.
!!Т!! **Теорема [Шерман, Моррисон].** ((#источники [3])). //Пусть матрицы//
$$ A_{n\times n},\ U_{n\times p},\ W_{p\times p},\ V_{n\times p} $$
//таковы, что существуют// $ A^{-1}, W^{-1} $ //и// $ (W^{-1}+V^{\top} A^{-1} U)^{-1} $. //Тогда существует// $ (A+UWV^{\top})^{-1} $ //и//
$$ (A+UWV^{\top})^{-1} = A^{-1}- A^{-1}UY^{-1}V^{\top} A^{-1} \quad npu \quad Y=W^{-1}+V^{\top}A^{-1}U \ . $$
Особенно полезен этот результат для случая возмущения матрицы $ A_{} $ посредством матриц ((:algebra2:rank#матрицы_ранга_1 одноранговых)):
!!=>!! Если $ \{u=(u_1,\dots,u_n), v=(v_1,\dots,v_n)\} \subset \mathbb R^n $, то
$$ (A+u^{\top}v)^{-1} = A^{-1}- \frac{1}{1+vA^{-1}u^{\top}} A^{-1} u^{\top} v A^{-1} \ . $$
!!П!! Вычислить $ (A+B)^{-1} $ для
$$ A=\left(\begin{array}{rrr}
-7 & 22 & - 55 \\
-94 & 87 & -56 \\
0 & -62 & 97
\end{array} \right), \
B=\left(\begin{array}{rrr}
1 & 1 & 2 \\
0 & 1 & 1 \\
-1 & 0 & -1
\end{array} \right) \ ,
$$
если известно, что
$$
A^{-1} = \frac{1}{154713}
\left(\begin{array}{rrr}
-4967 & -1276 & - 3553 \\
-9118 & 679 & -4778 \\
-5828 & 434 & -1459
\end{array} \right) \ .
$$
**Решение.** Имеем: $ \operatorname{rank} (B) =2 $ и, ((:algebra2:rank#матрицы_ранга_1 следовательно)), матрица $ B_{} $ может быть представлена в виде суммы двух матриц ранга $ 1_{} $:
$$
B=
\underbrace{\left(\begin{array}{rrr}
0 & 1 & 1 \\
0 & 1 & 1 \\
0 & 0 & 0
\end{array} \right)}_{=B_1} +
\underbrace{\left(\begin{array}{rrr}
1 & 0 & 1 \\
0 & 0 & 0 \\
-1 & 0 & -1
\end{array} \right)}_{=B_2}= {\underbrace{(1,1,0)}_{=u_1}}^{\top}
\underbrace{(0,1,1)}_{=v_1} + {\underbrace{(1,0,-1)}_{=u_2}}^{\top} \underbrace{(1,0,1)}_{=v_2} \ .
$$
Будем производить обращение матрицы $ A+B $ по схеме:
$$ A+B = (\underbrace{(A+B_1)}_{A_1}+B_2)^{-1} \ . $$
На основании следствия к теореме имеем последовательно:
$$ A_1^{-1}=(A+B_1)^{-1}=A^{-1}- \frac{1}{1+v_1A^{-1}u_1^{\top}} A^{-1} B_1 A^{-1}=
$$
$$
=\frac{1}{140880}
\left(\begin{array}{rrr}
-5126 & -1117 &-3487\\
-9118 & 679 & -4691\\
-5828 & 434 & -1546
\end{array} \right) \ ;
$$
$$
(A+B)^{-1}=(A_1+B_2)^{-1}=A_1^{-1}- \frac{1}{1+v_2A_1^{-1}u_2^{\top}} A_1^{-1} B_2 A_1^{-1}=
$$
$$
=\frac{1}{134959}
\left(\begin{array}{rrr}
-5038 & -1078 & -3399 \\
-9079 & 629 & -4652 \\
-5916 & 395 & -1634
\end{array} \right) \ .
$$
♦
Этот прием вычисления обратной матрицы формализуется в **методе пополнения** ((#istochniki [1])): последовательно находятся обратные матрицы
к матрицам последовательности
$$ A_0=E,A_1,\dots,A_n=A, $$
в которой $ A_{k-1} $ отличается от $ A_k $ заменой $ k $-й строки матрицы $ A_{k-1} $ на $ k $-ю строку матрицы $ A $.
Используется в модифицированном симплекс-методе, в котором на каждом шаге требуется вычислять обратную матрицу для матрицы, которая отличается от матрицы, полученной на предыдущем шаге только в одном столбце ((#источники [4])).
===Эффективные методы вычисления==
==== Применение QR-разложения==
Пусть ((:euclid_space#matrichnyj_formalizm_algoritma_grama-shmidtaqr-razlozhenie QR-разложение)) __вещественной__ матрицы $ A $ имеет вид
$$
A=QR
$$
при $ Q $ --- ортогональной и $ R $ --- верхнетреугольной матрицах. Тогда при условии $ \det A \ne 0 $ имеем $ \det R \ne 0 $ и
$$
A^{-1}=R^{-1}Q^{\top} \, .
$$
==Псевдообратная матрица==
Эта матрица определяется не только для квадратной матрицы $ A_{} $.
Пусть сначала матрица $ A_{} $ порядка $ m\times n_{} $ --- __вещественная__ и $ m \ge n_{} $ (число строк не меньше числа столбцов).
Если $ \operatorname{rank} (A) = n $ (столбцы матрицы линейно независимы), то **псевдообратная матрица (Мура-Пенроуза)**[[pseudoinverse или Moore-Penrose inverse]] к матрице $ A_{} $ определяется как матрица
$$ A^{+}=(A^{\top}A)^{-1} A^{\top} \ . $$
Эта матрица имеет порядок $ n \times m_{} $. Матрица $ (A^{\top}A)^{-1} $ существует ввиду того факта, что при условии $ \operatorname{rank} (A) = n $ будет выполнено $ \det (A^{\top} A) > 0 $ (см. теорему $ 2 $ в пункте
☞
((:algebra:dets:binet_cauchy ТЕОРЕМА БИНЕ-КОШИ)) или же пункт
☞
((:dets:gram#свойства_определителя_грама СВОЙСТВА ОПРЕДЕЛИТЕЛЯ ГРАМА)) ). Очевидно, что $ A^{+} \cdot A = E_{n} $, т.е. псевдообратная матрица является ((#обратная_матрица левой обратной)) для матрицы $ A_{} $. В случае $ m=n_{} $ псевдообратная матрица совпадает с обратной матрицей: $ A^{+}=A^{-1} $.
!!П!! **Пример.** Найти псевдообратную матрицу к матрице
$$ A= \left( \begin{array}{cc}
1 & 0 \\
0 & 1 \\
1 & 1
\end{array}
\right) \ .
$$
**Решение.**
$$
A^{\top}= \left( \begin{array}{ccc}
1 & 0 & 1 \\
0 & 1 & 1
\end{array}
\right) \quad \Rightarrow \quad A^{\top} \cdot A =
\left( \begin{array}{cc}
2 & 1 \\
1 & 2
\end{array}
\right) \quad \Rightarrow
\quad (A^{\top} \cdot A)^{-1} =
\left( \begin{array}{cc}
2/3 & -1/3 \\
-1/3 & 2/3
\end{array}
\right)
\ \Rightarrow
$$
$$
\Rightarrow \ A^{+} = (A^{\top} \cdot A)^{-1} A^{\top} =
\left( \begin{array}{rrr}
2/3 & -1/3 & 1/3 \\
-1/3 & 2/3 & 1/3
\end{array}
\right) \ .
$$
При этом
$$
A^{+} \cdot A =
\left( \begin{array}{cc}
1 & 0 \\
0 & 1
\end{array}
\right),\quad A \cdot A^{+} =
\left( \begin{array}{rrr}
2/3 & -1/3 & 1/3 \\
-1/3 & 2/3 & 1/3 \\
1/3 & 1/3 & 2/3
\end{array}
\right) \ ,
$$
т.е. матрица $ A^{+} $ не будет ((#обратная_матрица правой обратной)) для матрицы $ A_{} $.
♦
!!?!! Вычислить псевдообратную матрицу для
$$ \mathbf{a)}\ \left( \begin{array}{cc}
1 & 0 \\
1 & 1 \\
1 & 1
\end{array}
\right) \quad ; \quad
\mathbf{b)}\
\left( \begin{array}{c}
x_1 \\
x_2 \\
x_3
\end{array}
\right)
\ .
$$
Концепция псевдообратной матрицы естественным образом возникает из понятия ((:interpolation:mnk#псевдорешение_системы_линейных_уравнений псевдорешения системы линейных уравнений)). Если $ A^{+} $ существует, то псевдорешение (как правило, переопределенной и несовместной!) системы уравнений $ AX=\mathcal B_{} $ находится по формуле $ X= A^{+} \mathcal B $ при любом столбце $ \mathcal B_{} $.
Верно и обратное: если
$ E_{[1]}, E_{[2]},\dots, E_{[m]} $ -- столбцы единичной матрицы $ E_m $:
$$
E_{[1]}=\left(
\begin{array}{c}
1 \\ 0 \\ 0 \\ \vdots \\ 0
\end{array}
\right),\
E_{[2]}=\left(
\begin{array}{c}
0 \\ 1 \\ 0 \\ \vdots \\ 0
\end{array}
\right),\dots,
E_{[m]}=\left(
\begin{array}{c}
0 \\ 0 \\ 0 \\ \vdots \\ 1
\end{array}
\right),\
$$
а псевдорешение системы уравнений $ AX=E_{[j]} $ обозначить $ X_{j} $ (оно существует и единственно при условии $ \operatorname{rank} (A) = n $), то
$$ A^{+}=\left[X_1,X_2,\dots,X_m \right] \ . $$
!!Т!! **Теорема.** //Пусть// $ A \in \mathbb R^{m\times n} $, $ m \ge n_{} $ //и// $ \operatorname{rank} (A) = n $. //Тогда псевдообратная матрица// $ A^{+} $ //является решением задачи минимизации//
$$ \min_{X\in \mathbb R^{n\times m}} ||AX-E_m||^2 $$
//где// $ || \cdot || $ //означает ((:norm_space#норма_матрицы евклидову норму)) (норму Фробениуса) матрицы// :
$$ ||[h_{jk}]_{j,k}||^2=\sum_{j,k} h_{jk}^2 \ . $$
//При сделанных предположениях решение задачи единственно. //
Образно говоря, если уж невозможно найти обратную матрицу для матрицы $ A \in \mathbb R^{m\times n} $, давайте найдем хотя бы такую матрицу $ X_{n\times m} $, чтобы отклонение произведения $ A\cdot X $ от единичной матрицы $ E_m $ (вычисленное как квадрат евклидова расстояния между матрицами $ A\cdot X $ и $ E_m $) было бы минимальным.
С учетом этого результата понятно как распространить понятие псевдообратной матрицы на случай матрицы $ A \in \mathbb R^{m\times n} $, у которой число строк ''меньше'' числа столбцов: $ m < n_{} $.
Будем искать эту матрицу как решение задачи минимизации
$$ \min_{Y\in \mathbb R^{n\times m}} ||YA-E_n||^2 \, . $$
Пусть $ \operatorname{rank} (A) = m $, т.е. строки матрицы линейно независимы. Тогда **псевдообратная к матрице** $ A_{} $ определяется как матрица
$$ A^{+}= A^{\top} (A\cdot A^{\top})^{-1} \ . $$
Очевидно, что в этом случае $ A\cdot A^{+}=E_m $.
Система линейных уравнений $ AX=\mathcal B $ с такой матрицей $ A $ совместна и имеет бесконечное множество решений при произвольном выборе столбца $ \mathcal B $. Известна ((:algebra2/linearsystems#obschee_reshenie теорема)) представления общего решения системы в виде суммы частного решения и общего решения однородной системы $ AX=\mathbb O_{m\times 1} $. Этот результат можно переписать в терминах псевдообратной матрицы.
!!Т!! **Теорема.** //Если все строки матрицы// $ A \in \mathbb R^{m\times n} $ //при// $ m
♦