==Обратная матрица== ~~TOC~~ Для матрицы $ A_{} $ порядка $ m\times n $ матрица $ B_{} $ порядка $ n\times m $ называется **левой обратной** если $ BA=E_n $, где $ E_n $ --- ((:algebra2#единичная)) матрица порядка $ n $; для матрицы $ A_{} $ матрица $ C $ порядка $ n\times m $ называется **правой обратной** если $ AC=E_m $. !!П!! **Пример.** Для матрицы $$ A= \left( \begin{array}{cc} 1 & 0 \\ 0 & 1 \\ 1 & 1 \end{array} \right) \ . $$ существует левая обратная матрица: $$ B= \left( \begin{array}{rrr} 2/3 & -1/3 & 1/3 \\ -1/3 & 2/3 & 1/3 \end{array} \right)\ , $$ но не существует правой обратной матрицы. Действительно, для любой матрицы $ C $ порядка $ 2\times 3 $ имеем, вследствие ((:algebra/dets/binet_cauchy теоремы Бине-Коши)), $ \det (AC)=0 $. И это условие блокирует возможность выполнения равенства $ AC=E_{3\times 3} $. Для матрицы $$ A= \left( \begin{array}{rrr} 1 & 2 & 3 \\ -1 & 1 & 0 \end{array} \right) $$ существует правая обратная матрица $$ C=\left( \begin{array}{rr} 1/9 & -5/9 \\ 1/9 & 4/9 \\ 2/9 &-1/9 \end{array} \right) \ , $$ но не существует левой обратной. Оказывается, что для квадратной матрицы условия существования левой и правой обратных матриц совпадают. Более того, справедлив следующий результат. !!Т!!** Теорема.** //Для того, чтобы существовала левая обратная матрица для __квадратной__ матрицы// $ A_{} $ //необходимо и достаточно, чтобы// $ \det A_{} \ne 0 $. //В этом случае, левая обратная матрица будет единственной и совпадает с правой обратной:// $ AB=BA=E $. **Доказательство.** Необходимость условия $ \det A_{} \ne 0 $ для существования, например, левой обратной матрицы следует из условия $$ \det (B \cdot A)= \det E \quad \iff \quad (\det B) (\det A) =1 \ . $$ Покажем достаточность. Вычислим все ((algebra2:dets#миноры_и_алгебраические_дополнения алгебраические дополнения)) к элементам матрицы $ A_{} $, составим из них новую матрицу порядка $ n_{} $ и ((:algebra2#транспонирование транспонируем)) ее. Полученная матрица $$ \operatorname{adj}(A) =\left(\left[A_{jk} \right]_{jk}^n \right)^{\top} = \left( \begin{array}{llll} A_{11} & A_{21}& \dots & A_{n1} \\ A_{12} & A_{22} & \dots & A_{n2} \\ \dots & & & \dots \\ A_{1n} & A_{2n} & \dots & A_{nn} \end{array} \right) $$ называется **взаимной** или **союзной** матрице[[(//Англ.//) adjugate или adjoint matrix.]] $ A_{} $ (а также **присоединненой к матрице** $ A $). Для любой матрицы $ A_{} $ имеет место равенство $$ A \cdot \operatorname{adj}(A) = \left( \begin{array}{cccc} \det A & & & \\ & \det A & & {\mathbb O} \\ {\mathbb O} & & \ddots & \\ & & & \det A \end{array} \right) = \det A \cdot E \ . $$ Справедливость этого факта следует из теории определителей: сумма произведений элементов строки матрицы на их алгебраические дополнения равна определителю матрицы; а на алгебраические дополнения к элементам любой другой строки --- нулю (см. теорему $ 2 $ ((:algebra2:dets:minors ЗДЕСЬ)) ). При выполнении условия $ \det A_{} \ne 0 $ можем взять $$ A^{-1}=\frac{ \operatorname{adj}(A) }{\det A}= \left( \begin{array}{llll} \frac{A_{11}}{\det A} & \frac{A_{21}}{\det A} & \dots & \frac{A_{n1}}{\det A} \\ &&& \\ \frac{A_{12}}{\det A} & \frac{A_{22}}{\det A} & \dots & \frac{A_{n2}}{\det A} \\ &&& \\ \vdots & & & \vdots \\ \frac{A_{1n}}{\det A} & \frac{A_{2n}}{\det A} & \dots & \frac{A_{nn}}{\det A} \end{array} \right) \ . $$ Пока что мы получили __правую__ обратную матрицу: доказано, что она удовлетворяет условию $ A C = E_{} $. Проверка того, что полученная матрица будет являться и __левой__ обратной, т.е. удовлетворяет условию $ C A=E $, производится снова с использованием теоремы о сумме произведений элементов столбца матрицы $ A_{} $ на алгебраические дополнения к другому столбцу той же матрицы (см. теорему $ 2 $ ((:algebra2:dets:minors ЗДЕСЬ)) ). Теперь покажем, единственность полученной обратной матрицы. Предположим, что каким-то другим способом найдена еще одна матрица $ \widetilde C $ обладающая тем же самым свойством $ A \widetilde C = E $. Домножим это равенство __слева__ на матрицу $ C $: $$ C(A \widetilde C) = C E \ . $$ Операция умножения матриц подчиняется ((:algebra2:assoc ассоциативному закону)), поэтому $$ (CA) \widetilde C = C , $$ но, по доказанному ранее, $ CA=E_{} $. И мы получили равенство $ \widetilde C = C $, доказывающее единственность правой обратной матрицы. Аналогично доказывается единственность и левой обратной. Обратную матрицу к квадратной матрице $ A_{} $ обозначают $ A_{}^{-1} $, а сама процедура нахождения такой матрицы называется **обращением матрицы** $ A $. Матрица, определитель которой отличен от нуля, называется **неособенной** или **невырожденной** или **обратимой**. ===Способы построения=== 1. Первый способ следует из ((:algebra2#обращение_матрицы доказательства предыдущей теоремы)). Вычислим все ((algebra2:dets#миноры_и_алгебраические_дополнения алгебраические дополнения)) к элементам матрицы $ A_{} $, составим из них новую матрицу порядка $ n_{} $ и ((:algebra2#транспонирование транспонируем)) ее. Полученная матрица $$ \operatorname{adj}(A) =\left(\left[A_{jk} \right]_{jk}^n \right)^{\top} = \left( \begin{array}{llll} A_{11} & A_{21}& \dots & A_{n1} \\ A_{12} & A_{22} & \dots & A_{n2} \\ \dots & & & \dots \\ A_{1n} & A_{2n} & \dots & A_{nn} \end{array} \right) $$ называется **взаимной** или **союзной** матрице $ A_{} $. При условии $ \det A_{} \ne 0 $ будем иметь: $$ A^{-1}=\frac{\operatorname{adj}(A) }{\det A}= \left( \begin{array}{llll} \frac{A_{11}}{\det A} & \frac{A_{21}}{\det A} & \dots & \frac{A_{n1}}{\det A} \\ &&& \\ \frac{A_{12}}{\det A} & \frac{A_{22}}{\det A} & \dots & \frac{A_{n2}}{\det A} \\ &&& \\ \vdots & & & \vdots \\ \frac{A_{1n}}{\det A} & \frac{A_{2n}}{\det A} & \dots & \frac{A_{nn}}{\det A} \end{array} \right) $$ Этот способ вычисления обратной матрицы имеет исключительно теоретическое значение. !!П!! **Пример.** Вычислить $$ \left( \begin{array}{rrrr} 4&7& 1 &5 \\ 3 & 4 & 0 &-6 \\ -11 & 8 & 2 & 9\\ -12 & -10 &0 & 8 \end{array} \right)^{-1} \ . $$ **Решение.** Вычисляем определитель этой матрицы: $ \det A = -226 \ne 0 $. Обратная матрица существует. Вычисляем алгебраические дополнения элементов: $$ \overbrace{\left| \begin{array}{rrr} 4 & 0 &-6 \\ 8 & 2 & 9\\ -10 &0 & 8 \end{array} \right|}^{A_{11}}=-56, \ \overbrace{-\left| \begin{array}{rrr} 3 & 0 &-6 \\ -11 & 2 & 9\\ -12 &0 & 8 \end{array} \right|}^{A_{12}}=96, \overbrace{\left| \begin{array}{rrr} 3 & 4 &-6 \\ -11 & 8 & 9\\ -12 &-10 & 8 \end{array} \right|}^{A_{13}}=-854, \overbrace{-\left| \begin{array}{rrr} 3 & 4 & 0 \\ -11 & 8 & 2 \\ -12 & -10 &0 \end{array} \right|}^{A_{14}}=36, $$ $$ A_{21}=-58,\ A_{22}=164,\ A_{23}=-1506,\ A_{24}=118, \dots, A_{44}=58 \ . $$ Cоставляем из них матрицу: $$ \left( \begin{array}{rrrr} -56 & 96 & -854 & 36 \\ -58 & 164 & -1506 & 118 \\ 28&-48 & 314& -9 \\ -40& 117 & -949 & 58 \end{array} \right) \ . $$ и не забываем ее транспонировать, а также поделить на определитель! **Ответ.** $$ \left( \begin{array}{rrrr} \frac{\scriptstyle 28}{\scriptstyle 113} & \frac{\scriptstyle 29}{\scriptstyle 113} & -\frac{\scriptstyle 14}{\scriptstyle 113} & \frac{\scriptstyle 20}{\scriptstyle 113} \\ &&& \\ -\frac{\scriptstyle 48}{\scriptstyle 113} & -\frac{\scriptstyle 82}{\scriptstyle 113} & \frac{\scriptstyle 24}{\scriptstyle 113} & -\frac{\scriptstyle 117}{\scriptstyle 226} \\ &&& \\ \frac{\scriptstyle 427}{\scriptstyle 113} & \frac{\scriptstyle 753}{\scriptstyle 113} & -\frac{\scriptstyle 157}{\scriptstyle 113} & \frac{\scriptstyle 949}{\scriptstyle 226} \\ &&& \\ -\frac{\scriptstyle 18}{\scriptstyle 113} & -\frac{\scriptstyle 59}{\scriptstyle 113} & \frac{\scriptstyle 9}{\scriptstyle 113} & -\frac{\scriptstyle 29}{\scriptstyle 113} \end{array} \right) \ . $$ 2. Второй способ нахождения $ A^{-1}_{} $ часто называют **методом Гаусса-Йордана**[[Йордан Вильгельм (Jordan Wilhelm,1842-1899) --- немецкий геодезист. Биография ((https://ru.wikipedia.org/wiki/%D0%99%D0%BE%D1%80%D0%B4%D0%B0%D0%BD,_%D0%92%D0%B8%D0%BB%D1%8C%D0%B3%D0%B5%D0%BB%D1%8C%D0%BC_%28%D0%B3%D0%B5%D0%BE%D0%B4%D0%B5%D0%B7%D0%B8%D1%81%D1%82%29 ЗДЕСЬ)). В отечественной литературе его принято путать с французским математиком Камиллом Жорданом (Jordan Camille, 1838-1922).]] или **методом приписывания единичной матрицы**. Он, фактически, заключается в одновременном решении семейства систем линейных уравнений $$ AX_1=E_{[1]}, AX_2=E_{[2]},\dots, AX_n=E_{[n]} $$ где $ E_{[1]}, E_{[2]},\dots, E_{[n]} $ -- столбцы единичной матрицы: $$ E_{[1]}=\left( \begin{array}{c} 1 \\ 0 \\ 0 \\ \vdots \\ 0 \end{array} \right),\ E_{[2]}=\left( \begin{array}{c} 0 \\ 1 \\ 0 \\ \vdots \\ 0 \end{array} \right),\dots, E_{[n]}=\left( \begin{array}{c} 0 \\ 0 \\ 0 \\ \vdots \\ 1 \end{array} \right),\ $$ Левые части этих систем одинаковы, поэтому ((:algebra2:linearsystems#исключение_переменных_метод_гаусса метод исключения переменных Гаусса)), примененный к одной, будет действителен и для другой - различия будут проявляться лишь в правых частях. Строго формальное обоснование метода следующее. Рассмотрим систему линейных уравнений относительно неизвестных $ x_1,\dots,x_n,y_1,\dots,y_n $: $$ AX=Y \ . $$ Здесь $ X=(x_1,\dots,x_n)^{\top}, Y=(y_1,\dots,y_n)^{\top} $. Если $ A_{}^{-1} $ существует, то эту систему можно разрешить относительно столбца переменных $ X_{} $: $$ X=A^{-1}Y \ . $$ С другой стороны, перепишем ту же систему в матричном виде: $$AX=Y \quad \iff \quad AX=EY \quad \iff \quad \left[A \mid E \right] \left(\begin{array}{r} X \\ -Y \end{array} \right)= \mathbb O_{2n\times 1} \ ; $$ здесь $ E_{} $ --- единичная матрица порядка $ n_{} $. Элементарными преобразованиями над строками матрицы $ \left[A \mid E \right] $ добиваемся того, чтобы в левой ее половине возникла единичная матрица: $ \left[E \mid Q \right] $ (этого всегда можно добиться при условии $ \det A_{}\ne 0 $). Поскольку элементарные преобразования приводят систему линейных уравнений к эквивалентной ей системе (т.е. имеющей то же множество решений), то $$ \left[A \mid E \right] \left(\begin{array}{r} X \\ -Y \end{array} \right)= \mathbb O \quad \iff \quad \left[E \mid Q \right] \left(\begin{array}{r} X \\ -Y \end{array} \right)= \mathbb O \quad \iff \quad X=QY \ . $$ Сравнивая два представления решений системы, приходим к равенству $$ A^{-1}Y = QY $$ справедливому для __любого__ столбца $ Y_{} $. Выбираем $ Y_{} $ из множества столбцов единичной матрицы, получаем: $$ A^{-1}E_{[1]}= QE_{[1]},\ A^{-1}E_{[2]}= QE_{[2]},\dots, A^{-1}E_{[n]}= QE_{[n]} \quad \iff \quad A^{-1}E=QE \quad \iff \quad A^{-1}=Q \ . $$ ---- Алгоритм обращения матрицы посредством приписыванием к ней единичной 1. Осуществляем ((:algebra2#конкатенация конкатенацию матриц)) $ A $ и единичной матрицы $ E $ того же порядка: формируем расширенную $ n\times 2n_{} $-матрицу $ \left[A \mid E \right] $. 2. ((:algebra2:rank#ранг_системы_строк_столбцов Элементарными преобразованиями строк)) расширенной матрицы, добиваемся, чтобы в левой ее половине получилась единичная матрица. 3. Если это удается сделать, то матрица, получившаяся в правой половине и будет $ A_{}^{-1} $. Если это сделать невозможно, то $ \det A_{}=0 $, т.е. $ A_{}^{-1} $ не существует. ---- !!П!! **Пример.** Вычислить $$ \left( \begin{array}{rrr} 4& 5 &1 \\ 1 & 3 &-2 \\ 3 & 1 & 2 \end{array} \right)^{-1} $$ приписыванием единичной матрицы. **Решение.** $$\left(\begin{array}{rrr|rrr} 4& 5 &1&1&0&0\\ 1 & 3 &-2&0&1&0\\ 3 & 1 & 2&0&0&1 \end{array}\right)\to \left(\begin{array}{rrr|rrr} 1 & 3 &-2&0&1&0\\ 4& 5 &1&1&0&0\\ 3 & 1 & 2&0&0&1 \end{array}\right) \to $$ $$ \to \left(\begin{array}{rrr|rrr} 1&3&-2&0&1&0\\ 0&-7&9&1&-4&0\\ 0&-8&8&0&-3&1 \end{array}\right) \to \left(\begin{array}{rrr|rrr} 1&3&-2&0&1&0\\ 0&-8&8&0&-3&1\\ 0&-7&9&1&-4&0 \end{array}\right) \to $$ $$ \to \left(\begin{array}{rrr|rrr} 1&3&-2&0&1&0\\ 0&-1&1&0&-3/8& 1/8\\ 0&-7&9&1&-4&0 \end{array}\right)\to \left(\begin{array}{rrr|rrr} 1&3&-2&0&1&0\\ 0&-1&1&0&-3/8& 1/8\\ 0&0&2&1&-11/8&-7/8 \end{array}\right) \to $$ $$ \to \left(\begin{array}{rrr|rrr} 1&3&-2&0&1&0\\ 0&-1&1&0&-3/8& 1/8\\ 0&0&1&1/2&-11/16& -7/16 \end{array}\right)\to $$ $$ \to \left(\begin{array}{rrr|rrr} 1&3&-2&0&1&0\\ 0&-1&0&-1/2& 5/16& 9/16\\ 0&0&1&1/2&-11/16&-7/16 \end{array}\right)\to $$ $$ \to \left(\begin{array}{rrr|rrr} 1&0&0&-1/2& 9/16 &13/16\\ 0&1&0&1/2&-5/16& -9/16\\ 0&0&1&1/2&-11/16&-7/16 \end{array}\right) . $$ **Ответ.** $$ \left( \begin{array}{rrr} -1/2& 9/16 & 13/16 \\ 1/2&-5/16 & -9/16 \\ 1/2&-11/16 &-7/16 \end{array} \right) $$ !!?!! ((http://ru.wikipedia.org/wiki/Advanced_Encryption_Standard Алгоритм шифрования Rijndael)), используемый в мобильной телефонии, имеет в одной из стадий следующее преобразование байтов $$ \begin{pmatrix} y_0 \\ y_1 \\ y_2 \\ y_3 \\ y_4 \\ y_5 \\ y_6 \\ y_7 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 0 & 0 & 1 & 1 & 1 & 1 \\ 1 & 1 & 0 & 0 & 0 & 1 & 1 & 1 \\ 1 & 1 & 1 & 0 & 0 & 0 & 1 & 1 \\ 1 & 1 & 1 & 1 & 0 & 0 & 0 & 1 \\ 1 & 1 & 1 & 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 1 & 1 & 1 & 1 & 0 & 0 \\ 0 & 0 & 1 & 1 & 1 & 1 & 1 & 0 \\ 0 & 0 & 0 & 1 & 1 & 1 & 1 & 1 \end{pmatrix} \begin{pmatrix} x_0 \\ x_1 \\ x_2 \\ x_3 \\ x_4 \\ x_5 \\ x_6 \\ x_7 \end{pmatrix} + \begin{pmatrix} 1 \\ 1 \\ 0 \\ 0 \\ 0 \\ 1 \\ 1 \\ 1 \end{pmatrix} \pmod{2} $$ Найти обратное преобразование. **Ответ** ((algebra2:solut1 ЗДЕСЬ)). 3. Этот способ основан на теореме ((algebra2:charpoly#теорема_гамильтона-кэли Гамильтона-Кэли)). Если найден характеристический полином матрицы $ A_{} $: $$ \det(A-\lambda E)\equiv (-1)^n (\lambda^n + a_1 \lambda^{n-1} + \dots + a_{n-1}\lambda + a_n ) \, $$ то при условии $ a_n \ne 0 $ матрица $ A_{} $ обратима и $$ A^{-1}= - \frac{1}{a_n} \left( A^{n-1}+a_1 A^{n-2} + \dots + a_{n-1} E \right) \ , $$ т.е. $ A^{-1} $ может быть вычислена посредством ((:algebra2#полином_от_матрицы_и_матричный_полином возведения в степень)) матрицы $ A_{} $. ===Свойства операции обращения=== Если в левой части каждого каждого из следующих равенств операции определены, то равенства справедливы: 1. $ (A^{-1})^{-1}=A_{} $; 2. $ (A\cdot B)^{-1} = B^{-1}A_{}^{-1} $; 3. $ (A_{}^{\top})^{-1}=(A^{-1})^{\top} $; 4. $ \det (A^{-1}) = (\det A)^{-1} $. ===Использование для решения систем линейных уравнений== Рассмотрим систему линейных уравнений с квадратной матрицей $ A $, т.е. такую, у которой число уравнений совпадает с числом неизвестных: $$ \left\{\begin{array}{ccc} a_{11}x_1 +a_{12}x_2+\ldots+a_{1n}x_n &=&b_1\\ a_{21}x_1 +a_{22}x_2+\ldots+a_{2n}x_n &=&b_2\\ \ldots& & \ldots \\ a_{n1}x_1 +a_{n2}x_2+\ldots+a_{nn}x_n &=&b_n \end{array}\right. \quad \iff \quad AX={\mathcal B} $$ ((algebra2:linearsystems#формулы_крамера Теорема Крамера)) утверждает, что такая система имеет единственное решение тогда и только тогда, когда определитель матрицы этой системы отличен от нуля: $ \det A \ne 0 $. Это же условие является необходимым и достаточным и для существования обратной матрицы $ A^{-1} $. Но тогда решение системы можно записать в матричной форме: $$ X=A^{-1} {\mathcal B} \ , $$ и такое представление бывает удобно в тех задачах, в которых требуется решить семейства систем с одинаковой матрицей $ A $, но различными столбцами правых частей $ {\mathcal B} $. Как соотносятся формулы Крамера и только что полученная формула? --- Для пояснения, распишем первую компоненту решения, воспользовавшись представлением обратной матрицы по способу 1 ( см. ((#способы_построения ЗДЕСЬ)) ). Имеем: $$ x_1 = \frac{A_{11}}{\det A} b_1 + \frac{A_{21}}{\det A} b_2 + \dots + \frac{A_{n1}}{\det A} b_n $$ Но полученное выражение совпадает с ((algebra2:dets#миноры_и_алгебраические_дополнения разложением определителя)) $$ \frac{1}{\det A} \left| \begin{array}{rrrr} b_{1} & a_{12} & \dots & a_{1n} \\ b_{2} & a_{22} & \dots & a_{2n} \\ \dots &&& \dots \\ b_{n} & a_{n2} & \dots & a_{nn} \end{array} \right| $$ по первому столбцу, т.е. мы получили первую из формул Крамера. ===Обратные к конкретным типам матриц== Обратная к 1. ((:algebra2#треугольная треугольной матрице)) (верхней или нижней) существует при условии отличия от нуля элементов главной диагонали $$a_{11}\ne 0, \dots, a_{nn} \ne 0 ; $$ и она будет треугольной матрицей (того же типа, алгоритм обращения см. ((#obraschenie_blochnyx_matric НИЖЕ)) ); 2. ((:algebra2#симметричная симметричной)) матрице, если существует, то будет симметричной матрицей; 3. ((:algebra2:skewsym кососимметричной)) матрице нечетного порядка не существует, а в случае четного порядка, если существует, то будет кососимметричной матрицей; 4. ((:algebra2#ортогональная ортогональной)) матрице $ Q_{} $ всегда существует и получается транспонированием матрицы: $ Q^{-1} = Q^{\top} $. 5. ((:algebra2:vander квадратной матрице Вандермонда)) $$ \left( \begin{array}{llll} 1& 1& \ldots& 1\\ x_1& x_2& \ldots& x_n\\ x_1^2& x_2^2& \ldots& x_n^2\\ \vdots& \vdots& & \vdots \\ x_1^{n-1}& x_2^{n-1}& \ldots& x_n^{n-1} \end{array} \right) $$ существует тогда и только тогда, когда все $ x_1,\dots,x_n $ различны. Выражение ((:algebra2:vander#обратная_матрица ЗДЕСЬ)). В некоторых приложениях важно по виду матрицы быстро определить существует ли у нее обратная --- без непосредственного нахождения этой обратной. Для некоторых типов матриц можно получить "вычислительно дешевые" критерии отличия их определителей от нуля. Следующая теорема основана на связи определителя матрицы с ее ((:algebra2:charpoly#собственное_число собственными числами)). !!Т!! **Теорема.** //Матрица// $ A_{} $, //у которой элементы каждой строки обладают свойством// $$ |a_{jj}|>|a_{j1}|+\dots+|a_{j,j-1}|+|a_{j,j+1}|+\dots+|a_{jn}| \quad npu \quad \forall j\in \{1,\dots,n\} $$ (//модуль элемента на главной диагонали больше суммы модулей остальных элементов строки//) //называется// **матрицей с диагональным доминированием** (**преобладанием**). //Такая матрица всегда обратима.// **Доказательство** следует из того факта, что $ \det A_{} \ne 0 $ тогда и только тогда, когда в наборе собственных чисел матрицы[[Он еще называется **спектром матрицы**.]] $ A_{} $ нет нулевого (см. следствие к теореме 1 ((:algebra2:charpoly#собственное_число ЗДЕСЬ)) ). Локализовать собственные числа матрицы можно с помощью ((:algebra2:charpoly#собственное_число теоремы Гершгорина)): любое собственное число $ \lambda_{} $ матрицы $ A_{} $ должно удовлетворять хотя бы одному неравенству $$ |\lambda - a_{jj}| < \sum_{k=1 \atop k \ne j}^n |a_{jk} | \ . $$ Геометрический смысл последнего неравенства: число $ \lambda_{} $ лежит в круге комплексной плоскости с центром в точке $ a_{jj}^{} $ и радиусом --- на основании предположения теоремы --- меньшим, чем расстояние от $ 0_{} $ до $ a_{jj} $. Следовательно $ \lambda_{} \ne 0 $. Поскольку $ \det A_{} = \det A^{\top} $, то утверждение теоремы будет справедливо и для матриц, у которых диагональное доминирование определяется через неравенства на элементы столбцов. === Обращение блочных матриц== !!Т!! **Теорема [Фробениус].**[[Фробениус Георг (Frobenius Ferdinand Georg, 1849-1917) --- немецкий математик, ученик Вейерштрасса. Биография ((http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Frobenius.html ЗДЕСЬ))]]. //Пусть имеется блочная квадратная матрица вида// $$ \left( \begin{array}{rr} A & B \\ C & D \end{array} \right) \quad , $$ //где матрица// $ A_{} $ --- //квадратная порядка// $ k_{} $,// а матрица// $ D_{} $ --- //квадратная порядка// $ \ell_{} $. //Тогда// $$\left( \begin{array}{rr} A & B \\ C & D \end{array} \right)^{-1}= \left( \begin{array}{cc} A^{-1} +A^{-1}BK^{-1}CA^{-1} & -A^{-1}BK^{-1} \\ -K^{-1}CA^{-1} & K^{-1} \end{array} \right) \ , $$ //где матрица// $$ K=D-CA^{-1}B $$ //называется// **шуровским дополнением**[[Шур Исай (Schur Issai, 1875-1941) --- немецкий математик, ученик Фробениуса. Родился в Могилёве. Биография ((http://www-history.mcs.st-andrews.ac.uk/history/Biographies/Schur.html ЗДЕСЬ)).]] //к подматрице// $ A_{} $. //Здесь предполагается, что матрицы// $ A_{} $ и $ K_{} $ --- //неособенные.// !!=>!! При $ B=\mathbb O $ имеем: $$ \left( \begin{array}{rr} A & \mathbb O \\ C & D \end{array} \right)^{-1}= \left( \begin{array}{cc} A^{-1} & \mathbb O \\ -D^{-1}CA^{-1} & D^{-1} \end{array} \right) \ , $$ если матрицы $ A_{} $ и $ D_{} $ --- неособенные. **Доказательство.** Будем искать $$ \left( \begin{array}{rr} A & \mathbb O \\ C & D \end{array} \right)^{-1} $$ в виде $$ \left( \begin{array}{rr} X & Y \\ U & V \end{array} \right)_{n\times n} $$ при $ k\times k $-матрице $ X $ и $ \ell\times \ell $-матрице $ V $. Разбиваем матричное равенство $$ \left( \begin{array}{rr} X & Y \\ U & V \end{array} \right) \left( \begin{array}{rr} A & \mathbb O \\ C & D \end{array} \right) =\left( \begin{array}{rr} E_k & \mathbb O \\ \mathbb O & E_{\ell} \end{array} \right) $$ на четыре отдельных $$ \begin{array}{cc} XA+YC=E_k, & YD=\mathbb O, \\ UA+VC=\mathbb O, & VD=E_{\ell} \end{array} \quad \Rightarrow \quad \begin{array}{l} Y=\mathbb O, \\ V=D^{-1}. \end{array} $$ Подставляем полученное в два оставшихся равенства: $ X=A^{-1} $, $ U=-D^{-1}CA^{-1} $. Теорема Фробениуса имеет, в основном, теоретическое значение --- за исключением одного частного случая, когда матрица $ D_{} $ имеет порядок 1, т.е. является числом. Пусть, например, уже найдена обратная матрица для матрицы $$ A = \left( \begin{array}{llll} a_{11} & \dots & a_{1n} \\ a_{21} & \dots & a_{2n} \\ \vdots & & \vdots \\ a_{n1} & \dots & a_{nn} \end{array} \right) $$ порядка $ n_{} $ и ставится задача нахождения обратной матрицы для ((:algebra2#конкатенация окаймляющей)) ее матрицы $$ \left( \begin{array}{rr} A & B \\ C & D \end{array} \right) = \left( \begin{array}{llll} a_{11} & \dots & a_{1n} & a_{1,n+1} \\ a_{21} & \dots & a_{2n} & a_{2,n+1} \\ \vdots & && \vdots \\ a_{n1} & \dots & a_{nn} & a_{n,n+1} \\ a_{n+1,1} & \dots & a_{n+1,n} & a_{n+1,n+1} \end{array} \right) $$ порядка $ n+1_{} $. Тогда из теоремы следует: $$ \left( \begin{array}{rr} A & B \\ C & D \end{array} \right)^{-1}= \frac{1}{\kappa} \left( \begin{array}{cc} A^{-1}(\kappa E+BCA^{-1}) & -A^{-1}B \\ -CA^{-1} & 1 \end{array} \right) ; $$ здесь $ E_{} $ --- единичная матрица порядка $ n_{} $, а __число__ $$ \kappa=a_{n+1,n+1}-CA^{-1}B=\underbrace{a_{n+1,n+1}}_D-\underbrace{\left( a_{n+1,1} , \dots , a_{n+1,n} \right)}_CA^{-1} \underbrace{\left(\begin{array}{l} a_{1,n+1} \\ a_{2,n+1} \\ \vdots \\ a_{n,n+1} \end{array} \right)}_B $$ очевидно связано с определителем новой матрицы: $$ \det\left( \begin{array}{rr} A & B \\ C & D \end{array} \right)= \kappa \det A \ . $$ Этот метод обращения матрицы известен в литературе как **метод окаймления**, он подробно изложен в ((#источники [1])). !!?!! Найти обратную матрицу для **матрицы Фробениуса** $$ {\mathfrak F}= \left( \begin{array}{lllllll} 0 & 1 & 0 & 0 & \dots & 0 & 0 \\ 0 & 0 & 1 & 0 & \dots & 0 & 0 \\ 0 & 0 & 0 & 1 & \dots & 0 & 0 \\ \dots& &&&\ddots & & \dots \\ 0 & 0 & 0 & 0 & \dots & 0 & 1 \\ a_n & a_{n-1} & a_{n-2} & & \dots & a_2 & a_1 \end{array} \right)_{n \times n} $$ **Решение и ответ** ((algebra2:inverse:test1 ЗДЕСЬ)) !!=>!! //Если матрица// $ A $ //имеет следующую структуру// $$ A=\left( \begin{array}{ccccc} a_{11} & a_{12} & \dots & a_{1n} \\ 0 & a_{22} & \dots & a_{2n} \\ 0 & a_{32} & \dots & a_{3n} \\ \vdots & \vdots & & \vdots \\ 0 & a_{n2} & \dots & a_{nn} \end{array} \right) $$ //при// $ a_{11} \ne 0 $ //и невырожденной подматрице// $$ \widetilde A= \left( \begin{array}{cccc} a_{22} & \dots & a_{2n} \\ a_{32} & \dots & a_{3n} \\ \vdots & & \vdots \\ a_{n2} & \dots & a_{nn} \end{array} \right) \, , $$ //то// $$ A^{-1}= \left[ \begin{array}{cc} 1/a_{11} & B \widetilde A^{-1} \\ 0 & \widetilde A^{-1} \end{array} \right] \quad \mbox{при} \ B:=-\frac{1}{a_{11}}[ a_{22}, \dots , a_{2n} ] \, . $$ Этот результат позволяет организовать вычисление обратной матрицы для верхнетреугольной последовательным вычислением обратных к ее подматрицам из правого нижнего угла: $$ a_{nn}^{-1} \ \rightarrow \ \left( \begin{array}{cc} a_{n-1,n-1} & a_{n-1,n} \\ 0 & a_{nn} \end{array} \right)^{-1} \ \rightarrow \ \left( \begin{array}{ccc} a_{n-2,n-2} & a_{n-2,n-1} & a_{n-2,n} \\ 0 & a_{n-1,n-1} & a_{n-1,n} \\ 0 & 0 & a_{nn} \end{array} \right)^{-1} \ \rightarrow \dots $$ === Обращение "возмущенных" матриц== Довольно часто ставится задача нахождения обратной к матрице $ A+B_{} $ при условии, что известна матрица $ A^{-1} $ и доступна некоторая дополнительная информация о "возмущении" --- о матрице $ B_{} $. Следующий результат формулируем только для случая вещественных матриц, хотя существует его обобщение для комплексных. !!Т!! **Теорема [Шерман, Моррисон].** ((#источники [3])). //Пусть матрицы// $$ A_{n\times n},\ U_{n\times p},\ W_{p\times p},\ V_{n\times p} $$ //таковы, что существуют// $ A^{-1}, W^{-1} $ //и// $ (W^{-1}+V^{\top} A^{-1} U)^{-1} $. //Тогда существует// $ (A+UWV^{\top})^{-1} $ //и// $$ (A+UWV^{\top})^{-1} = A^{-1}- A^{-1}UY^{-1}V^{\top} A^{-1} \quad npu \quad Y=W^{-1}+V^{\top}A^{-1}U \ . $$ Особенно полезен этот результат для случая возмущения матрицы $ A_{} $ посредством матриц ((:algebra2:rank#матрицы_ранга_1 одноранговых)): !!=>!! Если $ \{u=(u_1,\dots,u_n), v=(v_1,\dots,v_n)\} \subset \mathbb R^n $, то $$ (A+u^{\top}v)^{-1} = A^{-1}- \frac{1}{1+vA^{-1}u^{\top}} A^{-1} u^{\top} v A^{-1} \ . $$ !!П!! Вычислить $ (A+B)^{-1} $ для $$ A=\left(\begin{array}{rrr} -7 & 22 & - 55 \\ -94 & 87 & -56 \\ 0 & -62 & 97 \end{array} \right), \ B=\left(\begin{array}{rrr} 1 & 1 & 2 \\ 0 & 1 & 1 \\ -1 & 0 & -1 \end{array} \right) \ , $$ если известно, что $$ A^{-1} = \frac{1}{154713} \left(\begin{array}{rrr} -4967 & -1276 & - 3553 \\ -9118 & 679 & -4778 \\ -5828 & 434 & -1459 \end{array} \right) \ . $$ **Решение.** Имеем: $ \operatorname{rank} (B) =2 $ и, ((:algebra2:rank#матрицы_ранга_1 следовательно)), матрица $ B_{} $ может быть представлена в виде суммы двух матриц ранга $ 1_{} $: $$ B= \underbrace{\left(\begin{array}{rrr} 0 & 1 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0 \end{array} \right)}_{=B_1} + \underbrace{\left(\begin{array}{rrr} 1 & 0 & 1 \\ 0 & 0 & 0 \\ -1 & 0 & -1 \end{array} \right)}_{=B_2}= {\underbrace{(1,1,0)}_{=u_1}}^{\top} \underbrace{(0,1,1)}_{=v_1} + {\underbrace{(1,0,-1)}_{=u_2}}^{\top} \underbrace{(1,0,1)}_{=v_2} \ . $$ Будем производить обращение матрицы $ A+B $ по схеме: $$ A+B = (\underbrace{(A+B_1)}_{A_1}+B_2)^{-1} \ . $$ На основании следствия к теореме имеем последовательно: $$ A_1^{-1}=(A+B_1)^{-1}=A^{-1}- \frac{1}{1+v_1A^{-1}u_1^{\top}} A^{-1} B_1 A^{-1}= $$ $$ =\frac{1}{140880} \left(\begin{array}{rrr} -5126 & -1117 &-3487\\ -9118 & 679 & -4691\\ -5828 & 434 & -1546 \end{array} \right) \ ; $$ $$ (A+B)^{-1}=(A_1+B_2)^{-1}=A_1^{-1}- \frac{1}{1+v_2A_1^{-1}u_2^{\top}} A_1^{-1} B_2 A_1^{-1}= $$ $$ =\frac{1}{134959} \left(\begin{array}{rrr} -5038 & -1078 & -3399 \\ -9079 & 629 & -4652 \\ -5916 & 395 & -1634 \end{array} \right) \ . $$ Этот прием вычисления обратной матрицы формализуется в **методе пополнения** ((#istochniki [1])): последовательно находятся обратные матрицы к матрицам последовательности $$ A_0=E,A_1,\dots,A_n=A, $$ в которой $ A_{k-1} $ отличается от $ A_k $ заменой $ k $-й строки матрицы $ A_{k-1} $ на $ k $-ю строку матрицы $ A $. Используется в модифицированном симплекс-методе, в котором на каждом шаге требуется вычислять обратную матрицу для матрицы, которая отличается от матрицы, полученной на предыдущем шаге только в одном столбце ((#источники [4])). ===Эффективные методы вычисления== ==== Применение QR-разложения== Пусть ((:euclid_space#matrichnyj_formalizm_algoritma_grama-shmidtaqr-razlozhenie QR-разложение)) __вещественной__ матрицы $ A $ имеет вид $$ A=QR $$ при $ Q $ --- ортогональной и $ R $ --- верхнетреугольной матрицах. Тогда при условии $ \det A \ne 0 $ имеем $ \det R \ne 0 $ и $$ A^{-1}=R^{-1}Q^{\top} \, . $$ ==Псевдообратная матрица== Эта матрица определяется не только для квадратной матрицы $ A_{} $. Пусть сначала матрица $ A_{} $ порядка $ m\times n_{} $ --- __вещественная__ и $ m \ge n_{} $ (число строк не меньше числа столбцов). Если $ \operatorname{rank} (A) = n $ (столбцы матрицы линейно независимы), то **псевдообратная матрица (Мура-Пенроуза)**[[pseudoinverse или Moore-Penrose inverse]] к матрице $ A_{} $ определяется как матрица $$ A^{+}=(A^{\top}A)^{-1} A^{\top} \ . $$ Эта матрица имеет порядок $ n \times m_{} $. Матрица $ (A^{\top}A)^{-1} $ существует ввиду того факта, что при условии $ \operatorname{rank} (A) = n $ будет выполнено $ \det (A^{\top} A) > 0 $ (см. теорему $ 2 $ в пункте ((:algebra:dets:binet_cauchy ТЕОРЕМА БИНЕ-КОШИ)) или же пункт ((:dets:gram#свойства_определителя_грама СВОЙСТВА ОПРЕДЕЛИТЕЛЯ ГРАМА)) ). Очевидно, что $ A^{+} \cdot A = E_{n} $, т.е. псевдообратная матрица является ((#обратная_матрица левой обратной)) для матрицы $ A_{} $. В случае $ m=n_{} $ псевдообратная матрица совпадает с обратной матрицей: $ A^{+}=A^{-1} $. !!П!! **Пример.** Найти псевдообратную матрицу к матрице $$ A= \left( \begin{array}{cc} 1 & 0 \\ 0 & 1 \\ 1 & 1 \end{array} \right) \ . $$ **Решение.** $$ A^{\top}= \left( \begin{array}{ccc} 1 & 0 & 1 \\ 0 & 1 & 1 \end{array} \right) \quad \Rightarrow \quad A^{\top} \cdot A = \left( \begin{array}{cc} 2 & 1 \\ 1 & 2 \end{array} \right) \quad \Rightarrow \quad (A^{\top} \cdot A)^{-1} = \left( \begin{array}{cc} 2/3 & -1/3 \\ -1/3 & 2/3 \end{array} \right) \ \Rightarrow $$ $$ \Rightarrow \ A^{+} = (A^{\top} \cdot A)^{-1} A^{\top} = \left( \begin{array}{rrr} 2/3 & -1/3 & 1/3 \\ -1/3 & 2/3 & 1/3 \end{array} \right) \ . $$ При этом $$ A^{+} \cdot A = \left( \begin{array}{cc} 1 & 0 \\ 0 & 1 \end{array} \right),\quad A \cdot A^{+} = \left( \begin{array}{rrr} 2/3 & -1/3 & 1/3 \\ -1/3 & 2/3 & 1/3 \\ 1/3 & 1/3 & 2/3 \end{array} \right) \ , $$ т.е. матрица $ A^{+} $ не будет ((#обратная_матрица правой обратной)) для матрицы $ A_{} $. !!?!! Вычислить псевдообратную матрицу для $$ \mathbf{a)}\ \left( \begin{array}{cc} 1 & 0 \\ 1 & 1 \\ 1 & 1 \end{array} \right) \quad ; \quad \mathbf{b)}\ \left( \begin{array}{c} x_1 \\ x_2 \\ x_3 \end{array} \right) \ . $$ Концепция псевдообратной матрицы естественным образом возникает из понятия ((:interpolation:mnk#псевдорешение_системы_линейных_уравнений псевдорешения системы линейных уравнений)). Если $ A^{+} $ существует, то псевдорешение (как правило, переопределенной и несовместной!) системы уравнений $ AX=\mathcal B_{} $ находится по формуле $ X= A^{+} \mathcal B $ при любом столбце $ \mathcal B_{} $. Верно и обратное: если $ E_{[1]}, E_{[2]},\dots, E_{[m]} $ -- столбцы единичной матрицы $ E_m $: $$ E_{[1]}=\left( \begin{array}{c} 1 \\ 0 \\ 0 \\ \vdots \\ 0 \end{array} \right),\ E_{[2]}=\left( \begin{array}{c} 0 \\ 1 \\ 0 \\ \vdots \\ 0 \end{array} \right),\dots, E_{[m]}=\left( \begin{array}{c} 0 \\ 0 \\ 0 \\ \vdots \\ 1 \end{array} \right),\ $$ а псевдорешение системы уравнений $ AX=E_{[j]} $ обозначить $ X_{j} $ (оно существует и единственно при условии $ \operatorname{rank} (A) = n $), то $$ A^{+}=\left[X_1,X_2,\dots,X_m \right] \ . $$ !!Т!! **Теорема.** //Пусть// $ A \in \mathbb R^{m\times n} $, $ m \ge n_{} $ //и// $ \operatorname{rank} (A) = n $. //Тогда псевдообратная матрица// $ A^{+} $ //является решением задачи минимизации// $$ \min_{X\in \mathbb R^{n\times m}} ||AX-E_m||^2 $$ //где// $ || \cdot || $ //означает ((:norm_space#норма_матрицы евклидову норму)) (норму Фробениуса) матрицы// : $$ ||[h_{jk}]_{j,k}||^2=\sum_{j,k} h_{jk}^2 \ . $$ //При сделанных предположениях решение задачи единственно. // Образно говоря, если уж невозможно найти обратную матрицу для матрицы $ A \in \mathbb R^{m\times n} $, давайте найдем хотя бы такую матрицу $ X_{n\times m} $, чтобы отклонение произведения $ A\cdot X $ от единичной матрицы $ E_m $ (вычисленное как квадрат евклидова расстояния между матрицами $ A\cdot X $ и $ E_m $) было бы минимальным. С учетом этого результата понятно как распространить понятие псевдообратной матрицы на случай матрицы $ A \in \mathbb R^{m\times n} $, у которой число строк ''меньше'' числа столбцов: $ m < n_{} $. Будем искать эту матрицу как решение задачи минимизации $$ \min_{Y\in \mathbb R^{n\times m}} ||YA-E_n||^2 \, . $$ Пусть $ \operatorname{rank} (A) = m $, т.е. строки матрицы линейно независимы. Тогда **псевдообратная к матрице** $ A_{} $ определяется как матрица $$ A^{+}= A^{\top} (A\cdot A^{\top})^{-1} \ . $$ Очевидно, что в этом случае $ A\cdot A^{+}=E_m $. Система линейных уравнений $ AX=\mathcal B $ с такой матрицей $ A $ совместна и имеет бесконечное множество решений при произвольном выборе столбца $ \mathcal B $. Известна ((:algebra2/linearsystems#obschee_reshenie теорема)) представления общего решения системы в виде суммы частного решения и общего решения однородной системы $ AX=\mathbb O_{m\times 1} $. Этот результат можно переписать в терминах псевдообратной матрицы. !!Т!! **Теорема.** //Если все строки матрицы// $ A \in \mathbb R^{m\times n} $ //при// $ m !!§!! Подробное изложение теории и приложений псевдообратных матриц ((:algebra2:inverse:p_inverse ЗДЕСЬ)). ==Задачи== ((:algebra2:inverse:problems ЗДЕСЬ)). ==Источники== [1]. **Фаддеев Д.К., Фаддеева В.Н.** //Вычислительные методы линейной алгебры.// М.ГИФМЛ.1960, с.187-192 [2]. **Беклемишев Д.В.** //Дополнительные главы линейной алгебры.// М.Наука.1983, с.187-234 [3]. **Gill P.E., Murray W., Wright M.H.** //Numerical Linear Algebra and Optimization. V.1.// Addison-Wesley, NY, 1991 [4]. **Таха Х.** //Введение в исследование операций.// Т.1, глава 7. М.Мир. 1985