==Число обусловленности матрицы==
Дается очень интуитивное представление о важной характеристике квадратной матрицы, существенной для решения систем линейных уравнений с этой матрицей.
!!П!! **Пример.** Система линейных уравнений $ AX =\mathcal B $ при
$$
A=\left(\begin{array}{rr}
-2 & 2 \\
19 & -18
\end{array}
\right), \ B=
\left(\begin{array}{c}
1 \\
2
\end{array}
\right),\
X=
\left(\begin{array}{c}
x_1 \\
x_2
\end{array}
\right),
$$
имеет решение $ X_0= [11.0, 11.5]^{\top} $. При небольшом возмущении столбца правых частей $ \mathcal B= [1.0,2.1]^{\top} $ решение меняется в пределах того же возмущения: $ X= [11.1, 11.6]^{\top} $. Но вот при $ \mathcal B= [1.1,2.0]^{\top} $ решение изменится более существенно:
$ X= [11.9, 12.45]^{\top} $. Обнаруженный эффект принципиально важен для численных методов решения систем линейных уравнений: с какой точностью следует производить вычисления?
Для выяснения причины этого эффекта
будем искать геометрическое место точек плоскости $ \mathbb R^2 $, удовлетворяющих неравенству
$$ (-2 x_1 +2x_2-1)^2+(19x_1 -18 x_2-2)^2 \le \varepsilon^2 \iff $$
$$ \iff (AX-\mathcal B)^{\top}(AX-\mathcal B) \le \varepsilon^2 $$
при различных значениях $ \varepsilon $, в частности, при $ \varepsilon = 0.1 $. Очевидным решением является внутренность эллипса с центром в точке $ X_0 $. Этот эллипс оказывается очень "сплюснутым": так, при $ \varepsilon = 0.1 $, его полуоси равны $ \approx 1.31624 $ и $ \approx 0.00380 $.
{{ algebra2:ellipse1.png|}}
При любом выборе $ X $ внутри эллипса погрешность столбца $ \widetilde{\mathcal B}= AX $ относительно столбца $ \mathcal B $ не превосходит $ \varepsilon $. Однако при одной и той же величине погрешности в столбце $ \mathcal B $ соответствующие решения системы могут меняться как очень немного, так и значительным образом.
Известно, что форма эллипса, заданного неявным алгебраическим уравнением второго порядка, определяется только мономами второго порядка.
В разбираемом примере --- элементами матрицы
$$ A^{\top} A =
\left(\begin{array}{rr}
365 & -346 \\
-346 & 328
\end{array}
\right) \, .
$$
Полуоси определяются через посредство собственных чисел этой матрицы. Именно,
$$
\lambda_1\approx 0.00577, \lambda_2 \approx 692.99422
$$
и длины полуосей равны $ 1/ \sqrt{\lambda_1} $ и $ 1/ \sqrt{\lambda_2} $. В геометрии величина отношения длин малой полуоси к большой называется **коэффициентом сжатия эллипса** или эллиптичностью. А в алгебре обратная величина, т.е.
$$ \sqrt{\lambda_2/\lambda_1} \approx 346.49711 $$
носит другое название.
♦
Для матрицв $ A \in \mathbb R^{n\times n} $ обозначим $ \sigma_{max} $ ее максимальное ((:algebra2:svd#сингулярное_разложение сингулярное число)), а $ \sigma_{min} $ --- минимальное. При $ \sigma_{min} \ne 0 $ величина
$$ \operatorname{cond} (A)= \sigma_{max}/\sigma_{min} $$
называется **числом обусловленности матрицы**[[(//англ.//) condition number]]$ A $. Очевидно, $ \operatorname{cond} (A) \ge 1 $. При $ \operatorname{cond} (A) $ близком к $ 1 $ матрица называется **хорошо обусловленной**, при $ \operatorname{cond} (A) \gg 1 $ матрица $ A $ называется **плохо обусловленной**[[(//англ.//) well- and ill- conditioned]].
Только что введенное определение завязано на метрику пространства $ \mathbb R^n $, которая выше предполагалась евклидовой. В пространствах векторов и матриц близость можно определять различными способами, и этот формализм вводится посредством понятия ((:norm_space нормы)). Соответственно, и число обусловленности вводится в зависимости от формул, задающих нормы[[Причем нормы в пространстве векторов и в пространстве матриц должны быть аккуратно между собой согласованы --- см. понятие ((:norm_space#норма_матрицы индуцированной нормы))]].
В интернете можно найти доказательство следующего универсального результата
$$
\operatorname{cond} (A)=\|A\| \cdot \|A^{-1}\| \ ,
$$
который, с практической точки зрения, абсолютно бесполезен. (Если воможно __точно__ вычислить матрицу $ A^{-1} $, зачем вычислять число обусловленности?)
Еще одно замечание касается числовых эквивалентов выражений
"близко к 1" и "значительно превышает 1". Понятно, что эти выражения субъективны и зависят от требований к точности представлений исходных данных и вычислений в конкретно решаемой задаче. Принято считать $ \operatorname{cond} (A)\le 10 $ //хорошим// числом, а $ \operatorname{cond} (A)\ge 1000 $ --- //плохим// числом. Но это всё --- условности.
!!П!! **Пример.** Матрица Вандермонда
$$
V=
\left(\begin{array}{ccccc}
1 & 1 & 1 & 1 & 1 \\
1 & 2 & 2^2 & 2^3 & 2^4 \\
1 & 3 & 3^2 & 3^3 & 3^4\\
1 & 4 & 4^2 & 4^3 & 4^4\\
1 & 5 & 5^2 & 5^3 &5^4
\end{array}
\right)
$$
может считаться плохо обусловленной: $ \operatorname{cond} (V) \approx 26169 $.
!!П!! **Пример.** Матрица Гильберта
$$
\mathfrak H_4=
\left[\frac{1}{j+k-1} \right]_{j,k=1}^4 =
\left(
\begin{array}{cccc}
1 & 1/2 & 1/3 & 1/4 \\
1/2 & 1/3 & 1/4 & 1/5 \\
1/3 & 1/4 & 1/5 & 1/6 \\
1/4 & 1/5 & 1/6 & 1/7
\end{array}
\right)
$$
плохо обусловлена: $ \operatorname{cond} (\mathfrak H_4) \approx 15513 $.
Если матрица $ A $ близка к вырожденной, то ее минимальное сингулярное число ((:algebra2:svd#приложения близко к нулю)). Как правило (т.е. для случайно выбранных матриц) максимальное сингулярное число будет существенно отличаться от $ 0_{} $. Поэтому утверждение "матрица, близкая к вырожденной, будет и плохо обусловленной" имеет вероятностную справедливость. Но контрпримеры типа
$$
A=
\left(\begin{array}{cc}
0.0001 & 0 \\
0 & 0.0001
\end{array}
\right)
$$
следует "держать в уме".