Благодарю **Ю.А.Смолькина** за обнаружение 07.08.19 ошибки на настоящей странице и информирование о ней. ==Линейное пространство== ~~TOC~~ ===Определения== Пусть дано множество $ \mathbb V_{}=\left\{ X,Y,Z,U,\dots \right\} $ элементов произвольной природы. Пусть для элементов этого множества определены две операции: сложения $ X+Y_{} $ и умножения на любое __вещественное__ число $ \alpha_{} $: $ \alpha \cdot X_{} $, и множество $ \mathbb V_{} $ **замкнуто** относительно этих операций: $ X+Y \in \mathbb V ,\ \alpha \cdot X \in \mathbb V_{} $. Пусть эти операции подчиняются аксиомам: 1. $ X+Y=Y+X_{} $ для $ \{ X,\, Y\} \subset \mathbb V_{} $; 2. $ (X+Y)+Z_{}=X+(Y+Z) $ для $ \{ X,\, Y,\, Z \} \subset \mathbb V_{} $; 3. в $ \mathbb V_{} $ cуществует нулевой вектор $ \mathbb O_{} $ со свойством $ X+ \mathbb O =X_{} $ для $ \forall X\in \mathbb V_{} $; 4. для каждого $ X\in \mathbb V_{} $ существует обратный вектор $ X^{\prime}\in \mathbb V_{} $ со свойством $ X+X^{\prime}=\mathbb O_{} $; 5. $ 1\cdot X=X_{} $ для $ \forall X\in \mathbb V_{} $; 6. $ \lambda \left(\mu X \right)_{}= \left(\lambda \mu \right)X $ для $ \forall X\in \mathbb V_{} $, $ \{\lambda ,\, \mu \} \subset \mathbb R_{} $ ; 7. $ (\lambda + \mu)X=\lambda X + \mu X_{} $ для $ \forall X\in \mathbb V_{} $, $ \{\lambda ,\, \mu \}\subset \mathbb R_{} $ ; 8. $ \lambda (X + Y) =\lambda X_{} + \lambda Y $ для $ \{ X,\, Y\} \subset \mathbb V_{} , \lambda \in \mathbb R $. Тогда такое множество $ \mathbb V_{} $ называется **линейным (векторным) пространством**, его элементы называются **векторами**, и --- чтобы подчеркнуть их отличие от чисел из $ \mathbb R_{} $ --- последние называются **скалярами**[[scalar --- слово, придуманное английским математиком Уильямом Гамильтоном, производное от scale (//англ.//) --- шкала; вследствие того, что этих чисел достаточно для построения шкалы какого-нибудь измерительного инструмента.]]. Пространство, состоящее из одного только нулевого вектора, называется **тривиальным** . Если в аксиомах 6 - 8 допустить умножение и на комплексные скаляры, то такое линейное пространство называется **комплексным**. Для упрощения рассуждений в настоящем разделе будут рассматриваться только вещественные пространства. Линейное пространство является ((:gruppe#определение_группы группой)) относительно операции сложения, причем группой ((:gruppe#полная_линейная_группа абелевой)). Элементарно доказывается единственность нулевого вектора, и единственность вектора, обратного вектору $ X\in \mathbb V_{} $: $ X^{\prime}=-1\cdot X_{} $, его привычно обозначают $ - X_{} $. Подмножество $ \mathbb V_{1} $ линейного пространства $ \mathbb V_{} $, само являющееся линейным пространством (т.е. $ \mathbb V_{1} $ замкнуто относительно сложения векторов и умножения на произвольный скаляр), называется **линейным подпространством** пространства $ \mathbb V_{} $. **Тривиальными подпространствами** линейного пространства $ \mathbb V_{} $ называются само $ \mathbb V_{} $ и пространство, состоящее из одного нулевого вектора $ \mathbb O_{} $. ===Примеры линейных пространств== !!П!! **Пример 1.** Пространство $ \mathbb R^{3} $ упорядоченных троек вещественных чисел $ (a_1,a_2,a_{3}) $ с операциями, определяемыми равенствами: $$ (a_1,a_2,a_3)+(b_1,b_2,b_3)= (a_1+b_1,a_2+b_2,a_3+b_3),\ \alpha (a_1,a_2,a_3) = ( \alpha a_1, \alpha a_2, \alpha a_3 ) \ . $$ Геометрическая интерпретация очевидна: вектор в пространстве, "привязанный" к началу координат, может быть задан координатами своего конца $ (a_1,a_2,a_{3}) $. На рисунке показано и типичное подпространство пространства $ \mathbb R^{3} $: плоскость, проходящая через начало координат. {{ linspace1.jpg |}} Точнее говоря, элементами $ \mathbb V_1 $ являются векторы, имеющие начало в начале координат и концы --- в точках плоскости. Замкнутость такого множества относительно сложения векторов и их растяжения[[Растяжение понимается в обобщенном смысле: при $ |\alpha|<1 $ вектор $ \alpha X_1 $ сокращается по длине по сравнению с $ X_{1} $.]] очевидна. Исходя из этой геометрической интерпретации, часто говорят о векторе $ X_{} $ произвольного линейного пространства $ \mathbb V_{} $ как о //точке пространства// $ \mathbb V_{} $. Иногда эту точку называют "концом вектора $ X_{} $". Кроме удобства ассоциативного восприятия, этим словам не придается никакого формального смысла: понятие "конец вектора" отсутствует в аксиоматике линейного пространства. !!П!! **Пример 2.** Основываясь на том же примере, можно дать и иную интерпретацию векторного пространства $ \mathbb V_1 $ (заложенную, кстати, уже в самом происхождении слова "вектор"[[veho (//лат.//) --- тащить, влечь; термин придуман все тем же Гамильтоном.]]) --- оно определяет набор "сдвигов" точек пространства $ \mathbb R^{3} $. Эти сдвиги --- или параллельные переносы любой пространственной фигуры --- выбираются параллельными плоскости $ \mathbb V_1 $. Вообще говоря, с подобными интерпретациями понятия вектора все обстоит не так просто. Попытки аппелировать к его физическому смыслу --- как к объекту, имеющему //величину// и //направление// --- вызывают справедливую отповедь ((:references:newton#пидо_дэниел_pedoe_daniel строгих математиков)). Определение же вектора как элемента векторного пространства очень напоминает эпизод с //сепульками// из знаменитого фантастического рассказа Станислава Лема (см. ((:references:lem ЗДЕСЬ)) ). Не будем зацикливаться на формализме, а исследуем этот нечеткий объект в его частных проявлениях. !!П!! **Пример 3.** Естественным обобщением пространства $ \mathbb R^{3} $ служит пространство $ \mathbb R_{}^{n} $ --- векторное пространство строк $ (x_1,\dots,x_{n}) $ или столбцов $ (x_1,\dots,x_n)^{^\top} $. Один из способов задания подпространства в $ \mathbb R_{}^{n} $ --- задание набора ограничений. Множество решений системы линейных однородных уравнений: $$ \left\{\begin{array}{ccc} a_{11}x_1 +a_{12}x_2+\ldots+a_{1n}x_n &=&0,\\ a_{21}x_1 +a_{22}x_2+\ldots+a_{2n}x_n &=&0,\\ \ldots& & \ldots \\ a_{m1}x_1 +a_{m2}x_2+\ldots+a_{mn}x_n &=&0 \end{array}\right. \iff AX=\mathbb O $$ образует линейное подпространство пространства $ \mathbb R_{}^{n} $. В самом деле, если $$x_1=\alpha_1,\dots, x_n=\alpha_n $$ --- решение системы, то и $$x_1=t \alpha_1,\dots, x_n= t \alpha_n $$ --- тоже решение при любом $ t \in \mathbb R $. Если $$x_1=\beta_1,\dots, x_n=\beta_n $$ --- еще одно решение системы, то и $$x_1=\alpha_1+\beta_1,\dots,x_n=\alpha_n+\beta_n $$ --- тоже будет ее решением. !!?!! Почему множество решений системы __неоднородных__ уравнений не образует линейного подпространства? !!П!! **Пример 4.** Обобщая далее, можем рассмотреть пространство "бесконечных" строк или **последовательностей** $$ (x_1,\dots,x_n, \dots ) \, , $$ обычно являющееся объектом математического анализа --- при рассмотрении последовательностей и рядов. Подпространство этого пространства образуют, например, линейные рекуррентные последовательности $ \{x_k\}_{k=0,1,2,\dots } $ удовлетворяющие --- при произвольных числах $ \{x_0,\dots x_{n-1} \} \subset \mathbb R $ --- ((:recurr#линейное_уравнение линейному однородному разностному уравнению)) $ n_{} $-го порядка, $$ x_{n+K}=a_1 x_{n+K-1}+ \dots+ a_n x_K \ npu \ K \in \{0,1,2,\dots \} \ ; $$ здесь числа $ \{ a_1,\dots,a_{n-1}, a_n \ne 0 \} \subset \mathbb R $ считаются фиксированными. Можно рассматривать строки (последовательности) "бесконечные в обе стороны" $ \{ \dots,x_{-2},x_{-1},x_0,x_1,x_2,\dots \} $ --- они используются в ((:signal#теория_сигналов ТЕОРИИ СИГНАЛОВ)). !!П!! **Пример 5.** Множество $ m\times n_{} $-((:algebra2 матриц)) с вещественными элементами с операциями ((:algebra2#сложение сложения)) матриц и ((:algebra2#умножение_на_число умножения)) на вещественные числа образует линейное пространство. Будем обозначать это пространство $ \mathbb R^{m\times n} $. В пространстве ((:algebra2#квадратные_матрицы квадратных матриц)) фиксированного порядка каждое из следующих подмножеств составляет линейное подпространство: ((:algebra2#симметричная симметричных)), ((:algebra2#кососимметричная кососимметричных)), ((algebra2#треугольная верхнетреугольных, нижнетреугольных)) и ((:algebra2#симметричная диагональных)) матриц. !!П!! **Пример 6.** Множество ((:polynomial#общая_информация полиномов)) одной переменной $ x_{} $ степени в точности равной $ n_{} $ с коэффициентами из $ \mathbb A_{} $ (где $ \mathbb A_{} $ --- любое из множеств $ \mathbb Z, \mathbb Q, \mathbb R_{} $ или $ \mathbb C_{} $) с обычными операциями сложения полиномов и умножения на число из $ \mathbb A_{} $ __не образует__ линейного пространства. Почему? --- Потому что оно не является замкнутым относительно сложения: сумма полиномов $$ f(x)=x^n -x+1 \quad \mbox{ и } \quad g(x)=-x^n+x^{n-1}-2 $$ не является полиномом $ n_{} $-й степени. Но вот множество полиномов степени **не выше** $ n_{} $ $$ \mathbb P_n= \left\{ p(x) \in \mathbb A [x] \big| \deg p(x) \le n \right\} $$ линейное пространство образует; только к этому множеству надо придать еще и тождественно нулевой полином[[Приходится заботиться о его включении специально, поскольку формально его степень ((:polynomial#общая_информация не определяется)); без его же включения не будет выполнена аксиома 3 .]]. Очевидными подпространствами $ \mathbb P_{n} $ являются $ \mathbb P_{0}, \mathbb P_1,\dots,\mathbb P_{n-1} $. Кроме того, подпространствами будут множество четных и множество нечетных полиномов степени не выше $ n_{} $. Множество всевозможных полиномов $$ \mathbb P= \bigcup_{n=0}^{\infty} \mathbb P_n $$ (без ограничения на степени) тоже образует линейное пространство. !!П!! **Пример 7.** Обобщением предыдущего случая будет пространство ((:polynomialm#общая_информация полиномов нескольких переменных)) $ x_1,\dots, x_{\ell} $ степени не выше $ n_{} $ с коэффициентами из $ \mathbb A_{} $. Например, множество линейных полиномов $$ \left\{ a_1x_1+\dots+a_{\ell}x_{\ell}+b \big| (a_1,\dots,a_{\ell},b) \in \mathbb A^{\ell+1} \right\} $$ образует линейное пространство. Множество ((:polynomialm#однородный_полином однородных полиномов)) (форм) степени $ n_{} $ (с присоединением к этому множеству тождественно нулевого полинома) --- также линейное пространство. С точки зрения приведенного в предыдущем пункте определения, множество строк с целочисленными компонентами $$ \mathbb Z^n = \left\{ (x_1,\dots,x_n)\ \mid \ \{x_j\}_{j=1}^n \subset \mathbb Z \right\} \ , $$ рассматриваемое относительно операций покомпонентного сложения и умножения на __вещественные__ скаляры, не является линейным пространством. Тем не менее, все аксиомы 1 - 8 будут выполнены если мы допустим умножение только на __целочисленные__ скаляры. В настоящем разделе мы не будем акцентировать внимание на этом объекте, но он довольно полезен в дискретной математике, например в ((:codes:cyclic#структура_кода ТЕОРИИ КОДИРОВАНИЯ)). Линейные пространства над конечными полями рассматриваются ((:linear_space:GF2 ЗДЕСЬ)). ===Изоморфизм=== Пусть имеются два линейных пространства разной природы: $ \mathbb V_{} $ с операцией $ +_{} $ и $ \mathbb W_{} $ с операцией $ \boxplus_{} $. Может оказаться так, что эти пространства "очень похожи", и свойства одного получаются простым "переводом" свойств другого. Говорят, что пространства $ \mathbb V_{} $ и $ \mathbb W_{} $ **изоморфны** если между множествами их элементов можно установить такое взаимно-однозначное соответствие, что если $ X_{} \leftrightarrow X^{\prime} $ и $ Y_{} \leftrightarrow Y^{\prime} $ то $ X+Y \leftrightarrow X_{}^{\prime} \boxplus Y^{\prime} $ и $ \lambda X_{} \leftrightarrow \lambda X^{\prime} $. !!=>!! При изоморфизме пространств $ \mathbb V_{} $ и $ \mathbb W_{} $ нулевому вектору одного пространства будет соответствовать нулевой вектор другого пространства. !!П!! **Пример.** Пространство $ \mathbb R^{n}_{} $ изоморфно пространству $ \mathbb P_{n-1}^{} $. В самом деле, изоморфизм устанавливается соответствием $$ [a_1,\dots,a_n] \leftrightarrow a_1+a_2x+\dots + a_nx^{n-1} \ .$$ !!П!! **Пример.** Пространство $ \mathbb R^{m\times n} $ вещественных матриц порядка $ m_{}\times n $ изоморфно пространству $ \mathbb R_{}^{mn} $. Изоморфизм устанавливается с помощью операции ((:algebra2#векторизация векторизации матрицы)) (матрица "вытягивается" в один столбец). !!П!! **Пример.** Пространство ((:2form#матричная_форма_записи_квадратичной_формы квадратичных форм)) от $ n_{} $ переменных изоморфно пространству симметричных матриц $ n_{} $-го порядка. Изоморфизм устанавливается соответствием, которое мы проиллюстрируем для случая $ n=3_{} $: $$ a_{11}x_1^2+a_{12}x_1x_2+a_{13}x_1x_3+a_{22}x_2^2+a_{23}x_2x_3+a_{33}x_3^2 \leftrightarrow \left( \begin{array}{ccc} a_{11} & \frac{1}{2}a_{12} & \frac{1}{2}a_{13} \\ \frac{1}{2}a_{12} & a_{22} & \frac{1}{2}a_{23} \\ \frac{1}{2}a_{13} & \frac{1}{2}a_{23} & a_{33} \end{array} \right) \ . $$ Понятие изоморфизма вводится для того, чтобы исследование объектов, возникающих в различных областях алгебры, но с "похожими" свойствами операций, вести на примере одного образца, отрабатывая на нем результаты, которые можно будет потом дешево тиражировать. Какое именно линейное пространство взять "за образец"? --- См. концовку следующего пункта. ===Линейная зависимость, базис, координаты== **Линейной комбинацией** системы векторов $ \{X_1,\dots,X_{m}\} $ называется произвольный вектор $$ \alpha_1 X_1+\dots+ \alpha_m X_m $$ при каких-то фиксированных значениях скаляров $ \alpha_{1}, \dots, \alpha_{m} $. Множество всевозможных линейных комбинаций системы векторов $ \{X_1,\dots,X_{m}\} $ $$ \left\{ \alpha_1 X_1+\dots+ \alpha_m X_m \bigg| \{\alpha_1,\dots,\alpha_m\}\subset \mathbb R \right\} $$ называется **линейной оболочкой** векторов $ X_1,\dots,X_{m} $ и обозначается $ {\mathcal L}(X_1,\dots,X_{m}) $. !!Т!! **Теорема 1.** //Линейная оболочка векторов// $ X_1,\dots,X_{m} $ //образует линейное подпространство пространства// $ \mathbb V_{} $. !!П!! **Пример.** В пространстве $ \mathbb P_{n} $ полиномов степеней $ \le n_{} \ge 3 $ линейной оболочкой полиномов $ x,x^2,x^3 $ будет множество полиномов вида $ a_0x^3+a_1x^2+a_2x $, т.е. множество полиномов степеней $ \le 3 $, имеющих корень $ \lambda_{}=0 $. Система векторов $ \{ X_{1},\dots,X_m \} $ называется **линейно зависимой** (**л.з.**) если существуют числа $ \alpha_{1},\dots,\alpha_m $, такие что хотя бы одно из них отлично от нуля и $$ \alpha_1X_1+\dots+\alpha_mX_m=\mathbb O $$ Если же это равенство возможно только при $ \alpha_{1}=0,\dots,\alpha_m=0 $, то система векторов называется **линейно независимой** (**л.н.з.**). !!П!! **Пример.** Для ((:polynomialm#общая_информация полиномов нескольких переменных)) свойство линейной зависимости является частным проявлением более общего свойства ((:algebra2:dets:jacobian#определение_и_основные_свойства функциональной зависимости)). Так, однородные полиномы (формы) $$ f_1=(x_1+x_2+x_3)^2,\quad f_2=x_1x_2+x_1x_3+x_2x_3,\quad f_3=x_1^2+x_2^2+x_3^2 $$ являются линейно зависимыми, поскольку $$ f_1-2\,f_2-f_3 \equiv 0 \ . $$ Полиномы $$ \tilde f_1=x_1+x_2+x_3,\quad f_2=x_1x_2+x_1x_3+x_2x_3,\quad f_3=x_1^2+x_2^2+x_3^2 $$ не являются линейно зависимыми, но являются функционально зависимыми, поскольку $$ \tilde f_1^2-2\,f_2-f_3 \equiv 0 \ . $$ !!Т!! **Теорема 2.** **а)** //Если система содержит хотя бы один нулевой вектор, то она// **л.з.** **б)** //Если система // **л.н.з**., //то и любая ее подсистема// **л.н.з.** **в)** //При// $ m>1 $ //система// $ \{X_{1},\dots,X_m\} $ **л.з.** //тогда и только тогда, когда по меньшей мере один ее вектор линейно выражается через остальные, т.е. существуют// $ j\in \{1,\dots,n \} $ //и константы// $ \gamma_{1},\dots,\gamma_{j-1}, \gamma_{j+1},\dots,\gamma_{n} $ //такие, что// $$ X_j=\gamma_1X_1+\dots+\gamma_{j-1}X_{j-1}+ \gamma_{j+1}X_{j+1}+\dots + \gamma_{m}X_{m} .$$ !!Т!! **Теорема 3.** //Если каждый из векторов системы// $ \{ X_1,\dots,X_{m} \} $// линейно выражается через векторы другой системы// $ \{ B_{1},\dots,B_k \} $ //с меньшим числом векторов:// $ k ((:algebra2:rank:vspom3 ЗДЕСЬ)). Две системы векторов называются **эквивалентными** если каждый вектор одной системы линейно выражается через векторы другой и обратно. !!Т!! **Теорема 4.** //Системы векторов// $$ \{ X_1,\dots,X_{m} \} \quad \mbox{ и } \quad \{ Y_{1},\dots,Y_k \} $$ //будут эквивалентными тогда и только тогда когда совпадают линейные оболочки этих систем:// $${\mathcal L}(X_1,\dots,X_m)={\mathcal L}(Y_1,\dots,Y_k) \ . $$ !!Т!! **Теорема 5.** //Если каждая из двух эквивалентных систем// $$ \{ X_1,\dots,X_{m} \} \quad \mbox{ и } \quad \{ Y_{1},\dots,Y_k \} $$ //является// **л.н.з.**, //то эти системы состоят из одинакового числа векторов:// $ m=k_{} $ . Линейно независимая система векторов $ \{X_{j}\}\subset \mathbb V $ называется **базисом** этого пространства если каждый $ X\in \mathbb V $ можно представить в виде линейной комбинации указанных векторов: $$ X=\sum_{j} \alpha_j X_j \ . $$ При этом изначально не подразумевается __конечность__ системы, т.е. суммирование может распространяться на __бесконечное__ число слагаемых. Так, например, пространство бесконечных строк (или последовательностей) $ \left[a_{1},a_2,\dots\, \right] $ имеет бесконечный базис, состоящий из векторов $$ [\underbrace{0,\dots,0,1}_j,0,\dots \, ] \quad npu \ j \in \mathbb N \ . $$ В случае, когда базис пространства $ \mathbb V_{} $ конечен, пространство $ \mathbb V_{} $ называется **конечномерным**, а число векторов базиса тогда называется **размерностью** пространства $ \mathbb V_{} $ и обозначается[[dimensio (//лат.//) --- обмер, измерение, протяжение; хлебная мера, солдатский паек.]]: $ \dim \mathbb V_{} $. Также полагают, что размерность тривиального пространства, состоящего из одного только нулевого вектора, равна нулю: $ \dim \{\mathbb O_{} \}= 0 $. !!П!! **Пример.** Линейное пространство $ m\times n_{} $ матриц имеет размерность $ mn_{} $. Так, для случая $ m_{}=3 ,n=2 $ в качестве базиса можно выбрать следующий набор матриц $$ \left( \begin{array}{cc} 1 & 0 \\ 0 & 0 \\ 0 & 0 \end{array} \right) \ , \ \left( \begin{array}{cc} 0 & 1 \\ 0 & 0 \\ 0 & 0 \end{array} \right) \ , \ \left( \begin{array}{ccccc} 0 & 0 \\ 1 & 0 \\ 0 & 0 \end{array} \right) \ , \left( \begin{array}{cc} 0 & 0 \\ 0 & 1 \\ 0 & 0 \end{array} \right) \ , \ \left( \begin{array}{cc} 0 & 0 \\ 0 & 0 \\ 1 & 0 \end{array} \right) \ , \ \left( \begin{array}{cc} 0 & 0 \\ 0 & 0 \\ 0 & 1 \end{array} \right) \ . $$ !!?!! Найти размерности подпространства ((:algebra2#симметричная симметричных)) и подпространства ((:algebra2#кососимметричная кососимметричных)) матриц порядка $ n_{} $. !!П!! **Пример** ((#источники [1])). Замечательный пример трехмерного линейного пространства дает нам совокупность всех цветов. Под суммой двух цветов будем понимать цвет, образованный их смешением {{ colors1.gif |}} под умножением цвета на положительное число $ k_{} $ --- увеличение в $ k_{} $ раз яркости цвета !!A!! Анимация ((linear_space:intensivity ЗДЕСЬ)) (1500 K, gif) под умножением на $ (-1) $ --- взятие ((http://ru.wikipedia.org/wiki/%D0%94%D0%BE%D0%BF%D0%BE%D0%BB%D0%BD%D0%B8%D1%82%D0%B5%D0%BB%D1%8C%D0%BD%D1%8B%D0%B5_%D1%86%D0%B2%D0%B5%D1%82%D0%B0 дополнительного цвета)). При этом оказывается, что совокупность всех цветов выражается линейно через три цвета: красный, зеленый и синий, т.е. образует трехмерное линейное пространство. (Точнее, некоторое тело в трехмерном пространстве, поскольку яркости цветов ограничены верхним порогом раздражения.) Исследование этого трехмерного тела всех цветов является важным орудием ((http://ru.wikipedia.org/wiki/RGB цветоведения)). Если $ \dim \mathbb V=d_{} $ и вектора $ X_1,\dots,X_{d} $ являются базисными для $ \mathbb V_{} $, то разложение вектора $ X \in \mathbb V_{} $ в сумму: $$ X=\alpha_1 X_1+\dots+ \alpha_d X_d \ .$$ называется **разложением вектора** $ X_{} $ **по базису** $ X_1,\dots,X_{d} $; при этом числа $ \alpha_1,\dots, \alpha_{d} $ называются **координатами** вектора $ X_{} $ в данном базисе. !!Т!! **Теорема 6.** //Если// $ \dim \mathbb V=d>0 $, //то любая система из// $ d_{} $ //линейно независимых векторов пространства образует базис этого пространства.// **Доказательство.** Пусть $ \{Y_1,\dots,Y_d\} $ --- **л.н.з.** система. Рассмотрим произвольный $ X\in \mathbb V_{} $. Если система $ \{X,Y_1,\dots,Y_d\} $ **л.н.з.**, то $ \dim \mathbb V \ge d+1 $, что противоречит условию теоремы. Следовательно, система линейно зависима: $ \alpha_0X+\alpha_1Y_1+\dots+\alpha_dY_d=\mathbb O $ при каком-то из чисел $ \{\alpha_j\}_{j=0}^{d} $ не равном нулю. Если $ \alpha_0=0 $, то $ \alpha_1Y_1+\dots+\alpha_dY_d=\mathbb O $ при каком-то ненулевом коэффициенте. Это означает, что система $ \{Y_1,\dots,Y_d\} $ линейно зависима, что противоречит предположению. Следовательно $ \alpha_0\ne 0 $, но тогда вектор $ X_{} $ может быть представлен в виде линейной комбинации векторов $ Y_1,\dots,Y_d $: $$X=- {\alpha_1}/{\alpha_0} Y_1-\dots -{\alpha_d}/{\alpha_0}Y_d \ .$$ По определению, система $ \{Y_1,\dots,Y_d\} $ является базисом $ \mathbb V $. !!Т!! **Теорема 7.** //Любой вектор// $ X \in \mathbb V_{} $ //может быть разложен по фиксированному базису пространства единственным образом.// !!П!! **Пример.** Очевидно, $ \dim \mathbb R^{n} = n $: строки из $ n_{} $ элементов $$[1,0,0,\dots,0],\ [0,1,0,\dots,0],\ [0,0,1,\dots,0],\ \dots , [0,0,0,\dots,1] $$ образуют базис этого пространства. Координаты вектора $ X=(x_1,\dots,x_n) $ в этом базисе совпадают с самим же этим вектором. Однако если в качестве базиса выбрать, к примеру, следующий $$ [1,1,0,0,\dots,0,0], \ [0,1,1,0,\dots,0,0], \ [0,0,1,1,\dots,0,0],\dots, [0,0,0,0,\dots,1,1], \ [1,0,0,0,\dots,0,1] $$ (получаемы циклическим сдвигом вправо первого вектора), то координаты вектора $ X $ меняются. В случае $ n=3 $ вектор координат --- $$ \left(\frac{1}{2}x_1-\frac{1}{2}x_2-\frac{1}{2}x_3, -\frac{1}{2}x_1+\frac{1}{2}x_2-\frac{1}{2}x_3, -\frac{1}{2}x_1-\frac{1}{2}x_2+\frac{1}{2}x_3 \right) \, . $$ !!§!! Общее правило изменения вектора координат при смене базиса пространства дается ((#preobrazovanie_koordinat_pri_zamene_bazisa НИЖЕ)). Имеются два способа задания линейных подпространств в $ \mathbb R^{n}_{} $. Пусть $$ \mathbb V_1 = {\mathcal L}(A_1,\dots,A_k) \quad npu \ \{A_1,\dots,A_k \} \subset \mathbb R^n \ .$$ В разделе ((:algebra2:rank#ранг_системы_строк_столбцов РАНГ)) установлено, что $$ \dim \mathbb V_1 = \operatorname{rank} \{ A_1,\dots,A_k \} = \operatorname{rank} (A) \ ,$$ где $ A_{} $ --- матрица, составленная из строк (столбцов) $ A_{1},\dots,A_k $. !!П!! **Пример.** Найти базис подпространства $$\mathcal L \left([1,2,1,1],\, [-1,0,-1,0], \, [-1,2,-1,1], \, [0,1,0,1] \right) \ .$$ **Решение.** Ищем $$ \operatorname{rank} \left( \begin{array}{rrrr} 1 & 2 & 1 & 1 \\ -1&0&-1&0 \\ -1& 2 &-1 &1 \\ 0& 1& 0 & 1 \end{array} \right) $$ по методу ((:algebra2:rank#метод_окаймляющих_миноров окаймляющих миноров)). Существует минор третьего порядка $$ \left| \begin{array}{rrrr} 1 & 2 & 1 \\ -1&0&0 \\ 0& 1 & 1 \end{array} \right| $$ отличный от нуля, а определитель самой матрицы равен нулю. Замечаем, что найденный отличный от нуля минор расположен в первой, второй и четвертой строках матрицы. Именно эти строки и образуют базис. **Ответ.** Базис составляют, например, первая, вторая и четвертая строки. Другим способом задания линейного подпространства в $ \mathbb R^{n} $ может служить задание набора ограничений, которым должны удовлетворять векторы подпространства. Таким набором ограничений может являться, например, система уравнений $$ \left\{\begin{array}{ccc} a_{11}x_1 +a_{12}x_2+\ldots+a_{1n}x_n &=&0,\\ a_{21}x_1 +a_{22}x_2+\ldots+a_{2n}x_n &=&0,\\ \ldots& & \ldots \\ a_{m1}x_1 +a_{m2}x_2+\ldots+a_{mn}x_n &=&0 \end{array}\right. \qquad \iff \qquad AX=\mathbb O . $$ Какова размерность подпространства решений этой системы? На этот вопрос мы ответим сразу же, если вспомним определение ((:algebra2:linearsystems#система_однородных_уравнений фундаментальной системы решений)) (**ФСР**). Именно, **ФСР** --- как набор линейно независимых решений, через которые линейно выражается любое решение системы однородных уравнений --- является базисом подпространства этих решений. !!Т!! **Теорема 8.** //Множество решений системы однородных уравнений// $ AX=\mathbb O_{} $ //образует линейное подпространство пространства// $ \mathbb R^{n} $. //Размерность этого подпространства равна// $ n-\operatorname{rank} (A) $,// а фундаментальная система решений образует его базис.// !!П!! **Пример.** В пространстве $ \mathbb P_{n} $ полиномов степеней $ \le n_{} $ каноническим базисом можно взять систему мономов $ \{1,x,x^2,\dots, x^n \} $, т.е. $ \dim \mathbb P_{n} =n+1 $. Координатами полинома $$ f(x)=a_0+a_1x+a_2x^2+\dots+a_nx^n $$ будут его коэффициенты. Можно выбрать и другой базис, например, $ \{1, x-c,(x-c)^2,\dots,(x-c)^n \} $ при произвольном числе $ c_{} $. Координатами полинома в этом базисе будут теперь коэффициенты ((polynomial#формула_тейлора формулы Тейлора)): $$ f(x) \equiv f(c)+ \frac{f^{\prime}(c)}{1!} (x-c) + \frac{f^{\prime \prime }(c)}{2!} (x-c)^2+ \dots + \frac{f^{(n)}(c)}{n!} (x-c)^{n} \ . $$ !!?!! Найти координаты полинома $$ x^5-x^4+x^3-x^2-x+1 $$ в базисе $ \{1,x+1,x^2+1,x^3+1,x^4+1,x^5+1\} $. !!Т!! **Теорема 9.** //Любое векторное пространство// $ \mathbb V_{} $ //размерности// $ d_{} $ //((#изоморфизм изоморфно))// $ \mathbb R^{d} $. **Доказательство.** Изоморфизм можно установить следующим соответствием. Если $ \{X_1,\dots , X_d \} $ --- какой-то базис $ \mathbb V_{} $, то вектору $ X \in \mathbb V $ поставим в соответствие набор его координат в этом базисе: $$ X=x_1X_1+\dots+x_d X_d \ \Rightarrow \ X \mapsto [x_1,\dots,x_d]\in \mathbb R^d . $$ На основании теоремы $ 6 $, такое соответствие будет взаимно-однозначным, а проверка ((#изоморфизм двух свойств изоморфизма)) тривиальна. Последний результат позволяет свести исследование свойств произвольного линейного пространства $ \mathbb V_{} $ к исследованию свойств пространства $ \mathbb R^{d} $. Лишь бы только удалось нам найти базис пространства $ \mathbb V_{} $, а также разложение произвольного вектора по этому базису. Однако некоторые теоретические заключения можно сделать основываясь только лишь на фактах принципиального существования базиса и возможности разложения по нему произвольного вектора. ===Критерии линейной зависимости== !!Т!! **Теорема .** //Строки// $$ \{(a_{11},\dots,a_{1n}),\dots, (a_{n1},\dots,a_{nn})\} \subset \mathbb C^n $$ //линейно зависимы тогда и только тогда, когда// $$ \left|\begin{array}{rrr} a_{11}&\dots & a_{1n} \\ \dots & & \dots \\ a_{n1}& \dots & a_{nn} \end{array} \right|=0 \, . $$ !!Т!! **Теорема .** //Строки// $$ \{(a_{11},\dots,a_{1n}),\dots, (a_{m1},\dots,a_{mn})\} \subset \mathbb C^n $$ //линейно зависимы тогда и только тогда, когда// $$ \operatorname{rank} A !! //Строки// $$ \{(a_{11},\dots,a_{1n}),\dots, (a_{m1},\dots,a_{mn})\} \subset \mathbb R^n $$ //линейно зависимы тогда и только тогда, когда// $$ \det (A^{\top} A) = 0 \, . $$ (Определитель в левой части можно интерпретировать как ((:dets:gram определитель Грама)) системы строк.) !!Т!! **Теорема .** //Аналитические на интервале// $ ]a,b[ $ //функции// $ u_1(x),\dots,u_n(x) $ //линейно зависимы на// $ ]a,b[ $ //тогда и только тогда, когда их ((:dets:wronskian вронскиан))// $$ \left| \begin{array}{llll} u_1(x) & u_2(x) & \dots & u_n(x) \\ u_1^{\prime}(x) & u_2^{\prime}(x) & \dots & u_n^{\prime}(x) \\ u_1^{\prime \prime}(x) & u_2^{\prime \prime}(x)&\dots& u_n^{\prime \prime}(x)\\ \dots & & & \dots \\ u_1^{(n-1)}(x) &u_2^{(n-1)}(x) &\dots & u_n^{(n-1)}(x) \end{array} \right| $$ //тождественно равен нулю на// $ ]a,b[ $. ====Относительный базис== В настоящем пункте $ \mathbb V_1 $ обозначает линейное подпространство пространства $ \mathbb V_{} $, отличное от тривиального; обозначаем $ d_1=\dim \mathbb V_1 $. !!Т!! **Теорема.** //Произвольный базис подпространства// $ \mathbb V_1 $ //можно дополнить до базиса пространства// $ \mathbb V_{} $. **Доказательство.** Пусть $ \{X_1,\dots,X_{d_1} \} $ --- какой-то базис $ \mathbb V_1 $. В пространстве $ \mathbb V_{} $ найдется вектор $ X_{d_1+1} $ такой, что система $ \{X_1,\dots,X_{d_1}, X_{d_1+1 }\} $ будет **л.н.з.** (В противном случае, $ \dim \mathbb V=d_1 $, что противоречит условию настоящего пункта.) Если $ d_1+1=d = \dim \mathbb V $, то, на основании теоремы 5 предыдущего пункта, требуемый базис построен. Если же $ d_1+1 {{ linspace2.jpg |}} Говорят, что система векторов $ \{X_1,\dots,X_k\} $ **линейно независима относительно подпространства** $ \mathbb V_1 $ пространства $ \mathbb V_{} $ если $${.}_{} \mbox{ из условия } \quad \alpha_1X_1+\dots+\alpha_k X_k \in \mathbb V_1 \quad \mbox{ следует } \quad \alpha_1=\dots=\alpha_k=0 \ .$$ !!Т!! **Теорема.** //Обозначим// $ \{Y_1,\dots,Y_{d_1}\} $ --- //произвольный базис// $ \mathbb V_1 $. //Система// $ \{X_{1},\dots,X_k\} $ **л.н.з.** //относительно// $ \mathbb V_1 $ //тогда и только тогда, когда система// $ \{Y_1,\dots,Y_{d_1},X_1,\dots,X_k\} $ //линейно независима.// !!П!! **Пример.** Найти все значения параметра $ {\color{Red} \alpha } $, при которых система $$\{ X_1=[1,\, 2,\, {\color{Red} \alpha },\, 1 ]^{^{\top}}, \ X_2=[1,\, {\color{Red} \alpha },\, 2,\, 1]^{^{\top}} \} $$ **л.н.з.** относительно подпространства $$\mathbb V_1=\left\{X \in \mathbb R^4 \bigg| \begin{array}{ll} x_1+2\,x_2-3\,x_3+4\, x_4 &=0, \\ x_1+x_2-x_3 -x_4 &=0 \end{array} \right\} \ . $$ **Решение.** Базисом подпространства $ \mathbb V_1 $ является произвольная **ФСР** заданной системы однородных уравнений, например $ \{Y_1=[-1,2,1,0]^{^{\top}},\ Y_2=[6,-5,0,1]^{^{\top}}\} $. Теорема утверждает, что система $ \{ X_1, X_2\} $ **л.н.з.** относительно $ \mathbb V_1 $ тогда и только тогда, когда система $ \{ X_1, X_2,Y_1,Y_2\} $ **л.н.з.** (в обычном понимании). Последнее равносильно тому, что матрица, составленная из этих векторов, должна иметь ранг равный $ 4_{} $. $$\operatorname{rank} \left( \begin{array}{rrrr} 1 & 1 &-1 & 6 \\ 2 & \ {\color{Red} \alpha } & 2 & -5 \\ {\color{Red} \alpha } & 2 & 1 & 0 \\ 1 & 1 & 0 & 1 \end{array} \right)=4 \ \iff \ \left| \begin{array}{rrrr} 1 & 1 &-1 & 6 \\ 2 & {\color{Red} \alpha } & 2 & -5 \\ {\color{Red} \alpha } & 2 & 1 & 0 \\ 1 & 1 & 0 & 1 \end{array} \right|= {\color{Red} \alpha }^2-10\, {\color{Red} \alpha } +16 \ne 0 \ . $$ **Ответ.** $ {\color{Red} \alpha }\not \in \{ 2,\, 8\} $. Говорят, что система векторов $ \{X_1,\dots,X_k\} $ образует **базис пространства** $ \mathbb V_{} $ **относительно** (или **над**) $ \mathbb V_1 $ если она **л.н.з.** относительно $ \mathbb V_1 $ и любой вектор $ X\in \mathbb V_{} $ можно представить в виде $$ X=c_1X_1+\dots+c_kX_k+Y, \quad \mbox{ где } \quad Y\in \mathbb V_1 \ . $$ !!Т!! **Теорема.** //Обозначим// $ \{ Y_1,\dots,Y_{d_1} \} $ --- //произвольный базис подпространства// $ \mathbb V_1 $. //Система// $ \{X_1,\dots,X_k\} $ //образует базис// $ \mathbb V_{} $ //относительно// $ \mathbb V_1 $ //тогда и только тогда, когда система// $ \{ X_1,\dots,X_k,Y_1,\dots,Y_{d_1} \} $ //образует базис// $ \mathbb V_{} $. **Доказательство.** Действительно, любой вектор $ X\in \mathbb V_{} $ выражается через векторы $ X_1,\dots,X_k,Y_1,\dots,Y_{d_1} $. По предыдущей теореме для линейной независимости этих векторов необходимо и достаточно относительной линейной независимости $ X_1,\dots,X_k $. !!=>!! Базис $ \mathbb V_{} $ строится дополнением базиса $ \mathbb V_1 $ векторами $ X_1,\dots,X_k $ линейно независимыми относительно $ \mathbb V_1 $. Поэтому $$\mbox{число векторов относительного базиса } \ = \dim \mathbb V - \dim \mathbb V_1 \ .$$ Это число называется **коразмерностью**[[codimension (//англ.//)]] подпространства $ \mathbb V_1 $ в пространстве $ \mathbb V $. ===Сумма и пересечение линейных подпространств== Пусть $ \mathbb V_1 $ и $ \mathbb V_2 $ --- подпространства линейного пространства $ \mathbb V_{} $. Множество $$ \mathbb V_1+ \mathbb V_2 = \left\{X_1+X_2 \big| X_1 \in \mathbb V_1,\ X_2 \in \mathbb V_2 \right\}$$ называется **суммой**, а множество $$ \mathbb V_1 \cap \mathbb V_2 = \left\{X \big| X \in \mathbb V_1,\ X \in \mathbb V_2 \right\}$$ --- **пересечением** подпространств $ \mathbb V_1 $ и $ \mathbb V_2 $. Аналогично определяется сумма и пересечение произвольного количества подпространств. Понятие пересечения линейных подпространств совпадает с понятием пересечения их как множеств. Как правило, $ \mathbb V_1+ \mathbb V_2 \ne \mathbb V _1 \cup \mathbb V_2 $. {{ linspace3.jpg |}} !!Т!! **Теорема.** $ \mathbb V_1+ \mathbb V_2 $ и $ \mathbb V_1 \cap \mathbb V_2 $ //являются подпространствами линейного пространства// $ \mathbb V_{} $. !!?!! Докажите, что $ \mathbb V_1+ \mathbb V_2 $ --- это подпространство минимальной размерности, содержащее как $ \mathbb V_1 $, так и $ \mathbb V_2 $. ---- Понятие суммы линейных подпространств является частным случаем ((https://en.wikipedia.org/wiki/Minkowski_addition суммы Минковского)) двух произвольных подмножеств $ \mathbb A_1 $ и $ \mathbb A_2 $ линейного пространства: $$ \mathbb A_1 + \mathbb A_2 = \{ X+Y \ \mid \ X \in \mathbb A_1, Y \in \mathbb A_2 \} . $$ Для подмножеств $$ \mathbb A_1=\{ [1,0], [0,1], [0,-1] \} \quad \mbox{и} \quad \mathbb A_2=\{ [0,0], [1,1] \} $$ пространства $ \mathbb R^2 $ имеем: $$ \mathbb A_1 + \mathbb A_2 = \{ [1,0], [0,1], [0,-1], [2,1], [1,2] \} \, . $$ ---- !!Т!! **Теорема.** //Имеет место формула//: $$ \dim \, \mathbb V_1 + \dim \, \mathbb V_2=\dim \, (\mathbb V_1 \cap \mathbb V_2) + \dim \, (\mathbb V_1 + \mathbb V_2) \ . $$ **Доказательство** ((:linear_space:vspom1 ЗДЕСЬ)). !!?!! Можно ли обобщить этот результат на случай трех (и более подпространств)? Cправедлив ли, к примеру, аналог ((:incl_excl формулы включений-исключений)) в следующем виде: $$\dim \, \mathbb V_1 + \dim \, \mathbb V_2 + \dim \, \mathbb V_3 - $$ $$ -\left\{\dim \, (\mathbb V_1 \cap \mathbb V_2) + \dim \, (\mathbb V_1 \cap \mathbb V_3) + \dim \, (\mathbb V_2 \cap \mathbb V_3) \right\} + $$ $$+ \dim \, (\mathbb V_1 \cap \mathbb V_2 \cap \mathbb V_3) =\dim \, (\mathbb V_1 + \mathbb V_2 + \mathbb V_3) \ ?$$ !!Т!! **Теорема.** //Имеет место формула//: $${\mathcal L}(X_1,\dots,X_m)+{\mathcal L}(Y_1,\dots,Y_{\ell})= {\mathcal L}(X_1,\dots,X_m,Y_1,\dots,Y_{\ell}) \ ; $$ //здесь// $ {\mathcal L} $ //означает ((:linear_space#линейная_зависимость_базис_координаты линейную оболочку))//. !!П!! **Пример.** Найти базис суммы и размерность пересечения $$\mathbb V_1={\mathcal L}\left( \left[ \begin{array}{r} 0 \\1 \\ 1 \\ 1 \end{array} \right] , \left[ \begin{array}{r} 1 \\1 \\ 1 \\ 2 \end{array} \right] , \left[ \begin{array}{r} -2 \\0 \\ 1 \\ 1 \end{array} \right] \right) \quad \mbox{ и } \quad \mathbb V_2={\mathcal L}\left( \left[ \begin{array}{r} -1 \\3 \\ 2 \\ -1 \end{array} \right] , \left[ \begin{array}{r} 1 \\1 \\ 0 \\ -1 \end{array} \right] \right) $$ **Решение.** Действуя согласно предыдущей теореме, составляем матрицу из всех векторов $$ \left( \begin{array}{rrrrr} 0 & 1 & -2 & -1 & 1 \\ 1 & 1 & 0 & 3 & 1 \\ 1 & 1 & 1 & 2 & 0 \\ 1 & 2 & 1 & -1 & -1 \end{array} \right) $$ и ищем ее ранг ((:algebra2:rank#метод_окаймляющих_миноров методом окаймляющих миноров)). Имеем: $ \operatorname{rank} = 3 $ при ненулевом миноре матрицы расположенном в первых трех ее столбцах. **Ответ.** Базис $ \mathbb V_1 + \mathbb V_2 $ составляют векторы $ X_1,X_2,X_3 $; $ \dim \, (\mathbb V_1 \cap \mathbb V_2) = 3+2 - 3 =2 $. Алгоритм нахождения базиса $ {\mathcal L}(X_1,\dots,X_m) \cap {\mathcal L}(Y_1,\dots,Y_{\ell}) $ проиллюстрируем на примере. !!П!! **Пример.** Найти базис $ \mathbb V_1 \cap \mathbb V_2 $ при $$ \begin{array}{l} \mathbb V_1={\mathcal L} \left( \left[ \begin{array}{r} 1 \\ -1 \\ 1 \\ -1 \\ 1 \end{array} \right],\, \left[ \begin{array}{r} 1 \\ 2 \\ 1 \\ 2 \\ 1 \end{array} \right],\, \left[ \begin{array}{r} 0 \\ 1 \\ 0 \\ 1 \\ 0 \end{array} \right] \right) \\ {}_{} \qquad \qquad \quad X_1 \quad \quad \ X_2 \quad \quad X_3 \end{array} ,\ \begin{array}{l} \mathbb V_2={\mathcal L} \left( \left[ \begin{array}{r} 1 \\ 0 \\ 0 \\ 0 \\ 1 \end{array} \right],\, \left[ \begin{array}{r} 1 \\ 1 \\ 0 \\ 1 \\ 1 \end{array} \right],\, \left[ \begin{array}{r} 0 \\ 1 \\ 1 \\ 1 \\ 0 \end{array} \right] \right) \\ {}_{} \quad \qquad \qquad Y_1 \qquad \ Y_2 \quad \quad Y_3 \end{array} \ . $$ **Решение.** 1. Сначала найдем базисы каждого из подпространств: $$\dim \mathbb V_1=2, \ \mathbb V_1=\mathcal L(X_1, X_2) \ ; \ \dim \mathbb V_2=3,\ \mathbb V_2=\mathcal L(Y_1, Y_2, Y_3) \ . $$ 2. Произвольный вектор $ Z\in \mathbb R^5 $, принадлежащий $ \mathbb V_1 \cap \mathbb V_2 $, должен раскладываться по базису каждого из подпространств: $$Z=\alpha_1 X_1 + \alpha_2 X_2= \beta_1 Y_1 + \beta_2 Y_2 + \beta_3 Y_3 \ .$$ Для определения неизвестных значений координат составляем систему уравнений $$ \begin{array}{l} \qquad X_1 \ X_2 \\ \qquad {\color{RubineRed} \downarrow} \ \ \ {\color{RubineRed} \downarrow} \\ \left( \begin{array}{rrrrrrr} 1 & 1 & -1 & &-1 & & \ 0 \\ -1 & 2 & 0 & & -1 & & \ -1 \\ 1 & 1 & 0 & & 0 & & \ -1 \\ -1 & 2 & 0 & & -1 & & \ -1 \\ 1 & 1 & -1 & & -1 & &\ 0 \end{array} \right) \\ \qquad \qquad \qquad {\color{RubineRed} \uparrow} \qquad \ \ {\color{RubineRed} \uparrow} \qquad \quad {\color{RubineRed} \uparrow} \\ \quad \qquad \qquad -Y_1 \quad - Y_2 \quad -Y_3 \end{array} \left( \begin{array}{r} \alpha_1 \\ \alpha_2 \\ \beta_1 \\ \beta_2 \\ \beta_3 \end{array} \right)= \mathbb O_{5\times 1} $$ и решаем ее по ((:algebra2:linearsystems#исключение_переменных_метод_гаусса методу Гаусса)) с нахождением ((:algebra2:linearsystems#система_однородных_уравнений фундаментальной системы решений)): $$ \left( \begin{array}{rrrrr} 1 & 1 & -1 & -1 & 0 \\ 0 & 3 & -1 & -2 & -1 \\ 0 & 0 & 1 & 1 & -1 \\ 0 & 0 & 0 & 0 & 0 \\ 0 & 0 & 0 & 0 & 0 \end{array} \right) \left( \begin{array}{r} \alpha_1 \\ \alpha_2 \\ \beta_1 \\ \beta_2 \\ \beta_3 \end{array} \right)= \mathbb O \quad \Rightarrow \qquad \mbox{ ФСР } \qquad \begin{array}{rrr|rr} \alpha_1 & \alpha_2 & \beta_1 & \beta_2 & \beta_3 \\ \hline -1/3 & 1/3 & -1 & 1 & 0 \\ 1/3 & 2/3 & 1 & 0 & 1 \end{array} $$ 3. Получившиеся значения координат позволяют выразить базис пересечения --- либо через базис подпространства $ \mathbb V_1 $ (если использовать полученные значения для $ \alpha_1,\alpha_2 $), либо через базис подпространства $ \mathbb V_2 $ (если использовать $ \beta_1,\beta_2, \beta_3 $). Например, $$ Z_1=-1/3 X_1 + 1/3 X_2 = [0,1,0,1,0]^{^{\top}},\ $$ $$ Z_2=1/3 X_1 + 2/3 X_2 = [1,1,1,1,1]^{^{\top}} \ . $$ **Ответ.**[[Один из возможных.]] $ \left\{[0,1,0,1,0]^{^{\top}},\, [1,1,1,1,1]^{^{\top}} \right\} $. !!?!! Найти базисы суммы и пересечения подпространств $$ \mathbb V_1=\left\{ X\in \mathbb R^4 \left| \begin{array}{rrrrl} 2\,x_1&+x_2&+4\,x_3&+x_4 &= 0, \\ 2\,x_1&+x_2&+3\,x_3& &=0 \end{array} \right. \right\} $$ и $$ \mathbb V_2= \left\{ X\in \mathbb R^4 \left| \begin{array}{rrrrl} 3\,x_1&+2\,x_2&-x_3&-6\, x_4 &= 0, \\ 2\,x_1&&+8\,x_3 &+7\, x_4 &=0 \end{array} \right. \right\} \ . $$ **Решение** ((:linear_space:vspom2 ЗДЕСЬ)). ==== Прямая сумма линейных подпространств== Пусть $ \mathbb V_1 $ и $ \mathbb V_2 $ --- подпространства линейного пространства $ \mathbb V_{} $. Говорят, что $ \mathbb V_{} $ **раскладывается в прямую сумму** подпространств $ \mathbb V_1 $ и $ \mathbb V_2 $ если любой вектор $ X\in \mathbb V_{} $ может быть представлен в виде $ X=X_1+X_2 $, где $ X_1\in \mathbb V_1,X_2\in \mathbb V_2 $ и __такое представление единственно__. Этот факт записывают: $ \mathbb V= \mathbb V_1 \oplus \mathbb V_2 $. Вектор $ X_{1} $ называется **проекцией вектора** $ X_{} $ **на подпространство** $ \mathbb V_1 $ **параллельно подпространству** $ \mathbb V_{2} $. {{ linspace31.jpg |}} !!П!! **Пример.** Линейное пространство квадратных матриц порядка $ n_{} $ раскладывается в прямую сумму подпространства ((:algebra2#симметричная симметричных матриц)) и подпространства ((:algebra2#кососимметричная кососимметричных матриц)). В самом деле, для матрицы $ A_{n\times n} $ справедливо разложение $$A=\frac{1}{2} \left(A+A^{^\top} \right) + \frac{1}{2} \left(A-A^{^\top} \right) $$ и в правой части первая скобка дает симметричную матрицу, а вторая --- кососимметричную. Покажите, что не существует иного разложения матрицы $ A_{} $ в сумму симметричной и кососимметричной. !!Т!! **Теорема.** //Пусть// $ \mathbb V=\mathbb V_1 + \mathbb V_2 $. //Эта сумма будет прямой тогда и только тогда, когда подпространства// $ \mathbb V_1 $ //и// $ \mathbb V_2 $ //имеют тривиальное пересечение//: $$\mathbb V_1 \cap \mathbb V_2=\{\mathbb O \} \ .$$ **Доказательство.** __Необходимость__. Пусть сумма $ \mathbb V_1 + \mathbb V_2 $ --- прямая, но существует вектор $ X\ne \mathbb O $, принадлежащий $ \mathbb V_1 \cap \mathbb V_2 $. Но тогда и вектор $ (-X) $ принадлежит $ \mathbb V_1 \cap \mathbb V_2 $. Для нулевого вектора $ \mathbb O $ получаем два представления в виде суммы проекций на подпространства: $$ \mathbb O = \mathbb O + \mathbb O = X+ (-X) \, . $$ Это противоречит понятию прямой суммы. __Достаточность__. Если $ \mathbb V_1 \cap \mathbb V_2=\{\mathbb O \} $, но существует вектор $ X \in \mathbb V_1 + \mathbb V_2 $, имеющий два различных разложения в сумму проекций $$ X=X_1+X_2 =Y_1+ Y_2 \quad npu \quad \{X_1,Y_1\} \subset \mathbb V_1, \ \{X_2,Y_2\} \subset \mathbb V_2, $$ то $$ (X_1-Y_1)+(X_2-Y_2) =\mathbb O \quad \Rightarrow \quad X_1-Y_1=Y_2-X_2 \, , $$ т.е. вектор $ X_1-Y_1 $ принадлежит $ \mathbb V_1 \cap \mathbb V_2 $. Но, по предположению, $ \mathbb V_1 \cap \mathbb V_2=\{\mathbb O \} $, следовательно, $ X_1-Y_1=\mathbb O $, но тогда и $ Y_2-X_2=\mathbb O $. !!=>!! Сумма $ \mathbb V=\mathbb V_1 + \mathbb V_2 $ будет прямой тогда и только тогда, когда базис $ \mathbb V_{} $ может быть получен объединением базисов $ \mathbb V_{j} $. Сформулированное таким образом утверждение содержится во многих учебниках по линейной алгебре. Тем не менее, с формальной точки зрения, оно неверно. В самом деле, пусть $ \mathbb V_1 = {\mathcal L}(X_1,X_2),\, \mathbb V_2 = {\mathcal L}(X_2,X_3) $ при линейно независимых $ X_1,X_2,X_3 $. Очевидно базис $ \mathbb V_1 + \mathbb V_2 ={\mathcal L}(X_1,X_2,X_3) $ получается объединением базисов $ \mathbb V_1 $ и $ \mathbb V_2 $. В то же время $ \mathbb V_1 \cap \mathbb V_2\ne \{\mathbb O \} $. Причина возникновения этой ошибки кроется в содержании термина "объединение базисов". С точки зрения терминологии теории //множеств//, во множестве не могут содержаться одинаковые элементы (во множестве они неразличимы). Однако мы с самого начала изложения допустили, что в //систему// векторов могут входить одинаковые, которые различаются порядком своего расположения (хотя это особо и не подчеркивалось, векторы в системе всегда пронумерованы). Исходя из этих соображений, объединение базисов $ \mathbb V_1 $ и $ \mathbb V_2 $ будет пониматься[[Для математической строгости здесь требуется введение отдельного определения --- понятия ((https://ru.wikipedia.org/wiki/%D0%9C%D1%83%D0%BB%D1%8C%D1%82%D0%B8%D0%BC%D0%BD%D0%BE%D0%B6%D0%B5%D1%81%D1%82%D0%B2%D0%BE мультимножества)) и аналога понятия ((:algebra2#конкатенация конкатенации)), но из соображений экономии лучше слегка ослабим однозначность терминологии.]] в настоящем пункте (и кое-где далее) как система векторов, в которую входят последовательно векторы базисов $ \mathbb V_1 $ и $ \mathbb V_2 $ --- с допуском дублей. В рамках такой договоренности, для приведенного примера получим: объединение базисов линейных подпространств $ {\mathcal L}(X_1,X_2) $ и $ {\mathcal L}(X_2,X_3) $ представляет систему $ \{X_1,X_2,X_2,X_3\} $, которая, очевидно, не является базисом. Таким образом сумма $ {\mathcal L}(X_1,X_2)+{\mathcal L}(X_2,X_3) $ не является прямой, и результат следствия остается справедливым. !!П!! **Пример** ((#источники [2])). Доказать, что сумма подпространств $$\mathbb V_1={\mathcal L}\left( \left[ \begin{array}{r} 2 \\3 \\ 11 \\ 5 \end{array} \right] , \left[ \begin{array}{r} 1 \\1 \\ 5 \\ 2 \end{array} \right] , \left[ \begin{array}{r} 0 \\1 \\ 1 \\ 1 \end{array} \right] \right) \quad \mbox{ и } \quad \mathbb V_2={\mathcal L}\left( \left[ \begin{array}{r} 2 \\1 \\ 3 \\ 2 \end{array} \right] , \left[ \begin{array}{r} 1 \\1 \\ 3 \\ 4 \end{array} \right] , \left[ \begin{array}{r} 5 \\2 \\ 6 \\ 2 \end{array} \right] \right) $$ будет прямой и найти проекции вектора $ Z=[2,0,0,3]^{\top} $ на эти подпространства. **Решение.** Базисы $ \mathbb V_1 $ и $ \mathbb V_2 $ составляют соответственно системы $ \{X_2,X_3\} $ и $ \{ Y_1,Y_2 \} $, т.е. $ \dim \, \mathbb V_1=\dim \, \mathbb V_2 =2 $. На основании следствия достаточно установить, что объединенная система $ \{X_2,X_3,Y_1,Y_2 \} $ **л.н.з.** Для этого достаточно проверить, что определитель матрицы $$ A=\left( \begin{array}{rrrr} 1 & 0 & 2 & 1 \\ 1 & 1 & 1 & 1 \\ 5 & 1 & 3 & 3 \\ 2 & 1 & 2 & 4 \end{array} \right) $$ отличен от нуля. Поскольку это условие выполнено, то сумма $ \mathbb V_1 + \mathbb V_2 $ --- прямая и базис этой суммы состоит из взятых векторов. Для нахождения разложения вектора $ X_{} $ по этому базису решаем систему уравнений $$A \left[ \begin{array}{c} \alpha_2 \\ \alpha_3 \\ \beta_1 \\ \beta_2 \end{array} \right] = Z $$ и получаем единственное решение: $ \alpha_2=-1,\, \alpha_3=-1,\, \beta_1 =1\, , \beta_2=1 $. Разложение $ Z=Z_1+Z_2 $ составляют векторы $ Z_1=\alpha_2 X_2+\alpha_3 X_3 $ и $ Z_2=\beta_1 Y_1+\beta_2 Y_2 $. **Ответ.** $ Z=[-1,-2,-6,-3]^{\top} + [3,2,6,6]^{\top} $. ====Линейные многообразия== Пусть $ \mathbb V_1 $ --- линейное подпространство пространства $ \mathbb V_{} $, а $ X_{0} $ --- произвольный фиксированный вектор из $ \mathbb V_{} $. Множество $$ \mathbb M = X_0+ \mathbb V_1 = \left\{X_0+Y \big| Y \in \mathbb V_1 \right\} $$ называется **линейным многообразием** (**порожденным подпространством** $ \mathbb V_1 $). **Размерностью** этого многообразия называется размерность порождающего его подпространства: $ \dim \mathbb M = \dim \mathbb V_1 $. В случае $ 1 < \dim \mathbb M = k < \dim \mathbb V $ о многообразии $ \mathbb M $ говорят как о **k-мерной плоскости** (или **гиперплоскости**), а при $ k=1 $ --- как о **прямой**. Образно говоря, многообразие --- это сдвиг порождающего его линейного подпространства. !!П!! **Пример.** Множество полиномов вида $$ f(x)= a_0x^3+a_1x^2+a_2x+1 \in \mathbb R[x] \, , $$ т.е. таких, что $ \deg f \le 3, f(0)=1 $ образует линейное многообразие, порожденное линейным подпространством полиномов $ \{ x(a_0x^2+a_1x+a_2) \mid (a_0,a_1,a_2) \in \mathbb R^3 \} $. Пересечение многообразий определяется традиционным способом, а сумма многообразий не определяется. Будем называть многообразия, порожденные одним и тем же подпространством $$ \mathbb M = X_0+ \mathbb V_1 \quad u \quad \widetilde{\mathbb M} = \widetilde X_0+ \mathbb V_1 \ , $$ **параллельными многообразиями**. !!П!! **Пример.** Множество столбцов пространства $ \mathbb R^{n} $, удовлетворяющих системе уравнений $$ \left\{\begin{array}{ccc} a_{11}x_1 +a_{12}x_2+\ldots+a_{1n}x_n &=&b_1,\\ a_{21}x_1 +a_{22}x_2+\ldots+a_{2n}x_n &=&b_2,\\ \ldots& & \ldots \\ a_{m1}x_1 +a_{m2}x_2+\ldots+a_{mn}x_n &=&b_m \end{array}\right. \iff AX={\mathcal B} \ , $$ образует линейное многообразие. При $ {\mathcal B}\ne \mathbb O_{m\times 1} $ это многообразие не будет являться линейным пространством. Структуру этого множества описывала теорема из пункта ((:algebra2:linearsystems#общее_решение ОБЩЕЕ РЕШЕНИЕ)): если система совместна, то ее общее решение можно представить как сумму какого-то одного ее решения и общего решения соответствующей однородной системы $ AX= \mathbb O $. Таким образом, многообразие решений неоднородной системы $ AX={\mathcal B} $ допускает "параметрическое представление": $$\mathbb M=X_0+ {\mathcal L}(X_1,\dots,X_{n-{\mathfrak r}})= $$ $$=\left\{X_0+t_1 X_1+\dots+ t_{n-{\mathfrak r}} X_{n-{\mathfrak r}} \mid (t_1,\dots, t_{n-{\mathfrak r}}) \in \mathbb R^{n-{\mathfrak r}} \right\} \ ; $$ здесь $ X_{0} $ означает частное решение системы (т.е. $ AX_0={\mathcal B} $), $ \{X_1,\dots,X_{n-{\mathfrak r}}\} $ --- **ФСР** для системы $ AX= \mathbb O $, а $ \mathfrak r= \operatorname{rank} A= \operatorname{rank} [A\mid \mathcal B] $. Получаем, следовательно, $ (n-{\mathfrak r}) $-мерную плоскость в $ \mathbb R^n $, a в случае $ (n-{\mathfrak r})=1 $ --- прямую $$\mathbb M=X_0+tX_1 \quad npu \ t \in \mathbb R \ ; $$ в последнем случае вектор $ X_{1} $ называют **направляющим вектором** этой прямой. !!§!! Некоторые задачи на линейные многообразия ((:linear_space:manifolds ЗДЕСЬ)). ====Факторпространство== определяется ((:linear_space:factorspace ЗДЕСЬ)). === Преобразование координат при замене базиса == Пусть $ \mathbb V_{} $ --- линейное пространство размерности $ n_{} $, пусть $$ \{X_1,\dots,X_n\} \quad u \quad \{{\mathfrak X}_1,\dots,{\mathfrak X}_n\}$$ --- два произвольных его базиса ("старый" и "новый"). **Задача.** Вывести соотношения, связывающие координаты произвольного вектора $ X\in \mathbb V_{} $ в старом и новом базисах: $$X=x_1X_1+\dots+x_nX_n={\mathfrak x}_1{\mathfrak X}_1+\dots+{\mathfrak x}_n{\mathfrak X}_n \ .$$ Предположим, что нам известны координаты векторов нового базиса в старом: $$ \left\{ \begin{array}{ccc} {\mathfrak X}_1&=&c_{11}X_1+c_{21}X_2+\dots+c_{n1}X_n, \\ {\mathfrak X}_2&=&c_{12}X_1+c_{22}X_2+\dots+c_{n2}X_n, \\ \dots& & \dots \\ {\mathfrak X}_n&=&c_{1n}X_1+c_{2n}X_2+\dots+c_{nn}X_n. \end{array} \right. $$ Матрица $$ C=\left( \begin{array}{cccc} c_{11} & c_{12} & \dots & c_{1n} \\ c_{21} & c_{22} & \dots & c_{2n} \\ \dots & & & \dots \\ c_{n1} & c_{n2} & \dots & c_{nn} \\ \end{array} \right), $$ по столбцам которой стоят координаты новых базисных векторов в старом базисе называется **матрицей перехода** от старого базиса к новому, а также --- ввиду одного из приведенных ниже результатов --- **матрицей преобразования координат**. !!Т!! **Теорема.** //Матрица// $ C_{} $ //((:algebra2#обращение_матрицы неособенная))//. **Доказательство.** Cначала покажем справедливость утверждения в частном случае $ \mathbb V=\mathbb R^n $. Вектора нового и старого базисов являются столбцами из $ n $ вещественных чисел, и равенства, задающие элементы матрицы $ C_{} $, можно переписать в матричном виде: $$ \left[{\mathfrak X}_1|\dots|{\mathfrak X}_n\right]=\left[X_1|\dots|X_n\right]\cdot C \ . $$ Здесь $ | $ означает ((:algebra2#конкатенация конкатенацию)). Поскольку системы $ \{X_1,\dots,X_n\} $ и $ \{{\mathfrak X}_1,\dots,{\mathfrak X}_n\} $ --- базисные, то $$\det \left[X_1|\dots |X_n\right] \ne 0, \quad \det \left[{\mathfrak X}_1|\dots |{\mathfrak X}_n\right] \ne 0 \ .$$ Из последнего матричного равенства (и ((:algebra2:dets#теорема_бине_-_коши теоремы Бине-Коши)) ) тогда следует, что $ \det C\ne 0 $. Теперь докажем теорему для случая произвольного пространства. Если $ \det C= 0 $, то столбцы матрицы $ C_{} $ линейно зависимы (см. ((algebra2:rank#ранг_матрицы ЗДЕСЬ)) ), т.е. существует линейная комбинация $$\alpha_1 c_{j1}+ \dots+\alpha_n c_{jn}=0 \quad npu \quad \forall j\in \{1,\dots,n \} $$ и при некотором $ \alpha_k\ne 0 $. Но тогда из формул $$ \left\{ \begin{array}{ccc} {\mathfrak X}_1&=&c_{11}X_1+c_{21}X_2+\dots+c_{n1}X_n, \\ {\mathfrak X}_2&=&c_{12}X_1+c_{22}X_2+\dots+c_{n2}X_n, \\ \dots& & \dots \\ {\mathfrak X}_n&=&c_{1n}X_1+c_{2n}X_2+\dots+c_{nn}X_n. \end{array} \right. $$ следует, что $$\alpha_1 {\mathfrak X}_1+ \dots+\alpha_n {\mathfrak X}_n=\mathbb O \ ,$$ что противоречит линейной независимости системы $ \{{\mathfrak X}_1,\dots,{\mathfrak X}_n\} $. !!П!! **Пример.** Найти матрицу перехода ^ от базиса ^ ^ к базису ^ | $ \left[1,1,0,0,0\right] $ | | $ \left[1,1,1,1,1\right] $ | | $ \left[1,0,1,0,0\right] $ | | $ \left[1,1,1,1,0\right] $ | | $ \left[1,0,0,1,0\right] $ | | $ \left[1,1,1,0,0\right] $ | | $ \left[1,0,0,0,1\right] $ | | $ \left[1,1,0,0,0\right] $ | | $ \left[1,1,1,1,1\right] $ | | $ \left[1,0,0,0,0\right] $ | **Решение.** Можно попытаться найти элементы матрицы $ C_{} $ напрямую --- устанавливая формулы связи между строками. В нашем конкретном примере это не очень трудно сделать --- первый и четвертый столбцы матрицы $ C_{} $ вообще очевидны поскольку $ {\mathfrak X}_1 = X_5,\, {\mathfrak X}_4 = X_1 $. Но мы пойдем по формальному пути и воспользуемся определяющим матричным соотношением, которое мы получили при доказательстве предыдущей теоремы. Поставим координаты базисных векторов по столбцам соответствующих матриц: $$ \left[{\mathfrak X}_1|\dots|{\mathfrak X}_n\right]=\left[X_1|\dots|X_n\right]\cdot C \quad \Rightarrow $$ $$ \Rightarrow \ C= \left[X_1|\dots|X_n\right]^{-1} \cdot \left[{\mathfrak X}_1|\dots|{\mathfrak X}_n\right] \ . $$ В нашем примере имеем: $$ C= \left( \begin{array}{ccccc} 1 & 1 & 1 & 1 & 1 \\ 1 & 0 & 0 & 0 & 1 \\ 0 & 1 & 0 & 0 & 1 \\ 0 & 0 & 1 & 0 & 1 \\ 0 & 0 & 0 & 1 & 1 \end{array} \right)^{-1} \left( \begin{array}{ccccc} 1 & 1 & 1 & 1 & 1 \\ 1 & 1 & 1 & 1 & 0 \\ 1 & 1 & 1 & 0 & 0 \\ 1 & 1 & 0 & 0 & 0 \\ 1 & 0 & 0 & 0 & 0 \end{array} \right)= $$ $$ =\frac{1}{3} \left( \begin{array}{rrrrr} 1 & 2 & -1 & -1 & -1 \\ 1 & -1 & 2 & -1 & -1 \\ 1 & -1 & -1 & 2 & -1 \\ 1 & -1 & -1 & -1 & 2 \\ -1 & 1 & 1 & 1 & 1 \end{array} \right) \left( \begin{array}{ccccc} 1 & 1 & 1 & 1 & 1 \\ 1 & 1 & 1 & 1 & 0 \\ 1 & 1 & 1 & 0 & 0 \\ 1 & 1 & 0 & 0 & 0 \\ 1 & 0 & 0 & 0 & 0 \end{array} \right) = $$ $$ =\left( \begin{array}{rrrrr} 0 & 1/3 & 2/3 & 1 & 1/3 \\ 0 & 1/3 & 2/3 & 0 & 1/3 \\ 0 & 1/3 & -1/3 & 0 & 1/3 \\ 0 & -2/3 & -1/3 & 0 & 1/3 \\ 1 & 2/3 & 1/3 & 0 & -1/3 \end{array} \right) . $$ !!Т!! **Теорема.** //Координаты вектора в старом и новом базисах связаны посредством матрицы перехода// $ C_{} $ //соотношениями// $$ \left\{ \begin{array}{ccc} x_1&=&c_{11}{\mathfrak x}_1+c_{12}{\mathfrak x}_2+\dots+c_{1n}{\mathfrak x}_n, \\ x_2&=&c_{21}{\mathfrak x}_1+c_{22}{\mathfrak x}_2+\dots+c_{2n}{\mathfrak x}_n, \\ \dots& & \dots \\ x_n&=&c_{n1}{\mathfrak x}_1+c_{n2}{\mathfrak x}_2+\dots+c_{nn}{\mathfrak x}_n \end{array} \right. \quad \iff \quad \left( \begin{array}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{array} \right) =C \left( \begin{array}{c} {\mathfrak x}_1 \\ {\mathfrak x}_2 \\ \vdots \\ {\mathfrak x}_n \end{array} \right) \ . $$ **Доказательство.** $$ \begin{array}{lll} X=x_1X_1+\dots+x_nX_n&=&{\mathfrak x}_1{\mathfrak X}_1+\dots+{\mathfrak x}_n{\mathfrak X}_n = \\ &=&{\mathfrak x}_1(c_{11}X_1+c_{21}X_2+\dots+c_{n1}X_n)+\\ &+&{\mathfrak x}_2(c_{12}X_1+c_{22}X_2+\dots+c_{n2}X_n)+\\ &+& \dots +\\ &+&{\mathfrak x}_n(c_{1n}X_1+c_{2n}X_2+\dots+c_{nn}X_n)=\\ =(c_{11}{\mathfrak x}_1+c_{12}{\mathfrak x}_2+\dots+c_{1n}{\mathfrak x}_n)X_1&+&\dots+ (c_{n1}{\mathfrak x}_1+c_{n2}{\mathfrak x}_2+\dots+c_{nn}{\mathfrak x}_n)X_n \end{array} $$ Поскольку при фиксированном базисе координаты вектора определяются однозначно (теорема $ 6 $ ((#линейная_зависимость_базис_координаты ЗДЕСЬ)) ), получаем равенства $$ \left\{ \begin{array}{ccc} x_1&=&c_{11}{\mathfrak x}_1+c_{12}{\mathfrak x}_2+\dots+c_{1n}{\mathfrak x}_n, \\ x_2&=&c_{21}{\mathfrak x}_1+c_{22}{\mathfrak x}_2+\dots+c_{2n}{\mathfrak x}_n, \\ \dots& & \dots \\ x_n&=&c_{n1}{\mathfrak x}_1+c_{n2}{\mathfrak x}_2+\dots+c_{nn}{\mathfrak x}_n \end{array} \right. \quad \iff \quad \left( \begin{array}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{array} \right) =C \left( \begin{array}{c} {\mathfrak x}_1 \\ {\mathfrak x}_2 \\ \vdots \\ {\mathfrak x}_n \end{array} \right) $$ Практическое значение последнего результата невелико, т.к. нас интересуют именно __новые__ координаты. !!=>!! Новые координаты выражаются через старые по формуле $$ \left( \begin{array}{c} {\mathfrak x}_1 \\ {\mathfrak x}_2 \\ \vdots \\ {\mathfrak x}_n \end{array} \right) =C^{-1} \left( \begin{array}{c} x_1 \\ x_2 \\ \vdots \\ x_n \end{array} \right), $$ при этом матрицу $ C^{-1} $ можно интерпретировать как матрицу перехода от нового базиса к старому. !!?!! Пусть в некотором "новейшем" базисе $ \{ {\mathcal X}_1,\dots,{\mathcal X}_n \} $ пространства $ \mathbb V_{} $ вектор $ X_{} $ имеет координаты $ (\varkappa_1,\dots,\varkappa_n) $. Как они связаны с координатами $ (x_{1},\dots,x_n) $ в старом базисе $ \{X_1,\dots,X_n\} $, если известны матрица $ C_{} $ перехода от этого базиса к базису $ \{{\mathfrak X}_1,\dots,{\mathfrak X}_n \} $ и матрица $ D_{} $ перехода от базиса $ \{{\mathfrak X}_1,\dots,{\mathfrak X}_n \} $ к базису $ \{{\mathcal X}_1,\dots,{\mathcal X}_n \} $ ? ==Евклидовы пространства== --- как линейные пространства, в которых вводится понятия угла и расстояния между векторами --- рассматриваются ((:euclid_space ЗДЕСЬ)). ==Нормированные пространства== --- как линейные пространства, в которых вводится понятие расстояния между векторами --- рассматриваются ((:norm_space ЗДЕСЬ)). ==Линейные отображения== пространств рассматриваются ((:mapping ЗДЕСЬ)) ==Задачи== ((:linear_space:problems ЗДЕСЬ)). ==Источники== [1]. **Лаврентьев М., Люстерник Л.** //Основы вариационного исчисления. Том 1. Часть I.// М.-Л.ОНТИ. 1935, с. 22 [2]. **Икрамов Х.Д.** //Задачник по линейной алгебре.// М.1975 [3]. **Шилов Г.Е.** //Математический анализ. Конечномерные линейные пространства.// М.Наука.1969