Wektory liniowo niezależne

Najbardziej ogólny schemat sprawdzania czy dana rodzina wektorów $\vec{v_1},\vec{v_2},\ldots,\vec{v_p}$jest liniowo niezależna wygląda jak następuje: Rozważamy równanie

\begin{displaymath}\lambda_1 \vec{v_1}+ \lambda_2 \vec{v_2}+\ldots+
\lambda_p \vec{v_p} =\vec{0}. \leqno (*)\end{displaymath}


Jest oczywiste, że równanie to ma rozwiązanie zerowe tzn., że ciąg liczb $\lambda_1=\lambda_2=\ldots=\lambda_p=0$jest jego rozwiązaniem. Jeżeli jest to jedyne rozwiązanie równania (*), to oznacza to, że wektory są liniowo niezależne. Jeśli równanie (*) ma także rozwiązania niezerowe, to wektory są liniowo zależne.

W szczególnym, ale ważnym przypadku, gdy mamy do czynienia z $n$ wektorami z ${I\!\!R}^{n}$ możemy stosować poniższe kryterium, które sformuujemy dla $n=3$. Twierdzenie.  Trzy wektory $\vec{v_1}=(x_1,y_1,z_1)$, $\vec{v_2}=(x_2,y_2,z_2)$i $\vec{v_3}=(x_3,y_3,z_3)$są liniowo niezależne wtedy i tylko wtedy gdy

\begin{displaymath}\det\left[\begin{array}{ccc}
x_{1}&x_{2} & x_{3}\\
y_{1}&y...
...& y_{3}\\
z_{1}&z_{2} & z_{3}\\
\end{array}
\right]\neq 0.\end{displaymath}


Definicja

Bazą przestrzeni nazywamy rodzinę wektorów, która jest zarówno liniowo niezależna jak i generująca. Z reguły mówiąc "baza" mamy na myśli bazę uporządkowaną tzn. nie tyle rodzinę, co ciąg. Inaczej mówiąc, zakładamy, że w bazie wiadomo, który wektor jest pierwszy, który drugi etc. A zatem, te same wektory, ale w innej kolejności tworzą inną bazę.

Warto pamiętać, że następujące warunki są równoważne:



Poniższy fakt, sformułowany dla ${I\!\!R}^{3}$zachodzi dla przestrzeni dowolnej przestrzeni ${I\!\!R}^{n}$. Trzy wektory $\vec{v_1}=(x_1,y_1,z_1)$, $\vec{v_2}=(x_2,y_2,z_2)$i $\vec{v_3}=(x_3,y_3,z_3)$stanowią bazę ${I\!\!R}^{3}$wtedy i tylko wtedy gdy

\begin{displaymath}\det\left[\begin{array}{ccc}
x_{1}&x_{2} & x_{3}\\
y_{1}&y...
...& y_{3}\\
z_{1}&z_{2} & z_{3}\\
\end{array}
\right]\neq 0.\end{displaymath}

przestrzeni ${I\!\!R}^{n}$baza postaci $\vec{e_1}=(1,0,\dots,0)$, $\vec{e_2}=(0,1,0,\dots,0)$, ..., $\vec{e_n}=(0,0,\dots,1)$nosi nazwę bazy kanonicznej.

Jeżeli $n$wektorów przestrzeni ${I\!\!R}^{n}$, $\vec{v_1}=(a_{11},a_{21},\ldots,a_{n1})$, $\vec{v_2}=(a_{12},a_{22},\ldots,a_{n2})$, ..., $\vec{v_n}=(a_{1n},a_{2n},\ldots,a_{nn})$stanowi bazę ${I\!\!R}^{n}$i ponadto

\begin{displaymath}\det\left[\begin{array}{cccc}
a_{11}&a_{12} &\cdots & a_{1n}...
...s\\
a_{n1}&a_{n2} &\cdots & a_{nn}\\
\end{array}
\right]>0\end{displaymath}


to mówimy, że wektory te wyznaczają dodatnią orientację ${I\!\!R}^{n}$. Jeśli wyznacznik jest ujemny, to i orientacja zwana jest ujemną.

Odwzorowanie $f:U\mapsto V$nazywamy odwzorowaniem liniowym jeżeli dla każdych wektorów $\vec{x},\vec{y}\in U$i każdej liczby $\alpha$mamy:

\begin{displaymath}f(\vec{x}+\vec{y})=f(\vec{x}) + f(\vec{y}) \end{displaymath}


 

\begin{displaymath}f(\alpha \vec{x})=\alpha f(\vec{x} \end{displaymath}

Postać ogólna

Łatwo widać, że poniższe równości definiują pewne odwzorowanie liniowe.

\begin{displaymath}\begin{array}{rcccccccc}
y_{1} & = & a_{11}x_{1}&+&a_{12}x_{...
...{1}&+& a_{n2} x_{2}&+&\cdots &+& a_{mn}x_{n}.\\
\end{array}
\end{displaymath}

Postać macierzowa

Ustalmy bazy w przestrzeniach ${I\!\!R}^{n}$w ${I\!\!R}^{m}$. Bardzo często są to bazy kanoniczne. Wtedy każdy wektor z przestrzeni ${I\!\!R}^{n}$możemy utożsamiać z jego współrzędnymi względem tej bazy.

\begin{displaymath}\vec{x}=(x_1,\ldots,x_n)\leftrightarrow X=\left[\begin{array}...
...
x_{1}\\
x_{2}\\
\vdots\\
x_{n}\\
\end{array}
\right],\end{displaymath}


a każdy wektor z przestrzeni ${I\!\!R}^{m}$możemy utożsamiać z jego współrzędnymi względem bazy bazy${I\!\!R}^{m}$;

\begin{displaymath}\vec{y}=(y_1,\ldots,y_m)\leftrightarrow Y=\left[\begin{array}...
...
y_{1}\\
y_{2}\\
\vdots\\
y_{m}\\
\end{array}
\right].\end{displaymath}


Łatwo widać, że odwzorowanie liniowe.

\begin{displaymath}\begin{array}{rcccccccc}
y_{1} & = & a_{11}x_{1}&+&a_{12}x_{...
...{1}&+& a_{n2} x_{2}&+&\cdots &+& a_{mn}x_{n}.\\
\end{array}
\end{displaymath}


możemy zapisać teraz krótko w postaci:

\begin{displaymath}Y=AX, \leqno ( \ast ) \end{displaymath}


gdzie macierz

\begin{displaymath}A=\left[\begin{array}{rcccccccc}
a_{11}&a_{12}&\cdots &a_{1n...
...dots \\
a_{m1}&a_{m2}&\cdots &a_{mn}\\
\end{array}\right]
\end{displaymath}


nazywamy macierzą odwzorowania. Niezwykle ważny jest fakt, że każde odwzorowanie liniowe odwzorowujące jedną przestrzeń skończenie wymiarową w drugą może być zapisane właśnie w takiej postaci.

 

Jak znaleźć macierz odwzorowania $f:U\mapsto V$?

Ogólna zasada jest następująca:

  1. Bierzemy pierwszy wektor bazowy $\vec{b_1}$$U$.
  2. Obliczamy $f(\vec{b_1})$. Jest to wektor z $V$.
  3. Obliczamy współrzędne wektora $f(\vec{b_1})$$V$.
  4. Zapisujemy otrzymane współrzędne jako pierwszą kolumnę naszej macierzy.
  5. Bierzemy drugi wektor bazowy $\vec{b_2}$$U$ i robimy to samo co poprzednio, zapisując współrzędne jako drugą kolumnę naszej macierzy.
  6. Itd. z pozostałymi wektorami bazowymi.

Odwzorowania liniowe -- przypadek ogólny

Niech $f:U\mapsto V$będzie odwzorowaniem liniowym. Warto przypomnieć, że zajmujemy się tu tylko przestrzeniami skończenie wymiarowymi. Słowo "ogólny" w tym kontekście oznacza fakt, że niekoniecznie są to przestrzenie ${I\!\!R}^{n}$. Wektory nie są więc koniecznie ciągami liczb. Ale w momencie gdy ustalimy bazy w przestrzeniach $U$$V$, to, jak poprzednio, każdy wektor z przestrzeni $U$czy $V$możemy utożsamiać z jego współrzędnymi względem tej bazy. Od tego momentu począwszy wszystko co powiedzieliśmy wyżej jest prawdziwe także w przypadku ogólnym. W szczególności dotyczy to sposobu tworzenia macierzy odwzorowania.

Formy i macierze

Ustalmy bazę w przestrzeni ${I\!\!R}^{n}$. Wtedy każdy wektor z przestrzeni ${I\!\!R}^{n}$możemy utożsamiać z jego współrzędnymi względem tej bazy. Niech

\begin{displaymath}\vec{x}\leftrightarrow X=\left[\begin{array}{c}
x_{1}\\
x_{2}\\
\vdots\\
x_{n}\\
\end{array}
\right],\end{displaymath}


 

\begin{displaymath}\vec{y}\leftrightarrow Y=\left[\begin{array}{c}
y_{1}\\
y_{2}\\
\vdots\\
y_{n}\\
\end{array}
\right].\end{displaymath}


Wtedy forma dwuliniowa $f$jest postaci

\begin{displaymath}f(\vec{x},\vec{y})= \sum_{i,k=1}^{n} a_{ik}x_{i}y_{k} \leqno (*)\end{displaymath}


gdzie

\begin{displaymath}a_{ik}=f(\vec{e_i}, \vec{e_k}),\end{displaymath}


gdzie $\vec{e_i}$, $i=1,2,\ldots,n$są kolejnymi wektorami bazy w ${I\!\!R}^{n}$. Zatem, mając $f$(i wybraną bazę) możemy obliczyć współczynniki $a_{ik}$. Mając współczynniki $a_{ik}$możemy na podstawie (*) wyznaczyć $f$. Tym razem baza jest nam potrzebna do znalezienia współrzędnych wektorów. Macierz

\begin{displaymath}A=\left[\begin{array}{cccc}
a_{11}&a_{12}&\cdots &a_{1n}\\ 
...
...dots \\
a_{n1}&a_{m2}&\cdots &a_{nn}\\
\end{array}\right]
\end{displaymath}


nazywamy macierzą formy. Równości definiujące formę możemy zapisać teraz krótko w postaci:

\begin{displaymath}f(X,Y)=X^TAY \leqno ( *m ) \end{displaymath}


Uwaga. Warto jeszcze raz powiedzieć, że wzajemnie jednoznaczna odpowiedniość między macierzami $n\times n$, a formami dwuliniowymi zależy od wyboru bazy.

Definicja

Ustalmy bazę w przestrzeni ${I\!\!R}^{n}$. Wtedy każdy wektor z przestrzeni ${I\!\!R}^{n}$możemy utożsamiać z jego współrzędnymi względem tej bazy. Niech

\begin{displaymath}\vec{x}\leftrightarrow X=\left[\begin{array}{c}
x_{1}\\
x_{2}\\
\vdots\\
x_{n}\\
\end{array}
\right].\end{displaymath}


Forma kwadratowa jest odwzorowaniem postaci:

\begin{displaymath}Q(\vec{x})= \sum_{i,k=1}^{n} a_{ik}x_{i}x_{k}, \leqno (*)\end{displaymath}


gdzie macierz

\begin{displaymath}A=\left[\begin{array}{cccc}
a_{11}&a_{12}&\cdots &a_{1n}\\ 
...
...dots \\
a_{n1}&a_{m2}&\cdots &a_{nn}\\
\end{array}\right]
\end{displaymath}


(zwana macierzą formy) jest symetryczna tzn. $a_{ik}=a_{ki}$.

Twierdzenie Sylwestera o bezwładności

Trzeba sobie zdawać sprawę z tego, że sprowadzenie formy do postaci kanonicznej może się odbyć na wiele różnych sposobów. Czyli forma może ma wiele różnych postaci kanonicznych. Wszystkie one jednak mają coś wspólnego. Mówi o tym poniższe twierdzenie Sylwestera.

Twierdzenie Sylwestera o bezwładności formy kwadratowej.  Wszystkie postacie kanoniczne danej formy kwadratowej mają tyle samo wyrazów dodatnich i ujemnych

Wartości i wektory własne macierzy

Niech $A$będzie macierzą kwadratową

\begin{displaymath}A=\left[\begin{array}{cccc}
a_{11}&a_{12}&\cdots &a_{1n}\\ 
...
...ts \\
a_{n1}&a_{m2}&\cdots &a_{nn}\\
\end{array}\right] .
\end{displaymath}


Dopisując $-\lambda $na przekątnej oraz obliczając wyznacznik powstałej macierzy

\begin{displaymath}\det \left[\begin{array}{cccc}
a_{11}-\lambda &a_{12}&\cdots...
...
a_{n1}&a_{m2}&\cdots &a_{nn}-\lambda \\
\end{array}\right],\end{displaymath}


otrzymujemy pewien wielomian zmiennej $\lambda $. Wielomian ten nazywamy wielomianem charakterystycznym macierzy $A$. Pierwiastki tego wielomianu, czyli jego miejsca zerowe, nazywamy wartościami własnymi macierzy $A$.

Niech
$\lambda_1$będzie wartością własną macierzy $A$. Wektor (utożsamiany z kolumną współrzędnych)

\begin{displaymath}X=\left[\begin{array}{c}
x_{1}\\
x_{2}\\
\vdots\\
x_{n}\\
\end{array}
\right],\end{displaymath}


nazywamy wektorem własnym macierzy $A$, jeśli spełnione jest równanie:

\begin{displaymath}\left[\begin{array}{cccc}
a_{11}-\lambda_1 &a_{12}&\cdots &a...
...
0\\
0\\
\vdots\\
0\\
\end{array}
\right] \leqno (R)
\end{displaymath}

 

Definicja

Załóżmy, że mamy dwie bazy; bazę $B$(zwaną też obrazowo " starą bazą") i bazę $B'$(zwaną też obrazowo " nową bazą"). Tworzymy macierz $P$następująco: kolumnami macierzy $P$są współrzędne kolejnych wektorów nowej bazy w starej. Wtedy $P$jest tzw. macierzą przejścia od starej bazy $B$do nowej bazy $B'$.

Jak wyznaczyć macierz przejścia?

W najczęściej spotykanej sytuacji, tzn. gdy stara baza jest bazą kanoniczną, jest to bardzo proste: kolumnami macierzy przejścia $P$są po prostu kolejne wektory nowej bazy.

Zwiazek między starymi i nowymi współrzędnymi

Niech

\begin{displaymath}
X=\left[
\begin{array}{c}
x_{1} \\
x_{2} \\
\vdots \\
x_{n}
\end{array}
\right]
\end{displaymath}


będzie kolumną starych współrzędnych (tzn. są to współrzędne pewnego wektora $\vec{x}$w starej bazie), a

\begin{displaymath}X'=\left[\begin{array}{c}
x'_{1}\\
x'_{2}\\
\vdots\\
x'_{n}\\
\end{array}
\right]\end{displaymath}


będzie kolumną nowych współrzędnych (tzn. są to współrzędne tego samego wektora $\vec{x}$ale w nowej bazie). Niech $P$będzie macierzą przejścia od starej do nowej bazy. Wtedy

\begin{displaymath}X=PX'.\end{displaymath}

 

Macierze podobne

Dwie macierze kwadratowe $A$$B$ $n\times n$nazywamy macierzami podobnymi, jeśli istnieje taka macierz nieosobliwa $P$(też oczywiście $n\times n$), że zachodzi związek:

\begin{displaymath}B=P^{-1}AP.\end{displaymath}


Z macierzami podobnymi mamy do czynienie najczęściej w następującej sytuacji. Obie macierze są macierzani tego samego odwzorowania $f: {I\!\!R}^{n}\mapsto {I\!\!R}^{n}$; macierz $A$jest macierzą odpowiadającą $f$w bazie kanonicznej (zwanej też obrazowo " starą bazą") , a macierz $B$jest macierzą odpowiedającą $f$w nowej bazie. Wtedy $P$jest tzw. macierzą przejścia od starej do nowej bazy.

Macierze diagonalizowalne

Jeżeli macierz kwadratowa $A$jest podobna do macierzy diagonalnej $D$tj. do macierzy postaci:

\begin{displaymath}D=\left[\begin{array}{cccc}
d_{1} &0&\cdots &0\\
0&d_{2}&\...
...\ddots & \vdots \\
0&0&\cdots &d_{n} \\
\end{array}\right] \end{displaymath}


to mówimy, że jest diagonalizowalna, a proces znajdywania macierzy $D$$P$ nazywamy diagonalizacją.

Postawowe twierdzenie

Twierdzenie.  Macierz kwadratowa $A$$n\times n$jest pododna do macierzy diagonalnej $D$wtedy i tylko wtedy, gdy istnieje baza ${\cal B}=\{w_1,w_2,\ldots, w_n\}$złożona z wektorów własnych macierzy $A$. Niech $\lambda_i$będzie wartością własną odpowiadającą wektorowi $w_i$. Macierze $D$$P$ można zdefiniować następująco: Macierz $P$jest macierzą przjścia od bazy kanonicznej do bazy $\cal B$, natomiast

\begin{displaymath}D= \left[\begin{array}{cccc}
\lambda _{1} &0&\cdots &0\\
0...
... \vdots \\
0&0&\cdots &\lambda _{n} \\
\end{array}\right] .\end{displaymath}




Warto także pamiętać, że Twierdzenie.  Macierz kwadratowa symetryczna jest diagonalizowalna.

Definicja

Wsród wielu baz czyli układów współrzędnych przestrzeni ${I\!\!R}^{n}$najważniejszą rolę odgrywają tzw. bazy ortonormalne. Są to bazy, w których wszystkie wektory są parami prostopadłe (czyli ortogonalne) oraz mają długość jeden. Przykładem takiej bazy jest baza kanoniczna.

Ortonormalizacją Schmidta

Ważna jest umiejętność zamiany danej bazy przestrzeni wektorowej na bazę ortonormalną. Proces ten nazywamy ortonormalizacją Schmidta. Można go opisać następująco: Niech $\vec{b_1}, \vec{b_2}, \ldots, \vec{b_n}$będzie dowolną bazą pewnej przestrzeni wektorowej. Naszym celem jest podanie sposobu znalezienia bazy ortonormalnej $\vec{a_1}, \vec{a_2}, \ldots, \vec{a_n}$, takiej, że

\begin{displaymath}\mbox{lin}\{\vec{a_1}, \vec{a_2}, \ldots, \vec{a_j}\}=\mbox{lin}\{\vec{b_1}, \vec{b_2}, \ldots, \vec{b_j} \}\end{displaymath}


dla $j=1,2,\ldots,n$. Kładziemy

\begin{displaymath}\vec{a_1}= \frac{\vec{b_1}}{\vert\vert\vec{b_1}\vert\vert}.\end{displaymath}


Wektora $\vec{a_2}$szukamy następująco. Wpierw szukamy wektora $\vec{a'_2}$w postaci

\begin{displaymath}\vec{a'_2}= \vec{b_2}+\lambda \vec{a_1}\end{displaymath}


Współczynnik $\lambda $ wyznaczamy korzystając z warunku:

\begin{displaymath}\vec{a'_2}\perp \vec{a_1}.\end{displaymath}


Tak otrzymany wektor $\vec{a'_2}$"normujemy", tzn. kładziemy

\begin{displaymath}\vec{a_2}= \frac{\vec{a'_2}}{\vert\vert\vec{a'_2}\vert\vert}.\end{displaymath}


Wektora $\vec{a_3}$szukamy następująco. Wpierw szukamy wektora $\vec{a'_3} $w postaci

\begin{displaymath}\vec{a'_3}= \vec{b_2}+\lambda_1 \vec{a_1}+ \lambda_2 \vec{a_2}\end{displaymath}


Współczynniki $\lambda_1,\lambda_2 $wyznaczamy korzystając z warunków:

\begin{displaymath}\vec{a'_3}\perp \vec{a_1},~~\vec{a'_3}\perp \vec{a_2}\end{displaymath}


Tak otrzymany wektor $\vec{a'_3} $"normujemy", tzn. kładziemy

\begin{displaymath}\vec{a_3}= \frac{\vec{a'_3}}{\vert\vert\vec{a'_3}\vert\vert}.\end{displaymath}


I ogólnie, mając już $m$wektorów $\vec{a_1}, \vec{a_2}, \ldots, \vec{a_m}, $wektora $\vec{a_{m+1}}$szukamy następująco. Wpierw szukamy wektora $\vec{a'_{m+1}} $w postaci

\begin{displaymath}\displaystyle \vec{a'_{m+1}}= \vec{b_{m+1}}+\sum_{i=1}^{m}\lambda_i \vec{a_i}\end{displaymath}


Współczynniki $\lambda_i$wyznaczamy korzystając z $m$ warunków:

\begin{displaymath}\vec{a'_{m+1}}\perp \vec{a_1},~~\vec{a'_{m+1}}\perp \vec{a_2}, \ldots, \vec{a'_{m+1}}\perp \vec{a'_{m}}\end{displaymath}


Tak otrzymany wektor $\vec{a'_{m+1}} $"normujemy", tzn. kładziemy

\begin{displaymath}\vec{a_{m+1}}= \frac{\vec{a'_{m+1}}}{\vert\vert\vec{a'_{m+1}}\vert\vert}.\end{displaymath}

 

Macierze unitarne

Najczęściej problem znajdywania baz ortonormalnych pojawia się w  kontekście zmiany bazy, czyli zmiany układu współrzędnych. Zmiany bazy dokonujemy z reguły w celu uproszczenia jakichś wyrażeń. Stara baza jest najczęściej bazą kanoniczną, która jest oczywiście ortonormalna. Jeżeli nowa baza jest ortonormalna, to zmiana bazy może być intepretowana jako obrót układu współrzędnych, czyli przekształcenie będące izometrią, a zatem zachowujące odległości i kąty. Niech

\begin{displaymath}
X=\left[
\begin{array}{c}
x_{1} \\
x_{2} \\
\vdots \\
x_{n}
\end{array}
\right]
\end{displaymath}

będzie kolumną współrzędnych wektora $\vec{x}$w bazie kanonicznej, a

\begin{displaymath}X'=\left[\begin{array}{c}
x'_{1}\\
x'_{2}\\
\vdots\\
x'_{n}\\
\end{array}
\right]\end{displaymath}


będzie kolumną nowych współrzędnych wektora $\vec{x}$w nowej bazie ortonormalnej. Niech $P$będzie macierzą przejścia od starej do nowej bazy. Przy powyższych załóżeniach $P$jest tzw. macierzą unitarną, tzn.

\begin{displaymath}P^{-1}=P^{T}.\leqno (*)\end{displaymath}

Oznacza to, że \begin{displaymath}X'=P^{-1}X=P^{T}X.\end{displaymath}

Uwaga.  Pamiętamy także, że wyznaczanie macierzy odwrotnej do danej jest zadaniem dość trudnym. Jeżeli jednak macierz $P$jest macierzą unitarną, to na podstawie (*) jest to bardzo łatwe.

Macierze symetryczne

Niech $A$będzie macierzą symetryczną. Jak pamiętamy, macierze symetryczne są podobne do macierzy diagonalnych. Oznacza to, że istnieje baza złożona z wektorów własnych $A$. Jeżeli teraz poddamy tę bazę procesowi ortonormalizacji , to otrzymamy bazę oczywiście ortonormalną. Ponadto wektory tej bazy bedą dalej wektorami własnymi macierzy $A$. A zatem, podsumowując:

Twierdzenie .  Dla macierzy kwadratowej symetrycznej można znaleźć taką macierz unitarną
$P$, że macierz

\begin{displaymath}D=P^{-1}AP=P^{T}AP\end{displaymath}


jest macierzą diagonalną. Na przekątnej macierzy $D$stoją wartości własne macierzy $A$, natomiast kolumny macierzy $P$"są" ortonormalną bazą złożoną z wektorów własnych macierzy $A$, którą można otrzymać z bazy złożonej z wektorów własnych macierzy $A$za pomocą procesu ortonormalizacji Schmidta.