pierwszej

Transkrypt

pierwszej
1–2 Ciała, przestrzenie liniowe, baza, liniowa niezależność
Idea: algebra ma dwie części. W obu wypadkach rozwiązujemy równania (liniowe/wyższego stopnia). Ale
ważniejsze są narzędzia, które powstają. Dają dużo możliwych zastosowań (i dla Państwa to w zasadzie modelowanie
jest ważniejsze, niż same wyniki).
• algebra liniowa
• algebra abstrakcyjna (ogólna)
Najpierw algebra liniowa. Myślimy, że uogólnienie Rn .
Definicja 1 (Ciało).
(1) Dwa działania: + oraz · (myślimy, że mnożenie i dodawanie)
(2) Mają te własności, co się spodziewamy:
• 0i1
• element odwrotny a−1 , zapisywane też jako a1
• element przeciwny −a
• oba działania przemienne
• łączność (ab)c = a(bc); (a + b) + c = a + (b + c)
• rozdzielność a(b + c) = ab + ac
Przykład 2. R, Q, Zp , C.
xe Zp jest ciałem: patrzymy na 0, p, 2p, 3p, . . . , aż się coś powtórzy. To będzie p liczb, gdzieś musi być 1.
Mają całą masę własności, których się po nich spodziewamy:
• 0 · p = 0:
p · 0 + p = p · 0 + p · 1 = p(0 + 1) = p · 1 = p
• (−1)a = −a:
a + (−1)a = (1 + (−1))a = 0a = 0
• (−a)(−b) = ab:
(−a)(−b) = (−1)(a)(−1)(b)
(−1)(−1) + −1 = (−1)(−1) + 1(−1) = (−1 + 1)(−1) = 0(−1) = 0
element odwrotny jest jedyny, wzajemnie odwrotne itp.
Fakt 3. Charakterystyka ciała to p-liczba pierwsza albo ∞.
Dowód. Jak nie: dodajemy do siebie pq elementów. Odwrotny do p? Wychodzi, że charakterystyka to q.
Po co taka definicja? Bo w sumie nasze obliczenia nie zależy od konkretnej struktury. I nie warto liczyć osobno
dla każdej z nich. Np. równanie
ax = b
b
ma rozwiązanie − a i to nie zależy od ciała.
0.1. Przestrzenie liniowe.
Definicja 4. Przestrzeń liniowa V nad ciałemK:
(1) v + u = u + v ∈ V
(2) (u + v) + w = u + (v + w)
(3) istnieje ~0: ~0 + v = v
(4) istnieje element przeciwny −v + v = ~0 ∈ V
(5) (α + β) · v = αv + βv
(6) α · (v + u) = αv + αu
(7) α · (β · v) = (αβ) · v
(8) 1 · v = v
Skalary. Wektory.
Tylko dodajemy i mnożymy przez skalary, żadnego mnożenia wektorów!
Przykład 5. Rn , Cn , {0}
N
Zbiory funkcji: RR , RQ , QR , ZR
p, R
Zbiory ciągów o wartościach w R, Z, . . .
Zbiory wielomianów nad K. Zbiory wielomianów określonego stopnia. Zbiory wielomianów zerujących się w
jakichś punktach.
1
2
Punkty w R2 spełniające równanie 2x + y = 0. Punkty w R3 spełniające równanie 2x + y = 0, x − y + 3z = 0.
Ale nie 2x + y = 1, x − y + 3z = 0.
Funkcje RR mające wartość 0 w 1. Ale nie mające wartości 2.
Też mają masę oczekiwanych własności.
Fakt 6.
(1) 0 · ~v = ~0
~
(2) α · 0 = ~0
(3) α · v = ~0 wtedy i tylko wtedy, gdy v = ~0 lub α = 0
(4) (−1)v = −v
Podprzestrzenie liniowe.
Fakt 7. Niepusty podzbiór przestrzeni liniowej jest podprzestrzenią wtedy i tylko wtedy gdy jest zamknięty na
dodawanie i mnożenie przez skalary.
Warstwy.
• charakteryzacja przez dodanie jednego wektora.
• charakteryzacja przez ∀α∈K,v,u∈U αv + (1 − α)u ∈ U
Kombinacje liniowe wektorów LIN. Nazewnictwo: otoczka liniowa. Podprzestrzeń rozpięta. Domknięcie liniowe.
Fakt 8. Kombinacja liniowa jest podprzestrzenią liniową. Jest też najmniejszą przestrzenią zawierającą A.
Liniowa niezależność wektorów.
Lemat 9. v1 , . . . , vk niezerowe są liniowo zależne wtedy i tylko wtedy jeden z nich można przedstawić jako liniową
kombinację pozostałych.
Definicja 10 (Baza). B jest bazą V gdy LIN(B) = V oraz B jest liniowo niezależny.
Minimalny zbiór rozpinający V .
Przestrzeń skończenie wymiarowa.
Lemat 11. Niech V : przestrzeń liniowa nad ciałemK, A = {v1 , v2 . . . , vk } ⊆ V zbiór wektorów, zax α1 , . . . , αk ∈ K
ciąg skalarów, gdzie α1 6= 0. Wtedy
( k
)!
X
(1)
LIN
αi vi , v2 . . . , vk
= LIN ({v1 , v2 . . . , vk }) .
i=1
W szczególności, {v1 , v2 . . . , vk } jest bazą wtedy i tylko wtedy, gdy bazą jest
Pk
i=1
αi vi , v2 . . . , vk .
Twierdzenie 12. Każda przestrzeń(skończenie wymiarowa) V ma bazę.
Każda baza przestrzeni (skończenie wymiarowej) V ma taką samą moc.
Dowód. Niech B = {v1 , v2 , . . . , vk } takie, że LIN({v1 , v2 , . . . , vk }) = V . Jeśli {v1 , v2 , . . . , vk } jest liniowo niezależny,
to jest bazą. Jeśli nie, to istnieje vi ∈ LIN({v1 , v2 , . . . , vk } \ {vi }). Podstawiamy B ← {v1 , v2 , . . . , vk } \ {vi } i
iterujemy rozumowanie.
Niech Bv = {v1 , v2 , . . . , vk } oraz Bu = {u1 , u2 , . . . , u` } będą dwoma bazami, gdzie ` ≥ k. Pokażemy, że k = l.
W tym celu będziemy zastępować kolejne elementy Bv przez v1 , v2 , . . ..
Dokładniej, pokażemy przez indukcję po j = 0, . . . , `, że istnieje podzbiór Bj ⊂ Bu o mocy j, taki xe Bj0 =
Bu \ Bj ∪ {v1 , . . . , vj } jest bazą. Dla j = ` daje to tezę. Zauważmy, że dla j = 0 teza indukcyjna trywialnie
zachodzi.
Pokażemy krok indukcyjny. Weźmy Bj0 ∪ {vj+1 }. Jako że Bj0 jest bazą, to vj+1 ∈ LIN(Bj0 ). Zauważmy, że nie
może być, że vj+1 ∈ LIN({v1 , . . . , vj }), bo to przeczy założeniu, że Bv jest bazą. Czyli w kombinacji liniowej z
LIN(Bj0 ) dla vj+1 którą ze współczynników przy wektorach z Bu \ Bj jest niezerowy. Oznaczmy ten wektor przez
uij+1 , zdefiniujmy Bj+1 := Bj ∪ {uij+1 }.
Pozostaje pokazać, że Bj+1 jest bazą. Wynika to z faktu, że zastępujemy w Bj wektor uij+1 przez wektor z
LIN(Bj ), który ma niezerowy współczynnik przy uij+1 (Lemat ??).
Twierdzenie 13. Każdy wektor ma jednoznaczne przedstawienie w bazie
Pk
Pk
Pk
Dowód. Jeśli i=1 αi vi oraz i=1 βi vi to dwa przedstawienia, to i=1 (αi − βi )vi = ~0 jest nietrywialną kombinacją
dla wektora ~0, co przeczy założeniu, że {v1 , v2 , . . . , vk } jest bazą.
3
Zapis wektorowy. Współrzędne.
Baza standardowa.
Eliminacja Gaussa.
Definicja 14 (Operacje elementarne.). Operacje elementarne (kolumnowe) to:
• zamiana kolumn
• dodanie do jednej z kolumn wielokrotności innej.
Analogicznie definiujemy operacje elementarne wierszowe.
Przykład 15. Rekurencja na liczby Fibonacciego. Albo na coś podobnego. an = an−1 + 2an−2 .
bn = bn−1 + bn−1 − 1. To jest warstwa!
Notacja wektora w bazie.
Przykład: wielomiany—baza to xi .
3: Przekształcenia liniowe, macierze
Przekształcenia liniowe, macierze.
Definicja 16. F : V 7→ W
• F (αv) = αv
• F (v + w) = F (v) + F (w)
Przykład 17.
• Suma współrzędnych.
• Przemnożenie przez stałą.
• Skasowanie współrzędnej.
• Itp.
Definicja 18 (Homomorfizm struktur).
Fakt 19. Zbiór przekształceń liniowych jest przestrzenią liniową.
Dowód. Definicja mnożenia i dodawania.
Definicja 20. Jądro przekształcenia ker F = {v | F (v) = ~0}
Obraz przekształcenia Im(F ) = {u | ∃vF (v) = u}.
Lemat 21. Jądro i obraz są przestrzeniami liniowymi.
Definicja 22. Rząd przekształcenia liniowego F to wymiar Im(F ).
Twierdzenie 23. dim(V ) = dim(Im(F )) + dim(ker(L))
Dowód. Bierzemy bazę jądra. I można ją rozszerzyć do bazy całości.
Uwaga: to NIE zadziała, jeśli weźmiemy na początku dowolną bazę L, np. wszystkie wektory mogą przejść w to
samo!
Zapis: Wektory będziemy zapisywać pionowo od teraz.
Złożenie przekształceń liniowych jest przekształceniem liniowym.
Fakt 24. Każde przekształcenie liniowe jest jednoznacznie zadane poprzez swoje wartości na bazie. I każde takie
określenie jest poprawne.
Fakt 25. Dowolne dwie przestrzenie liniowe nad ciałemK o tym samym skończonym wymiarze są izomorficzne.
Dowód. Przenosimy bazę na bazę.
Wyrażanie przekształceń liniowych: macierze. Skoro wystarczy wyrazić przekształcenie na wektorach bazy,
to zapiszmy je w ten sposób. Od teraz wektory są zawsze w kolumnach.
Intuicja, dlaczego tak mnożymy wektor przez macierz. To da się rozwinąć.
To jak będzie z mnożeniem dwóch macierzy? To też da się wyliczyć.
Mnożenie macierzy i wektorów. Idea: chcemy wyrazić wartości przekształcenia liniowego. Wystarczy to zrobić
dla wartości na wektorach z bazy.
Interpretacja zapisu kolumnowego
Mnożenie macierzy.
Ciekawe macierze (przekątniowa, jednostkowa, górno-trójkątna, dolno-trójkątna, 1ij , Tij )
4
Przykład 26. Jak liczyć wyrazy ciągu Fibonacciego szybko. Robienie tego przy użyciu wzorów z potęgami liczb
wymiernych nie jest za sprytne.
Zapiszmy kolejne wartości jako wektor. Zapisujemy rekurencję w postaci macierzy. Wartości początkowe wpisujemy w wektor. Wtedy kolejne nałożenia to kolejne potęgi. Plus: możemy mnożyć macierz, a to potrafimy zrobić
szybciej.
To de facto daje też jakieś wzory rekurencyjne na wartości liczb Fibonacciego. Ale to na innym przedmiocie.
Definicja 27 (Transpozycja macierzy, sprzężenie).
Fakt 28. (AB)T = B T AT .
Definicja 29 (Rząd macierzy). Rząd macierzy to wymiar przestrzeni generowanej przez kolumny tej macierzy.
(czyli rząd odpowiedniego przekształcenia liniowego).
A co z rządem kolumnowym?
Twierdzenie 30. Rząd kolumnowy i wierszowy są sobie równe.
Wracamy do algorytmu eliminacji. Operacje elementarne.
Lemat 31. Operacje elementarne na macierzach (kolumnowe/wierszowe) nie zmieniają rządu macierzy.
Dowód. No trzeba rozpisać i zobaczyć.
dowód twierdzenia. Stosujemy eliminację Gaussa. Rząd obu się nie zmienia. Dla zredukowanej to jest jasne.
Wyznacznik
Waxna funkcja na macierzach: wyznacznik.
Ale najpierw: permutacja. Znak permutacji (ilość par {(i, j) : i < j, σ(i) > σ(j)}.
Definicja 32 (Wyznacznik). Wyznacznik macierzy kwadratowej A = (aij )i,j=1,...,n to
(2)
det(A) =
X
sgn(σ)
σ
n
Y
ai,σ(i) .
i=1
Wyznacznik macierzy A oznaczamy przez det(A) lub przez |A|. Drugi zapis może być mylący, gdy macierz zadana
jest jawnie.
Definicja 33 (Wyznacznik). Permanent macierzy kwadratowej A = (aij )i,j=1,...,n to
(3)
per(A) =
n
XY
ai,σ(i) .
σ i=1
Obliczanie wyznacznika okazuje się proste. Permanentu — bardzo trudne.
a b
Przykład 34. Wyznacznik macierzy 2 × 2, zadanej jako
to
c d
a b c d = ad − bc.
W przypadku macierzy 3 × 3 możemy zastosować metodę Sarrusa.
Fakt 35. Proste własnoxci wyznacznika
•
•
•
•
•
•
Wyznacznik jest funkcją wieloliniową kolumn.
Liczenie dla macierzy górno-trójkątnej jest proste.
Zamiana kolumn zmienia znak.
Jeśli Ci = Cj to wyznacznik jest zerowy.
Dodanie wielokrotności kolumny nie zmienia wartości.
det(A) 6= 0 ⇐⇒ dim(A) = n
Fakt 36. Wyznacznik macierzy oraz macierzy transponowanej jest taki sam, tj.:
det(A) = det(AT ).
5
Dowód. Dla ustalonej permutacji σ zdefiniujmy σ −1 :
σ −1 (j) = i ⇐⇒ σ(i) = j.
Łatwo zauważyć, że jest to permutacja, oraz że σ(σ −1 (i)) = σ −1 (σ(i)) = i.
Policzmy sgn(σ −1 ) i sgn(σ)
sgn(σ) = 1|{(i,j) | i<j
sgn(σ −1 ) = 1|{(i,j) | i<j
i σ(i)>σ(j)}|
i σ −1 (i)>σ −1 (j)}|
Zauważmy, że (i, j) liczy się w pierwszym wzorze wtedy i tylko wtedy, gdy para (σ(i, σj ) liczy się w drugim (przez
sprawdzenie). Czyli ich znaki są równe.
Rozważmy wyznacznik macierzy AT :
n
X
Y
det(AT ) =
sgn(σ)
aσ(i)i
σ
=
i=1
X
σ
=
X
sgn(σ)
X
sgn(σ)
X
sgn(σ)
aji
n
Y
Y
aji
n
Y
ajσ−1 (j)
j=1
X
sgn(σ −1 )
σ
=
Y
j=1 i:i=σ −1 (j)
σ
=
n
Y
j=1 i:j=σ(i)
σ
=
aji
i,j=1...n
j=σ(i)
σ
=
Y
sgn(σ)
n
Y
ajσ−1 (j)
j=1
X
sgn(σ)
σ
n
Y
ajσ(j)
j=1
= det(A)
Definicja 37 (Minor macierzy). Każda podmacierz, określamy zbiór kolumn i wierszy, czasem negatywnie. Zwyczajowo Ai,j to macierz powstała z A poprzez usunięcie i-tego wiersza oraz j-tej kolumny.
Definicja 38 (dopełnienie algebraiczne). Dopełnienie algebraiczne elementu ai,j to (−1)i+j det(Ai,j ).
Fakt 39 (Rozwinięcie Laplace’a).
det(A) =
n
X
(−1)i+1 det(A1,i )
i=1
Dowód. Bezpośrednio z rozwinięcia.
Twierdzenie 40 (Cauchy).
det(AB) = det(A) · det(B)
Dowód. Metoda sprytna: Doprowadzamy jedną z macierzy do postaci przekątniowej. To się dzieje przy użyciu
operacji elementarnych. Odwrotne do nich to też są elementarne - nie zmieniają wartości wyznacznika!
Macierz odwracalna.
Definicja 41. Macierz kwadratowa, która ma przekształcenie odwrotne nazywamy macierzą odwracalną lub macierzą nieosobliwą.
Twierdzenie 42. Macierz A wymiaru n × n jest odwracalna ⇐⇒ det(A) 6= 0 ⇐⇒ rk(A) = n.
Metoda niekonstrukcyjna. dim(A) = n ⇐⇒ det(A) 6= 0. Zadajemy przekształcenie odwrotne na wektorach
(A1 , A2 , . . . , An ) jako e1 , e2 , . . . , en . To jest niesprzeczne.
6
Lemat 43. Jeśli A ma rząd n to B jest jej odwrotnością, jeśli AB = Id lub BA = Id.
A jak to zrobić efektywnie?
Metoda „na wyznacznik”. Macierz odwrotna zdefiniowana jest jako:
1
CT ,
det(A)
gdzie C to macierz dopełnień algebraicznych, tj. cij to dopełnienie algebraiczne elementu aij .
Metoda algorytmiczna obliczania macierzy odwrotnej. Zapiszmy równanie:
A−1 A = Id .
Dokonujemy diagonalizacji A używając metody eliminacji (dla kolumn). Wiemy już, że każda operacja elementarna
wyraża się albo przez macierz Tij lub Id +α1ij (domnażamy z prawej strony macierz A). Tym samym w kroku
pośrednim mamy równanie postaci
A−1 A0 = B,
gdzie B jest macierzą uzyskaną przez zastosowanie tych samych operacji na Id, co na A.
Gdy A0 jest macierzą diagonalną, wystarczy podzielić jej wiersze przez odpowiednie liczby), tak by uzyskać
Id; te same operacje wykonujemy na macierzy po prawej stronie (odpowiadają one pomnożeniu przez macierz
przekątniową, która ma α na odpowiedniej pozycji i 1 w każdym innym miejscu).
Na końcu uzyskujemy równanie
A−1 Id = B
−1
i tym samym mamy szukaną przez nas macierz A .
Układy równań liniowych i ich rozwiązywanie
Będziemy zapisywać równania w postaci
AX = B.
Intuicja: w najprostszym przypadku, gdy A jest macierzą kwadratową, możemy odwrócić A i nałożyć obustronnie
na równanie, uzyskując
A1 AX = Id X = X = A−1 B.
I tym samym mamy rozwiązanie. Można łatwo sprawdzić, że jest to jedyne rozwiązanie.
A co z rozwiązaniem?
Macierz Axi powstaje poprzez zastąpienie i-tego wiersza przez kolumnę B.
det(A)
.
Twierdzenie 44. Jedyne rozwiązanie jest postaci xi = det(A
x )
i
Dowód.
B=
X
x i Ai
i
czyli
det(Axi ) = det(A1 , . . . ,
B
|{z}
, . . . , An )
i-te miejsce
= det(A1 , . . . ,
X
x j Aj , . . . , A n )
j
| {z }
i-te miejsce
=
X
xj det(A1 , . . . ,
j
= xi det(A1 , . . . ,
Aj
|{z}
, . . . , An )
i-te miejsce
Ai
|{z}
, . . . , An )
i-te miejsce
= xi det(Ai )
Chcemy jednak zająć się tym problemem w większej ogólności:
• co jeśli A nie jest odwracalna? Czy wtedy rozwiazań jest wiele, czy może 0?
• co jeśli A nie jest kwadratowa (w szczególności: nieodwracalna)? Czy różni się przypadek, gdy jest więcej
równań, niż zmiennych, od tego, gdy jest więcej zmiennych, niż równań?
7
Zajmijmy się trochę mniej ogólnym problemem: co jeśli B = ~0? Jedno rozwiązanie na pewno jest.
Fakt 45 (Układ jednorodny). Zbiór wszystkich rozwiązań równania
AX = ~0
jest przestrzenią liniową. Dla k zmiennych wymiar tej przestrzeni to k − rk(A).
Fakt 46.
AX = B
ma rozwiązanie ⇐⇒ B ∈ Im(A).
W takim przypadku zbiór wszystkich rozwiązań równania
AX = B
jest warstwą względem ker A.
Twierdzenie 47. Układ
AX = B
ma rozwiązanie ⇐⇒ rząd macierzy rozszerzonej jest równy rządowi macierzy gx?wnej.
Jak liczyć jądro:
Zapisujemy
M · Idn = M
I robimy eliminację Gaussa na kolumnach.
To się robi przez mnożenie z prawej strony przez jakieś macierze: to samo robimy na macierzy Id. Na koniec
dostaniemy jakieś, które obrazy są niezależne oraz takie, których obrazy są zerowe, czyli z jądra.
Metoda eliminacji Gaussa raz jeszcze.
Lemat 48. Rozważmy układ równań AX = B. Układy uzyskane przez:
• zamianę i-tego oraz j-tego równania
• dodanie do j-tego równania wielokrotności i-tego
• przemnożenie i-tego równania przez stałą α 6= 0
mają ten sam zbiór rozwiązań, co oryginalny układ.
Jak wybieramy wiersze.
Co dostajemy na końcu.
Możliwy wynik:
• jedno rozwiązanie
• sprzeczne
• wiele rozwiązań
Jak z tego odtwarzamy rozwiązanie (jedno dowolne). A jak liczymy jądro. Jakie są te wymiary.
Ważne: wiersze są liniowo niezależne: co oznacza warunek, że rząd macierzy rozszerzonej jest większy.
Jaki czas działania (powiedzmy, że operację arytmetyczną wykonujemy w stałym czasie).
0.1.1. Rozkład LU . Macierz 1ij z lewej dodaje j-ty wiersz do i-tego
Definicja 49. Rozkład LU macierzy kwadratowej
A = LU
L - dolnotrójkątna, U - górnotrójkątna.
Potrzebne jakieś normowanie, np. elementy na przekątnej macierzy L są równe 0 zawsze.
Zalety:
• łatwo rozwiązywać układy równań
• tyle samo miejsca
Nie zawsze istnieje, ale dla jakiejś permutacji wierszy istnieje.
Metoda: znowu
A = Id A
robimy z A macierz górnotrójkątną przy użyciu operacji kolumnowych (tu sprawdzić, co dokładnie robi Tij na czym,
a co Id +αij ) Jeśli nie trzeba zamieniać wierszy, to będzie OK. A jak trzeba, to trzeba zamienić wiersze.
8
Przykład 50.

1
3
0
5
1
2

−1
−1
0
Wartości własne
Wyrażanie przekształcenia w bazach raz jeszcze.
Co to znaczy. Składanie.
Macierz zmiany bazy. Co to jest, jak się liczy.
Identyczność wyrażona w różnych bazach.
−1
MA→B = MB→A
W ten sposób można liczyć.
Czasami składanie jest bardzo proste: przykład—macierz przekątniowa.
Przykład 51.

0
1
3
0
5
1

2
−1
−1
 
   
1
0
1
Ma wektory własne 1 , 0 (wartość 4), 1 (wartość 6). Macierz przejścia:
1
1
0

 

1 1 0
0, 5
0, 5 −0, 5
 0, 5 −0, 5 0, 5  1 0 1
0 1 1
−0, 5 0, 5
0, 5
Czyli

0
1
3
0
5
1
 
1
2
−1 = 1
0
−1
1
0
1

0
4
1 0
1
0
0
4
0

0
0, 5
0  0, 5
6 −0, 5
0, 5
−0, 5
0, 5

−0, 5
0, 5 
0, 5
Tutaj liczenie potęg jest bardzo proste.
Wyznacznik dla przekształcenia (nie zależy od wyboru bazy), odwracalność?.
Definicja 52. Wyznacznik przekształcenia liniowego F : V 7→ V to det(MBB )(F ) w dowolnej bazie B.
To nie zalexy od wyboru bazy.
Fakt 53. Przekształcenie F : V 7→ V jest odwracalne ⇐⇒ det(F ) 6= 0.
Dowód. To nie zależy od wyboru bazy. Po ustaleniu bazy to jest to dowód dla macierzy.
Motywowane naszym poprzednim przykładem
Definicja 54. Macierz M jest diagonalizowalna ⇐⇒ istnieje macierz odwracalna A oraz macierz diagonalna D
taka, że M = A−1 DA.
Przekształcenie liniowe diagonalizowalne.
Definicja 55 (Wartość własna). λ jest wartością własną macierzy M (dla wektora X 6= 0), gdy M X = λX. X
jest wektorem własnym takiego przekształcenia.
Czy zawsze musi istnieć? Nie (w każdym razie nie nad każdym ciałem).
Definicja 56 (Przestrzeń niezmiennicza). V 0 jest przestrzenią niezmienniczą dla F , jeśli F (V ) ⊆ V .
Dla wartości własnej λ przekształcenia F Vλ = {v | F (c) = λv} to przestrzeń tej wartości własnej.
Lemat 57. Vλ jest przestrzenią liniową.
Dla λ1 6= λ2 zachodzi Vλ1 ∩ Vλ2 = {~0}.
9
Przykład 58.

4
−1
−1

0 0
5 1
1 5
   
 
1
1
0
Ma wektory własne 1 , 0 (wartosx 4), 1 (wartość 6). Macierz przejścia:
0
1
1

 

0, 5
0, 5 −0, 5
1 1 0
 0, 5 −0, 5 0, 5  1 0 1
−0, 5 0, 5
0, 5
0 1 1
Przykład 59. Obrót o kąt 900 . Jak wygląda macierz:
0 −1
.
1 0
Wielomian charakterystyczny to x2 + 1. Nie ma rzeczywistych wartości własnych.
To się może zmienić wraz z ciałem: co jak na to
patrzymy
jako na przekształcenie nad C?. Wartości własne
1
1
zespolone to i, −i. Odpowiadające wektory własne
,
. Diagonalizowalne!
−i
i
0 −1
1 1 i 0 1 i −1
=
1 0
−i i 0 −i 2i i 1
Lemat 60. α jest wartością własną ⇐⇒ det(M − α Id) = 0
Definicja 61 (Wielomian charakterystyczny). Wielomian charakterystyczny:
φM (x) = det(A − x Id).
Wielomian charakterystyczny dla przekształcenia liniowego.
To naprawdę jest wielomian, stopnia wymiar macierzy. Wartości własne w szczególności są pierwiastkami tego
wielomianu i vice-versa.
Definicja 62 (Krotność algebraiczna, krotność geometryczna). Dla wartości własnej λ krotność geometryczna to
wymiar Vλ , zaś krotność algebraiczna to krotność pierwiastka λ w wielomianie charakterystycznym.
Fakt 63. Krotność algebraiczna jest większa równa krotności algebraicznej.
Dowód. Patrzymy na det(M − x Id). Niech A to macierz zmiany bazy, że te wektory własne są w bazie.
det(M − x Id) = det(A(M − x Id)A−1 )
Patrzymy na M 0 = A(M − x Id)A−1 . To jest wyrażenie macierzy przekształcenia w tej bazie. Czyli ma ileś razy λ
na przekątnej. To będą te zera.
Fakt 64. Krotność

1
Przykład 65. 0
0
1.
geometryczna λ dla M = wymiar V λ = dim(ker(M − λ Id)).

0 0
2 1 Ma dwie wartości własne: 1 oraz 2. Krotność algebraiczna 2 to 2, ale geometryczna to
0 2
Twierdzenie 66. Macierz jest diagonalizowalna ⇐⇒ ma n niezależnych wektorów własnych ⇐⇒ suma wymiarxw
przestrzeni Vλ wynosi n.
Niestety, nie ma na to jakiegoś dobrego sposobu.
Macierz Jordana. Dla liczb zespolonych.
Lemat 67. Macierz symetryczna jest diagonalizowalna (nad R).
10
Iloczyn skalarny, norma
Chcemy uogólnić pojęcia odległości, prostopadłości (kąta?) na dowolna przestrzeń.
Taka odległość może zmieniać nasz punkt widzenia na przestrzex. Na pierwszy rzut oka nie widać związku
prostopadłości oraz długości. Ale to się zmienia w momencie w którym przypomnimy sobie iloczyn skalarny: w
przestrzeni euklidesowej to jest
hu, vi = ||u|| · ||v|| · cos α,
gdzie α jest kątem między tymi dwoma wektorami. Czyli pozwala też na zdefiniowanie odległości:
p
||u|| = hu, ui.
Popatrzymy od innej strony: co musi spełniać funkcja dwóch zmiennych, by być iloczynem skalarnym.
Uwaga: iloczyn skalarny w zasadzie definiuje się dla przestrzeni nad ciałami R oraz C, choć można ogólnie.
Definicja 68 (Iloczyn skalarny). Iloczyn skalarny to funkcja h·, ·i : V 2 7→ K spełniająca warunki:
SK1 liniowa po pierwszej współrzędnej
SK2 symetryczna, tj. hu, vi = hv, ui, gdy K = R; hu, vi = hv, ui dla K = C
SK3 hv, vi > 0 dla v 6= ~0.
Ostatni warunek ma sens dla C, bo wartość jest samosprzężona. Dla innych ciał ostatni warunek może nie mieć
sensu.
To pozwala na zdefiniowanie prostopadłości oraz długości.
Definicja 69 (Wektory prostopadłe). Dwa wektory u, v są prostopadłe, gdy hu, vi = 0. Zapisujemy to też jako
u⊥v.
p
Definicja 70 (Długość i odległość). Norma (długość ) wektora u to ||u|| = hu, ui.
Odległość między u a v to norma z (u − v).
Przykład 71. Zwykły iloczyn skalarny.
Całka dla wielomianów.
Lemat 72.
(1) ||tv|| = |t|||v||
(2) |hu, vi| ≤ ||u|| · ||v|| (Nierówność Cauchy-Schwartz); równość ⇐⇒ są liniowo zależne
(3) ||u + w|| ≤ ||u|| + ||v|| (Nierówność Minkowsky)
(4) ||v|| − ||w| ≤ ||v − w||
Dowód.
(1) Oczywiste
(2) Jak są liniowo zależne, to jasne. Rozważmy
f (t) = ||v − tw||2 > 0
Ma wartości ściśle dodatnie.
Po przekształceniu
f (t) = ||v||2 − 2hu, vi + t2 ||w||2 > 0
Patrzymy na
∆ = 4hu, vi2 − 4||w||2 ||v||2 < 0
i mamy.
Przy okazji: równość jest tylko wtedy, gdy są liniowo zależne.
||u + v||2 = hu + v, u + vi = hu, ui + 2hu, vi + hv, vi ≤ ||u||2 + 2||u|| · ||v|| + ||v||2 = (||u|| + ||v||)2
z2
Tak określona odległość spełnia nierówność trójkąta (Nierówność Minkowskiego). Z nierówności Schwarza mamy
−1 ≤
hu, vi
≤1
||u|| · ||v||
I tym samym możemy zdefiniować kąt miedzy wektorami: jedyne takie α ∈ [0, π], xe
cos α =
Definicja 73. Baza ortogonalna.
Baza ortonormalna.
hu, vi
||u|| · ||v||
11
Lemat 74. Niech {v1 , . . . , vn } będzie bazą ortonormalną a v wektorem wyrażanym jako
v=
n
X
αi vi .
i=1
Wtedy
αi = hv, vi i
Niech A = (aij ) będzie macierzą kwadratową. Wtedy aij = hAvj , vi i.
Dowód.
n
n
X
X
hv, vi i = h
αj vj , vi i =
αj hvj , vi i = αi ||vi ||2 = αi .
j=1
j=1
Lemat 75. Załóżmy, że kolumny macierzy M są ortonormalne. Wtedy M −1 = M T .
Dowód. Banalny.
Wniosek: macierz zmiany bazy.
Algorytm ortonormalizacji bazy
vj ← vj −
j−1
X
hvj , vi ivi
i=1
vj ← p
vj
hvj , vj i
Lemat 76. Otrzymane wektory są ortonormalne.
Przestrzeń rozpięta przez {vi }ki=1 nie zmienia się.
Dla zadanej bazy taka funkcja jest jednoznacznie zadana przez macierz
aij = hei , ej i
Lemat 77. Niech A, B to dwie bazy. Określmy iloczyn macierz M A tak, że
hu, vi = [u]TA M A [u]A
Analogiczna macierz dla B to
T
M B = MB→A
M A MB→A ,
gdzie MB→A to macierz zmiany bazy.
Fakt 78. Dla bazy ortnormalnej mamy M = Id.
Dla jakich macierzy to jest dobra definicja? Na pewno macierz musi być symetryczna (samosprzężona).
Tak w zasadzie to chodzi o to, żeby zachodziło
hv, vi > 0.
Definicja 79 (Macierz dodatnio określona). Macierz symetryczna M jest dodatnio określona, jeśli dla każdego
wektora v 6= 0 zachodzi
v T M v > 0.
(Prawie dodatnio określona) Nieujemnie określona, gdy
v T M v ≥ 0.
Fakt 80. M jest dodatnio określona ⇐⇒
M = AT A
dle pewnej odwracalnej macierzy A.
Takie A można efektywnie uzyskać.
12
Dowód. Jeśli spełnia, to M T = (AT A)T = AT A, czyli jest symetryczna. Zaś
v T M v = v T AT Av = (Av)T (Av) > 0
(bo A jest odwracalna).
W drugą stronę: liczymy bazę ortogonalną. Wyrażamy w niej ten iloczyn. Wyrażamy M przy tej pomocy.
T
M B = MB→A
M A MB→A ,
Ale jak to efektywnie sprawdzić? (W zasadzie to powyższy opis już nam to powiedział).
Twierdzenie 81. M jest dodatnio określona ⇐⇒ dla każdego k = 1, 2, . . . , n macierz Ak spełnia det(Ak ) > 0.
Dowód. W jedną stronę prosto: ⇒
To jest ograniczenie tego iloczynu do przestrzeni rozpiętej przez pierwsze k wektorów bazy: to jest dalej iloczyn
skalarny. Zmieniamy bazy na ortogonalną, mamy
M = C ∗ Id C
i wyznacznik musi być dodatni.
⇐ Z założenia indukcyjnego dostajemy, że to jest iloczyn skalarny na przestrzeni rozpiętej przez pierwsze n − 1
wektorów. Zmieniamy bazę, tak żeby mieć te wektory jako bazowe. Patrzymy na tą macierz w tej bazie (rozszerzonej
o 1 wektor). Ortogonalizujemy ten wektor do pozostałych. Macierz staje się przekątniowa. Warunek na wyznacznik
mówi tylko tyle, że ten ostatni wektor pomnożony sam z sobą daje dodatni iloczyn.
Macierze nieujemnie określone (prawie dodatnie określone). Generalnie tak samo, tylko nieróność jest słaba. Nie
nadają się do liczenia bazy, ale mają własność:
M = AT A
oraz słabą wersję kryterium Sylvestera.
Umiemy maksymalizować równania liniowe. Kwadratowe już nie bardzo.
Ale umiemy dla macierzy samosprzężonych.
max X T CX
X
T
∀kX Ak X ≥ bk
Elementy geometrii
Definicja 82 (Izometria). Przekształcenie liniowe, które zachowuje iloczyn skalarny:
hF v, F ui = hv, ui
Lemat 83. Przekształcenie jest izometrią wtw. zachowuje długość.
Przekształcenie jest izometrią wtw. zachowuje iloczyn skalarny elementów z bazy.
Lemat 84. Izometria przechodzi z jednej bazy ortonormalnej do drugiej.
Macierz izometrii w bazie ortonormalnej jest macierzą ortonormalną.
Definicja 85. Rzut: przekształcenie takie że P 2 = P .
Lemat 86. Rzut jest identycznością na obrazie.
Zeruje wektory z dopełnienia bazy obrazu.
Definicja 87. Rzut prostopadły: v − P v⊥P v.
Definicja 88. Dopełnienie ortogonalne W ⊥
Lemat 89.
V = W + W⊥
Równania płaszczyzny, prostej itp.
Definicja 90. Kąt między wektorami: jedyna taka liczba α ∈ [0, π], że
cos α =
hu, vi
.
||u|| · ||v||