Algorytmy metod numerycznych Monika Chruścicka

Transkrypt

Algorytmy metod numerycznych Monika Chruścicka
Algorytmy metod numerycznych
Monika Chruścicka
Katolicki Uniwersytet Lubelski Jana Pawła II
Wydział Nauk Społecznych, Instytut Ekonomii
Streszczenie
Artykuł zawiera charakterystykę metod numerycznych oraz podstawowych algorytmów
metod numerycznych. Przedstawione są zagadnienia interpolacji, całkowania numerycznego
oraz rozwiązywania układów algebraicznych równań liniowych.
Celem niniejszego artykułu jest charakterystyka metod numerycznych oraz
przedstawienie podstawowych i najbardziej powszechnych algorytmów metod numerycznych.
Wstęp
Metody numeryczne jest to dział nauki zajmujący się rozwiązywaniem róŜnych
zagadnień matematycznych za pomocą komputera. Podczas reprezentacji komputerowej
dochodzi do wielu uproszczeń, poniewaŜ nie kaŜda liczba jest reprezentowana – nie istnieje
tutaj pojęcie nieskończoności, dowolnie duŜej dokładności, powstają luki w reprezentacji
liczb rzeczywistych, itp.
W okresie ostatnich kilkunastu lat nastąpiła ewolucja sposobów realizacji obliczeń
wykorzystujących te metody – od rachunków wspomaganych kalkulatorem, poprzez
samodzielnie opracowywane programy komputerowe, aŜ do obsługi bardzo bogatych
i uniwersalnych programów narzędziowych o szerokiej gamie moŜliwości i zdecydowanie
„przyjaznych” dla uŜytkownika. MoŜna tu wymienić takie programy, jak MathCAD,
Mathematica, MATLAB, Derive itd.1
1. Interpolacja
1
Ewa Majchrzak, Bohdan Mochnacki – „Metody numeryczne. Podstawy teoretyczne, aspekty praktyczne
i algorytmy” Wydawnictwo Politechniki Śląskiej Gliwice 2004 r. str. 7.
1
Jednym z podstawowych zagadnieniem metod numerycznych jest interpolacja. Jej
zadaniem jest utworzenie funkcji, której wykres przebiega przez zadane punkty. Stosuje się
tutaj róŜne klasy funkcji do interpolowania – wielomiany algebraiczne, funkcje sklejane,
funkcje trygonometryczne, itp. Zadanie interpolacji moŜemy sformułować następująco:
W przedziale [a,b] mamy danych n+1 róŜnych punktów x0, x1, ..., xn (węzły interpolacji) oraz
wartości funkcji y = f(x) w tych punktach f(x0) = y0, f(x1) = y1, ..., f(xn) = yn. Znaleźć funkcję
F(x), która w węzłach interpolacji ma te same wartości co f(x) i przybliŜa f(x) w pozostałych
punktach.
Na poniŜszym rysunku przedstawiona jest interpolacja funkcji f(x) wielomianem
W(x).
1.1. Interpolacja wielomianowa
Najbardziej znana jest interpolacja wielomianowa. Niech (xi,fi) i=0,…,n będą takimi
punktami, Ŝe xi ≠ xk (i ≠ k). Zadanie interpolacji wielomianowej polega na wyznaczeniu
wielomianu pn(x) spełniającego warunki: pn(x) naleŜy do zbioru wielomianów stopnia ≤ n
oraz pn(xi)= fi dla i=0,…,n. Okazuje się, Ŝe wielomian taki istnieje i jest jednoznacznie
wyznaczony.
1.2. Wielomian interpolacyjny Lagrange’a
PowyŜszy wielomian moŜemy wyznaczyć za pomocą wielomianu interpolacyjnego
Lagrange’a, który przedstawia się następująco:
n
n
∑ ∏
i =0
fi
i = 0,i ≠ k
x − xi
xi − x k
2
Z powyŜszego wzoru interpolacyjnego wynika, Ŝe współczynniki wielomianu pn(x) zaleŜą
liniowo od rzędnych węzłów. Wzór interpolacyjny Lagrange’a jest waŜny z punktu widzenia
teoretycznego, nie znajduje on jednak zastosowania w obliczeniach praktycznych. MoŜe być
jedynie uŜyteczny w sytuacjach, gdy wiele zadań interpolacyjnych jest rozwiązywanych dla
tych samych odciętych węzłów xi i róŜnych rzędnych węzłów fi.
1.3. Wzór interpolacyjny Newtona
Bardziej przydatnym narzędziem jest wzór interpolacyjny Newtona, w którym
wykorzystuje się ilorazy róŜnicowe. Iloraz róŜnicowy f[x0,x1,…,xn] n-tego rzędu z funkcji f
względem dowolnych punktów x0,x1,…,xn (xi≠xk, i≠k) i dowolnego n ∈ N definiuje się
następująco:
n
f[x0,x1,…,xn]= ∑
i =0
f ( xi )
,
w' ( x i )
gdzie
n
w' ( x x ) =
∏ (x
i
− xk )
jest
pochodną
wielomianu
k = 0, k ≠ i
n
w( x) = ∏ ( x − x i ) w punkcie x=xi.
i =0
Iloraz róŜnicowy f[x0,x1,…,xn] jest współczynnikiem przy najwyŜszej potędze wielomianu
interpolacyjnego pn(x) zdefiniowanego przez warunki interpolacji. Iloraz róŜnicowy rzędu 0
wynosi f[x0]=f(x0), natomiast dla rzędu n≥1 spełnia związek rekurencyjny
f [ x 0 , x1 ,..., x n ] =
f [ x1 ,..., x n ] − f [ x 0 ,..., x n −1 ]
.
xn − x0
Dla wielomianu interpolacyjnego wyznaczonego jednoznacznie przez warunki interpolacji
prawdziwy jest wzór Newtona:
pn (x) = f [x0 ] + f [x0 , x1 ](x − x0 ) + f [x0 , x1 , x2 ](x − x0 )(x − x1 ) + ...+ f [x0 ,...,xn ](x − x0 )...(x − xn−1 )
1.4. Interpolacja funkcjami sklejanymi
MoŜemy zastosować takŜe wygładzone krzywe interpolacyjne zwane funkcjami
sklejanymi, które mogą dobrze przedstawić charakterystykę oscylacyjną wielomianów
wysokiego stopnia. Znalazły one zastosowanie w numerycznych metodach rozwiązywania
zagadnień brzegowych równań róŜniczkowych zwyczajnych lub cząstkowych równań
róŜniczkowych. Interpolacja funkcjami sklejanymi polega na „łączeniu punktów”; w kaŜdym
odcinku przybliŜamy funkcję wielomianem ustalonego (niskiego) stopnia tak, aby funkcja
przybliŜająca była ciągła wraz z pochodnymi na przedziale interpolacji [a,b].
Niech ∆={a=x0<x1<…,xn=b} będzie podziałem przedziału [a,b]. Funkcją sklejaną
trzeciego stopnia S∆ na ∆ jest funkcja S∆:[a,b]→R o własnościach:
3
a) S∆ ∈C2[a,b] tzn. jest dwukrotnie róŜniczkowalna w sposób ciągły na przedziale [a,b],
b) S∆ na kaŜdym z podprzedziałów [xi,xi+1] i=0,1,…,n-1 pokrywa się z wielomianem
trzeciego stopnia.
Funkcja sklejana trzeciego stopnia składa się zatem z wielomianów trzeciego stopnia
połączonych razem w taki sposób, Ŝe ich wartości oraz wartości ich pierwszych dwóch
pochodnych są równe w węzłach xi, i=1,…,n-1.
RozwaŜamy zbiór (n+1) liczb rzeczywistych Y={y0,y1,…,yn}. Interpolacyjna funkcja
sklejana S∆(Y;·) spełnia warunki S∆(Y;xi)=yi, i=0,1,…,n. Taka funkcja nie jest jednoznacznie
wyznaczona i ma jeszcze dwa stopnie swobody, dlatego przyjmuje się dodatkowo jeden
z trzech warunków:
1. S″∆(Y;a)= S″∆(Y;b)=0,
2. S(k)∆(Y;a)= S(k)∆(Y;b), k=0,1,2, w przypadku, gdy S∆(Y;·) jest okresowa,
3. S′∆(Y;a)=y′0, S′∆(Y;b)=y′n..
Dla hj+1=xj+1-xj, j=0,1,…,n-1 i Mj= S″∆(Y;xj), j=0,1,…,n (Mj są nazywane momentami funkcji
sklejanych) uzyskujemy reprezentację funkcji sklejanej w zaleŜności od jej momentów:
S∆(Y;x)=αj+βj(x-xj)+γj(x-xj)2+δj(x-xj)3, x∈[xj,xj+1],
gdzie α j = y j , β j =
y j +1 − y j
h j +1
−
2 M j + M j +1
6
h j +1 , γ j =
Mj
2
,δ j =
M j +1 − M j
6h j +1
2. Całkowanie numeryczne
JeŜeli w programie komputerowym chcielibyśmy obliczyć całkę oznaczoną moŜemy
to takŜe zrobić numerycznie stosując np. kwadratury Newtona-Cotesa. Wyznaczamy je za
pomocą metod dyskretyzacji. Aproksymujemy całki sumami skończonymi odpowiadającymi
podziałowi przedziału całkowania [a,b] – są to „kwadratury numeryczne”.
2.1. Kwadratury interpolacyjne
Na początku naleŜy zapoznać się z pojęciem kwadratur interpolacyjnych. ZałóŜmy, Ŝe
w punktach ciągu {xi}, i=0,1,…,n, gdzie (a=x0<x1<…,xn=b) są znane wartości f(xi) funkcji
b
ciągłej f∈C[a,b]. Wtedy
∫
a
n
f ( x) ≈ ∑ Ai f ( xi ) = K n ( f ) , gdzie współczynniki Ai i węzły xi są
i =0
niezaleŜne od f. Niech Kn(f) oznacza kwadraturę i niech l i ( x) =
n
x− xj
j = 0, j ≠ i
xi − x j
∏
, i=0,1,…,n
będą wielomianami fundamentalnymi Lagrange’a dla węzłów xi, i=0,…,n. Ponadto
4
n
w przypadku n=0 załóŜmy, Ŝe lo(x)=1. Kwadratura K n ( f ) = ∑ A i f ( x i ) ze współczynnikami
i =0
b
zdefiniowanymi wzorami Ai = ∫ l i ( x)dx, i = 0,1,..., n nazywa się kwadraturą interpolacyjną
a
rzędu n.
2.2.Kwadratury proste Newtona-Cotesa
Kwadratury proste Newtona-Cotesa są to kwadratury interpolacyjne Kn(f) z węzłami
równoodległymi xi=a+ih, i=0,…,n, gdzie h =
b−a
. Współczynniki
n
Ai = Ai(n )
n
kwadratury wyraŜają się wzorami Ai = (b − a ) Bi , gdzie liczby Bi := Bi( n ) = C i ∫
takiej
n
∏ ( x − j )dx ,
0 j =0 , j ≠i
zaś C i =
(−1) n −i h
nazywamy liczbami Newtona-Cotesa. Liczby te mają następujące
i!(n − i)!n
własności:
n
a)
∑B
i =0
i
=1
b) Bi = B n −i , i=0,1,…,n – symetryczność liczb.
Najczęściej spotykamy się z następującymi rodzajami kwadratur:
1. Kwadratura trapezu K 1 ( f ) =
b−a
[ f (a ) + f (b)]
2
Ogólny wzór trapezów oznacza, Ŝe wykres funkcji podcałkowej zastępujemy przez linię
łamaną. Geometryczna interpretacja kwadratury trapezu przedstawia się następująco2:
2
Jurij Povstenko – „Wprowadzenie do metod numerycznych” Akademicka Oficyna Wydawnicza EXIT
Warszawa 2005 r. str. 133.
5
2. Kwadratura Simpsona K 2 ( f ) =
b−a
a+b
[ f (a) + 4 f (
) + f (b)]
6
2
Geometryczna interpretacja kwadratury Simpsona przedstawia się następująco:
3. Kwadratura 3/8 K 3 ( f ) =
b−a
2a + b
a + 2b
[ f (a) + 3 f (
)+3f (
) + f (b)]
8
3
3
6
b
Kwadratury Newtona-Cotesa nie mogą być dobrymi przybliŜeniami dla
∫ f ( x)dx
a
w przypadku, gdy n jest małą liczbą naturalną. W związku z tym wprowadza się kwadratury
złoŜone.
2.3. Kwadratury złoŜone Newtona-Cotesa
Niech m, n będą liczbami naturalnymi takimi, Ŝe dla kaŜdego m, n istnieje p takie, Ŝe
m=np. Ponadto niech a=x0<x1,…<xm=b będą podziałem równomiernym przedziału [a,b] to
znaczy xi=a+ih, i=0,1,…,m i h=(b-a)/m. Kwadraturą złoŜoną Newtona-Cotesa nazywa się
kwadraturę postaci:
p −1
K n , m ( f ) = ∑ K n ( f ; x nr , x ( r +1) n ) , gdzie
r =0
n
K n ( f ; x nr , x ( r +1) n ) = ∑ Ai f ( x rn + i ) jest kwadraturą
i =0
prostą Newtona-Cotesa dla podprzedziału [xrn,x(r+1)n] przedziału [a,b].
2.4. Kwadratury Gaussa
W zagadnieniu rozwaŜanym powyŜej zakłada się, Ŝe węzły kwadratury są z góry dane.
JeŜeli uŜyjemy n punktów interpolacji to otrzymamy kwadratury dokładne dla wielomianów
stopnia n-1. Czasami jednak, w zaleŜności od węzłów interpolacyjnych, moŜemy otrzymać
kwadraturę, która jest dokładna dla wielomianów stopnia większego niŜ n-1. NaleŜy wybrać
wtedy kwadraturę interpolacyjną postaci
b
n
a
k =1
∫ ρ ( x) f ( x)dx ≈ ∑ c k f ( x k ) , która dla danego n
będzie miała najwyŜszy stopień dokładności. Takie kwadratury istnieją i są nazywane
kwadraturami najwyŜszego stopnia dokładności algebraicznej lub kwadraturami Gaussa.
ZałóŜmy, Ŝe ρ ( x) > 0 oraz w(x)=(x-x1)…(x-xn). Te kwadratury są dokładne dla
kaŜdego wielomianu stopnia m=2n-1 wtedy i tylko wtedy, gdy spełnione są następujące
warunki:
1) Wielomian w(x) jest ortogonalny z wagą ρ (x) względem kaŜdego wielomianu q(x)
b
stopnia mniejszego niŜ n, tzn.
∫ ρ ( x)w( x)q( x)dx = 0 .
a
2) Kwadratura
b
c k = ∫ ρ ( x)
a
b
n
a
k =1
∫ ρ ( x) f ( x)dx ≈ ∑ c k f ( x k )
jest
kwadraturą
interpolacyjną,
tzn.
w( x)
dx dla k=1,2,…,n.
( x − x k ) w' ( x k )
7
3. Metody rozwiązywania układów algebraicznych równań liniowych
Metody rozwiązywania układów algebraicznych równań liniowych moŜna rozbić na
dwie grupy:
1. Metody bezpośrednie, które przy braku zaokrągleń dają dokładne rozwiązanie
o skończonej liczbie kroków. Przykładem takich metod jest eliminacja Gaussa.
2. Metody przybliŜone – w szczególności metody iteracyjne. Metody iteracyjne dają
ciąg wektorów zbieŜnych do szukanego rozwiązania układu równań. Przykładami
takich metod są: metoda iteracji prostej, metoda Jacobiego oraz metoda Seidla.
3.1. Metoda eliminacji Gaussa
Rozpatrywać będziemy układ n równań liniowych zawierających n niewiadomych.
Macierz główna układu moŜe być dowolna, ale nieosobliwa. Układ równań zapiszemy
w postaci macierzy C, której n pierwszych kolumn zawiera elementy aij macierzy głównej A,
natomiast kolumnę n+1 tworzą wyrazy wolne bi. Elementy tej macierzy oznaczymy
symbolami cij
a11 x1 + a12 x 2 + ... + a1n x n = b1
a x + a x + ... + a x = b
 21 1
22 2
2n n
2

.................................................
a n1 x1 + a n 2 x 2 + ... + a nn x n = bn
a11 a12 ... a1n 
a a ... a 
2n 
A =  21 22
.......................


a n1 a n 2 ... a nn 
c11 c12 ... c1n c1, n +1 


c 21 c 22 ... c 2 n c 2, n +1 

C=
.............................


c n1 c n 2 ... c nn c n , n +1 
Wariant podstawowy metody eliminacji polega na takim przekształceniu macierzy C,
aby otrzymać równowaŜny, prostszy układ równań. W szczególności n pierwszych kolumn
macierzy C powinno tworzyć macierz trójkątną. Etap drugi sprowadza się wówczas do
rozwiązania trójkątnego układu równań.3
Zakładając, Ŝe c11≠0 wtedy odejmujemy pierwsze równanie pomnoŜone przez ci1/c11
od i-tego równania (i=2,3,…,n) i obliczone współczynniki zapisujemy na miejscu
poprzednich. W ten sposób wszystkie elementy pierwszej kolumny macierzy C, oprócz c11, są
równe 0. Podobne działania powtarzamy dla kolejnych wierszy macierzy począwszy od
drugiego aŜ do n-tego wyrazu, czyli dla cjj≠0 odejmujemy j-ty wiersz pomnoŜony przez cij/cjj
od i-tego wiersza (i=j+1,…,n) i ponownie obliczone współczynniki zapisujemy w miejscu
poprzednich. Po wykonaniu n kroków dochodzimy do układu trójkątnego, który w prosty
sposób moŜemy rozwiązać. Podsumowując moŜna stwierdzić, Ŝe algorytm rozwiązywania
3
Ewa Majchrzak, Bohdan Mochnacki – „Metody numeryczne. Podstawy teoretyczne, aspekty praktyczne
i algorytmy” Wydawnictwo Politechniki Śląskiej Gliwice 2004 r. str. 33-34.
8
układu równań liniowych metodą Gaussa sprowadza się do wykonywania ciągu przekształceń
na macierzy C.
Inny wariant metody eliminacji polega na wykonaniu takiego ciągu przekształceń na
macierzy C, aby po n krokach algorytmu n pierwszych kolumn macierzy przekształconej C
tworzyło macierz diagonalną; wszystkie elementy, które nie znajdują się na głównej
przekątnej są równe 0. Rozwiązanie układu równań znajduje się wówczas w n+1 kolumnie
macierzy przekształconej C.
Omówione odmiany metody Gaussa dotyczyły rozwiązywania oznaczonego układu
równań liniowych. Ponadto zakłada się, Ŝe na głównej przekątnej macierzy A nie występują
elementy zerowe. Nie jest to jednak załoŜenie ograniczające zastosowanie tych metod.
W przypadku, gdy na głównej przekątnej macierzy A występują zera, naleŜy odpowiednio
zamienić wiersze macierzy rozszerzonej C (co jest równowaŜne ze zmianą kolejności równań
w rozwiązywanym układzie) w ten sposób, aby nie pojawiły się zera na głównej przekątnej
macierzy A. Operacja ta jest zawsze wykonalna ze względu na nieosobliwość macierzy A.
Podobnie moŜemy zamieniać kolumny z macierzy głównej A, pamiętając jednak o tym, Ŝe
takiej zamianie musi towarzyszyć zamiana niewiadomych w układzie.4
Ulepszenie metody Gaussa nazywane metodą eliminacji z wyborem elementu
dominującego polega na odpowiednim wyborze elementów eliminujących, tzn. elementów cjj,
przez które dzielimy kolejne równania. Optymalny wybór tych elementów znacznie poprawia
dokładność otrzymanych wyników obliczeń. Najlepszy z tego punktu widzenia jest wybór
największego co do wartości bezwzględnej elementu macierzy A i takie przestawienie
wierszy oraz kolumn w tej macierzy, aby maksymalnym elementem był elementem c11.
Spośród pozostałych elementów macierzy powtórnie wybieramy maksymalny co do wartości
bezwzględnej element i tak zamieniamy wiersze oraz kolumny macierzy, by element ten zajął
miejsce c22 (przy czym nie zmieniamy elementu c11). Kontynuując to postępowanie
otrzymamy na głównej przekątnej maksymalne elementy tej macierzy.5
3.2. Metoda iteracji prostej
Niech dana będzie nieosobliwa macierz kwadratowa A, detA≠0, A = (a kj ) mk , j =1 i niech
będzie dany wektor b = (b1 ,..., bm )T . Rozpatrzmy układ A x = b , którego dokładnym
4
Ewa Majchrzak, Bohdan Mochnacki – „Metody numeryczne. Podstawy teoretyczne, aspekty praktyczne
i algorytmy” Wydawnictwo Politechniki Śląskiej Gliwice 2004 r. str. 39.
5
TamŜe str. 40.
9
(*)
rozwiązaniem jest nieznany wektor x
= ( x1* ,..., x m* ) . Zapiszmy układ w postaci: x = B x + c .
Korzystając z toŜsamości x = x − D( A x − b) , gdzie detD≠0 i D jest macierzą zadaną widzimy,
Ŝe B=E-DA, c = Db , gdzie E jest macierzą jednostkową.
( 0)
Metoda iteracji prostej polega na tym, Ŝe na początku wybieramy dowolny wektor x
(początkowe
x
( k +1)
= Bx
(k )
przybliŜenie),
następnie
określamy
+ c dla k=0,1,2,… Przy duŜych k, x
ciąg
(k )
wektorów
*
≈x ,
(k )
x
według
reguły:
*
→ x przy k → ∞ . Gdy
proces iteracyjny jest zbieŜny wtedy metoda iteracji jest efektywna. Warunkiem koniecznym i
dostatecznym na to, aby metoda iteracji prostej była zbieŜna dla dowolnego przybliŜenia
( 0)
początkowego x
jest nierówność ρ ( B ) = max λ j ( B ) < 1 , gdzie λ j ( B ) są wartościami
j =1,..., m
własnymi macierzy B.
3.3. Metoda Jacobiego
Ponownie rozpatrujemy układ równań A x = b , gdzie detA≠0. NaleŜy znaleźć
*
przybliŜone rozwiązanie x . Będziemy zakładać, Ŝe macierz A ma strukturę: A=L+D+R,
gdzie L jest macierzą lewotrójkątną, D jest macierzą diagonalną, R jest macierzą
prawotrójkątną, tzn.
a11 a12 ... a1n 
a a ... a 
2n 
A =  21 22
.....................


a n1 a n 2 ... a nn 
0 0 ..... 0 
a 0 ..... 0 
21

L=
................. 


a n1 a n 2 ... 0
a11 0 ... 0 
0 a ... 0 
22

D=
................. 


0 0 ... a nn 
0 a12 ... a1n 
0 0 ... a 
2n 
R=
...................


0 0 ... 0 
Układ równań zapiszemy w postaci L x + D x + R x = b . Układem równowaŜnym temu
układowi jest układ: x = − D −1 ( L + R) x + D −1 b , gdzie B=-D-1(L+R), c = D −1 b . Zastosujemy
do
x
( k +1)
ostatniego
układu
= − D −1 ( L + R) x
(k )
metodę
iteracji
prostej,
która
będzie
miała
postać:
+ D −1 b dla k=0,1,…
m
JeŜeli macierz A jest diagonalnie dominująca tzn. a kk > ∑ a kj , k=1,2,…,m to
j =1
j ≠k
metoda Jacobiego jest zbieŜna.
3.4. Metoda Seidla
10
Metoda Seidla jest prostym ulepszeniem metody iteracji prostej. Istota algorytmu
sprowadza się do wykorzystania obliczonych i pierwszych składowych wektora
niewiadomych x
( k +1)
do obliczenia składowej i+1 itd. Taka modyfikacja metody iteracji
prostej znacznie przyspiesza proces obliczeń.
W metodzie tej takŜe rozpatrujemy układ równań A x = b , gdzie detA≠0. Zakłada się,
Ŝe wszystkie elementy diagonalne akk≠0. Wówczas układ równań moŜemy zapisać w postaci:
a1m
− a12
b1

 x1 = a x 2 − ... − a x m + a
11
11
11


a
− a 21
b
x1 − ... − 2 m x m + 2
x2 =
a 22
a 22
a 22

...........................

a m −1, m

− a m1
b
x1 − ... −
x m −1 + m
xm =
a mm
a mm
a mm

Wtedy układ ten moŜemy rozpatrywać jako x = B x + c , gdzie rolę macierzy B odgrywa
macierz
− a1m

− a12
0
...................
a11
a11


B=
..................

 − a m1
− a m −1, m
.............
0

a
a
mm
mm



 0 b12 ................ b1m 


 = 
...............






 b m1 b m 2 .... bm, m −1 0 


Do układu zastosujemy iteracyjny proces postaci
 x1 ( k +1) = b12 x 2( k ) + ... + b1m x m( k ) + c1
 ( k +1)
= b21 x1( k +1) + b 23 x 3( k ) + ... + b2 m x m( k ) + c 2
x2

...............
 x ( k +1) = b x ( k +1) + ... + b
( k +1)
m1 1
m , m −1 x m −1 + c m
 m
który nazywa się procesem iteracyjnym Seidla.
PowyŜszy
Lx
x
( k +1)
( k +1)
+ Dx
( k +1)
układ
+ Rx
= −( L + D) −1 R x
( k +1)
(k )
moŜemy
zapisać
takŜe
w
postaci
macierzowej
= b . Stąd wynika równość macierzowa
+ ( L + D) −1 b , którą moŜna rozpatrywać jako metodę iteracji prostej.
JeŜeli ||(L+D)-1R||≤q<1, to dla dowolnego wektora początkowego metoda Seidla jest
zbieŜna. TakŜe w przypadku, gdy macierz A jest diagonalnie dominująca to metoda ta jest
zbieŜna.
11
Podsumowując moŜna stwierdzić, Ŝe algorytmy metod numerycznych są bardzo
przydatnym narzędziem wykorzystywanym w programach komputerowych bazujących na
zagadnieniach czysto matematycznych jak rozwiązanie układu równań czy teŜ obliczenie
całki oznaczonej.
12