Algorytmy metod numerycznych Monika Chruścicka
Transkrypt
Algorytmy metod numerycznych Monika Chruścicka
Algorytmy metod numerycznych Monika Chruścicka Katolicki Uniwersytet Lubelski Jana Pawła II Wydział Nauk Społecznych, Instytut Ekonomii Streszczenie Artykuł zawiera charakterystykę metod numerycznych oraz podstawowych algorytmów metod numerycznych. Przedstawione są zagadnienia interpolacji, całkowania numerycznego oraz rozwiązywania układów algebraicznych równań liniowych. Celem niniejszego artykułu jest charakterystyka metod numerycznych oraz przedstawienie podstawowych i najbardziej powszechnych algorytmów metod numerycznych. Wstęp Metody numeryczne jest to dział nauki zajmujący się rozwiązywaniem róŜnych zagadnień matematycznych za pomocą komputera. Podczas reprezentacji komputerowej dochodzi do wielu uproszczeń, poniewaŜ nie kaŜda liczba jest reprezentowana – nie istnieje tutaj pojęcie nieskończoności, dowolnie duŜej dokładności, powstają luki w reprezentacji liczb rzeczywistych, itp. W okresie ostatnich kilkunastu lat nastąpiła ewolucja sposobów realizacji obliczeń wykorzystujących te metody – od rachunków wspomaganych kalkulatorem, poprzez samodzielnie opracowywane programy komputerowe, aŜ do obsługi bardzo bogatych i uniwersalnych programów narzędziowych o szerokiej gamie moŜliwości i zdecydowanie „przyjaznych” dla uŜytkownika. MoŜna tu wymienić takie programy, jak MathCAD, Mathematica, MATLAB, Derive itd.1 1. Interpolacja 1 Ewa Majchrzak, Bohdan Mochnacki – „Metody numeryczne. Podstawy teoretyczne, aspekty praktyczne i algorytmy” Wydawnictwo Politechniki Śląskiej Gliwice 2004 r. str. 7. 1 Jednym z podstawowych zagadnieniem metod numerycznych jest interpolacja. Jej zadaniem jest utworzenie funkcji, której wykres przebiega przez zadane punkty. Stosuje się tutaj róŜne klasy funkcji do interpolowania – wielomiany algebraiczne, funkcje sklejane, funkcje trygonometryczne, itp. Zadanie interpolacji moŜemy sformułować następująco: W przedziale [a,b] mamy danych n+1 róŜnych punktów x0, x1, ..., xn (węzły interpolacji) oraz wartości funkcji y = f(x) w tych punktach f(x0) = y0, f(x1) = y1, ..., f(xn) = yn. Znaleźć funkcję F(x), która w węzłach interpolacji ma te same wartości co f(x) i przybliŜa f(x) w pozostałych punktach. Na poniŜszym rysunku przedstawiona jest interpolacja funkcji f(x) wielomianem W(x). 1.1. Interpolacja wielomianowa Najbardziej znana jest interpolacja wielomianowa. Niech (xi,fi) i=0,…,n będą takimi punktami, Ŝe xi ≠ xk (i ≠ k). Zadanie interpolacji wielomianowej polega na wyznaczeniu wielomianu pn(x) spełniającego warunki: pn(x) naleŜy do zbioru wielomianów stopnia ≤ n oraz pn(xi)= fi dla i=0,…,n. Okazuje się, Ŝe wielomian taki istnieje i jest jednoznacznie wyznaczony. 1.2. Wielomian interpolacyjny Lagrange’a PowyŜszy wielomian moŜemy wyznaczyć za pomocą wielomianu interpolacyjnego Lagrange’a, który przedstawia się następująco: n n ∑ ∏ i =0 fi i = 0,i ≠ k x − xi xi − x k 2 Z powyŜszego wzoru interpolacyjnego wynika, Ŝe współczynniki wielomianu pn(x) zaleŜą liniowo od rzędnych węzłów. Wzór interpolacyjny Lagrange’a jest waŜny z punktu widzenia teoretycznego, nie znajduje on jednak zastosowania w obliczeniach praktycznych. MoŜe być jedynie uŜyteczny w sytuacjach, gdy wiele zadań interpolacyjnych jest rozwiązywanych dla tych samych odciętych węzłów xi i róŜnych rzędnych węzłów fi. 1.3. Wzór interpolacyjny Newtona Bardziej przydatnym narzędziem jest wzór interpolacyjny Newtona, w którym wykorzystuje się ilorazy róŜnicowe. Iloraz róŜnicowy f[x0,x1,…,xn] n-tego rzędu z funkcji f względem dowolnych punktów x0,x1,…,xn (xi≠xk, i≠k) i dowolnego n ∈ N definiuje się następująco: n f[x0,x1,…,xn]= ∑ i =0 f ( xi ) , w' ( x i ) gdzie n w' ( x x ) = ∏ (x i − xk ) jest pochodną wielomianu k = 0, k ≠ i n w( x) = ∏ ( x − x i ) w punkcie x=xi. i =0 Iloraz róŜnicowy f[x0,x1,…,xn] jest współczynnikiem przy najwyŜszej potędze wielomianu interpolacyjnego pn(x) zdefiniowanego przez warunki interpolacji. Iloraz róŜnicowy rzędu 0 wynosi f[x0]=f(x0), natomiast dla rzędu n≥1 spełnia związek rekurencyjny f [ x 0 , x1 ,..., x n ] = f [ x1 ,..., x n ] − f [ x 0 ,..., x n −1 ] . xn − x0 Dla wielomianu interpolacyjnego wyznaczonego jednoznacznie przez warunki interpolacji prawdziwy jest wzór Newtona: pn (x) = f [x0 ] + f [x0 , x1 ](x − x0 ) + f [x0 , x1 , x2 ](x − x0 )(x − x1 ) + ...+ f [x0 ,...,xn ](x − x0 )...(x − xn−1 ) 1.4. Interpolacja funkcjami sklejanymi MoŜemy zastosować takŜe wygładzone krzywe interpolacyjne zwane funkcjami sklejanymi, które mogą dobrze przedstawić charakterystykę oscylacyjną wielomianów wysokiego stopnia. Znalazły one zastosowanie w numerycznych metodach rozwiązywania zagadnień brzegowych równań róŜniczkowych zwyczajnych lub cząstkowych równań róŜniczkowych. Interpolacja funkcjami sklejanymi polega na „łączeniu punktów”; w kaŜdym odcinku przybliŜamy funkcję wielomianem ustalonego (niskiego) stopnia tak, aby funkcja przybliŜająca była ciągła wraz z pochodnymi na przedziale interpolacji [a,b]. Niech ∆={a=x0<x1<…,xn=b} będzie podziałem przedziału [a,b]. Funkcją sklejaną trzeciego stopnia S∆ na ∆ jest funkcja S∆:[a,b]→R o własnościach: 3 a) S∆ ∈C2[a,b] tzn. jest dwukrotnie róŜniczkowalna w sposób ciągły na przedziale [a,b], b) S∆ na kaŜdym z podprzedziałów [xi,xi+1] i=0,1,…,n-1 pokrywa się z wielomianem trzeciego stopnia. Funkcja sklejana trzeciego stopnia składa się zatem z wielomianów trzeciego stopnia połączonych razem w taki sposób, Ŝe ich wartości oraz wartości ich pierwszych dwóch pochodnych są równe w węzłach xi, i=1,…,n-1. RozwaŜamy zbiór (n+1) liczb rzeczywistych Y={y0,y1,…,yn}. Interpolacyjna funkcja sklejana S∆(Y;·) spełnia warunki S∆(Y;xi)=yi, i=0,1,…,n. Taka funkcja nie jest jednoznacznie wyznaczona i ma jeszcze dwa stopnie swobody, dlatego przyjmuje się dodatkowo jeden z trzech warunków: 1. S″∆(Y;a)= S″∆(Y;b)=0, 2. S(k)∆(Y;a)= S(k)∆(Y;b), k=0,1,2, w przypadku, gdy S∆(Y;·) jest okresowa, 3. S′∆(Y;a)=y′0, S′∆(Y;b)=y′n.. Dla hj+1=xj+1-xj, j=0,1,…,n-1 i Mj= S″∆(Y;xj), j=0,1,…,n (Mj są nazywane momentami funkcji sklejanych) uzyskujemy reprezentację funkcji sklejanej w zaleŜności od jej momentów: S∆(Y;x)=αj+βj(x-xj)+γj(x-xj)2+δj(x-xj)3, x∈[xj,xj+1], gdzie α j = y j , β j = y j +1 − y j h j +1 − 2 M j + M j +1 6 h j +1 , γ j = Mj 2 ,δ j = M j +1 − M j 6h j +1 2. Całkowanie numeryczne JeŜeli w programie komputerowym chcielibyśmy obliczyć całkę oznaczoną moŜemy to takŜe zrobić numerycznie stosując np. kwadratury Newtona-Cotesa. Wyznaczamy je za pomocą metod dyskretyzacji. Aproksymujemy całki sumami skończonymi odpowiadającymi podziałowi przedziału całkowania [a,b] – są to „kwadratury numeryczne”. 2.1. Kwadratury interpolacyjne Na początku naleŜy zapoznać się z pojęciem kwadratur interpolacyjnych. ZałóŜmy, Ŝe w punktach ciągu {xi}, i=0,1,…,n, gdzie (a=x0<x1<…,xn=b) są znane wartości f(xi) funkcji b ciągłej f∈C[a,b]. Wtedy ∫ a n f ( x) ≈ ∑ Ai f ( xi ) = K n ( f ) , gdzie współczynniki Ai i węzły xi są i =0 niezaleŜne od f. Niech Kn(f) oznacza kwadraturę i niech l i ( x) = n x− xj j = 0, j ≠ i xi − x j ∏ , i=0,1,…,n będą wielomianami fundamentalnymi Lagrange’a dla węzłów xi, i=0,…,n. Ponadto 4 n w przypadku n=0 załóŜmy, Ŝe lo(x)=1. Kwadratura K n ( f ) = ∑ A i f ( x i ) ze współczynnikami i =0 b zdefiniowanymi wzorami Ai = ∫ l i ( x)dx, i = 0,1,..., n nazywa się kwadraturą interpolacyjną a rzędu n. 2.2.Kwadratury proste Newtona-Cotesa Kwadratury proste Newtona-Cotesa są to kwadratury interpolacyjne Kn(f) z węzłami równoodległymi xi=a+ih, i=0,…,n, gdzie h = b−a . Współczynniki n Ai = Ai(n ) n kwadratury wyraŜają się wzorami Ai = (b − a ) Bi , gdzie liczby Bi := Bi( n ) = C i ∫ takiej n ∏ ( x − j )dx , 0 j =0 , j ≠i zaś C i = (−1) n −i h nazywamy liczbami Newtona-Cotesa. Liczby te mają następujące i!(n − i)!n własności: n a) ∑B i =0 i =1 b) Bi = B n −i , i=0,1,…,n – symetryczność liczb. Najczęściej spotykamy się z następującymi rodzajami kwadratur: 1. Kwadratura trapezu K 1 ( f ) = b−a [ f (a ) + f (b)] 2 Ogólny wzór trapezów oznacza, Ŝe wykres funkcji podcałkowej zastępujemy przez linię łamaną. Geometryczna interpretacja kwadratury trapezu przedstawia się następująco2: 2 Jurij Povstenko – „Wprowadzenie do metod numerycznych” Akademicka Oficyna Wydawnicza EXIT Warszawa 2005 r. str. 133. 5 2. Kwadratura Simpsona K 2 ( f ) = b−a a+b [ f (a) + 4 f ( ) + f (b)] 6 2 Geometryczna interpretacja kwadratury Simpsona przedstawia się następująco: 3. Kwadratura 3/8 K 3 ( f ) = b−a 2a + b a + 2b [ f (a) + 3 f ( )+3f ( ) + f (b)] 8 3 3 6 b Kwadratury Newtona-Cotesa nie mogą być dobrymi przybliŜeniami dla ∫ f ( x)dx a w przypadku, gdy n jest małą liczbą naturalną. W związku z tym wprowadza się kwadratury złoŜone. 2.3. Kwadratury złoŜone Newtona-Cotesa Niech m, n będą liczbami naturalnymi takimi, Ŝe dla kaŜdego m, n istnieje p takie, Ŝe m=np. Ponadto niech a=x0<x1,…<xm=b będą podziałem równomiernym przedziału [a,b] to znaczy xi=a+ih, i=0,1,…,m i h=(b-a)/m. Kwadraturą złoŜoną Newtona-Cotesa nazywa się kwadraturę postaci: p −1 K n , m ( f ) = ∑ K n ( f ; x nr , x ( r +1) n ) , gdzie r =0 n K n ( f ; x nr , x ( r +1) n ) = ∑ Ai f ( x rn + i ) jest kwadraturą i =0 prostą Newtona-Cotesa dla podprzedziału [xrn,x(r+1)n] przedziału [a,b]. 2.4. Kwadratury Gaussa W zagadnieniu rozwaŜanym powyŜej zakłada się, Ŝe węzły kwadratury są z góry dane. JeŜeli uŜyjemy n punktów interpolacji to otrzymamy kwadratury dokładne dla wielomianów stopnia n-1. Czasami jednak, w zaleŜności od węzłów interpolacyjnych, moŜemy otrzymać kwadraturę, która jest dokładna dla wielomianów stopnia większego niŜ n-1. NaleŜy wybrać wtedy kwadraturę interpolacyjną postaci b n a k =1 ∫ ρ ( x) f ( x)dx ≈ ∑ c k f ( x k ) , która dla danego n będzie miała najwyŜszy stopień dokładności. Takie kwadratury istnieją i są nazywane kwadraturami najwyŜszego stopnia dokładności algebraicznej lub kwadraturami Gaussa. ZałóŜmy, Ŝe ρ ( x) > 0 oraz w(x)=(x-x1)…(x-xn). Te kwadratury są dokładne dla kaŜdego wielomianu stopnia m=2n-1 wtedy i tylko wtedy, gdy spełnione są następujące warunki: 1) Wielomian w(x) jest ortogonalny z wagą ρ (x) względem kaŜdego wielomianu q(x) b stopnia mniejszego niŜ n, tzn. ∫ ρ ( x)w( x)q( x)dx = 0 . a 2) Kwadratura b c k = ∫ ρ ( x) a b n a k =1 ∫ ρ ( x) f ( x)dx ≈ ∑ c k f ( x k ) jest kwadraturą interpolacyjną, tzn. w( x) dx dla k=1,2,…,n. ( x − x k ) w' ( x k ) 7 3. Metody rozwiązywania układów algebraicznych równań liniowych Metody rozwiązywania układów algebraicznych równań liniowych moŜna rozbić na dwie grupy: 1. Metody bezpośrednie, które przy braku zaokrągleń dają dokładne rozwiązanie o skończonej liczbie kroków. Przykładem takich metod jest eliminacja Gaussa. 2. Metody przybliŜone – w szczególności metody iteracyjne. Metody iteracyjne dają ciąg wektorów zbieŜnych do szukanego rozwiązania układu równań. Przykładami takich metod są: metoda iteracji prostej, metoda Jacobiego oraz metoda Seidla. 3.1. Metoda eliminacji Gaussa Rozpatrywać będziemy układ n równań liniowych zawierających n niewiadomych. Macierz główna układu moŜe być dowolna, ale nieosobliwa. Układ równań zapiszemy w postaci macierzy C, której n pierwszych kolumn zawiera elementy aij macierzy głównej A, natomiast kolumnę n+1 tworzą wyrazy wolne bi. Elementy tej macierzy oznaczymy symbolami cij a11 x1 + a12 x 2 + ... + a1n x n = b1 a x + a x + ... + a x = b 21 1 22 2 2n n 2 ................................................. a n1 x1 + a n 2 x 2 + ... + a nn x n = bn a11 a12 ... a1n a a ... a 2n A = 21 22 ....................... a n1 a n 2 ... a nn c11 c12 ... c1n c1, n +1 c 21 c 22 ... c 2 n c 2, n +1 C= ............................. c n1 c n 2 ... c nn c n , n +1 Wariant podstawowy metody eliminacji polega na takim przekształceniu macierzy C, aby otrzymać równowaŜny, prostszy układ równań. W szczególności n pierwszych kolumn macierzy C powinno tworzyć macierz trójkątną. Etap drugi sprowadza się wówczas do rozwiązania trójkątnego układu równań.3 Zakładając, Ŝe c11≠0 wtedy odejmujemy pierwsze równanie pomnoŜone przez ci1/c11 od i-tego równania (i=2,3,…,n) i obliczone współczynniki zapisujemy na miejscu poprzednich. W ten sposób wszystkie elementy pierwszej kolumny macierzy C, oprócz c11, są równe 0. Podobne działania powtarzamy dla kolejnych wierszy macierzy począwszy od drugiego aŜ do n-tego wyrazu, czyli dla cjj≠0 odejmujemy j-ty wiersz pomnoŜony przez cij/cjj od i-tego wiersza (i=j+1,…,n) i ponownie obliczone współczynniki zapisujemy w miejscu poprzednich. Po wykonaniu n kroków dochodzimy do układu trójkątnego, który w prosty sposób moŜemy rozwiązać. Podsumowując moŜna stwierdzić, Ŝe algorytm rozwiązywania 3 Ewa Majchrzak, Bohdan Mochnacki – „Metody numeryczne. Podstawy teoretyczne, aspekty praktyczne i algorytmy” Wydawnictwo Politechniki Śląskiej Gliwice 2004 r. str. 33-34. 8 układu równań liniowych metodą Gaussa sprowadza się do wykonywania ciągu przekształceń na macierzy C. Inny wariant metody eliminacji polega na wykonaniu takiego ciągu przekształceń na macierzy C, aby po n krokach algorytmu n pierwszych kolumn macierzy przekształconej C tworzyło macierz diagonalną; wszystkie elementy, które nie znajdują się na głównej przekątnej są równe 0. Rozwiązanie układu równań znajduje się wówczas w n+1 kolumnie macierzy przekształconej C. Omówione odmiany metody Gaussa dotyczyły rozwiązywania oznaczonego układu równań liniowych. Ponadto zakłada się, Ŝe na głównej przekątnej macierzy A nie występują elementy zerowe. Nie jest to jednak załoŜenie ograniczające zastosowanie tych metod. W przypadku, gdy na głównej przekątnej macierzy A występują zera, naleŜy odpowiednio zamienić wiersze macierzy rozszerzonej C (co jest równowaŜne ze zmianą kolejności równań w rozwiązywanym układzie) w ten sposób, aby nie pojawiły się zera na głównej przekątnej macierzy A. Operacja ta jest zawsze wykonalna ze względu na nieosobliwość macierzy A. Podobnie moŜemy zamieniać kolumny z macierzy głównej A, pamiętając jednak o tym, Ŝe takiej zamianie musi towarzyszyć zamiana niewiadomych w układzie.4 Ulepszenie metody Gaussa nazywane metodą eliminacji z wyborem elementu dominującego polega na odpowiednim wyborze elementów eliminujących, tzn. elementów cjj, przez które dzielimy kolejne równania. Optymalny wybór tych elementów znacznie poprawia dokładność otrzymanych wyników obliczeń. Najlepszy z tego punktu widzenia jest wybór największego co do wartości bezwzględnej elementu macierzy A i takie przestawienie wierszy oraz kolumn w tej macierzy, aby maksymalnym elementem był elementem c11. Spośród pozostałych elementów macierzy powtórnie wybieramy maksymalny co do wartości bezwzględnej element i tak zamieniamy wiersze oraz kolumny macierzy, by element ten zajął miejsce c22 (przy czym nie zmieniamy elementu c11). Kontynuując to postępowanie otrzymamy na głównej przekątnej maksymalne elementy tej macierzy.5 3.2. Metoda iteracji prostej Niech dana będzie nieosobliwa macierz kwadratowa A, detA≠0, A = (a kj ) mk , j =1 i niech będzie dany wektor b = (b1 ,..., bm )T . Rozpatrzmy układ A x = b , którego dokładnym 4 Ewa Majchrzak, Bohdan Mochnacki – „Metody numeryczne. Podstawy teoretyczne, aspekty praktyczne i algorytmy” Wydawnictwo Politechniki Śląskiej Gliwice 2004 r. str. 39. 5 TamŜe str. 40. 9 (*) rozwiązaniem jest nieznany wektor x = ( x1* ,..., x m* ) . Zapiszmy układ w postaci: x = B x + c . Korzystając z toŜsamości x = x − D( A x − b) , gdzie detD≠0 i D jest macierzą zadaną widzimy, Ŝe B=E-DA, c = Db , gdzie E jest macierzą jednostkową. ( 0) Metoda iteracji prostej polega na tym, Ŝe na początku wybieramy dowolny wektor x (początkowe x ( k +1) = Bx (k ) przybliŜenie), następnie określamy + c dla k=0,1,2,… Przy duŜych k, x ciąg (k ) wektorów * ≈x , (k ) x według reguły: * → x przy k → ∞ . Gdy proces iteracyjny jest zbieŜny wtedy metoda iteracji jest efektywna. Warunkiem koniecznym i dostatecznym na to, aby metoda iteracji prostej była zbieŜna dla dowolnego przybliŜenia ( 0) początkowego x jest nierówność ρ ( B ) = max λ j ( B ) < 1 , gdzie λ j ( B ) są wartościami j =1,..., m własnymi macierzy B. 3.3. Metoda Jacobiego Ponownie rozpatrujemy układ równań A x = b , gdzie detA≠0. NaleŜy znaleźć * przybliŜone rozwiązanie x . Będziemy zakładać, Ŝe macierz A ma strukturę: A=L+D+R, gdzie L jest macierzą lewotrójkątną, D jest macierzą diagonalną, R jest macierzą prawotrójkątną, tzn. a11 a12 ... a1n a a ... a 2n A = 21 22 ..................... a n1 a n 2 ... a nn 0 0 ..... 0 a 0 ..... 0 21 L= ................. a n1 a n 2 ... 0 a11 0 ... 0 0 a ... 0 22 D= ................. 0 0 ... a nn 0 a12 ... a1n 0 0 ... a 2n R= ................... 0 0 ... 0 Układ równań zapiszemy w postaci L x + D x + R x = b . Układem równowaŜnym temu układowi jest układ: x = − D −1 ( L + R) x + D −1 b , gdzie B=-D-1(L+R), c = D −1 b . Zastosujemy do x ( k +1) ostatniego układu = − D −1 ( L + R) x (k ) metodę iteracji prostej, która będzie miała postać: + D −1 b dla k=0,1,… m JeŜeli macierz A jest diagonalnie dominująca tzn. a kk > ∑ a kj , k=1,2,…,m to j =1 j ≠k metoda Jacobiego jest zbieŜna. 3.4. Metoda Seidla 10 Metoda Seidla jest prostym ulepszeniem metody iteracji prostej. Istota algorytmu sprowadza się do wykorzystania obliczonych i pierwszych składowych wektora niewiadomych x ( k +1) do obliczenia składowej i+1 itd. Taka modyfikacja metody iteracji prostej znacznie przyspiesza proces obliczeń. W metodzie tej takŜe rozpatrujemy układ równań A x = b , gdzie detA≠0. Zakłada się, Ŝe wszystkie elementy diagonalne akk≠0. Wówczas układ równań moŜemy zapisać w postaci: a1m − a12 b1 x1 = a x 2 − ... − a x m + a 11 11 11 a − a 21 b x1 − ... − 2 m x m + 2 x2 = a 22 a 22 a 22 ........................... a m −1, m − a m1 b x1 − ... − x m −1 + m xm = a mm a mm a mm Wtedy układ ten moŜemy rozpatrywać jako x = B x + c , gdzie rolę macierzy B odgrywa macierz − a1m − a12 0 ................... a11 a11 B= .................. − a m1 − a m −1, m ............. 0 a a mm mm 0 b12 ................ b1m = ............... b m1 b m 2 .... bm, m −1 0 Do układu zastosujemy iteracyjny proces postaci x1 ( k +1) = b12 x 2( k ) + ... + b1m x m( k ) + c1 ( k +1) = b21 x1( k +1) + b 23 x 3( k ) + ... + b2 m x m( k ) + c 2 x2 ............... x ( k +1) = b x ( k +1) + ... + b ( k +1) m1 1 m , m −1 x m −1 + c m m który nazywa się procesem iteracyjnym Seidla. PowyŜszy Lx x ( k +1) ( k +1) + Dx ( k +1) układ + Rx = −( L + D) −1 R x ( k +1) (k ) moŜemy zapisać takŜe w postaci macierzowej = b . Stąd wynika równość macierzowa + ( L + D) −1 b , którą moŜna rozpatrywać jako metodę iteracji prostej. JeŜeli ||(L+D)-1R||≤q<1, to dla dowolnego wektora początkowego metoda Seidla jest zbieŜna. TakŜe w przypadku, gdy macierz A jest diagonalnie dominująca to metoda ta jest zbieŜna. 11 Podsumowując moŜna stwierdzić, Ŝe algorytmy metod numerycznych są bardzo przydatnym narzędziem wykorzystywanym w programach komputerowych bazujących na zagadnieniach czysto matematycznych jak rozwiązanie układu równań czy teŜ obliczenie całki oznaczonej. 12