as_1.
Transkrypt
as_1.
1 Rozdział 1 1. 1. Pojęcia podstawowe Przebieg dowolnych zjawisk fizycznych jest źródłem zmian różnego rodzaju jego parametrów. Jeżeli pierwotną postać tego parametru (np. temperatura, ciśnienie, wibracje) zamienimy na bezpośrednio z nią związaną wielkość elektryczną (np. napięcie, prąd) to tę wielkość elektryczną nazywamy sygnałem. Wszystkie sygnały będące wynikiem przebiegu dowolnego zjawiska fizycznego można przedstawić w postaci przebiegu czasowego nawet wówczas, gdy zmienna niezależna nie jest czasem. W związku z tym w niniejszym skrypcie zajmować się będziemy sygnałami będącymi funkcją czasu, przy czym należy pamiętać, że termin “czas” dla określenia zmiennej niezależnej przy rejestracji danych nie zawsze należy przyjmować dosłownie. Jeżeli mierzoną wielkość fizyczną opisać można przy pomocy zależności matematycznych, to otrzymany sygnał również można opisać tą zależnością i taki rodzaj sygnału możemy nazwać deterministycznym. Rysunek 1.1 prezentuje sygnał deterministyczny którym jest fala sinusoidalna. Na podstawie zależności funkcyjnej opisującej jej zmienność możemy dokładnie określić wartość sygnału f(to) w dowolnie wybranej chwili czasu to. x(t) x0 0 -x 0 t0 t 2 Najczęściej jednak mamy do czynienia z sygnałami losowymi. Przykładem niech będzie ruch liścia trzepoczącego na wietrze, który jest nieprzewidywalny. Liść podlega losowemu wzbudzaniu przez wiatr o zmiennym kierunku i zmiennej sile i w wyniku tego porusza się w przód i w tył wykonując losowe x(t) 0 t0 t Rys.1.2. Czasowy przebieg zmian amplitudy drgań liścia jako przykład sygnału stochastycznego. drgania. Amplituda i szybkość ruchu liścia są zależne nie tylko od intensywności wzbudzeń wiatru, ale również od jego masy, sztywności i tłumienia wywołanego strukturą liścia. Amplitudy drgań liścia w czasie t0 nie da się określić z wyprzedzeniem w sposób ścisły (patrz rys. 1.2). Bardzo często sygnały deterministyczne po drodze od źródła generacji do rejestracji podlegają bardzo skomplikowanym transformacjom. Przykładem mogą być drgania wywołane niewyważeniem które rejestrowane są na korpusie łożyska. Sygnał wyjściowy może być sygnałem harmonicznym, takim jak na rys. 1.1, ale jego transmisja przez film olejowy, materiał zewnętrznych bieżni łożyska, następnie obudowę oraz częsta obecność luzów sprawia, że jego kształt może być zbliżony do tego na rys. 1.2. Ponieważ funkcje opisujące kolejne przekształcenia mogą mieć bardzo złożoną postać stąd Rys. 1.1. Fala sinusoidalna x(t)=x0sinωt jako przykład sygnału deterministycznego. też przyjmujemy najczęściej, że sygnał ten ma charakter losowy. Dodatkowo znajomość postaci funkcji przekształcających sygnał nie jest dla nas konieczna, 3 gdyż interesują nas najczęściej nie przebiegi czasowe i ich kolejne transformacje lecz pewne, proste estymaty sygnału takie jak np. amplituda. Czasowy przebieg amplitudy wychylenia takich układów jest więc sygnałem losowym lub stochastycznym, którego najważniejszą cechą jest nieprzewidywalność ich wartości w przyszłej chwili czasu. Dla potrzeb opisu sygnałów losowych wykorzystywany jest rachunek prawdopodobieństwa i statystyki matematycznej. Podstawowym pojęciem rachunku prawdopodobieństwa jest pojęcie zmiennej losowej, która jest definiowana jako wielkość x przyjmująca podczas pomiaru (doświadczenia) jedną wartość ze zbioru Ω wszystkich możliwych wartości. Jeżeli zbiór zdarzeń Ω jest zbiorem skończonym lub nieskończonym ale przeliczalnym, wówczas zmienna losowa nazywana jest dyskretną, natomiast w przypadku gdy zbiór Ω jest zbiorem nieprzeliczalnym wtedy zmienna losowa nazywana jest ciągłą. Wyobraźmy sobie, że podczas przebiegu jakiegoś zjawiska fizycznego przetwornik mierzy pewną obserwowaną wielkość fizyczną i zamienia ją na napięcie. Napięcie to doprowadzane jest jednocześnie do dwóch woltomierzy analogowego i cyfrowego o tym samym zakresie pomiarowym , np. 10 [V]: przy czym woltomierz cyfrowy ma dokładność odczytu do trzech miejsc znaczących. Zmiany napięcia odczytane w określonym przedziale czasu na woltomierzu cyfrowym stanowią zbiór skończony ponieważ zmienna losowa może przyjmować wartości jedynie spośród 10000 wartości z przedziału 0 ÷10 [V]. W przypadku nieskończenie długiego czasu obserwacji zbiór wartości napięć będzie nieskończony, ale przeliczalny, gdyż w tym przypadku otrzymamy nieskończoną liczbę odczytów przyjmujących jedną spośród 10000 wartości. W przypadku woltomierza analogowego odczytów wskazań można dokonywać z dowolną dokładnością, więc zbiór wszystkich realizacji jest zbiorem nieprzeliczalnym. 4 Sygnały stochastyczne można podzielić na grupy w oparciu o kryterium “struktury dziedziny” (tzn. czasu) i kryterium “struktury amplitudowej” (wartości zmiennej zależnej) sygnału. Jeżeli dziedzina sygnału stochastycznego jest zbiorem nieprzeliczalnym ciągłym chwil w których dokonujemy odczytu np. wartości amplitudy (najczęściej skończonym odcinkiem osi czasu <t1, t2>, dodatnią półosią <0, ∞) lub całą osią (-∞, ∞)), to sygnał taki nazywamy sygnałem z czasem ciągłym. Jeżeli dziedzina sygnału stochastycznego jest zbiorem przeliczalnym chwil odczytu (najczęściej jednakowo od siebie odległych na osi czasu), to sygnał nazwiemy sygnałem z czasem dyskretnym. Jeżeli dla każdej chwili t ∈ T wartość sygnału stochastycznego jest zmienną losową ciągłą, to sygnał nazwiemy sygnałem ciągłym. Jeżeli dla każdej wartości t ∈ T wartość sygnału stochastycznego jest zmienną losową dyskretną, to sygnał nazwiemy sygnałem dyskretnym. Ze względu na charakter zmiennej losowej i czasu sygnały stochastyczne dzielimy więc na: • sygnały ciągłe z czasem ciągłym - sygnałami takimi są np. sygnały telefoniczne w telefonii tradycyjnej, radiofoniczne i telewizyjne oparte na sygnałach analogowych, • sygnały dyskretne z czasem ciągłym - mogą to być np. sygnały generowane na wyjściu rejestratora cząstek będących efektem rozpadu promieniotwórczego, lub sygnały powszechnie spotykane w technice komputerowej, • sygnały ciągłe z czasem dyskretnym - sygnałami tego typu są sygnały otrzymywane w wyniku próbkowania sygnałów z czasem ciągłym, jeżeli każda z próbek może przyjmować nieskończenie wiele wartości. W tym przypadku można to sobie wyobrazić jako przetwarzanie 5 analogowo – cyfrowe przetwornikiem który ma nieskończoną liczbę poziomów kwantyzacji. • sygnały dyskretne z czasem dyskretnym - sygnały tego typu otrzymuje się w wyniku kwantyzacji sygnałów ciągłych z czasem dyskretnym, zatem typowe przetworniki analogowo – cyfrowe dają nam taki właśnie sygnał. Przykładowe realizacje wymienionych typów sygnałów stochastycznych przedstawiono na rysunku 1.3. x(t) t x(t) t x(t) x max Rys.1.3. Przykłady realizacji sygnałów stochastycznych. t x min x(t) t 1.2. Najczęściej używane estymaty sygnałów Aby rozpoznać właściwości obserwowanego sygnału nie musimy znać całego przebiegu czasowego sygnału jeżeli tylko będziemy mogli go opisać za pomocą pewnych charakteryzujących go wielkości (estymat) w dziedzinie czasu lub amplitudy. 6 Dla przykładu rozważmy najprostszy sygnał zdeterminowany jakim jest fala sinusoidalna (patrz rys. 1.4), opisana równaniem: x( t ) = A sin( ωt + ϕ ) (1.1) gdzie: − T - okres przebiegu, − f = 1/T - częstotliwość, − ω = 2π f - częstość kołowa, są wielkościami charakteryzującymi sygnał w dziedzinie czasu. Parametr A jest amplitudą sygnału harmonicznego i stanowi przykład estymaty w dziedzinie amplitudy. Okres T informuje, że sygnał jest okresowy i określa czas trwania powtarzających się fragmentów sygnału. W przypadku gdy sygnał byłby nieokresowy (losowy) to w dziedzinie czasu jego estymatą mógłby być zbiór kolejnych czasów ti tzw. dodatnich przejść przez zero a w dziedzinie amplitudy musiałby to być szereg kolejnych wartości amplitud w chwilach próbkowania. Uzyskanie pełnego opisu sygnału w dziedzinie czasu i amplitudy wymaga zastosowania bardziej zaawansowanych metod analizy, takich jak badanie rozkładu gęstości prawdopodobieństwa czy też analiza częstotliwościowa, które opisane są w dalszych rozdziałach. W wielu jednak przypadkach wystarczającą jest znajomość pewnych estymat liczbowych określających charakter sygnału. x(t) A Rys. 1.4. Przebieg czasowy sygnału monoharmonicznego.x p x av x rms x p-p t -A Zaliczamy do nich: 7 − xp - wartość szczytową (ang. peak), − xp-p - wartość międzyszczytową (ang. peak to peak), których sens fizyczny wyjaśniony został na rys. 1.4. Innymi równie powszechnie spotykanymi miarami sygnału są: − xrms – pierwiastek z wartości średniokwadratowej (ang. root mean square), − xav - wartość średnia modułu. Wielkość xrms nazywana jest często wartością skuteczną sygnału i definiowana jest jako: x rms 1 = T T ∫ x 2 (t )dt (1.2) 0 Wartość średnią modułu określa się zależnością: 1 x av = T T ∫ x(t ) dt (1.3) 0 Wartości zdefiniowanych w tej części estymat dla sygnałów harmonicznych wynoszą odpowiednio: • wartość szczytowa: xp = A, • wartość międzyszczytowa: xp-p = 2⋅ A, • wartość skuteczna: xrms = A ⋅ 2 2 • wartość średnia modułu: xav = A ⋅ 2 π Dla tak określonych wielkości można wprowadzić pojęcia charakteryzujące kształt analizowanego sygnału, są to współczynnik kształtu definiowany jako: 8 xp Fc = (1.4) x rms oraz współczynnik szczytu, który zapisać można: xrms xav Ff = (1.5) Na rysunku 1.5 zaprezentowane są przykładowe sygnały wraz z wyznaczonymi dla nich wartościami współczynnika kształtu i szczytu. a) b) x(t) x(t) A A 0 t -A c) 10A Ff =1, Fc =1 d) x(t) A A 0 t -A 0 Ff =1,414 , Fc =1,111 x(t) Ff =3,437 , Fc =0,582 t -A x(t) 0 t -A Ff =1,129 , Fc =13,876 e) 0 Ff =1,731 , Fc =1,157 t Rys. 1.5. Prezentacja przykładowych sygnałów i ich wartości współczynników kształtu i szczytu. 9 Pierwszym przykładem jest fala prostokątna bipolarna (rys. 1.5a), dla której współczynniki kształtu i szczytu są sobie równe i niezależnie od wartości amplitudy zawsze równe jedności (Ff = 1 i Fc = 1). Kolejnym sygnałem jest fala sinusoidalna, dla której wartości współczynnika kształtu i szczytu wynoszą odpowiednio Ff = 1.414 i Fc = 1.111. Sygnałem następnym jest przedstawiona na rys. 1.5c fala sinusoidalna z pikiem o wartości dziesięciokrotnie przewyższającej amplitudę fali sinusoidalnej, dla którego wartość współczynnika szczytu znacznie wzrasta podczas gdy wartość współczynnika kształtu pozostaje praktycznie niezmieniona (Ff = 1.129 i Fc = 13.876). Na rysunku 1.5d przedstawiony jest z kolei przykładowy przebieg sygnału piłokształtnego, dla którego wartości współczynników kształtu i szczytu wynoszą odpowiednio Ff = 3.437 i Fc = 0.582. Ostatnim z grupy badanych, przykładowych sygnałów jest szum losowy, dla którego wartości współczynnika kształtu i szczytu wynoszą Ff = 1.731 i sygnału zmiana wartości wariancji Fc = 1.157. Dla przypadku takiego nie powoduje większych zmian współczynników kształtu i szczytu. Na podstawie przytoczonych przykładów możemy ocenić przydatność omawianych powyżej miar do analizy i rozpoznawania sygnału. Łatwą do zaobserwowania (patrz rys. 1.5c) jest znaczna czułość współczynnika szczytu na obecność w analizowanym sygnale gwałtownych zmian wartości (pików). Nie można tego powiedzieć o współczynniku kształtu, który nie daje się powiązać ze zniekształceniami analizowanego sygnału. 1.3. Momenty statystyczne zmiennych losowych Opisem sygnałów w dziedzinie amplitudy są również pewne charakterystyczne wielkości zwane momentami statystycznymi zmiennej losowej. 10 Moment statystyczny rzędu k zmiennej losowej x jest wartością oczekiwaną E wyrażenia (x – c)k, gdzie c jest dowolną liczbą rzeczywistą zwaną punktem odniesienia, a liczba k zwana jest rzędem momentu. Gdy c = 0 mkx = E( x k ) (1.6) otrzymujemy moment zwykły rzędu k zmiennej losowej x. Zapis E(xk) oznacza tu procedurę uśredniania, która dla zmiennej losowej dyskretnej przybiera postać: 1 E(x ) = N k N ∑x , gdzie N → ∞ k i (1.7) i =1 podczas gdy dla zmiennej losowej ciągłej zapisać można: t+ E(xk ) = 1 T T 2 ∫ x (t ) dt k t− (1.8) T 2 Przykładami mogą tu być moment zwykły pierwszego rzędu wyrażony jako: m1 x = E( x ) (1.9) który oznacza wartość średnią (przeciętną) zmiennej losowej oraz moment zwykły drugiego rzędu: m2 x = E ( x 2 ) (1.10) wyrażający wartość średniokwadratową sygnału. Jak widać w symbolu momentu wprowadzono dwa indeksy, z których pierwszy oznacza rząd momentu natomiast drugi analizowaną funkcję. Wartość średniokwadratowa sygnału jest powszechnie używaną estymatę sygnału w analizie drgań. Gdy rejestrowanym sygnałem jest przebieg czasowy prędkości drgań, jego wartość średniokwadratowa jest wyznacznikiem energii kinetycznej drgań jako proporcjonalnej do drugiej potęgi prędkości. Pierwiastek z wartości średniokwadratowej sygnału (rms) oznacza wartość skuteczną sygnału i jest to estymata często wykorzystywana w elektrotechnice. Przykładowo wartość napięcia w komunalnej sieci elektrycznej podawana jako 11 220 [V] jest jego wartością skuteczną. Ponieważ wiadomo, że przebieg napięcia jest sinusoidalny, jego amplituda wynosi więc: A = 2 ⋅ xrms = 311 [V ] Momenty, których punkt odniesienia równy jest wartości średniej m1, noszą nazwę momentów centralnych µ kx = E{[ x − E( x )] k } = E [( x − m1 x )k ] (1.11) Dla przykładu, moment centralny pierwszego rzędu: µ1x = E ( x − m1x ) sygnału harmonicznego z zerową lub niezerową wartością przeciętną m1x równy jest zero. Moment centralny drugiego rzędu: µ 2 x = E [( x − m1 x )2 ] = σ x2 (1.12) nosi nazwę wariancji zmiennej losowej x. Równanie (1.12) może być uproszczone przez wymnożenie członu występującego w kwadracie, co daje: σ x2 = E[x 2 − 2xE(x) + [E(x)] 2 ] = = E(x 2 ) − 2 ⋅ E(x) ⋅ E(x) + [E(x)] 2 (1.13) ponieważ średnia sumy członów jest taka sama jak suma średnich każdego członu oddzielnie. Zebranie członów równania (1.13) daje: σ x2 = E(x 2 ) − [E(x)] 2 (1.14) co można ująć następująco: (wariancja) = (odchylenie standardowe)2 = [wart. średniokwadratowa – (wart. średnia)2] Wariancja jest parametrem opisowym sygnału informującym o rozrzucie jego chwilowych wartości od wartości średniej, dlatego nazywana jest inaczej średnim odchyleniem kwadratowym. Wartość pierwiastka kwadratowego z wariancji (średniego odchylenia kwadratowego) nazywa się odchyleniem standardowym (rzadziej dyspersją lub błędem losowym), które mierzy się w tych samych jednostkach co wartość średnią: 12 σ x = σ x2 = E(x 2 ) − [E(x)] 2 (1.15) Dla przypadku sygnału harmonicznego jego wartość skuteczna oraz odchylenie standardowe oznacza tę samą wartość z uwagi na to, że jego wartość średnia równa jest zero. Definicje momentów statystycznych w prosty sposób mogą być rozszerzone na wielowymiarową zmienną losową. W niniejszym podręczniku ograniczymy się tylko do zmiennej dwuwymiarowej (x, y), definiując jej moment statystyczny jako: mklxy = E( x k y l ) (1.16) przy czym przez analogię do zależności (1.7) dla zmiennej losowej dyskretnej możemy zapisać mklxy 1 = T1 ⋅ T2 N M ∑∑ x y k i i =1 l j (1.17) j =1 i wykorzystując z kolei zależność (1.8) dla dwuwymiarowej zmiennej losowej ciągłej otrzymujemy następującą definicję jej momentu: mklxy = 1 T1 ⋅ T2 T T t+ 1 t+ 2 2 2 ∫ ∫ x k (t ) y l (t ) dt dt (1.18) T T t− 1 t− 2 2 2 W analizie sygnałów najczęściej wykorzystywane są momenty rzędu pierwszego: m1x = E ( x) ; m1 y = E ( y ) (1.19) które przedstawiają wartości przeciętne rozkładów zmiennych losowych x i y. Moment centralny rzędu k + l dwuwymiarowej zmiennej losowej określony jest jako: µ klxy = E[( x − m1x ) k ( y − m1 y ) l )] (1.20) Wśród najczęściej stosowanych momentów rzędu drugiego wyróżnić można: 13 µ 2 x = E ( x 2 ) − E 2 ( x) = m2 x − m12x (1.21) µ 2 y = E ( y 2 ) − E 2 ( y ) = m2 y − m12y oraz µ11xy = m11xy − m1x m1 y (1.22) przy czym ten ostatni zwany jest kowariancją zmiennej losowej. Jeżeli dla zmiennej dwuwymiarowej istnieją różne od zera wartości wariancji (1.18), to probabilistyczna zależność między zmiennymi losowymi x i y wyrażona może być ilorazem: Rxy = E[( x − m1x )( y − m1 y )] {E[( x − m1x ) ]E[( y − m1 y ) ]} 2 2 1 2 = µ11xy µ2x µ2 y (1.23) zwanym kowariancją znormalizowaną lub współczynnikiem korelacji. Korzystając z definicji momentów statystycznych możemy wprowadzić jeszcze dwa pojęcia, przy pomocy których możemy określić charakter sygnału. Pierwszym z nich jest współczynnik skośności definiowany jako: S= µ3 σ3 (1.24) oraz wielkość zwana współczynnikiem spłaszczenia, w postaci: F= µ4 −3 σ4 (1.25) Współczynniki te zostaną bliżej omówione w rozdziale drugim, dotyczącym metod analizy sygnałów technikami opartymi o badanie funkcji gęstości prawdopodobieństwa. 1.4. Rozpoznawanie czasowych. sygnałów na podstawie przebiegów 14 Dotychczas mówiliśmy o możliwości identyfikacji sygnałów poprzez znajomość jego estymat w dziedzinach czasu i amplitudy. Uzupełnieniem tej metody jest analiza pozwalająca na rozpoznanie sygnału na podstawie obserwacji zmienności ich przebiegów czasowych. W wielu wypadkach rzeczywiste sygnały są złożeniem prostych sygnałów harmonicznych i wtedy taki sygnał wykazuje łatwo rozpoznawalne cechy. Najprostszym przykładem składania sygnałów jest superpozycja dwóch współosiowych ruchów harmonicznych o jednakowych okresach. Punkt M porusza się wzdłuż osi x1 wg równania: x1 = A1 sin(ωt + ϕ 1 ) (1.26) natomiast punkt O1 porusza się wzdłuż nieruchomej osi x2 równoległej do osi x1 wg równania: x2 = A2 sin(ωt + ϕ 2 ) 01 (1.27) M x 1ruchów harmonicznych. x 1 współosiowych Rys. 1.6. Ilustracja do sumowania dwóch 0 x2 x2 x Ruch złożony punktu M wzdłuż osi x określa zatem równanie: x = x1 + x2 = A1 sin(ωt + ϕ 1 ) + A2 sin(ωt + ϕ 2 ) (1.28) Ruch powstały w wyniku złożenia jest również ruchem harmonicznym o tym samym okresie co ruchy składowe a więc opisany może być równaniem: x = A sin (ωt + ϕ ) (1.29) gdzie jego amplitudę i przesunięcie fazowe można wyrazić wzorami: A = A12 + A22 + 2A1 A2 cos(ϕ 2 − ϕ 1 ) ϕ = arc tg A1 sinϕ 1 + A2 sinϕ 2 A1cosϕ 1 + A2 cosϕ 2 (1.30) (1.31) 15 Sumowania sygnałów dokonać można również przy pomocy wektorowej reprezentacji sygnału. Jeżeli oba ruchy składowe przedstawimy za pomocą → → wirujących wektorów A1 i A2 przesuniętych względem siebie w fazie o kąt ϕ , to wartości modułów obu wektorów wyrażają amplitudy tych sygnałów a rzuty wektorów na oś x obrazują chwilowe wartości sygnałów. y A A2 ω t=t 0 Rys.1.7. Reprezentacja wektorowa dwóch sygnałów i ich sumowanie geometryczne. ϕ A1 ϕ2 ϕ1 x Amplitudę ruchu złożonego będącego sumą sygnałów składowych stanowi → → → wektor wypadkowy A będący sumą geometryczną wektorów A1 i A2 . W przypadku sumowania dwóch współosiowych (patrz rys. 1.7) ruchów harmonicznych o różnych okresach: x1 = A1 sin(ω1t + ϕ 1 ) (1.32) x2 = A2 sin(ω2 t + ϕ 2 ) (1.33) przy czym ω1 ≠ ω2 , to moduł ruchu wypadkowego opisany równaniem: A = A12 + A22 + 2A1 A2 cos [(ω2 − ω1 ) + (ϕ 2 − ϕ 1 )] (1.34) zależy od wzajemnych relacji wartości między amplitudami, częstościami i fazami sygnałów składowych w funkcji czasu t. Gdy okresy ruchów składowych są współmierne (ich stosunek daje się wyrazić przez stosunek dwóch liczb naturalnych) to ruch wypadkowy jest też okresowy, jeżeli natomiast stosunek ich okresów nie da się przedstawić w postaci ilorazu dwóch liczb naturalnych, to ruch wypadkowy nie jest okresowy. 16 Przykład sumowania dwóch sygnałów harmonicznych o tej samej amplitudzie ale różnych okresach, z których jeden jest dwukrotnie dłuższy od drugiego, pokazano na rys. 1.8. Wynikiem sumowania jest sygnał charakterystyczny dla drgań sprzęgła dwóch rozosiowanych odcinków wału; harmoniczna podstawowa x1 = A1 ⋅ sin ωt odpowiada tutaj częstości obrotów wału, natomiast druga a) 2 2 x1(t 0) wynikiem t0 -1 x1(t) x1(t 0) 1 t T 0 1 2 0 -1 T t T 1 t0 2 T2 -2 -2 2 jest b) x2(t) 1 c) x2 = A2 ⋅ sin 2ωt harmoniczna x1(t)+x2(t) x1(t 0)+ x2(t 0) 1 0 t T t0 1 2 -1 -2 Rys.1.8. Sumowanie dwóch sygnałów harmonicznych o tej samej amplitudzie, różniących się okresami. rozosiowania powodującego pojawienie się wymuszenia występującego z dwukrotnie większą częstością. Jeżeli okresy dwóch składowych drgań różnią się znacznie między sobą, w wyniku ich złożenia otrzymujemy przebiegi, których przykładowe postaci przedstawiono na rys. 1.9. Na rys. 1.9a pokazano przykład kiedy sygnał składowy o większym okresie ma mniejszą amplitudę aniżeli sygnał o okresie mniejszym. 17 Rys.1.9. Sumowanie dwóch sygnałów harmonicznych różniących się amplitudami i okresami. Rys. 1.9b przedstawia z kolei sytuację odwrotną, tj. sygnał o okresie małym ma amplitudę mniejszą od sygnału o okresie dużym. Jeżeli okresy dwóch składowych sygnałów harmonicznych różnią się nieznacznie, to sygnał będący ich superpozycją przyjmuje postać przedstawioną na rysunku 1.10. Rys.1.10. Wynik sumowania dwóch sygnałów harmonicznych nieznacznie różniących się okresami. Amplituda takiego sygnału zmienia się okresowo od wartości będącej sumą amplitud sygnałów składowych do wartości będącej różnicą tych amplitud, a przypadek taki nazywamy dudnieniem. Nazwa ta pochodzi z akustyki ponieważ przy takim złożeniu dwóch sygnałów będących falami dźwiękowymi o nieznacznie różniących się między sobą okresach słyszymy okresowe wzmacnianie i osłabianie dźwięku. 18 Na podstawie znajomości okresu dudnienia τ (rys. 1.10) można wyznaczyć różnicę częstotliwości sygnałów składowych ε : ε = ω1 − ω2 = 2π τ (1.35) natomiast amplitudy sygnałów składowych można wyznaczyć z zależności: A1 = Amax + Amin 2 (1.36a) A2 = Amax − Amin 2 (1.36b) 1.5. Stacjonarność i ergodyczność procesu Analiza sygnałów losowych wymaga wprowadzenia dwóch podstawowych założeń dotyczących charakteru zmienności sygnału. Założenia te nazywane są hipotezami, których wprowadzenie warunkuje możliwość podjęcia analizy przebiegów losowych. Pierwsza z hipotez dotyczy stacjonarności sygnału (procesu) rozumianej jako niezmienność w czasie jego momentów statystycznych takich jak wartość średnia, wariancja itp. Dla przykładu rozważmy sygnał losowy (rys. 1.11), dla którego obliczymy wartość średnią i wariancję w dwóch przedziałach różnie zlokalizowanych na osi czasu. x(t) ∆t1 ∆ t2 Rys.1.11. Wyznaczanie momentów statystycznych sygnału losowego w dwóch dowolnych przedziałach czasowych. t 19 Zakładamy, że przedziały te mają jednakową długość, a czas trwania pomiaru jest odpowiednio długi dla danego procesu. Jeżeli wartości średnie i wariancje obliczone w (σ x ) ∆t1 = (σ x ) ∆t 2 poszczególnych przedziałach czasu: [E(x)]∆t1 = [E(x)]∆t2 i są sobie równe wówczas możemy powiedzieć, że sygnał jest stacjonarny. Założenie o stacjonarności rozumiane jest tu zatem jako niezależność wyniku estymacji sygnału od czasu, w którym realizowany jest pomiar. Przedział czasu obserwacji powinien być przy tym na tyle długi by możliwe było wykonanie wiarygodnych oszacowań momentów statystycznych. Weźmy dla przykładu sygnał harmoniczny który jest sygnałem stacjonarnym. Jeżeli czas obserwacji będzie bardzo krótki (wielokrotnie krótszy od okresu T), wynik oszacowania np. wartości średniej lub wariancji zależeć będzie od czasu w którym dokonamy jego obserwacji. Podobna sytuacja wystąpi w przypadku czasu dłuższego niż jeden okres sygnału ale nie będącego wielokrotnością T. Dopiero uśrednianie takiego sygnału w odpowiednio długim czasie nawet w niecałkowitej liczbie okresów spowoduje, że błąd oszacowania będzie znikomo mały i można będzie wówczas stwierdzić stacjonarność tego sygnału. Powyższe wnioski zachowują słuszność również dla sygnału losowego. Jeżeli tylko szacowanie estymat wykonywane jest w odpowiednio długim czasie, to zachowują one wartość stałą, niezależną od czasu obserwacji mimo, iż amplituda sygnału losowego jest całkowicie nieprzewidywalna. Dla sygnałów losowych należy jednak wprowadzić pojęcia stacjonarności w sensie szerokim i wąskim*. Mówimy, że sygnał jest stacjonarny w sensie szerokim jeżeli jego momenty statystyczne rzędu pierwszego i drugiego są niezależne od czasu, natomiast stacjonarność w sensie wąskim, wymaga niezależności od czasu także i momentów rzędów wyższych. Należy również zwrócić uwagę, że w literaturze anglojęzycznej zamiast powyższych definicji * Należy tu zwrócić uwagę, iż w szeregu podręczników spotkać można inne definicje stacjonarności (patrz np.[Szabatin]) powiązane z gęstością prawdopodobieństwa, funkcją autokorelacji etc. 20 używane są określenia sygnałów “dokładnie” stacjonarnych (strictly stationary jako stacjonarność w sensie wąskim) i “słabo” stacjonarnych (weakly stationary jako stacjonarność w sensie szerokim). Przed przystąpieniem do wyjaśnienia hipotezy ergodyczności sygnału koniecznym jest wprowadzenie pojęcia uśredniania grupowego. Do tej pory charakterystyczne miary sygnału uzyskiwaliśmy jako rezultat uśredniania pojedynczej realizacji procesu (patrz rys. 1.11). Rozważmy teraz zbiór N(j) realizacji tworzących proces losowy x(t) przedstawiony na rys. 1.12. x 5 (t) x 4 (t) j=1 N t x 3 (t) t x 2 (t) t x 1 (t) t r1 t r2 Rys.1.12. Ilustracja procesu uśredniania grupowego. Uśrednianie grupowe polega na obliczaniu wartości średniej z wszystkich realizacji w danej chwili czasu ti, gdzie ti jest nazywany przekrojem procesu dla wszystkich realizacji sygnału xj(t). Wartość średniej grupowej obliczamy według poniżej przedstawionej zależności: 1 E(x) = N N ∑ x (t ) j (1.37) i j =1 Stacjonarny proces losowy możemy nazwać ergodycznym jeżeli jego wartość średnia obliczona z pojedynczej realizacji procesu 21 1 E (x ) = t1 − t 2 t2 ∫ x (t)dt j (1.38) t1 jest równa wartości średniej grupowej (1.34). W takim przypadku każda pojedyncza realizacja xj(t) jest reprezentatywna dla całego procesu x(t). Dla wykazania użyteczności hipotezy ergodyczności, rozważmy przykład pomiaru losowo zmiennych drgań płaskiej płyty (rys. 1.13). a) b) Jak widać z rysunku rozmiar płyty jest duży w porównaniu z rozmiarem Rys.1.13. Dwa przypadki pomiaru losowych drgań płaskiej płyty. czujnika pomiarowego i dla poprawnego oszacowania drgań płyty konieczna byłaby instalacja wielu czujników pomiarowych, z których każdy pozwalałby na rejestrację pojedynczej realizacji procesu. Taki sposób pomiaru byłby jednak nieopłacalny nie tylko ze względu na koszty instalacji dużej liczby czujników 22 lecz również ze względu na konieczność zastosowania rejestratora umożliwiającego jednoczesną akwizycję wielu sygnałów. Ponadto, montaż na płycie wielu czujników mógłby być przyczyną zmian dynamicznych układu ze względu na przyrost masy płyty o masę wszystkich zainstalowanych czujników pomiarowych. Jak pokazano na rysunku 1.13a sygnał z każdego czujnika stanowi pojedynczą realizację procesu losowego i zakładając, że w przypadku płaskiej płyty drgającej równomiernie jako całość proces ten jest ergodyczny, wystarczy dokonywać pomiarów jednym tylko czujnikiem, ponieważ każda z realizacji będzie reprezentatywna dla całego procesu. W przypadku formy drgań płaskiej płyty pokazanej na rys. 1.13b amplitudy drgań są funkcją położenia czujnika na płycie tak więc sygnały czasowe z poszczególnych czujników wykazują różne przebiegów. Według hipotezy ergodyczności wybór miejsca pomiaru nie powinien mieć wpływu na jego wynik tzn. charakterystyczne cechy sygnały winny być niezmienne w czasie (co oznacza spełnienie stacjonarności) i nie zmienia się przy przechodzeniu do innych punktów pomiarowych. W przypadku pokazanym na rys. 1.13b hipoteza ergodyczności nie będzie spełniona i koniecznym byłoby wówczas wykonanie pomiarów w wielu punktach płyty. W praktyce poprzestajemy często na instalacji czujnika w miejscu występowania maksymalnej amplitudy drgań wychodząc z założenia, że drgania występujące w tym miejscu są najbardziej niebezpieczne dla trwałości konstrukcji. 1.5. Klasyfikacja sygnałów Jak powiedziano w podrozdziale 1.1 sygnały można sklasyfikować na dwie podstawowe grupy: sygnały deterministyczne i stochastyczne. Pierwsza grupa sygnałów jest opisana ścisłymi zależnościami funkcyjnymi co umożliwia określenie wartości sygnału f(t0) w dowolnie wybranej chwili czasu t0. W rzypadku sygnału stochastycznego nie jest to możliwe, gdyż losowy charakter 23 przebiegu sprawia, że nie jesteśmy w stanie określić jaka będzie jego wartość w chwili to. Nieprzewidywalność sygnału nie jest jednak całkowita, tzn. nie będąc w stanie przewidzieć jego przyszłej wartości możemy jednak oszacować przedział zmienności, w którym wartość sygnału będzie zawarta. Oznacza to również, że przy spełnieniu określonych warunków (patrz podrozdział 1.3) jesteśmy w stanie podać oszacowania momentów statystycznych sygnału losowego. Sygnały deterministyczne dla których schemat klasyfikacji pokazano na rys.1.14 można podzielić na okresowe (periodyczne) i nieokresowe. Do grupy sygnałów okresowych zaliczamy sygnały sinusoidalne (monoharmoniczne) oraz sygnały poliharmoniczne (okresowo – złożone). Sygnały zdeterminowane Sygnały okresowe Sygnały sinusoidalne (harmoniczne) Sygnały okresowe - złożone (poliharmoniczne) Sygnały nieokresowe Sygnały prawie okresowe (quasi-okresowe) Sygnały nieustalone (transjentowe) Najprostszym przykładem sygnału monoharmonicznego jest przedstawiona na Rys.1.14. Ogólna klasyfikacja sygnałów zdeterminowanych. rys. 1.1 fala sinusoidalna opisana równaniem (1.1), w którym A oznacza amplitudę, ω – częstość kołową, a ϕ – przesunięcie fazowe. Drugą grupę sygnałów harmonicznych stanowią sygnały poliharmoniczne, które traktować można jako superpozycję elementarnych sygnałów harmonicznych, których ilorazy okresów są liczbami wymiernymi. Sygnały te można przedstawić za pomocą wielomianów trygonometrycznych, a przykładem najprostszego z sygnałów poliharmonicznych jest przedstawiony na rys. 1.8c, 24 przebieg będący sumą dwóch fal sinusoidalnych o okresach równych T i T/2 (rys. 1.8a i b). Z powyższych rozważań wynika, iż grupa sygnałów poliharmonicznych jest grupą o nieskończonej liczbie elementów, ponieważ możemy mieć do czynienia z nieskończoną ilością różnych składowych harmonicznych (zagadnienia związane z obliczaniem przebiegów sygnałów poliharmonicznych zostaną omówione w podrozdziale 1.4) Sygnały pseudo – okresowe (quasi – harmoniczne), które stanowią podgrupę sygnałów nieokresowych, są sumą sygnałów harmonicznych i podobnie jak w przypadku sygnałów poliharmonicznych można je wyrazić przy pomocy wielomianów trygonometrycznych. Pomiędzy poszczególnymi składnikami sygnałów pseudookresowych występują jednak niewymierne relacje (niewymierne stosunki okresów poszczególnych składowych harmonicznych) i dlatego też ich złożenie daje w wyniku sygnał nieokresowy. Odrębną grupę sygnałów nieokresowych stanowią sygnały nieustalone. Do grupy tej zaliczyć można sygnały, które charakteryzują się zmiennością w funkcji czasu przy czym przykłady przebiegów nieustalonych zaprezentowane są na rys. 1.15. a) b) x(t) x(t) X t c) t d) x(t) t x(t) t Przykładowy podział sygnałów stochastycznych, w którym kryterium Rys.1.15. Przykłady sygnałów nieustalonych: a) wykładniczy narastający, b) impuls wykładniczy, c) sygnał sinusoidalny malejący wykładniczo, d) sygnał Sa. 25 podziału stanowią wartości dowolnych momentów statystycznych analizowanego sygnału pokazano na rys. 1.16. Sygnały losowe Sygnały stacjonarne Sygnały ergodyczne Sygnały słabo stacjonarne (w szerszym sensie) Sygnały nieergodyczne Sygnały ściśle stacjonarne (w węższym sensie) Rys.1.16. Ogólna klasyfikacja sygnałów losowych. Sygnały niestacjonarne