as_1.

Transkrypt

as_1.
1
Rozdział 1
1. 1. Pojęcia podstawowe
Przebieg dowolnych zjawisk fizycznych jest źródłem zmian różnego
rodzaju jego parametrów. Jeżeli pierwotną postać tego parametru (np.
temperatura, ciśnienie, wibracje) zamienimy na bezpośrednio z nią związaną
wielkość elektryczną (np. napięcie, prąd) to tę wielkość elektryczną nazywamy
sygnałem. Wszystkie sygnały będące wynikiem przebiegu dowolnego zjawiska
fizycznego można przedstawić w postaci przebiegu czasowego nawet wówczas,
gdy zmienna niezależna nie jest czasem. W związku z tym w niniejszym
skrypcie zajmować się będziemy sygnałami będącymi funkcją czasu, przy czym
należy pamiętać, że termin “czas” dla określenia zmiennej niezależnej przy
rejestracji danych nie zawsze należy przyjmować dosłownie.
Jeżeli mierzoną wielkość fizyczną opisać można przy pomocy zależności
matematycznych, to otrzymany sygnał również można opisać tą zależnością i
taki rodzaj sygnału możemy nazwać deterministycznym. Rysunek 1.1 prezentuje
sygnał deterministyczny którym jest fala sinusoidalna. Na podstawie zależności
funkcyjnej opisującej jej zmienność możemy dokładnie określić wartość sygnału
f(to) w dowolnie wybranej chwili czasu to.
x(t)
x0
0
-x 0
t0
t
2
Najczęściej jednak mamy do czynienia z sygnałami losowymi. Przykładem
niech będzie ruch liścia trzepoczącego na wietrze, który jest nieprzewidywalny.
Liść podlega losowemu wzbudzaniu przez wiatr o zmiennym kierunku i
zmiennej sile i w wyniku tego porusza się w przód i w tył wykonując losowe
x(t)
0
t0
t
Rys.1.2. Czasowy przebieg zmian amplitudy drgań liścia jako przykład sygnału
stochastycznego.
drgania. Amplituda i szybkość ruchu liścia są zależne nie tylko od
intensywności wzbudzeń wiatru, ale również od jego masy, sztywności i
tłumienia wywołanego strukturą liścia.
Amplitudy drgań liścia w czasie t0 nie da się określić z wyprzedzeniem w
sposób ścisły (patrz rys. 1.2). Bardzo często sygnały deterministyczne po drodze
od źródła generacji do rejestracji podlegają bardzo skomplikowanym
transformacjom. Przykładem mogą być drgania wywołane niewyważeniem które
rejestrowane są na korpusie łożyska. Sygnał wyjściowy może być sygnałem
harmonicznym, takim jak na rys. 1.1, ale jego transmisja przez film olejowy,
materiał zewnętrznych bieżni łożyska, następnie obudowę oraz częsta obecność
luzów sprawia, że jego kształt może być zbliżony do tego na rys. 1.2. Ponieważ
funkcje opisujące kolejne przekształcenia mogą mieć bardzo złożoną postać stąd
Rys. 1.1. Fala sinusoidalna x(t)=x0sinωt jako przykład sygnału deterministycznego.
też przyjmujemy najczęściej, że sygnał ten ma charakter losowy. Dodatkowo
znajomość postaci funkcji przekształcających sygnał nie jest dla nas konieczna,
3
gdyż interesują nas najczęściej nie przebiegi czasowe i ich kolejne transformacje
lecz pewne, proste estymaty sygnału takie jak np. amplituda. Czasowy przebieg
amplitudy wychylenia takich układów jest więc sygnałem losowym lub
stochastycznym, którego najważniejszą cechą jest nieprzewidywalność ich
wartości w przyszłej chwili czasu.
Dla potrzeb opisu sygnałów losowych wykorzystywany jest rachunek
prawdopodobieństwa i statystyki matematycznej. Podstawowym pojęciem
rachunku prawdopodobieństwa jest pojęcie zmiennej losowej, która jest
definiowana jako wielkość x przyjmująca podczas pomiaru (doświadczenia)
jedną wartość ze zbioru Ω wszystkich możliwych wartości. Jeżeli zbiór zdarzeń
Ω jest zbiorem skończonym lub nieskończonym ale przeliczalnym, wówczas
zmienna losowa nazywana jest dyskretną, natomiast w przypadku gdy zbiór Ω
jest zbiorem nieprzeliczalnym wtedy zmienna losowa nazywana jest ciągłą.
Wyobraźmy sobie, że podczas przebiegu jakiegoś zjawiska fizycznego
przetwornik mierzy pewną obserwowaną wielkość fizyczną i zamienia ją na
napięcie. Napięcie to doprowadzane jest jednocześnie do dwóch woltomierzy
analogowego i cyfrowego o tym samym zakresie pomiarowym , np. 10 [V]: przy
czym woltomierz cyfrowy ma dokładność odczytu do trzech miejsc znaczących.
Zmiany napięcia odczytane w określonym przedziale czasu na woltomierzu
cyfrowym stanowią zbiór skończony ponieważ zmienna losowa może
przyjmować wartości jedynie spośród 10000 wartości z przedziału 0 ÷10 [V]. W
przypadku nieskończenie długiego czasu obserwacji zbiór wartości napięć
będzie nieskończony, ale przeliczalny, gdyż w tym przypadku otrzymamy
nieskończoną liczbę odczytów przyjmujących jedną spośród 10000 wartości. W
przypadku woltomierza analogowego odczytów wskazań można dokonywać z
dowolną dokładnością, więc zbiór wszystkich realizacji jest zbiorem
nieprzeliczalnym.
4
Sygnały stochastyczne można podzielić na grupy w oparciu o kryterium
“struktury dziedziny” (tzn. czasu) i kryterium “struktury amplitudowej”
(wartości zmiennej zależnej) sygnału.
Jeżeli dziedzina sygnału stochastycznego jest zbiorem nieprzeliczalnym ciągłym
chwil w których dokonujemy odczytu np. wartości amplitudy (najczęściej
skończonym odcinkiem osi czasu <t1, t2>, dodatnią półosią <0, ∞) lub całą osią
(-∞, ∞)), to sygnał taki nazywamy sygnałem z czasem ciągłym. Jeżeli dziedzina
sygnału stochastycznego jest zbiorem przeliczalnym chwil odczytu (najczęściej
jednakowo od siebie odległych na osi czasu), to sygnał nazwiemy sygnałem z
czasem dyskretnym.
Jeżeli dla każdej chwili t ∈ T wartość sygnału stochastycznego jest zmienną
losową ciągłą, to sygnał nazwiemy sygnałem ciągłym. Jeżeli dla każdej wartości
t ∈ T wartość sygnału stochastycznego jest zmienną losową dyskretną, to sygnał
nazwiemy sygnałem dyskretnym.
Ze względu na charakter zmiennej losowej i czasu sygnały stochastyczne
dzielimy więc na:
• sygnały ciągłe z czasem ciągłym - sygnałami takimi są np. sygnały
telefoniczne w telefonii tradycyjnej, radiofoniczne i telewizyjne oparte
na sygnałach analogowych,
• sygnały dyskretne z czasem ciągłym - mogą to być np. sygnały
generowane na wyjściu rejestratora cząstek będących efektem rozpadu
promieniotwórczego, lub sygnały powszechnie spotykane w technice
komputerowej,
• sygnały ciągłe z czasem dyskretnym - sygnałami tego typu są sygnały
otrzymywane w wyniku próbkowania sygnałów z czasem ciągłym,
jeżeli każda z próbek może przyjmować nieskończenie wiele wartości.
W tym przypadku można to sobie
wyobrazić jako przetwarzanie
5
analogowo – cyfrowe przetwornikiem który ma nieskończoną liczbę
poziomów kwantyzacji.
• sygnały dyskretne z czasem dyskretnym - sygnały tego typu otrzymuje
się w wyniku kwantyzacji sygnałów ciągłych z czasem dyskretnym,
zatem typowe przetworniki analogowo – cyfrowe dają nam taki
właśnie sygnał.
Przykładowe realizacje wymienionych typów sygnałów stochastycznych
przedstawiono na rysunku 1.3.
x(t)
t
x(t)
t
x(t)
x max
Rys.1.3. Przykłady realizacji sygnałów stochastycznych.
t
x min
x(t)
t
1.2.
Najczęściej używane estymaty sygnałów
Aby rozpoznać właściwości obserwowanego sygnału nie musimy znać
całego przebiegu czasowego sygnału jeżeli tylko będziemy mogli go opisać za
pomocą pewnych charakteryzujących go wielkości (estymat) w dziedzinie czasu
lub amplitudy.
6
Dla przykładu rozważmy najprostszy sygnał zdeterminowany jakim jest fala
sinusoidalna (patrz rys. 1.4), opisana równaniem:
x( t ) = A sin( ωt + ϕ )
(1.1)
gdzie:
− T - okres przebiegu,
− f = 1/T - częstotliwość,
− ω = 2π f - częstość kołowa,
są wielkościami charakteryzującymi sygnał w dziedzinie czasu. Parametr A jest
amplitudą sygnału harmonicznego i stanowi przykład estymaty w dziedzinie
amplitudy. Okres T informuje, że sygnał jest okresowy i określa czas trwania
powtarzających się fragmentów sygnału. W przypadku gdy sygnał byłby
nieokresowy (losowy) to w dziedzinie czasu jego estymatą mógłby być zbiór
kolejnych czasów ti tzw. dodatnich przejść przez zero a w dziedzinie amplitudy
musiałby to być szereg kolejnych wartości amplitud w chwilach próbkowania.
Uzyskanie pełnego opisu sygnału w dziedzinie czasu i amplitudy wymaga
zastosowania bardziej zaawansowanych
metod analizy, takich jak badanie
rozkładu gęstości prawdopodobieństwa czy też analiza częstotliwościowa, które
opisane są w dalszych rozdziałach.
W wielu jednak przypadkach wystarczającą jest znajomość pewnych estymat
liczbowych określających charakter sygnału.
x(t)
A
Rys. 1.4. Przebieg czasowy sygnału monoharmonicznego.x p
x av x rms
x p-p
t
-A
Zaliczamy do nich:
7
− xp - wartość szczytową (ang. peak),
− xp-p - wartość międzyszczytową (ang. peak to peak),
których sens fizyczny wyjaśniony został na rys. 1.4. Innymi równie powszechnie
spotykanymi miarami sygnału są:
− xrms – pierwiastek z wartości średniokwadratowej (ang. root mean
square),
− xav - wartość średnia modułu.
Wielkość xrms nazywana jest często wartością skuteczną sygnału i definiowana
jest jako:
x rms
1
=
T
T
∫
x 2 (t )dt
(1.2)
0
Wartość średnią modułu określa się zależnością:
1
x av =
T
T
∫ x(t ) dt
(1.3)
0
Wartości zdefiniowanych w tej części estymat dla sygnałów harmonicznych
wynoszą odpowiednio:
• wartość szczytowa:
xp = A,
• wartość międzyszczytowa:
xp-p = 2⋅ A,
• wartość skuteczna:
xrms = A ⋅ 2 2
• wartość średnia modułu:
xav = A ⋅ 2 π
Dla tak określonych wielkości można wprowadzić pojęcia charakteryzujące
kształt analizowanego sygnału, są to współczynnik kształtu definiowany jako:
8
xp
Fc =
(1.4)
x rms
oraz współczynnik szczytu, który zapisać można:
xrms
xav
Ff =
(1.5)
Na rysunku 1.5 zaprezentowane są przykładowe sygnały wraz z wyznaczonymi
dla nich wartościami współczynnika kształtu i szczytu.
a)
b)
x(t)
x(t)
A
A
0
t
-A
c)
10A
Ff =1, Fc =1
d)
x(t)
A
A
0
t
-A
0
Ff =1,414 , Fc =1,111
x(t)
Ff =3,437 , Fc =0,582
t
-A
x(t)
0
t
-A
Ff =1,129 , Fc =13,876
e)
0
Ff =1,731 , Fc =1,157
t
Rys. 1.5. Prezentacja przykładowych sygnałów i ich wartości współczynników kształtu i
szczytu.
9
Pierwszym przykładem jest fala prostokątna bipolarna (rys. 1.5a), dla której
współczynniki kształtu i szczytu są sobie równe i niezależnie od wartości
amplitudy zawsze równe jedności (Ff = 1
i Fc = 1). Kolejnym sygnałem jest
fala sinusoidalna, dla której wartości współczynnika kształtu i szczytu wynoszą
odpowiednio Ff = 1.414
i
Fc = 1.111. Sygnałem następnym jest
przedstawiona na rys. 1.5c fala sinusoidalna z pikiem o wartości
dziesięciokrotnie przewyższającej amplitudę fali sinusoidalnej, dla którego
wartość współczynnika szczytu znacznie wzrasta podczas gdy wartość
współczynnika kształtu pozostaje praktycznie niezmieniona (Ff = 1.129 i Fc =
13.876). Na rysunku 1.5d przedstawiony jest z kolei przykładowy przebieg
sygnału piłokształtnego, dla którego wartości współczynników kształtu i szczytu
wynoszą odpowiednio Ff = 3.437 i
Fc = 0.582. Ostatnim z grupy badanych,
przykładowych sygnałów jest szum losowy, dla którego wartości współczynnika
kształtu i szczytu wynoszą Ff = 1.731 i
sygnału
zmiana
wartości
wariancji
Fc = 1.157. Dla przypadku takiego
nie
powoduje
większych
zmian
współczynników kształtu i szczytu. Na podstawie przytoczonych przykładów
możemy ocenić przydatność omawianych powyżej miar do analizy i
rozpoznawania sygnału. Łatwą do zaobserwowania (patrz rys. 1.5c) jest znaczna
czułość współczynnika szczytu na obecność w analizowanym sygnale
gwałtownych zmian wartości (pików). Nie można tego powiedzieć o
współczynniku kształtu, który nie daje się powiązać ze zniekształceniami
analizowanego sygnału.
1.3. Momenty statystyczne zmiennych losowych
Opisem
sygnałów
w
dziedzinie
amplitudy
są
również
pewne
charakterystyczne wielkości zwane momentami statystycznymi zmiennej
losowej.
10
Moment statystyczny rzędu k zmiennej losowej x jest wartością
oczekiwaną E wyrażenia (x – c)k, gdzie c jest dowolną liczbą rzeczywistą zwaną
punktem odniesienia, a liczba k zwana jest rzędem momentu. Gdy c = 0
mkx = E( x k )
(1.6)
otrzymujemy moment zwykły rzędu k zmiennej losowej x. Zapis E(xk) oznacza
tu procedurę uśredniania, która dla zmiennej losowej dyskretnej przybiera
postać:
1
E(x ) =
N
k
N
∑x ,
gdzie N → ∞
k
i
(1.7)
i =1
podczas gdy dla zmiennej losowej ciągłej zapisać można:
t+
E(xk ) =
1
T
T
2
∫ x (t ) dt
k
t−
(1.8)
T
2
Przykładami mogą tu być moment zwykły pierwszego rzędu wyrażony jako:
m1 x = E( x )
(1.9)
który oznacza wartość średnią (przeciętną) zmiennej losowej oraz moment
zwykły drugiego rzędu:
m2 x = E ( x 2 )
(1.10)
wyrażający wartość średniokwadratową sygnału.
Jak widać w symbolu momentu wprowadzono dwa indeksy, z których pierwszy
oznacza rząd momentu natomiast drugi analizowaną funkcję.
Wartość średniokwadratowa sygnału jest powszechnie używaną estymatę
sygnału w analizie drgań. Gdy rejestrowanym sygnałem jest przebieg czasowy
prędkości drgań, jego wartość średniokwadratowa jest wyznacznikiem energii
kinetycznej drgań jako proporcjonalnej do drugiej potęgi prędkości.
Pierwiastek z wartości średniokwadratowej sygnału (rms) oznacza wartość
skuteczną sygnału i jest to estymata często wykorzystywana w elektrotechnice.
Przykładowo wartość napięcia w komunalnej sieci elektrycznej podawana jako
11
220 [V] jest jego wartością skuteczną. Ponieważ wiadomo, że przebieg napięcia
jest sinusoidalny, jego amplituda wynosi więc:
A = 2 ⋅ xrms = 311 [V ]
Momenty, których punkt odniesienia równy jest wartości średniej m1,
noszą nazwę momentów centralnych
µ kx = E{[ x − E( x )] k } = E [( x − m1 x )k ]
(1.11)
Dla przykładu, moment centralny pierwszego rzędu:
µ1x = E ( x − m1x )
sygnału harmonicznego z zerową lub niezerową wartością przeciętną m1x równy
jest zero.
Moment centralny drugiego rzędu:
µ 2 x = E [( x − m1 x )2 ] = σ x2
(1.12)
nosi nazwę wariancji zmiennej losowej x. Równanie (1.12) może być
uproszczone przez wymnożenie członu występującego w kwadracie, co daje:
σ x2 = E[x 2 − 2xE(x) + [E(x)] 2 ] =
= E(x 2 ) − 2 ⋅ E(x) ⋅ E(x) + [E(x)] 2
(1.13)
ponieważ średnia sumy członów jest taka sama jak suma średnich każdego
członu oddzielnie. Zebranie członów równania (1.13) daje:
σ x2 = E(x 2 ) − [E(x)] 2
(1.14)
co można ująć następująco:
(wariancja) = (odchylenie standardowe)2 = [wart. średniokwadratowa – (wart. średnia)2]
Wariancja jest parametrem opisowym sygnału informującym o rozrzucie jego
chwilowych wartości od wartości średniej, dlatego nazywana jest inaczej
średnim odchyleniem kwadratowym. Wartość pierwiastka kwadratowego z
wariancji (średniego odchylenia kwadratowego) nazywa się odchyleniem
standardowym (rzadziej dyspersją lub błędem losowym), które mierzy się w
tych samych jednostkach co wartość średnią:
12
σ x = σ x2 = E(x 2 ) − [E(x)] 2
(1.15)
Dla przypadku sygnału harmonicznego jego wartość skuteczna oraz odchylenie
standardowe oznacza tę samą wartość z uwagi na to, że jego wartość średnia
równa jest zero.
Definicje momentów statystycznych w prosty sposób mogą być
rozszerzone na wielowymiarową zmienną losową. W niniejszym podręczniku
ograniczymy się tylko do zmiennej dwuwymiarowej (x, y), definiując jej
moment statystyczny jako:
mklxy = E( x k y l )
(1.16)
przy czym przez analogię do zależności (1.7) dla zmiennej losowej dyskretnej
możemy zapisać
mklxy
1
=
T1 ⋅ T2
N
M
∑∑ x y
k
i
i =1
l
j
(1.17)
j =1
i wykorzystując z kolei zależność (1.8) dla dwuwymiarowej zmiennej losowej
ciągłej otrzymujemy następującą definicję jej momentu:
mklxy =
1
T1 ⋅ T2
T
T
t+ 1 t+ 2
2
2
∫ ∫
x k (t ) y l (t ) dt dt
(1.18)
T
T
t− 1 t− 2
2
2
W analizie sygnałów najczęściej wykorzystywane są momenty rzędu
pierwszego:
m1x = E ( x) ; m1 y = E ( y )
(1.19)
które przedstawiają wartości przeciętne rozkładów zmiennych losowych x i y.
Moment centralny rzędu k + l dwuwymiarowej zmiennej losowej
określony jest jako:
µ klxy = E[( x − m1x ) k ( y − m1 y ) l )]
(1.20)
Wśród najczęściej stosowanych momentów rzędu drugiego wyróżnić można:
13
µ 2 x = E ( x 2 ) − E 2 ( x) = m2 x − m12x
(1.21)
µ 2 y = E ( y 2 ) − E 2 ( y ) = m2 y − m12y
oraz
µ11xy = m11xy − m1x m1 y
(1.22)
przy czym ten ostatni zwany jest kowariancją zmiennej losowej. Jeżeli dla
zmiennej dwuwymiarowej istnieją różne od zera wartości wariancji (1.18), to
probabilistyczna zależność między zmiennymi losowymi x i y wyrażona może
być ilorazem:
Rxy =
E[( x − m1x )( y − m1 y )]
{E[( x − m1x ) ]E[( y − m1 y ) ]}
2
2
1
2
=
µ11xy
µ2x µ2 y
(1.23)
zwanym kowariancją znormalizowaną lub współczynnikiem korelacji.
Korzystając z definicji momentów statystycznych możemy wprowadzić
jeszcze dwa pojęcia, przy pomocy których możemy określić charakter sygnału.
Pierwszym z nich jest współczynnik skośności definiowany jako:
S=
µ3
σ3
(1.24)
oraz wielkość zwana współczynnikiem spłaszczenia, w postaci:
F=
µ4
−3
σ4
(1.25)
Współczynniki te zostaną bliżej omówione w rozdziale drugim, dotyczącym
metod analizy sygnałów technikami opartymi o badanie funkcji gęstości
prawdopodobieństwa.
1.4. Rozpoznawanie
czasowych.
sygnałów
na
podstawie
przebiegów
14
Dotychczas mówiliśmy o możliwości identyfikacji sygnałów poprzez
znajomość jego estymat w dziedzinach czasu i amplitudy. Uzupełnieniem tej
metody jest analiza pozwalająca na rozpoznanie sygnału na podstawie
obserwacji zmienności ich przebiegów czasowych.
W wielu wypadkach rzeczywiste sygnały są złożeniem prostych sygnałów
harmonicznych i wtedy taki sygnał wykazuje łatwo rozpoznawalne cechy.
Najprostszym przykładem składania sygnałów jest superpozycja dwóch
współosiowych ruchów harmonicznych o jednakowych okresach. Punkt M
porusza się wzdłuż osi x1 wg równania:
x1 = A1 sin(ωt + ϕ 1 )
(1.26)
natomiast punkt O1 porusza się wzdłuż nieruchomej osi x2 równoległej do osi x1
wg równania:
x2 = A2 sin(ωt + ϕ 2 )
01
(1.27)
M
x 1ruchów harmonicznych.
x 1 współosiowych
Rys. 1.6. Ilustracja do sumowania dwóch
0
x2
x2
x
Ruch złożony punktu M wzdłuż osi x określa zatem równanie:
x = x1 + x2 = A1 sin(ωt + ϕ 1 ) + A2 sin(ωt + ϕ 2 )
(1.28)
Ruch powstały w wyniku złożenia jest również ruchem harmonicznym o tym
samym okresie co ruchy składowe a więc opisany może być równaniem:
x = A sin (ωt + ϕ )
(1.29)
gdzie jego amplitudę i przesunięcie fazowe można wyrazić wzorami:
A = A12 + A22 + 2A1 A2 cos(ϕ 2 − ϕ 1 )
ϕ = arc tg
A1 sinϕ 1 + A2 sinϕ 2
A1cosϕ 1 + A2 cosϕ 2
(1.30)
(1.31)
15
Sumowania sygnałów dokonać można również przy pomocy wektorowej
reprezentacji sygnału. Jeżeli oba ruchy składowe przedstawimy za pomocą
→
→
wirujących wektorów A1 i A2 przesuniętych względem siebie w fazie o kąt ϕ ,
to wartości modułów obu wektorów wyrażają amplitudy tych sygnałów a rzuty
wektorów na oś x obrazują chwilowe wartości sygnałów.
y
A
A2
ω
t=t 0
Rys.1.7. Reprezentacja wektorowa dwóch sygnałów i ich sumowanie geometryczne.
ϕ
A1
ϕ2
ϕ1
x
Amplitudę ruchu złożonego będącego sumą sygnałów składowych stanowi
→
→
→
wektor wypadkowy A będący sumą geometryczną wektorów A1 i A2 .
W przypadku sumowania dwóch współosiowych (patrz rys. 1.7) ruchów
harmonicznych o różnych okresach:
x1 = A1 sin(ω1t + ϕ 1 )
(1.32)
x2 = A2 sin(ω2 t + ϕ 2 )
(1.33)
przy czym ω1 ≠ ω2 , to moduł ruchu wypadkowego opisany równaniem:
A = A12 + A22 + 2A1 A2 cos [(ω2 − ω1 ) + (ϕ 2 − ϕ 1 )]
(1.34)
zależy od wzajemnych relacji wartości między amplitudami, częstościami i
fazami sygnałów składowych w funkcji czasu t.
Gdy okresy ruchów składowych są współmierne (ich stosunek daje się
wyrazić przez stosunek dwóch liczb naturalnych) to ruch wypadkowy jest też
okresowy, jeżeli natomiast stosunek ich okresów nie da się przedstawić w
postaci ilorazu dwóch liczb naturalnych, to ruch wypadkowy nie jest okresowy.
16
Przykład sumowania dwóch sygnałów harmonicznych o tej samej
amplitudzie ale różnych okresach, z których jeden jest dwukrotnie dłuższy od
drugiego,
pokazano
na
rys.
1.8.
Wynikiem
sumowania
jest
sygnał
charakterystyczny dla drgań sprzęgła dwóch rozosiowanych odcinków wału;
harmoniczna podstawowa x1 = A1 ⋅ sin ωt odpowiada tutaj częstości obrotów
wału,
natomiast
druga
a)
2
2
x1(t 0)
wynikiem
t0
-1
x1(t)
x1(t 0)
1
t T
0
1
2
0
-1
T
t T
1
t0
2
T2
-2
-2
2
jest
b)
x2(t)
1
c)
x2 = A2 ⋅ sin 2ωt
harmoniczna
x1(t)+x2(t)
x1(t 0)+ x2(t 0)
1
0
t T
t0
1
2
-1
-2
Rys.1.8. Sumowanie dwóch sygnałów harmonicznych o tej samej amplitudzie, różniących
się okresami.
rozosiowania powodującego pojawienie się wymuszenia występującego z
dwukrotnie większą częstością.
Jeżeli okresy dwóch składowych drgań różnią się znacznie między sobą,
w wyniku ich złożenia otrzymujemy przebiegi, których przykładowe postaci
przedstawiono na rys. 1.9. Na rys. 1.9a pokazano przykład kiedy sygnał
składowy o większym okresie ma mniejszą amplitudę aniżeli sygnał o okresie
mniejszym.
17
Rys.1.9. Sumowanie dwóch sygnałów harmonicznych różniących się amplitudami i
okresami.
Rys. 1.9b przedstawia z kolei sytuację odwrotną, tj. sygnał o okresie małym ma
amplitudę mniejszą od sygnału o okresie dużym.
Jeżeli okresy dwóch składowych sygnałów harmonicznych różnią się
nieznacznie, to sygnał będący ich superpozycją przyjmuje postać przedstawioną
na rysunku 1.10.
Rys.1.10. Wynik sumowania dwóch sygnałów harmonicznych nieznacznie różniących
się okresami.
Amplituda takiego sygnału zmienia się okresowo od wartości będącej sumą
amplitud sygnałów składowych do wartości będącej różnicą tych amplitud,
a przypadek taki nazywamy dudnieniem. Nazwa ta pochodzi z akustyki
ponieważ przy takim złożeniu dwóch sygnałów będących falami dźwiękowymi
o nieznacznie różniących się między sobą okresach słyszymy okresowe
wzmacnianie i osłabianie dźwięku.
18
Na podstawie znajomości okresu dudnienia τ (rys. 1.10) można wyznaczyć
różnicę częstotliwości sygnałów składowych ε :
ε = ω1 − ω2 =
2π
τ
(1.35)
natomiast amplitudy sygnałów składowych można wyznaczyć z zależności:
A1 =
Amax + Amin
2
(1.36a)
A2 =
Amax − Amin
2
(1.36b)
1.5. Stacjonarność i ergodyczność procesu
Analiza
sygnałów
losowych
wymaga
wprowadzenia
dwóch
podstawowych założeń dotyczących charakteru zmienności sygnału. Założenia
te nazywane są hipotezami, których wprowadzenie warunkuje możliwość
podjęcia analizy przebiegów losowych.
Pierwsza z hipotez dotyczy stacjonarności sygnału (procesu) rozumianej
jako niezmienność w czasie jego momentów statystycznych takich jak wartość
średnia, wariancja itp. Dla przykładu rozważmy sygnał losowy (rys. 1.11), dla
którego obliczymy wartość średnią i wariancję w dwóch przedziałach różnie
zlokalizowanych na osi czasu.
x(t)
∆t1
∆ t2
Rys.1.11. Wyznaczanie momentów statystycznych sygnału losowego w dwóch dowolnych
przedziałach czasowych.
t
19
Zakładamy, że przedziały te mają jednakową długość, a czas trwania pomiaru
jest odpowiednio długi dla danego procesu. Jeżeli wartości średnie i wariancje
obliczone
w
(σ x ) ∆t1 = (σ x ) ∆t 2
poszczególnych
przedziałach
czasu:
[E(x)]∆t1 = [E(x)]∆t2
i
są sobie równe wówczas możemy powiedzieć, że sygnał jest
stacjonarny. Założenie o stacjonarności
rozumiane jest tu zatem jako
niezależność wyniku estymacji sygnału od czasu, w którym realizowany jest
pomiar. Przedział czasu obserwacji powinien być przy tym na tyle długi by
możliwe było wykonanie wiarygodnych oszacowań momentów statystycznych.
Weźmy dla przykładu sygnał harmoniczny który jest sygnałem stacjonarnym.
Jeżeli czas obserwacji będzie bardzo krótki (wielokrotnie krótszy od okresu T),
wynik oszacowania np. wartości średniej lub wariancji zależeć będzie od czasu
w którym dokonamy jego obserwacji. Podobna sytuacja wystąpi w przypadku
czasu dłuższego niż jeden okres sygnału ale nie będącego wielokrotnością T.
Dopiero uśrednianie takiego sygnału w odpowiednio długim czasie nawet w
niecałkowitej liczbie okresów spowoduje, że błąd oszacowania będzie znikomo
mały i można będzie wówczas stwierdzić stacjonarność tego sygnału.
Powyższe wnioski zachowują słuszność również dla sygnału losowego. Jeżeli
tylko szacowanie estymat wykonywane jest w odpowiednio długim czasie, to
zachowują one wartość stałą, niezależną od czasu obserwacji mimo, iż
amplituda sygnału losowego jest całkowicie nieprzewidywalna.
Dla sygnałów losowych należy jednak wprowadzić pojęcia stacjonarności w
sensie szerokim i wąskim*. Mówimy, że sygnał jest stacjonarny w sensie
szerokim jeżeli jego momenty statystyczne rzędu pierwszego i drugiego są
niezależne od czasu, natomiast stacjonarność w sensie wąskim, wymaga
niezależności od czasu także i momentów rzędów wyższych. Należy również
zwrócić uwagę, że w literaturze anglojęzycznej zamiast powyższych definicji
*
Należy tu zwrócić uwagę, iż w szeregu podręczników spotkać można inne definicje stacjonarności (patrz
np.[Szabatin]) powiązane z gęstością prawdopodobieństwa, funkcją autokorelacji etc.
20
używane są określenia sygnałów “dokładnie” stacjonarnych (strictly stationary
jako stacjonarność w sensie wąskim) i “słabo” stacjonarnych (weakly stationary
jako stacjonarność w sensie szerokim).
Przed przystąpieniem do wyjaśnienia hipotezy ergodyczności sygnału
koniecznym jest wprowadzenie pojęcia uśredniania grupowego. Do tej pory
charakterystyczne miary sygnału uzyskiwaliśmy jako rezultat uśredniania
pojedynczej realizacji procesu (patrz rys. 1.11). Rozważmy teraz zbiór N(j)
realizacji tworzących proces losowy x(t) przedstawiony na rys. 1.12.
x 5 (t)
x 4 (t)
j=1 N
t
x 3 (t)
t
x 2 (t)
t
x 1 (t)
t
r1
t
r2
Rys.1.12. Ilustracja procesu uśredniania grupowego.
Uśrednianie grupowe polega na obliczaniu wartości średniej z wszystkich
realizacji w danej chwili czasu ti, gdzie ti jest nazywany przekrojem procesu dla
wszystkich realizacji sygnału xj(t). Wartość średniej grupowej obliczamy według
poniżej przedstawionej zależności:
1
E(x) =
N
N
∑ x (t )
j
(1.37)
i
j =1
Stacjonarny proces losowy możemy nazwać ergodycznym jeżeli jego wartość
średnia
obliczona
z
pojedynczej
realizacji
procesu
21
1
E (x ) =
t1 − t 2
t2
∫ x (t)dt
j
(1.38)
t1
jest równa wartości średniej grupowej (1.34). W takim przypadku każda
pojedyncza realizacja xj(t) jest reprezentatywna dla całego procesu x(t).
Dla wykazania użyteczności hipotezy ergodyczności, rozważmy
przykład pomiaru losowo zmiennych drgań płaskiej płyty (rys. 1.13).
a)
b)
Jak widać z rysunku rozmiar płyty jest duży w porównaniu z rozmiarem
Rys.1.13. Dwa przypadki pomiaru losowych drgań płaskiej płyty.
czujnika pomiarowego i dla poprawnego oszacowania drgań płyty konieczna
byłaby instalacja wielu czujników pomiarowych, z których każdy pozwalałby na
rejestrację pojedynczej realizacji procesu. Taki sposób pomiaru byłby jednak
nieopłacalny nie tylko ze względu na koszty instalacji dużej liczby czujników
22
lecz
również
ze
względu
na
konieczność
zastosowania
rejestratora
umożliwiającego jednoczesną akwizycję wielu sygnałów. Ponadto, montaż na
płycie wielu czujników mógłby być przyczyną zmian dynamicznych układu ze
względu na przyrost masy płyty o masę wszystkich zainstalowanych czujników
pomiarowych. Jak pokazano na rysunku 1.13a sygnał z każdego czujnika
stanowi pojedynczą realizację procesu losowego i zakładając, że w przypadku
płaskiej płyty drgającej równomiernie jako całość proces ten jest ergodyczny,
wystarczy dokonywać pomiarów jednym tylko czujnikiem, ponieważ każda z
realizacji będzie reprezentatywna dla całego procesu. W przypadku formy drgań
płaskiej płyty pokazanej na rys. 1.13b amplitudy drgań są funkcją położenia
czujnika na płycie tak więc sygnały czasowe z poszczególnych czujników
wykazują różne przebiegów. Według hipotezy ergodyczności wybór miejsca
pomiaru nie powinien mieć wpływu na jego wynik tzn. charakterystyczne cechy
sygnały winny być niezmienne w czasie (co oznacza spełnienie stacjonarności) i
nie zmienia się przy przechodzeniu do innych punktów pomiarowych.
W przypadku pokazanym na rys. 1.13b hipoteza ergodyczności nie będzie
spełniona i koniecznym byłoby wówczas wykonanie pomiarów w wielu
punktach płyty. W praktyce poprzestajemy często na instalacji czujnika w
miejscu występowania maksymalnej amplitudy drgań wychodząc z założenia, że
drgania występujące w tym miejscu są najbardziej niebezpieczne dla trwałości
konstrukcji.
1.5.
Klasyfikacja sygnałów
Jak powiedziano w podrozdziale 1.1 sygnały można sklasyfikować na
dwie podstawowe grupy: sygnały deterministyczne i stochastyczne. Pierwsza
grupa sygnałów jest opisana ścisłymi zależnościami funkcyjnymi co umożliwia
określenie wartości sygnału f(t0) w dowolnie wybranej chwili czasu t0. W
rzypadku sygnału stochastycznego nie jest to możliwe, gdyż losowy charakter
23
przebiegu sprawia, że nie jesteśmy w stanie określić jaka będzie jego wartość w
chwili to. Nieprzewidywalność sygnału nie jest jednak całkowita, tzn. nie będąc
w stanie przewidzieć jego przyszłej wartości możemy jednak oszacować
przedział zmienności, w którym wartość sygnału będzie zawarta. Oznacza to
również, że przy spełnieniu określonych warunków (patrz podrozdział 1.3)
jesteśmy w stanie podać oszacowania momentów statystycznych sygnału
losowego.
Sygnały deterministyczne dla których schemat klasyfikacji pokazano na
rys.1.14 można podzielić na okresowe (periodyczne) i nieokresowe. Do grupy
sygnałów okresowych zaliczamy sygnały sinusoidalne (monoharmoniczne) oraz
sygnały poliharmoniczne (okresowo – złożone).
Sygnały zdeterminowane
Sygnały okresowe
Sygnały
sinusoidalne
(harmoniczne)
Sygnały
okresowe - złożone
(poliharmoniczne)
Sygnały nieokresowe
Sygnały
prawie okresowe
(quasi-okresowe)
Sygnały
nieustalone
(transjentowe)
Najprostszym przykładem sygnału monoharmonicznego jest przedstawiona na
Rys.1.14. Ogólna klasyfikacja sygnałów zdeterminowanych.
rys. 1.1 fala sinusoidalna opisana równaniem (1.1), w którym A oznacza
amplitudę, ω – częstość kołową, a ϕ – przesunięcie fazowe.
Drugą grupę sygnałów harmonicznych stanowią sygnały poliharmoniczne, które
traktować można jako superpozycję elementarnych sygnałów harmonicznych,
których ilorazy okresów są liczbami wymiernymi. Sygnały te można
przedstawić za pomocą wielomianów trygonometrycznych, a przykładem
najprostszego z sygnałów poliharmonicznych jest przedstawiony na rys. 1.8c,
24
przebieg będący sumą dwóch fal sinusoidalnych o okresach równych T i T/2
(rys. 1.8a i b).
Z powyższych rozważań wynika, iż grupa sygnałów poliharmonicznych jest
grupą o nieskończonej liczbie elementów, ponieważ możemy mieć do czynienia
z nieskończoną ilością różnych składowych harmonicznych (zagadnienia
związane z obliczaniem przebiegów sygnałów poliharmonicznych zostaną
omówione w podrozdziale 1.4)
Sygnały pseudo – okresowe (quasi – harmoniczne), które stanowią
podgrupę sygnałów nieokresowych,
są sumą sygnałów harmonicznych i
podobnie jak w przypadku sygnałów poliharmonicznych można je wyrazić przy
pomocy
wielomianów
trygonometrycznych.
Pomiędzy
poszczególnymi
składnikami sygnałów pseudookresowych występują jednak niewymierne
relacje
(niewymierne
stosunki
okresów
poszczególnych
składowych
harmonicznych) i dlatego też ich złożenie daje w wyniku sygnał nieokresowy.
Odrębną grupę sygnałów nieokresowych stanowią sygnały nieustalone.
Do grupy tej zaliczyć można sygnały, które charakteryzują się zmiennością w
funkcji czasu przy czym przykłady przebiegów nieustalonych zaprezentowane
są na rys. 1.15.
a)
b)
x(t)
x(t)
X
t
c)
t
d)
x(t)
t
x(t)
t
Przykładowy podział sygnałów stochastycznych, w którym kryterium
Rys.1.15. Przykłady sygnałów nieustalonych: a) wykładniczy narastający, b) impuls
wykładniczy, c) sygnał sinusoidalny malejący wykładniczo, d) sygnał Sa.
25
podziału
stanowią
wartości
dowolnych
momentów
statystycznych
analizowanego sygnału pokazano na rys. 1.16.
Sygnały losowe
Sygnały stacjonarne
Sygnały ergodyczne
Sygnały słabo stacjonarne
(w szerszym sensie)
Sygnały nieergodyczne
Sygnały ściśle stacjonarne
(w węższym sensie)
Rys.1.16. Ogólna klasyfikacja sygnałów losowych.
Sygnały niestacjonarne

Podobne dokumenty