Wyklad 3 \(Teoria informacji\)

Transkrypt

Wyklad 3 \(Teoria informacji\)
dwoma jednakowo prawdopodobnymi, ale wzajemnie
wykluczającymi się zdarzeniami
• Bit to ilość informacji koniecznej do dokonania wyboru między
• Informacja wiąże się
1
z prawdopodobieństwem wyboru sygnału: I = - log2 2
z dokonaniem wyboru, czyli ze
zlikwidowaniem stanu niepewności
Kierunki
Teoretyczny
Biologiczny
Techniczny
S3
Ekonomiczny
S1, S2, S3,
Medyczny
S4, S5, S6,
Fizjologia cybernetyczna
S7, S8
Neurocybernetyka
Cybernetyka
psychologiczna
Przesłanie sygnału wiąże się
Bionika
Cybernetyka - wprowadzenie
Zmiana entropii jako funkcji
prawdopodobieństwa wystąpienia
dwóch możliwych, ale wzajemnie
wykluczających się stanów układu
0,0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
1,1
0,0
1
16
1,2
P=
0,1
0,3
0,4
0,5
0,6
0,7
0,8
1
=4
16
Prawdopodobieństwo
0,2
I =- log2
0,9
Prawdopodobieństwo zlokalizowania pionka
Ilościowe ujęcie informacji
Entropia
1,0
Pojemność informacyjna układu:
N = mn
Pojemność informacyjna pamięci: Q = n logam
Informacja jest miarą nieokreśloności, a entropia miarą
nieuporządkowania (gdy zjawisko jest pewne ( P = 1) to zdarzenie
przyjmie jedyną postać, a entropia ma wartość równą 0
Zmiana entropii zbioru zdarzeń
S = -P1 log2P1 – P2 log2P2 … -Pn logPn
W zdarzeniach niejednakowo prawdopodobnych, ilość informacji
przypadająca na sygnał:
I = -P1 log2P1 – P2 log2P2 … -Pn logPn (bitów/sygnał)
W rzeczywistości tylko niektóre z kombinacji symboli są dopuszczalne (mają sens)
Kod składa się z m wyrazów, a wiadomość może być przesłana przez n sygnałów
Definicje pojęć z teorii informacji - I
Nadmiar informacji (Redundancja):
D=
0
1
S0
=1–h
S1 – wartość entropii dla danej wiadomości
S0 – wartość maksymalna entropii
Odwrotność entropii względnej podaje ile razy można zmniejszyć
pojemność informacyjną układu potrzebną do zakodowania wiadomości
o entropii S1, jeśli przy takich samych wyrazach kodu, użyć kodu
optymalnego
S –S
Względna entropia:
S0 = 5 bitów/znak
S1 = 4 bity/znak (Po uwzględnieniu częstości występowania liter
Nadmiar informacji w tym przypadku – 20%
Ciągły
Ziarnisty (dyskretny)
Kod informacyjny
Jest to stopień niewykorzystanej pojemności informacyjnej
Przykładem – alfabet (32 litery – wyrazy kodu mowy)
S1
h=
S0
Definicje pojęć - II
Układ B
0001
0010
0100
1000
Pojemność pamięci ukłądów: QA = QB
Q = n log2m = 4 log22 = 4 bity
P0B
=
P1B,
W układzie A:
W układzie B:
1
4
P0B = 3
P0A = P1A = 4 = 2
2
P0A, P1B – prawdopodobieństwa wystąpienia 0 i 1
2
P1B = 1
Dopuszczalne wiadomości o stanie obu układów
Układ A
0011
0101
1001
0110
1010
1100
Kodowanie informacji kodem dwójkowym
Pojęcie kodu optymalnego
log2
SA1
=
SA0
DA = 0
hA
=1
SB1
=
SB0
DB = 0.189
hB
= 0.811
3
) = 0.811 bita/sygnał
4
1
) = 1 bit/sygnał
2
3
4
log2
SA0 = SB0 = Log2m = Log22 = 1 bit/sygnał
Dla Entropia względna i nadmiar informacji
układu A
Dla układu B
1
1
Log2
+
4
4
1
2
Entropia Maksymalna dla obu układów
SB1 = -(
Układu B
1
1
Log2
+
2
2
SA1 = -(
Entropia dla wiadomości o stanie
Układu A
Kod optymalny - II
Kod dwójkowy
Kod amplitud
A
A
t
t
A
Kod częstości
A
Kod przedziałów
Kodowanie informacji
t
t
C
Szumy
Czytanie
Pisanie
Wyliczanie
– 45 bitóws
– 16 bitów/s
– 3 bity/s
S(X) – S(X/Y)
t
D
Y
[Bit]
[s]
S(X) – entropia bezwarunkowa źródła
S(X/Y) – entropia warunkowa źródła
V=
Kanał łączności
Prędkość przesyłania informacji:
X
S(X) > S(Y)
Przepływ informacji
Kodowanie i przepływ informacji w
organizmie
cAMP, Ca2+, NO
• analogowo-cyfrowe
Wartość potencjału
generującego receptora jest
wprost proporcjonalna do
logarytmu siły działającego
bodźca
Informacja o sile bodźca
• cyfrowe
Sygnał ciągły po przekroczeniu
wartości progowej generuje
serię następnych sygnałów
nic”
• analogowe „wszystko albo
Przetwarzanie informacji
Funkcja przenoszenia
Zależność między wejściem i wyjściem układu
Sterowanie a regulacja
•
dodatnie – reakcje kaskadowe
• ujemne – stabilizuje układ
Sprzężenie zwrotne
Elementy pętli sprzężenia zwrotnego
Układy takie mają oprócz współczynnika tłumienia
także częstość oscylacji (ω = 2π/T)
W układach
inercyjnych sygnały
wejściowe x są
transformowane na inne
y kosztem energii
układu.
W układach
oscylacyjnych elementy
nie tylko wytracają
energię ale mogą też
chwilowo ją
magazynować jako
energię potencjalną
Układy oscylacyjne
Funkcja przenoszenia o charakterystyce
dynamicznej- układ inercyjny I rzędu,
zmiana w reakcji na bodziec = y = yo(1- e-(t/A)
A = stała czasowa - określa czas narastania
wielkości do wartości yo = Gxo
Połączenie szeregowe dwóch układów daje układ inercyjny II rzędu,
a n układów - n rzędu
• Funkcja przenoszenia y = f(x)
o charakterystyce statycznej
• Wzmocnienie lub tłumienie
układu: tgα = G
Równowaga
Funkcje przenoszenia statyczne i
dynamiczne
Energia
X
+/-
Komparator
Receptor
wyjście
Y
Wzorzec
Pamięć
∆Y/∆
∆X – wzmocnienie G pętli
1/(1+G) – współczynnik niwelacji
X’
Obiekt regulowany
Wzmacniacz
Efektor
Wejście
X’’
Zakłócenie
Układ samoczynnie regulujący się
Schemat krzepnięcia krwi jako przykład
układu z wieloma pętlami sprzężenia
zwrotnego
Informację można
przekształcić w
entropię i odwrotnie
Gdy powiększamy
wiedzę o układzie,
entropia układu lub
otoczenia rośnie
Entropia a informacja
Demon Maxwella
34 [J/0K]
S = 0,9522x10-23 [J/0K] x I
S = 1,38x10-34 [J/0K] x I
k = 1,38x10
gdy I = 1 bit to S = 0,95x10—23 [J/0K]
[S] = [J/0K]
Ponieważ
I = -log2Z
S = k x 2,9 x 0,3 x log2Z
S = k x 2,3 x 0,3 x I
S = k x 2,9 x Log10Z
S = k x lnZ
Entropia a informacja