Teoria informacji

Transkrypt

Teoria informacji
wonabru
Teoria informacji
W skrócie
W prezentowanej w tej pracy teorii, teorii informacji, wynikają poważne
konsekwencje dla ogólnie przyjętych zasad fizyki, takich jak zasada zachowania pędu, czy
energii. Zasady zachowania są spełnione, ale w układach kwantowych należy uwzględnić
pewien niewielki czynnik, który może powodować niewielką zmianę energii, czy pędu, którą
w doświadczeniu trudno wykryć. Jeśli teza teorii informacji jest słuszna, to należałoby
uogólnić zasady zachowania, ale to nie podważa zgodności całej dotychczasowej fizyki.
Teoria informacji jest teorią komplementarną do fizyki w ogólności, a szczególnie do
mechaniki kwantowej. Teoria informacji miała na celu wyjaśnienie niektórych dziwnych
aspektów mechaniki kwantowej, ale w konsekwencji dała spójną teorię wnoszącą nowe
spojrzenie na podstawowe zasady całej fizyki. Ważną konsekwencją teorii informacji jest
wkład do biologii i filozofii człowieka ponieważ podstawowym założeniem tej teorii jest
odrębność układu obserwowanego od obserwatora, którym jest człowiek. Zasadniczą rolę w
teorii pomiarów układów kwantowych według Eugena Wignera jest świadomość, która
powoduje kolaps funkcji falowej. Podejmując myśl Wignera uważam świadomość za
obserwatora, co w konsekwencji wynika, że świadomość jest całkowicie odrębna od materii i
nie można rozumieć świadomości jako cechy nawet bardzo złożonego układu jakim jest
mózg.
1
Prawa informacji
W teorii informacji zakłada się odróżnienie układu obserwowanego od obserwatora.
Za obserwatora uważam świadomość, która według Wignera jest odpowiedzialna za kolaps
funkcji falowej.
Informacja I jest wielkością charakteryzującą dowolne zdarzenie. Zdarzenia są takie
same, jeśli generują taką samą informację I . Wartości własne informacji I określają ilość
informacji I k :
I k  I k k
gdzie k jest wektorem własnym.
W szczególnym przypadku zachodzi równanie charakterystyczne:
I D  I D
(1)
gdzie D jest wektorem własnym zdarzenia w przestrzeni działania. W takim
przypadku I jest całą ilością informacji I . Z równania (1) można wywnioskować, że ilość
informacji jest proporcjonalna do działania:
 Et dt  hI
(2)
gdzie h jest stałą Planka.
Równoważna forma różniczkowa równania (2) jest następująca:
E p t   Ek t   E t   h
Wielkość
dI
dt
(2a)
dI
jest źródłem informacji. Anihilacja energii w zdarzeniu generuje pewne źródło
dt
informacji dla obserwatora. Uogólnienie zasady zachowanie energii będzie więc następujące:
Energia całkowita układu zamkniętego razem ze wszystkimi źródłami
informacji tego układu dla obserwatorów jest wielkością stałą.
2
Ilość informacji dI jest wielkością skwantowaną. Przyjmuje wartość zero dI = 0 w
momencie gdy nie ma pomiaru. Dla udanego pomiaru dI przyjmuje wartości dyskretne:
 jeśli mamy wybór między dwoma możliwościami:
dI =
1 log 2 2 = 1,
2 log 2 2 = 2,
3 log 2 2 = 3...
 jeśli mamy wybór między trzema możliwościami:
dI =
1 log 2 3  1,58496,
2 log 2 3  3,1699...
 jeśli mamy wybór między czterema możliwościami:
dI =
1 log 2 4 = 2,
2 log 2 4 = 4...
Postępując tak dalej możemy wyznaczyć wszystkie możliwe wartości działania. Teoria
informacji dopuszcza wielkości działania, które nie są liczbami naturalnymi, co różni ją od
założeń mechaniki kwantowej. Max Planck na początku naszego wieku założył istnienie
kwantu działania, co zgodne jest z doświadczeniem. Z założenia tego wynika że
najmniejszym kwantem działania jest stała Plancka h, co zgodne jest z teorią informacji.
Teoria informacji idzie o krok dalej i przewiduje dodatkowe, większe kwanty działania. W
tym momencie możnaby ten efekt wykorzystać do doświadczalnego potwierdzenia tezy teorii
informacji.
Równanie (2) ma wymiar działania, więc w analogii do fizyki klasycznej możemy
zdefiniować informacyjną wersję najmniejszego działania w formie:
W układach rzeczywistych zdarzenie przebiega w sposób generujący
najmniejszą ilość informacji z możliwych.
3
Biorąc pod uwagę to, że najmniejszą ilością informacji jest jeden bit, możemy zapisać
nierówność:
dI 1
 E  t  h
(3)
Nierówność (3) jest nieoznaczonością Heisenberga i wynika z definicji informacji.
W mechanice kwantowej występuje następujący operator energii:
E
ih 
2 t
(4)
który działając na funkcję falową daje wartość energii:
ih 
  E
2 t
(4a)
W konsekwencji daje to wartość energii:
E   1
ih 

2 t
Co po podstawieniu energii z równania (2a), daje nam związek zmiany ilości informacji w
zdarzeniu z funkcją falową stanu początkowego  p i stanu końcowego k układu:
dI
i  1 



k  p1 p 
 k
dt 2 
t
t

(5)
lub równoważny związek z którego możemy wyliczyć ilość informacji:
I
i 
 1
 1 
 p p  k k dt

2 
t
t

(5a)
Biorąc pod uwagę równanie (5) i to, że pochodną cząstkową możemy zamienić na pochodną
zwykłą i pochodne cząstkowe po r w następujący sposób:

d
 x  y  z d
r
r , t   r , t  


 r , t   r , t 
t
dt
x t y t z t dt
t
dostajemy:
dI  
1
2  i

p  k1k   dr
1
p
Biorąc pod uwagę, że operator pędu w mechanice kwantowej jest następujący:
p̂  i
otrzymujemy:
dI  h  p  dr
(6)
4
Po uwzględnieniu, że ilość informacji z udanego pomiaru jest większa od jednego bitu,
dostajemy relację nieoznaczoności Heisenberga p  dr  h .
Z równania (6) poprzez zróżniczkowanie po dt, otrzymamy:
dW  p  v  h
dW  Ek  h
dI
dt
dI
dt
(7)
gdzie v jest średnią wartością prędkości: v 
vk  v p
2
. Widać, z tego, że praca
wykonana nad układem minus zmiana energii kinetycznej tego układu jest też źródłem
informacji.
Wykorzystując zasadę najmniejszej informacji, możemy w sposób użyteczny wyliczać
sposób zajścia zdarzenia. Miarą informacji może być entropia informacyjna Shannona, która
mówi o wielkości niepewności zdarzenia:
S   p X i log 2  p X i 
(8)
i
gdzie p X i  jest prawdopodobieństwem zajścia zdarzenia i
 p X   1 .
i
Dla
i
zdarzenia o najmniejszej ilości informacji entropia będzie miała największą wartość, czyli
największą z możliwych niepewności. Rozważając doświadczenie Younga z dwoma
szczelinami możemy wyliczyć jak kwant energii przejdzie przez szczeliny generując jak
najmniejszą ilość informacji. Należy obliczyć maksymalną entropię. Okazuje się, że
maksimum, entropia S przyjmuje dla p1  p2 
1
. Oznacza to, że prawdopodobieństwo
2
przejścia przez jedną szczelinę, jak i przez drugą równają się 50 %.
5