Danuta Makowiec UKŁADY ZŁOONE

Transkrypt

Danuta Makowiec UKŁADY ZŁOONE
Danuta Makowiec
Zaprasza na wykład pt:
UKŁADY ZŁOŻONE
2 godziny w tygodniu wykładu
+ 2 godziny ćwiczeń laboratoryjnych
Jak powstają własności
kolektywne w układach
zbudowanych z wielu
oddziałujących ze sobą
składników, jeśli te własności
nie dają się powiązać z
własnościami składników?
ISTOTA:
•
•
•
•
Mnogość elementów
Nieliniowość oddziaływań
Nieprzewidywalność własności
Stała zmienność
.
Gra Życie
• Łąka podzielona na kwadratowe rewiry komórki,w
których można żyć, jeśli tylko sąsiedztwo pozwoli
Sąsiedzi: ci, co okupują zielone komórki
Reguły życia i śmierci :
•Jeśli komórka ma dokładnie dwóch
żywych sąsiadów, to nic się z nią nie
dzieje.
•Jeśli komórka ma trzech żywych
sąsiadów, to zawsze komórka jest żywa.
•Jeśli liczba żywych sąsiadów jest 0, 1 , 4,
5, 6, 7, 8, to życie w komórce umiera.
Fizycy nie tylko
wszystko wiedzą,
oni wiedzą wszystko lepiej…
Nieprawda.!!!!
To komputerowcy od fizyki statystycznej
wiedzą wszystko najlepiej
Liczby losowe:
generatory
własności
“Każdy, kto rozważa arytmetyczne
metody produkcji liczb losowych, jest,
oczywiście, w stanie grzechu”
John von Neuman
(1951)
“Każdy, kto nie widział tego cytatu w
mniej niż 100 miejscach, to pewnie
jeszcze jest młody”
D.V. Pryor (1993)
100
80
60
40
20
0
0
20
40
60
80
100
Genarator
“Stauffera
O.K.
NIE O.K.
X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1)
Dodawanie modulo 2
wynik
X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1)
Dodawanie modulo 2
wynik
X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1)
X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1)
X(n-10)
Dodawanie modulo 2
wynik
X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1)
X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1) wynik
Dodawanie modulo 16
1
0
0
0
0
1
0
1
0
1
1
1
1
1
1
0
1
0
1
0
0
1
0
0
0
1
1
0
1
1
1
1
1
1
1
0
0
1
0
0
Xn-10
Xn-7
Kanoniczny sposób inicjacji tego generatora:
Dodawanie modulo 16
przykład 1
0
0
0
0
Xn-10
0
1
0
Xn-7
0
0
0
0
0
0
Kanoniczny sposób inicjacji tego generatora:
przykład 2
1
0
0
0
Xn-10
0
1
0
Xn-7
0
0
0
0
0
0
Transformacja gęstości prawdopodobieństwa
X:
dx
f(x)
f(x)dx
x
x
y(x)
Y = y (X)
x
f(x)
X:
f(x)dx
x
x+dx
x
g(y) dy = f(x) dx
y(x)
dy
x
f(x)
f(x)dx
dx
x
Transformacja gęstości prawdopodobieństw przy zamianie
zmiennej losowej x na zmienną y=y(x).
y(x)
g(y)dy
dy
g(y) dy = f(x) dx
g(x)
x
f(x)
f(x)dx
dx
x
g(y) dy = f(x) dx
dx
g(y) = f(x)
dy
Transformacja gęstości prawdopodobieństw przy zamianie
zmiennej losowej x na zmienną y=y(x).
x=G(y)
dx
y
g(y) dy = dx
g(y)dy
dy
y
trafiony
lub
pudło
trafiony
lub
pudło
Generowanie liczb losowych o dowolnym rozkładzie
x=G(y)
dx
y
Transformacja gęstości
prawdopodobieństwa przy
zamianie zmiennej losowej o
rozkładzie jednostajnym X
na zmienną Y=y(X).
g(y) dy = dx
g(y)dy
dy
dG(y)=dx
G(y)= x
y
y=G-1(x)
Metoda akceptacji
i odrzucania
John von Neumann
trafiony
lub
pudło
x
d
g(y)
a
b
y
yi akceptujemy, jeśli :
x
xi < g ( yi )
d
g(y)
(yi, xi)
a
b
y
Warunek:
x
xi < g ( yi )
jest niespełniony.
yi odrzucamy
d
(yi, xi)
g(y)
a
b
y
Wydajność:
xi < g ( yi )
Warunek
akceptacji
yi
x
g ( yi )
xi <
s ( yi )
s(y) : gęstość dominująca
g(y)
(yi, xi)
a
b
y
P’(x)
P(x)
Metoda
Monte Carlo
Próbkowanie bezpośrednie:
f(x)
∆ ∆ ∆
xi
xmin
Systematycznie : xmin, =x0 ,
x1=x0 +∆,
.......
x1+i=xi +∆,
….. ... ,
xmax
xi +1
xmax
x max
I =
∫
f ( x ) dx =
x min
lim
n→ ∞
x max − x min
n
n
∑
i =1
f ( xi )
f(x)
xmin
xi +1
xi
xmax
Losowo: xi: xmin, ,....., xmax
xmax
I=
∫
xmin
n
f ( x)dx = lim n →∞
xmax − xmin
f ( xi )
∑
n
i =1
In-1
ε
Zbieżność
liczbowa
In+1
In
In+1
In-1
ε
In
Zbieżność
probabilistyczna:
Liczba In taka , że |I - In | < ε może być uzyskana
z określonym prawdopodobieństwem
Mocne prawo wielkich liczb
Pr
{ lim n→∞ I n = I }
n
1
I n = ∑ f ( xi )
n i =1
=1
Z centralnego twierdzenia granicznego:
∞
Pr
2
σ λσ
= ∫ f 2 ( x ) µ ( x ) dx
{ | I n − I |≤
}
−∞
n
=
λ
2π
∫λe
−
− x2 / 2
1
n
dx + O( )
Błąd metody trapezów:
∆I ∝
1
n
2/d
Błąd metody Monte Carlo:
1
∆I ∝
n
Metoda
Monte Carlo:
I =∫
S
f ( x)
f ( x)dx = ∫
p ( x)dx =
p( x)
S
Generowanie zmiennych losowych
o rozkładzie p(x)
Układy dynamiczne nieliniowe
Odwzorowanie
logistyczne
x n + 1 = ax n (1 − x n )
Diagram bifurkacyjny
Odwzorowanie Henona
x n + 1 = 1 − ax n2 + y n
y n + 1 = bx n
(I) Dyskretna przestrzeń
z
s=(x,y,z;t)
y
x
(0,2,0)
s=(i, j, k;t)
(0,0,2)
(0,1,0)
(0,0,1)
(0,0,0)
(1,0,0)
(2,0,0)
2-wymiarowa sieć:
(0,2)
(0,1)
(1,2)
S(1,1)
(2,2)
(2,1)
1-wymiarowa sieć:
(0,0)
1
2
S(3)
4
5
6
(1,0)
(2,0)
(II) Lokalna reguła iteracyjna
s(i,j,k;t)= R({ s(i ±1,0
1,0 , j ±1,0,
1,0, k ±1,0
1,0 ; t-1)})
(III) Dyskretna przestrzeń
stanów
Gaz sieciowy:
1
Łańcuch spinów:
Automat komórkowy:
4
5
6
Elementarny automat komórkowy
L
C
P
najbliżsi sąsiedzi dowolnej komórki: Lewa, Centralna i Prawa
reguła działania: zmień kolor na czerwony, jeśli albo Lewa albo Prawa jest czerwona
zmień kolor na żółty, jeśli obie komórki Lewa i Prawa są w tym samym kolorze
T=0
XOR
Żółty
Czerwony
Żółty
Żółty
Czerwony
Czerwony
Czerwony
Żółty
periodyczne
warunki
brzegowe
L
C
P
najbliżsi sąsiedzi dowolnej komórki: Lewa, Centralna i Prawa
XOR
Żółty
Czerwony
Żółty
Żółty
Czerwony
Czerwony
Czerwony
Żółty
periodyczne
warunki
brzegowe
T=0
T=1
synchroniczne
updata-owanie
L
C
P
najbliżsi sąsiedzi dowolnej komórki: Lewa, Centralna i Prawa
XOR
Żółty
Czerwony
Żółty
Żółty
Czerwony
Czerwony
Czerwony
Żółty
periodyczne
warunki
brzegowe
T=0
T=1
T=2
T=3
T=4
synchroniczne
updata-owanie
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Dywan Sierpińskiego:
bi(t+1)= bi-1(t) XOR bi+1(t)
Elementarne automaty
komórkowe:
bi i ∈{0,1} ,
bi-1
bi
b i+1
i∈Z
Elementarne automaty
komórkowe:
bi i ∈{0,1} ,
bi-1
najbliżsi sąsiedzi komórki
Reguła automatu:
bi
i∈Z
b i+1
i : {i-1, i, i+1}
f : ( bit−1 , bit , bit+1 ) 
→ bit +1
Elementarne automaty
komórkowe:
bi i ∈{0,1} ,
bi-1
najbliżsi sąsiedzi komórki
bi
i∈Z
b i+1
i : {i-1, i, i+1}
f : ( bit−1 , bit , bit+1 ) 
→ bit +1
Reguła automatu:
000
001
010
011
100
101
110
111
Elementarne automaty
komórkowe:
bi i ∈{0,1} ,
bi-1
bi
najbliżsi sąsiedzi komórki
i∈Z
b i+1
i : {i-1, i, i+1}
f : ( bit−1 , bit , bit+1 ) 
→ bit +1
Reguła automatu:
000
001
010
011
100
101
110
111
0
1
1
0
1
1
0
0
Elementarne automaty
komórkowe:
bi i ∈{0,1} ,
bi-1
bi
najbliżsi sąsiedzi komórki
b i+1
i : {i-1, i, i+1}
f : ( bit−1 , bit , bit+1 ) 
→ bit +1
Reguła automatu:
Reguła 54:
i∈Z
000
001
010
011
100
101
110
111
0
1
1
0
1
1
0
0
0* 20 + 1* 21 + 1* 22 +
0* 23 +
1* 24 + 1* 25+ 0* 26+ 0* 27
Przestrzeń stanów i
baseny przyciągania
Dla sieci o rozmiarze n, niech B jest jednym z
możliwych stanów , np..: 001010….. 0001
Część trajektorii B w przestrzeni stanów:
C to następnik, A to poprzednik- graf
skierowany buduje się
Stan B może być uzyskany z wielu innych
niż A stanów : {przeciwobrazy stanu B} .
Mamy charakterystyke B przez in-degree
Przeciwobrazy stanu B mają swoje
przeciwobrazy albo nie mają żadnego.
Stany bez przeciwobrazów nazywamy
Rajskim Ogrodem
Przestrzeń stanów i
baseny przyciągania
Każdy stan w wyniku ewolucji musi trafić
na konfiguracje, w której już był.
Układ jest skończony - atraktorem zawsze
jest cykl.
Przestrzeń stanów i
baseny przyciągania
Dla każdego stanu cyklu budujemy jego
własne drzewo przeciwobrazów
Czasem takie drzewo może być puste.
Generuje się basen przyciągania dla danego
cyklu.
Przestrzeń stanów i
baseny przyciągania
Tutaj już cała przestrzeń stanów 2n
podzielona na baseny przyciagania do
różnych cykli.
Przestrzeń stanów i
baseny przyciągania
n=13
k=3
n=3 rule 193, L=10, seed singleton
n=3 rule 193, L=15,
seed 110011000001101
Equivalent transient
trees suppressed
n=3 rule 193, L=10, seed singleton
n=3 rule 41
L=15,
seed 110011000001101
n=3 rule 18, L=18,
seed 101000000101000000
n=3 rule 33, L=16,
seed 0111111111100000
n=3 rule 251, L=12, seed singleton
Equivalent transient trees suppressed.
n=3 rule 60, L=24,
seed 011011011011011011011011
Discrete Dynamics Lab
Andy Wuensche
www.cogs.susx.ac.uk/users/andywu/ddlab.html
G-density:
gęstość
Rajskiego
Ogrodu
set of k=7 totalistic rules,
n=16,
The complete basin of attraction field was generated
for each rule and garden-of-Eden states counted.
Gdensity
:
gęstoś
ć
Rajskie
go
Ogrodu
The G-density plotted against system size system size n, for the ordered, complex and chaotic rules.
The the entire basin of attraction field was plotted for n = 7 to 22, and garden-of-Eden states counted.
Ordered
CA
dynamics
Complex
CA
dynamics
Chaotic
CA
dynamics
Space-time patterns
Rule 54
Alternatywne prezentacje czaso-przestrzennych obrazów reguły 54 (n=150). Po odfiltrowaniu
wzoru podstawowego reguły, wydobywamy skomplikowany układ oddziałujących obiektówgliderów, wiekszych niż pojedyncza komórka.
Niefiltrowane i częściowo przefiltrowane obrazy czaso-przestrzenne dla reguły18.
Ujawnia się nieciągłość przy chaotycznym wzorze podstawowym reguły.
Przeróżne szybowce o różnych prędkościach i różnych tłach, na których żyją
Przykłady szybowcowych dział
Input- entropy
2k
S (t ) = −∑i =1 ( p log p )
t
i
t
i
Entropy-density scatter plots.
Input-entropy is plotted against
the density of 1s relative to
a moving window of 10 time-steps.
k=5, n=150.
About 1000 time-steps
are plotted from several
random initial states
for each rule.
Entropia
vs gęstość 1
I klasa
II klasa
II klasa
IV klasa
Stauffer D. , J. Phys A.24, 909 (1991)
Computer simulations of cellular automata,
Multi-spin coding
n[1...L]= { 0,0,1,1,0,1,0,1,1,1,0,1,1,0,1,0,1,1,1,0,1,0,1,0,1,1,.....}
L
LL=L/32
nn[1..LL]
Stauffer D. , J. Phys A.24, 909 (1991)
Computer simulations of cellular automata,
Multi-spin coding
n[1...L]= { 0,0,1,1,0,1,0,1,1,1,0,1,1,0,1,0,1,1,1,0,1,0,1,0,1,1,.....}
L
LL=L/32
nn[1..LL]
L=960 , LL=30
nn[ 1]={n[ 1], n[31], n[61], ...., n[931]}
nn[ 2]={n[ 2], n[32], n[62], ...., n[932]}
nn[ 3]={n[ 3], n[33], n[63], ...., n[933]}
...
...
...
nn[30]={n[30], n[60], n[90], ...., n[960]}
Stauffer D. , J. Phys A.24, 909 (1991)
Computer simulations of cellular automata,
Multi-spin coding
n[1...L]= { 0,0,1,1,0,1,0,1,1,1,0,1,1,0,1,0,1,1,1,0,1,0,1,0,1,1,.....}
L
LL=L/32
nn[1..LL]
L=960 , LL=30
{n[960], n[30], n[60], ...., n[930]}
nn[ 1]={n[ 1], n[31], n[61], ...., n[931]}
nn[ 2]={n[ 2], n[32], n[62], ...., n[932]}
nn[ 3]={n[ 3], n[33], n[63], ...., n[933]}
...
...
...
nn[30]={n[30], n[60], n[90], ...., n[960]}
{n[31], n[61], n[91],...., n[ 1]}
Dywan Sierpińskiego:
Nagel, Schreckenberg, J.Phys. I , France 2, 2221 (1992)
Model Na-Sch
Startujemy-
A) przyśpieszanie:
B) hamowanie :
C) przypadkowe hamowania:
Jedziemy....
D.Chowdhury, cond-mat/9910173 12 Oct 1999
p=0.25
ρ=0.2
p=0.0
ρ=0.5
< v >= min(v max ,
1
ρ
− 1)
Moore 1962
Synchronizacja salwy
Generał
żołnierze
Problem:
W chwili t=1 generał dostaje sygnał z zewnątrz.
Tak skonstruować stany automatów komórkowych i reguły przejścia, aby wszystkie automaty w
jednej chwili i po raz pierwszy znalazły się w stanie wyróżnionym OGNIA
MacCarthy-Minsky (1965)
krok 3
krok 2
krok 1
Model Bak-Tang-Wiesenfeld
P.Bak, C.Tang,K.Wiesenfeld, Phys.Rev.Lett.59,381 (1987)
h
z1
zn > 2
n
zn= h(n) - h(n+1)
n+1
Jeśli zn > 2 , to
N
zn-1 → zn-1 + 1
zn → zn - 2
zn+1 → zn+1 + 1
A self-organized critical model on a fractal lattice
Znaki stanu samo-organizującej się krytyczności (SOC):
dystrybucja rozmiarów s lawiny :
D(s) ∝ s
−τ
τ =1.0 dla D=2
dystrybucja czasów życia T lawiny :
D(T ) ∝T
−α
α = 0.43 dla D=2
A self-organized critical model on a fractal lattice
Znaki stanu samo-organizującej się krytyczności (SOC):
dystrybucja rozmiarów s lawiny :
D(s) ∝ s
−τ
τ =1.0 dla D=2
dystrybucja czasów życia T lawiny :
D(T ) ∝T
−α
α = 0.43 dla D=2
Toom’s North-East-Center
(NEC) voting model
Ni
Ci
•A.L.Toom et.al. : Stochastic Cellular Systems: Ergodicity, Memory,
Morphogenesis. (Manchester University Press, Manchester, 1990)
• Ch.H. Bennett, G.Grinstein, Phys. Rev. Lett. 55 (1985) 657
• J.L.Lebowitz, Ch. Maes, E.R. Speer,. J. Stat. Phys. 59 (1990) 117
• R.Fernandez , Physica A 263 (1999) 117
-nonergodic
-irreversible
=1
=-1
Ei
a stochastic rule:
 sgn( N i + E i + C i )
C 'i = 
− sgn( N i + E i + C i )
1
2
1
with prob.
2
with prob.
(1 + ε )
(1 − ε )
in a thermodynamic way:
1
2
P (C ' i | ( N i , Ei , C i )) = [1 + ε C ' i sgn( N i + E i + C i )]
Gaz sieciowy FHP
Konfiguracja początkowa
propagacja
zderzenia
U.Frisch,B.Hasslacher,Y.Pomeau,Phys.Rev.Lett.56,1505(1986)
zderzenia
Model Rothmana- Kellera nie
mieszających się molekuł
Separacja faz: gazowej i ciekłej
Reaktywne gazy sieciowe
Model Schlogl :
k0
A
X
k1
X
2X +B
3X
k3
A
k2
3X
2X + B
Mikrodynamika:
•propagacja
•zderzenie elstyczne
•zderzenie
nieelastyczne- reakcja
chemiczna
LGA
LB
CML
P.Marcq, H.Chate, P.Manneville, Phys.Rev.E 55,2606 (1997)
Miller Huse,93
t+1
i, j
t
i, j
t
i−1, j
t
i+1, j
t
i, j−1
t
i, j+1
x = (1−4g) f (x ) + g[ f (x ) + f (x ) + f (x ) + f (x )]
g ∈ [0, 14 ]
σ it, j = sgn( xit, j )
1
-1
-1/3
-1
1/3
1
fk
Hipoteza:
Typy komórek kształtują się
wskutek różnej aktywności genów w
obecności innych genów
fi
Ilość
różnych
komórek
∝ N
Pojedyncze mutacje mogą implikować
zjawiska krytyczne
http://necsi.org/projects/gavin/interact.html
Navier-Stokes Equations
r
∇ ⋅u = 0
r
r
r
r 1
du
2r
= −(u ⋅ ∇)u − ∇p + ν∇ u + f
ρ
dt
convection
pressure
viscosity
external
forces
dX
= S( X − Y )
dt
dY
= RX − Y − XZ
dt
dZ
= XY − BZ
dt
S=10.0
R=28
B=8/3
ComplexFluidDynamics
pi , j +1
vi , j + 1
2
ui − 1 , j
pi −1, j
2
ui + 1 , j
2
pi , j
vi , j − 1
2
pi , j −1
pi +1, j
Równania różniczkowe są
przybliżeniem - opisem różnych
aspektów rzeczywistości
Automaty komórkowe są innym
przybliżeniem - opisem
rzeczywistości,
ale czy gorszym?
Wymień stany sąsiednich komórek
Przepływ wokół NACA 9620
przy 30o kącie ataku.
CAM z siecią 4095x2048
Magnetyzacja spinu w modelu z ferromagnetycznym oddziaływaniem
Jak przejście fazowe obserwować
w układach z oddziaływaniem
antyferromagnetycznym ?
J
J’
Frustracja:
konflikt pomiędzy
oddziaływaniami
czy innymi czynnikami
porządkującymi taki, że
wszystkie nie mogą być
spełnione równocześnie
<> 0 dla pewnych „temperatur”
Parametr porządku
ŚWIAT, GDZIE NIE PRACUJE
PRZYBLIŻENIE POLA ŚREDNIEGO
= 0 dla pewnych „temperatur”
Fluktuacje parametru porządku –
korelacje parametru porządku
Zjawisko krytyczne
Bezpośrednie modyfikacje modelu Isinga:
długozasięgowe ferromagnetyczne
długozasięgowe antyferromagnetyczne
długozasięgowe mieszane
Żelazo w złocie: FexAu1-x
Przejście szkliste:
R (1 | −1) ∝ e − β∆E
Temperatura niższa czas oczekiwania
na kolejny przeskok coraz dłuższy
Odcisk
przejścia
szklistego:
Temperatura
przejścia
zależy od
tempa
chłodzenia
Cechy – klucze, szkła spinowego
J>0
J<0
Model Mattisa
Twierdzenie ergodyczne
Utożsamienie średnich uzyskanych z obserwacji
długoczasowych pojedynczego układu ze średnimi
otrzymanymi w zespole statystycznym
WYGENEROWAĆ
EWOLUCJĘ
ZGODNĄ
Z ROZKŁADEM
ZESPOŁU
Algorytm Metropolisa et.al.
 λ
P ( s ' | s ) =  P ( s ')
λ
 P(s)
(53)
P( s ' ) ≥ P( s )
P( s ' ) < P( s )
praktyka λ=1
Główny program
(A) wprowadź konfiguracje początkową α ,
Główny program
(A) wprowadź konfiguracje początkową α ,
(B) wygeneruj nową konfigurację β ,
Główny program
(A) wprowadź konfiguracje początkową α ,
(B) wygeneruj nową konfigurację β ,
(C) oblicz prawdopodobieństwo przejścia P(β
β|α )
α
β
Główny program
(A) wprowadź konfiguracje początkową α ,
(B) wygeneruj nową konfigurację β ,
(C) oblicz prawdopodobieństwo przejścia P(β
β |α)
(D) wygeneruj liczbę losową r z [0,1) (rozkład
jednostajny)
Główny program
(A) wprowadź konfiguracje początkową α ,
(B) wygeneruj nową konfigurację β ,
(C) oblicz prawdopodobieństwo przejścia P(β
β|α)
(D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny)
(E) Jeśli r < P
zaakceptuj nowy stan: α := β
wykonaj test na niezależność konfiguracji
Główny program
(A) wprowadź konfiguracje początkową α ,
(B) wygeneruj nową konfigurację β ,
(C) oblicz prawdopodobieństwo przejścia P(β
β|α)
(D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny)
(E) Jeśli r < P
zaakceptuj nowy stan : α := β
wykonaj test na niezależność konfiguracji
•jeżeli konfiguracje są niezależne, to wylicz O
dla tej konfiguracji i zmagazynuj wynik
Główny program
(A) wprowadź konfiguracje początkową α ,
(B) wygeneruj nową konfigurację β ,
(C) oblicz prawdopodobieństwo przejścia P(β
β|α)
(D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny)
(E) Jeśli r < P
zaakceptuj nowy stan : α := β
wykonaj test na niezależność konfiguracji
•jeżeli konfiguracje są niezależne, to wylicz O dla tej
konfiguracji i zmagazynuj wynik
(F) wróć do (B)
(A) wprowadź konfiguracje początkową α ,
(B) wygeneruj nową konfigurację β ,
(C) oblicz prawdopodobieństwo przejścia P(β
β|α)
(D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny)
(E) Jeśli r < P
zaakceptuj nowy stan : α := β
wykonaj test na niezależność konfiguracji
•jeżeli konfiguracje są niezależne, to wylicz O dla tej
konfiguracji i zmagazynuj wynik
(F) wróć do (B)
(G) wyznacz średnią zmagazynowanych wyników
(A) wprowadź konfiguracje początkową α , ustal temperaturę T
(B) wygeneruj nową konfigurację β ,
(C) oblicz prawdopodobieństwo przejścia P(β
β|α)
(D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny)
(E) Jeśli r < P
zaakceptuj nowy stan : α := β
wykonaj test na niezależność konfiguracji
•jeżeli konfiguracje są niezależne, to wylicz O dla tej
konfiguracji i zmagazynuj wynik
(F) wróć do (B)
(G) wyznacz średnią zmagazynowanych wyników
(H) obniż temperaturę
Przepis Metropolisa et.al. w zespole kanonicznym
λ
{λe
P(β | α) =
−(1/ kT)[E( β )−E(α )]
gdy
gdy
E(β ) ≤ E(α
)
E(β ) > E(α )
Spin-flip dynamics :
Termostat (heat bath)
Pr{ s i = 1} =
Glauber
Q2R:
sąsiadów
e
− β E ( s i =1 )
e − β E ( s i =1 ) + e − β E ( s i = − 1 )
Pr{ si − > − si } = 12 [1 + tanh βE ( si )]
z prawdopodobieństwem p obróć spin jeśli ilość
w stanie +1 jest identyczna z ilością w stanie -1
Kawasaki:
zamień stany dowolnie wybranej pary spinów
Głosowanie większościowe : z prawdopodobieństwem p wybierz stan identyczny
z większością sąsiadów.
kTc
2
=
= 2.269..
J
ln(1 + 2)
kT/J
(A)wprowadź konfiguracje początkową α , ustal energię D(demona)
(B) wygeneruj nową konfigurację β ,
(C) oblicz zmianę energii : ∆=E(β
β) - E( α)
(D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny)
(E) Jeśli ∆ < D
zaakceptuj nowy stan , popraw energie demona
D= D - ∆
wykonaj test na niezależność konfiguracji
•jeżeli konfiguracje są niezależne, to wylicz O dla tej
konfiguracji i zmagazynuj wynik
(F) wróć do (B)
(G) wyznacz średnią zmagazynowanych wyników
Mózg czy umysł
Najbardziej
złożony
obiekt we
Wszechświecie
Fakty:
1. Mózg ma masę o 1.1-2.0kg
2. Mózg ma pofałdowaną powierzchnię i wyraźne dwie półkule.
3. Powierzchnia zewnętrzna to kora mózgowa: inaczej
substancja szara (powierzchnia: 1.5- 2.0 m2).
Pod nią jest warstwa substancji białej.
4. Neurony to komórki, z których zbudowany jest mózg.
Masa neuronu średnio 10-9g (bywają i masy 10-6g).
Jest ich w układzie człowieka 100 * 10+9, są bardzo różne
5. Wokół neuronów : komórki glejowe i mielinowe
6 Aktywność mózgu to generowanie impulsów
elektrochemicznych ( moc mózgu: 20 W)
h
e
m
e
m
b
r
a
n
e
i
s
i
m
p
e
4 of 28
Figure 2.3 The membrane of a neuron. Embedded in the membrane
are protein channels that permit
certain ions to cross through the membrane at a controlled rate.
model
Hopfielda
j
wij
Neuron McCullocha-Pittsa
N
si (t ) = f (∑ wij s j (t − 1) − Ti )
j =1
i
Reguła Hebba:
1
wij =
N
i
Zapamiętaj zbiór p wzorców.
p
µ µ
ξ
∑ i ξj
µ =1
Po pokazaniu nowego wzorca,
sieć pokaże najbliższy mu
zapamiętany wzorzec
Warunek stabilności wzorców
ν
ν
ξ i = sgn( ∑ wij ξ j )
j
i = 1, 2 ,...., N
v = 1, 2 ...., p
Pojemność pamięci:
1
µ µ ν
C i = −ξ i
∑ ∑ ξ j ξi ξ j
N j µ ≠ν
ν
ν
ν
Ci < 0
ν
Ci < 1
ν
Ci ≥ 1
p
α = ≤ 0.138
N
w1
IN
w5
OUT
w7
w3
w4
w2
w6
w8
1
IN
1
OUT
1
1
1
1
1
1
1
1
IN
1
OUT
1
1
1
1
1
1
1
1
1
IN
1
1
OUT
2
1
2
1
1
1
1
1
1
2
1
2
1
1
IN
1
1
OUT
1
1
1
1
1
0
1
0
1
1
1
1
-1
1
IN
1
-1
OUT
0
1
0
1
1
1
1
1
1
0
1
0
1
0.3
IN
0.3
0.2
OUT
0.1
0.2
0.02
− 0.1
− 0. 2
1 − 0. 2
-0.2
0. 3
-0.09
0.5 -0.045
-1
0.3
IN
-0.3
0.2
OUT
-0.02
0.2
-0.004
− 0.1
− 0. 2
1 − 0. 2
-0.2
0. 3
0.01
0. 5
0.005
IN
x
1
0
OUT
1
y
1
1
y
1
0
1
x
Algorytm propagacji wstecznej
IN
OUT
x1
y1
x2
y2
Iteracyjne metody
poszukiwania rozwiązania
optymalnego:
Metoda gradientowa
Symulowane wyżarzanie
Symulowane wyżarzanie
•Algorytmy genetyczne
•Algorytmy genetyczne
•Algorytmy genetyczne
•Algorytmy genetyczne
•Algorytmy genetyczne
•Algorytmy genetyczne
Wykład XIII
Wierzchołki: komputery i routery
INTERNET
Krawędzie : fizyczne połączenia „druty”
GENOME
protein-gene
interactions
PROTEOME
protein-protein
interactions
METABOLISM
Bio-chemical
reactions
Citrate Cycle
Nature 408 307 (2000)
p53 network (mammals)
sieć regularna
Silnie sklastrowana
Średnia odległość duża
sieć regularna
Dane N wierzchołków.
Prawdopodobieństwo,
że dowolne dwa spośród nich
sa połączone jest p
Model
Erdös-Rényi
(1960)
sieć stochastyczna:
Graf losowy - ewolucja
p∝N
z
Graf losowy
a perkolacja:
Graf losowy:
kiedy
gigant
komponent?
Perkolacja:
kiedy
nieskończony
klaster?
Drzewo Cayley’a: drzewo, gdzie każdy wierzchołek
oprócz liści ma ten sam stopień z
z =3
Drzewo Cayley’a
i nieskończenie wymiarowa perkolacja
1
pc =
z −1
Klasa uniwersalności ta sama.
inaczej taki sam charakter funkcyjny
różnych wielkości w otoczeniu progu krytycznego
inaczej te same wartości wykładników krytycznych
przy potęgowym opisie zależności.
1
p < pc =
N
1
p < pc =
N
graf Prawdopodobieństwo pojawienia się giganta jest 0
Prawdopodobieństwo pojawienia się klastera
perkol
nieskończonego jest 0
1
p < pc =
N
graf Prawdopodobieństwo pojawienia się giganta jest 0
Prawdopodobieństwo pojawienia się klastera
perkol
nieskończonego jest 0
graf Komponenty to drzewa
klastery to fraktale
perkol
1
p < pc =
N
graf Prawdopodobieństwo pojawienia się giganta jest 0
Prawdopodobieństwo pojawienia się klastera
perkol
nieskończonego jest 0
graf Komponenty to drzewa
klastery to fraktale
perkol
graf
perkol
Komponent_MAX ma ln(N) wierzchołków
klaster_MAX ma ln(N) wierzchołków
1
p = pc =
N
graf
perkol
pojawia się gigant
pojawia się klaster nieskończony
1
p = pc =
N
graf
pojawia się gigant
pojawia się klaster nieskończony
perkol
graf gigant to drzewo
nieskończony klaster to fraktal
perkol
1
p = pc =
N
graf
pojawia się gigant
pojawia się klaster nieskończony
perkol
graf gigant to drzewo
nieskończony klaster to fraktal
perkol
graf
perkol
Gigant ma (N)2/3 wierzchołków
Nieskończony klaster skaluje się jak (N)2/3
1
p > pc =
N
graf
perkol
N[f(p c N) − f(pN)]
Gigant rośnie:
Klaster nieskończony rośnie:
N[p c − p]
1
p > pc =
N
graf
perkol
N[f(p c N) − f(pN)]
Gigant rośnie:
Klaster nieskończony rośnie:
N[p c − p]
graf gigant ma złożoną strukturę: cykle,
grafy pełne
perkol nieskończony klaster nie jest fraktalem
Cechy mierzalne grafu
•Rozkład stopni wierzchołków
•Średnica grafu
•Współczynnik klastrowania
Graf losowy a sieć rzeczywista
Graf losowy a sieć rzeczywista
Większość sieci rzeczywistych ma
własność potęgowej postaci
dystrybucji stopnia wierzchołka:
−γ
Pk ∝ k
Sieć swobodna : Scale-free networks
Co to oznacza?
Dlaczego?
Stochastyczny graf swobodny:
ki zaczepów
i
j
kj zaczepów
ki zaczepów
i
j
kj zaczepów
Pk ∝ k
−γ
Czy w grafie losowym swobodnym, gdzie stopień
wierzchołka ma rozkład potęgowy:
• istnieje próg pojawiania się giganta?
• jak zmienia się rozmiar i topologia klastrów?
• kiedy graf staje się spójny?
0
γ
1
2
3.47875.....
Prawie na pewno jest
gigant kluster
Prawie
na
pewno
spójny
Gigant
rośnie
Prawie na
pewno
nie ma
giganta
Sieć:
„Small-world” : wszędzie jest blisko
Z prawdopodobieństwem p przekręcamy krawędź
O
r
i
g
i
n
S
F
(1) Liczba węzłów N w sieci nie jest stała
Sieci bez przerwy rosną : zwiększa się
ilość krawędzi i węzłów
Przykłady:
WWW : dodawanie nowych dokumentów
Citation : publikowanie nowych artykułów
(2) Dowiązywanie nowych wierzchołków
nie jest jednorodne
Nowy węzeł z większym
prawdopodobieństwem przyłączy się do
węzła “popularnego”
Przykłady :
WWW : nowe strony prawdopodobniej dołącza się
do stron wysoko połączonych: CNN, YAHOO,
NewYork Times, etc
Citation : dobrze znane a więc cytowane artykuły
będą z pewnością najczęściej cytowane
Barabasi-Albert model
A.-L.Barabási, R. Albert,
Science 286, 509 (1999)
(1) GROWTH :
W każdej chwili czasu nowy węzeł i m krawędzi się pojawia
: łączą one nowy węzeł z węzłami już obecnymi
(2) PREFERENTIAL ATTACHMENT :
Prawdopodobieństwo Π że nowy węzeł będzie
połączony do węzła i zależy od stopnia wierzchołka ki
ki
Π (ki ) =
Σ jk j
P(k) ~k-3
Mean Field Theory
∂ki
ki
ki
∝ Π (ki ) = A
=
, with initial condition ki (ti ) = m
k
t
∂t
2
∑j j
t
ki (t ) = m
ti
m 2t
m 2t
m 2t
P (ki (t ) < k ) = Pt (ti > 2 ) = 1 − Pt (ti ≤ 2 ) = 1 − 2
k
k
k (m0 + t )
∂P(ki (t ) < k ) 2m 2t 1
−3
~
∴ P(k ) =
=
k
3
∂k
mo + t k
γ=3
A.-L.Barabási, R. Albert and H. Jeong, Physica A 272, 173 (1999)
Model A
growth
preferential attachment
Π(ki) : uniform
∂ki
m
= AΠ (ki ) =
∂t
m0 + t − 1
 m0 + t − 1

) + 1
ki (t ) = m ln(
 m + ti − 1

e
k
−k
P (k ) = exp(− ) ~ e
m
m
Model B
growth
preferential attachment
∂ki
1
N ki 1
= AΠ (ki ) + =
+
∂t
N N − 1 2t N
2( N − 1)
ki (t ) =
t + Ct
N ( N − 2)
N
2 ( N −1)
2
~ t
N
P(k) : power law (initially)
⇒ Gaussian
Średnia odleglość
Współczynnik klastrowania
Pięta Achillesowa
Achilles’ Heel of complex network
failure
attack
Internet
Protein network
R. Albert, H. Jeong, A.L. Barabasi, Nature 406 378 (2000)
Efekt kaskadowego załamania:
Power
grids
Internet
October 1986:
the first documented
Internet congestion
collapse
August 1996:
sag of just one
electrical line in
Oregon
August 2003:
initial disturbance
in Ohio
Drop in speed
of a factor 100
Blackout for 4 million
people in 9 different
States
Largest blackout in
the US’s hystory
Conclusions
Another bad news
• Scale –free degree networks are
vulnerable to spreading diseases such as
viruses.
• They propagate viruses efficiently .
• Hubs do a good job in passing them to
many connected vertices.
• This suggests immunizing hubs
as a good prevention strategy
Conclusions[1]
• The September 11, 2001 attack was a
devastating blow to the World Trade Center.
• We have seen some cascading effects on
our economy, industry, and society.
• BUT, all networks from Internet to complex
economic webs survived.
• This demonstrates the resilience of selforganized networks.
• In this sense the terrorists failed.