Danuta Makowiec UKŁADY ZŁOONE
Transkrypt
Danuta Makowiec UKŁADY ZŁOONE
Danuta Makowiec Zaprasza na wykład pt: UKŁADY ZŁOŻONE 2 godziny w tygodniu wykładu + 2 godziny ćwiczeń laboratoryjnych Jak powstają własności kolektywne w układach zbudowanych z wielu oddziałujących ze sobą składników, jeśli te własności nie dają się powiązać z własnościami składników? ISTOTA: • • • • Mnogość elementów Nieliniowość oddziaływań Nieprzewidywalność własności Stała zmienność . Gra Życie • Łąka podzielona na kwadratowe rewiry komórki,w których można żyć, jeśli tylko sąsiedztwo pozwoli Sąsiedzi: ci, co okupują zielone komórki Reguły życia i śmierci : •Jeśli komórka ma dokładnie dwóch żywych sąsiadów, to nic się z nią nie dzieje. •Jeśli komórka ma trzech żywych sąsiadów, to zawsze komórka jest żywa. •Jeśli liczba żywych sąsiadów jest 0, 1 , 4, 5, 6, 7, 8, to życie w komórce umiera. Fizycy nie tylko wszystko wiedzą, oni wiedzą wszystko lepiej… Nieprawda.!!!! To komputerowcy od fizyki statystycznej wiedzą wszystko najlepiej Liczby losowe: generatory własności “Każdy, kto rozważa arytmetyczne metody produkcji liczb losowych, jest, oczywiście, w stanie grzechu” John von Neuman (1951) “Każdy, kto nie widział tego cytatu w mniej niż 100 miejscach, to pewnie jeszcze jest młody” D.V. Pryor (1993) 100 80 60 40 20 0 0 20 40 60 80 100 Genarator “Stauffera O.K. NIE O.K. X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1) Dodawanie modulo 2 wynik X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1) Dodawanie modulo 2 wynik X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1) X(n-10) Dodawanie modulo 2 wynik X(n-10) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1) X(n-9) X(n-8) X(n-7) X(n-6) X(n-5) X(n-4) X(n-3) X(n-2) X(n-1) wynik Dodawanie modulo 16 1 0 0 0 0 1 0 1 0 1 1 1 1 1 1 0 1 0 1 0 0 1 0 0 0 1 1 0 1 1 1 1 1 1 1 0 0 1 0 0 Xn-10 Xn-7 Kanoniczny sposób inicjacji tego generatora: Dodawanie modulo 16 przykład 1 0 0 0 0 Xn-10 0 1 0 Xn-7 0 0 0 0 0 0 Kanoniczny sposób inicjacji tego generatora: przykład 2 1 0 0 0 Xn-10 0 1 0 Xn-7 0 0 0 0 0 0 Transformacja gęstości prawdopodobieństwa X: dx f(x) f(x)dx x x y(x) Y = y (X) x f(x) X: f(x)dx x x+dx x g(y) dy = f(x) dx y(x) dy x f(x) f(x)dx dx x Transformacja gęstości prawdopodobieństw przy zamianie zmiennej losowej x na zmienną y=y(x). y(x) g(y)dy dy g(y) dy = f(x) dx g(x) x f(x) f(x)dx dx x g(y) dy = f(x) dx dx g(y) = f(x) dy Transformacja gęstości prawdopodobieństw przy zamianie zmiennej losowej x na zmienną y=y(x). x=G(y) dx y g(y) dy = dx g(y)dy dy y trafiony lub pudło trafiony lub pudło Generowanie liczb losowych o dowolnym rozkładzie x=G(y) dx y Transformacja gęstości prawdopodobieństwa przy zamianie zmiennej losowej o rozkładzie jednostajnym X na zmienną Y=y(X). g(y) dy = dx g(y)dy dy dG(y)=dx G(y)= x y y=G-1(x) Metoda akceptacji i odrzucania John von Neumann trafiony lub pudło x d g(y) a b y yi akceptujemy, jeśli : x xi < g ( yi ) d g(y) (yi, xi) a b y Warunek: x xi < g ( yi ) jest niespełniony. yi odrzucamy d (yi, xi) g(y) a b y Wydajność: xi < g ( yi ) Warunek akceptacji yi x g ( yi ) xi < s ( yi ) s(y) : gęstość dominująca g(y) (yi, xi) a b y P’(x) P(x) Metoda Monte Carlo Próbkowanie bezpośrednie: f(x) ∆ ∆ ∆ xi xmin Systematycznie : xmin, =x0 , x1=x0 +∆, ....... x1+i=xi +∆, ….. ... , xmax xi +1 xmax x max I = ∫ f ( x ) dx = x min lim n→ ∞ x max − x min n n ∑ i =1 f ( xi ) f(x) xmin xi +1 xi xmax Losowo: xi: xmin, ,....., xmax xmax I= ∫ xmin n f ( x)dx = lim n →∞ xmax − xmin f ( xi ) ∑ n i =1 In-1 ε Zbieżność liczbowa In+1 In In+1 In-1 ε In Zbieżność probabilistyczna: Liczba In taka , że |I - In | < ε może być uzyskana z określonym prawdopodobieństwem Mocne prawo wielkich liczb Pr { lim n→∞ I n = I } n 1 I n = ∑ f ( xi ) n i =1 =1 Z centralnego twierdzenia granicznego: ∞ Pr 2 σ λσ = ∫ f 2 ( x ) µ ( x ) dx { | I n − I |≤ } −∞ n = λ 2π ∫λe − − x2 / 2 1 n dx + O( ) Błąd metody trapezów: ∆I ∝ 1 n 2/d Błąd metody Monte Carlo: 1 ∆I ∝ n Metoda Monte Carlo: I =∫ S f ( x) f ( x)dx = ∫ p ( x)dx = p( x) S Generowanie zmiennych losowych o rozkładzie p(x) Układy dynamiczne nieliniowe Odwzorowanie logistyczne x n + 1 = ax n (1 − x n ) Diagram bifurkacyjny Odwzorowanie Henona x n + 1 = 1 − ax n2 + y n y n + 1 = bx n (I) Dyskretna przestrzeń z s=(x,y,z;t) y x (0,2,0) s=(i, j, k;t) (0,0,2) (0,1,0) (0,0,1) (0,0,0) (1,0,0) (2,0,0) 2-wymiarowa sieć: (0,2) (0,1) (1,2) S(1,1) (2,2) (2,1) 1-wymiarowa sieć: (0,0) 1 2 S(3) 4 5 6 (1,0) (2,0) (II) Lokalna reguła iteracyjna s(i,j,k;t)= R({ s(i ±1,0 1,0 , j ±1,0, 1,0, k ±1,0 1,0 ; t-1)}) (III) Dyskretna przestrzeń stanów Gaz sieciowy: 1 Łańcuch spinów: Automat komórkowy: 4 5 6 Elementarny automat komórkowy L C P najbliżsi sąsiedzi dowolnej komórki: Lewa, Centralna i Prawa reguła działania: zmień kolor na czerwony, jeśli albo Lewa albo Prawa jest czerwona zmień kolor na żółty, jeśli obie komórki Lewa i Prawa są w tym samym kolorze T=0 XOR Żółty Czerwony Żółty Żółty Czerwony Czerwony Czerwony Żółty periodyczne warunki brzegowe L C P najbliżsi sąsiedzi dowolnej komórki: Lewa, Centralna i Prawa XOR Żółty Czerwony Żółty Żółty Czerwony Czerwony Czerwony Żółty periodyczne warunki brzegowe T=0 T=1 synchroniczne updata-owanie L C P najbliżsi sąsiedzi dowolnej komórki: Lewa, Centralna i Prawa XOR Żółty Czerwony Żółty Żółty Czerwony Czerwony Czerwony Żółty periodyczne warunki brzegowe T=0 T=1 T=2 T=3 T=4 synchroniczne updata-owanie Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Dywan Sierpińskiego: bi(t+1)= bi-1(t) XOR bi+1(t) Elementarne automaty komórkowe: bi i ∈{0,1} , bi-1 bi b i+1 i∈Z Elementarne automaty komórkowe: bi i ∈{0,1} , bi-1 najbliżsi sąsiedzi komórki Reguła automatu: bi i∈Z b i+1 i : {i-1, i, i+1} f : ( bit−1 , bit , bit+1 ) → bit +1 Elementarne automaty komórkowe: bi i ∈{0,1} , bi-1 najbliżsi sąsiedzi komórki bi i∈Z b i+1 i : {i-1, i, i+1} f : ( bit−1 , bit , bit+1 ) → bit +1 Reguła automatu: 000 001 010 011 100 101 110 111 Elementarne automaty komórkowe: bi i ∈{0,1} , bi-1 bi najbliżsi sąsiedzi komórki i∈Z b i+1 i : {i-1, i, i+1} f : ( bit−1 , bit , bit+1 ) → bit +1 Reguła automatu: 000 001 010 011 100 101 110 111 0 1 1 0 1 1 0 0 Elementarne automaty komórkowe: bi i ∈{0,1} , bi-1 bi najbliżsi sąsiedzi komórki b i+1 i : {i-1, i, i+1} f : ( bit−1 , bit , bit+1 ) → bit +1 Reguła automatu: Reguła 54: i∈Z 000 001 010 011 100 101 110 111 0 1 1 0 1 1 0 0 0* 20 + 1* 21 + 1* 22 + 0* 23 + 1* 24 + 1* 25+ 0* 26+ 0* 27 Przestrzeń stanów i baseny przyciągania Dla sieci o rozmiarze n, niech B jest jednym z możliwych stanów , np..: 001010….. 0001 Część trajektorii B w przestrzeni stanów: C to następnik, A to poprzednik- graf skierowany buduje się Stan B może być uzyskany z wielu innych niż A stanów : {przeciwobrazy stanu B} . Mamy charakterystyke B przez in-degree Przeciwobrazy stanu B mają swoje przeciwobrazy albo nie mają żadnego. Stany bez przeciwobrazów nazywamy Rajskim Ogrodem Przestrzeń stanów i baseny przyciągania Każdy stan w wyniku ewolucji musi trafić na konfiguracje, w której już był. Układ jest skończony - atraktorem zawsze jest cykl. Przestrzeń stanów i baseny przyciągania Dla każdego stanu cyklu budujemy jego własne drzewo przeciwobrazów Czasem takie drzewo może być puste. Generuje się basen przyciągania dla danego cyklu. Przestrzeń stanów i baseny przyciągania Tutaj już cała przestrzeń stanów 2n podzielona na baseny przyciagania do różnych cykli. Przestrzeń stanów i baseny przyciągania n=13 k=3 n=3 rule 193, L=10, seed singleton n=3 rule 193, L=15, seed 110011000001101 Equivalent transient trees suppressed n=3 rule 193, L=10, seed singleton n=3 rule 41 L=15, seed 110011000001101 n=3 rule 18, L=18, seed 101000000101000000 n=3 rule 33, L=16, seed 0111111111100000 n=3 rule 251, L=12, seed singleton Equivalent transient trees suppressed. n=3 rule 60, L=24, seed 011011011011011011011011 Discrete Dynamics Lab Andy Wuensche www.cogs.susx.ac.uk/users/andywu/ddlab.html G-density: gęstość Rajskiego Ogrodu set of k=7 totalistic rules, n=16, The complete basin of attraction field was generated for each rule and garden-of-Eden states counted. Gdensity : gęstoś ć Rajskie go Ogrodu The G-density plotted against system size system size n, for the ordered, complex and chaotic rules. The the entire basin of attraction field was plotted for n = 7 to 22, and garden-of-Eden states counted. Ordered CA dynamics Complex CA dynamics Chaotic CA dynamics Space-time patterns Rule 54 Alternatywne prezentacje czaso-przestrzennych obrazów reguły 54 (n=150). Po odfiltrowaniu wzoru podstawowego reguły, wydobywamy skomplikowany układ oddziałujących obiektówgliderów, wiekszych niż pojedyncza komórka. Niefiltrowane i częściowo przefiltrowane obrazy czaso-przestrzenne dla reguły18. Ujawnia się nieciągłość przy chaotycznym wzorze podstawowym reguły. Przeróżne szybowce o różnych prędkościach i różnych tłach, na których żyją Przykłady szybowcowych dział Input- entropy 2k S (t ) = −∑i =1 ( p log p ) t i t i Entropy-density scatter plots. Input-entropy is plotted against the density of 1s relative to a moving window of 10 time-steps. k=5, n=150. About 1000 time-steps are plotted from several random initial states for each rule. Entropia vs gęstość 1 I klasa II klasa II klasa IV klasa Stauffer D. , J. Phys A.24, 909 (1991) Computer simulations of cellular automata, Multi-spin coding n[1...L]= { 0,0,1,1,0,1,0,1,1,1,0,1,1,0,1,0,1,1,1,0,1,0,1,0,1,1,.....} L LL=L/32 nn[1..LL] Stauffer D. , J. Phys A.24, 909 (1991) Computer simulations of cellular automata, Multi-spin coding n[1...L]= { 0,0,1,1,0,1,0,1,1,1,0,1,1,0,1,0,1,1,1,0,1,0,1,0,1,1,.....} L LL=L/32 nn[1..LL] L=960 , LL=30 nn[ 1]={n[ 1], n[31], n[61], ...., n[931]} nn[ 2]={n[ 2], n[32], n[62], ...., n[932]} nn[ 3]={n[ 3], n[33], n[63], ...., n[933]} ... ... ... nn[30]={n[30], n[60], n[90], ...., n[960]} Stauffer D. , J. Phys A.24, 909 (1991) Computer simulations of cellular automata, Multi-spin coding n[1...L]= { 0,0,1,1,0,1,0,1,1,1,0,1,1,0,1,0,1,1,1,0,1,0,1,0,1,1,.....} L LL=L/32 nn[1..LL] L=960 , LL=30 {n[960], n[30], n[60], ...., n[930]} nn[ 1]={n[ 1], n[31], n[61], ...., n[931]} nn[ 2]={n[ 2], n[32], n[62], ...., n[932]} nn[ 3]={n[ 3], n[33], n[63], ...., n[933]} ... ... ... nn[30]={n[30], n[60], n[90], ...., n[960]} {n[31], n[61], n[91],...., n[ 1]} Dywan Sierpińskiego: Nagel, Schreckenberg, J.Phys. I , France 2, 2221 (1992) Model Na-Sch Startujemy- A) przyśpieszanie: B) hamowanie : C) przypadkowe hamowania: Jedziemy.... D.Chowdhury, cond-mat/9910173 12 Oct 1999 p=0.25 ρ=0.2 p=0.0 ρ=0.5 < v >= min(v max , 1 ρ − 1) Moore 1962 Synchronizacja salwy Generał żołnierze Problem: W chwili t=1 generał dostaje sygnał z zewnątrz. Tak skonstruować stany automatów komórkowych i reguły przejścia, aby wszystkie automaty w jednej chwili i po raz pierwszy znalazły się w stanie wyróżnionym OGNIA MacCarthy-Minsky (1965) krok 3 krok 2 krok 1 Model Bak-Tang-Wiesenfeld P.Bak, C.Tang,K.Wiesenfeld, Phys.Rev.Lett.59,381 (1987) h z1 zn > 2 n zn= h(n) - h(n+1) n+1 Jeśli zn > 2 , to N zn-1 → zn-1 + 1 zn → zn - 2 zn+1 → zn+1 + 1 A self-organized critical model on a fractal lattice Znaki stanu samo-organizującej się krytyczności (SOC): dystrybucja rozmiarów s lawiny : D(s) ∝ s −τ τ =1.0 dla D=2 dystrybucja czasów życia T lawiny : D(T ) ∝T −α α = 0.43 dla D=2 A self-organized critical model on a fractal lattice Znaki stanu samo-organizującej się krytyczności (SOC): dystrybucja rozmiarów s lawiny : D(s) ∝ s −τ τ =1.0 dla D=2 dystrybucja czasów życia T lawiny : D(T ) ∝T −α α = 0.43 dla D=2 Toom’s North-East-Center (NEC) voting model Ni Ci •A.L.Toom et.al. : Stochastic Cellular Systems: Ergodicity, Memory, Morphogenesis. (Manchester University Press, Manchester, 1990) • Ch.H. Bennett, G.Grinstein, Phys. Rev. Lett. 55 (1985) 657 • J.L.Lebowitz, Ch. Maes, E.R. Speer,. J. Stat. Phys. 59 (1990) 117 • R.Fernandez , Physica A 263 (1999) 117 -nonergodic -irreversible =1 =-1 Ei a stochastic rule: sgn( N i + E i + C i ) C 'i = − sgn( N i + E i + C i ) 1 2 1 with prob. 2 with prob. (1 + ε ) (1 − ε ) in a thermodynamic way: 1 2 P (C ' i | ( N i , Ei , C i )) = [1 + ε C ' i sgn( N i + E i + C i )] Gaz sieciowy FHP Konfiguracja początkowa propagacja zderzenia U.Frisch,B.Hasslacher,Y.Pomeau,Phys.Rev.Lett.56,1505(1986) zderzenia Model Rothmana- Kellera nie mieszających się molekuł Separacja faz: gazowej i ciekłej Reaktywne gazy sieciowe Model Schlogl : k0 A X k1 X 2X +B 3X k3 A k2 3X 2X + B Mikrodynamika: •propagacja •zderzenie elstyczne •zderzenie nieelastyczne- reakcja chemiczna LGA LB CML P.Marcq, H.Chate, P.Manneville, Phys.Rev.E 55,2606 (1997) Miller Huse,93 t+1 i, j t i, j t i−1, j t i+1, j t i, j−1 t i, j+1 x = (1−4g) f (x ) + g[ f (x ) + f (x ) + f (x ) + f (x )] g ∈ [0, 14 ] σ it, j = sgn( xit, j ) 1 -1 -1/3 -1 1/3 1 fk Hipoteza: Typy komórek kształtują się wskutek różnej aktywności genów w obecności innych genów fi Ilość różnych komórek ∝ N Pojedyncze mutacje mogą implikować zjawiska krytyczne http://necsi.org/projects/gavin/interact.html Navier-Stokes Equations r ∇ ⋅u = 0 r r r r 1 du 2r = −(u ⋅ ∇)u − ∇p + ν∇ u + f ρ dt convection pressure viscosity external forces dX = S( X − Y ) dt dY = RX − Y − XZ dt dZ = XY − BZ dt S=10.0 R=28 B=8/3 ComplexFluidDynamics pi , j +1 vi , j + 1 2 ui − 1 , j pi −1, j 2 ui + 1 , j 2 pi , j vi , j − 1 2 pi , j −1 pi +1, j Równania różniczkowe są przybliżeniem - opisem różnych aspektów rzeczywistości Automaty komórkowe są innym przybliżeniem - opisem rzeczywistości, ale czy gorszym? Wymień stany sąsiednich komórek Przepływ wokół NACA 9620 przy 30o kącie ataku. CAM z siecią 4095x2048 Magnetyzacja spinu w modelu z ferromagnetycznym oddziaływaniem Jak przejście fazowe obserwować w układach z oddziaływaniem antyferromagnetycznym ? J J’ Frustracja: konflikt pomiędzy oddziaływaniami czy innymi czynnikami porządkującymi taki, że wszystkie nie mogą być spełnione równocześnie <> 0 dla pewnych „temperatur” Parametr porządku ŚWIAT, GDZIE NIE PRACUJE PRZYBLIŻENIE POLA ŚREDNIEGO = 0 dla pewnych „temperatur” Fluktuacje parametru porządku – korelacje parametru porządku Zjawisko krytyczne Bezpośrednie modyfikacje modelu Isinga: długozasięgowe ferromagnetyczne długozasięgowe antyferromagnetyczne długozasięgowe mieszane Żelazo w złocie: FexAu1-x Przejście szkliste: R (1 | −1) ∝ e − β∆E Temperatura niższa czas oczekiwania na kolejny przeskok coraz dłuższy Odcisk przejścia szklistego: Temperatura przejścia zależy od tempa chłodzenia Cechy – klucze, szkła spinowego J>0 J<0 Model Mattisa Twierdzenie ergodyczne Utożsamienie średnich uzyskanych z obserwacji długoczasowych pojedynczego układu ze średnimi otrzymanymi w zespole statystycznym WYGENEROWAĆ EWOLUCJĘ ZGODNĄ Z ROZKŁADEM ZESPOŁU Algorytm Metropolisa et.al. λ P ( s ' | s ) = P ( s ') λ P(s) (53) P( s ' ) ≥ P( s ) P( s ' ) < P( s ) praktyka λ=1 Główny program (A) wprowadź konfiguracje początkową α , Główny program (A) wprowadź konfiguracje początkową α , (B) wygeneruj nową konfigurację β , Główny program (A) wprowadź konfiguracje początkową α , (B) wygeneruj nową konfigurację β , (C) oblicz prawdopodobieństwo przejścia P(β β|α ) α β Główny program (A) wprowadź konfiguracje początkową α , (B) wygeneruj nową konfigurację β , (C) oblicz prawdopodobieństwo przejścia P(β β |α) (D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny) Główny program (A) wprowadź konfiguracje początkową α , (B) wygeneruj nową konfigurację β , (C) oblicz prawdopodobieństwo przejścia P(β β|α) (D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny) (E) Jeśli r < P zaakceptuj nowy stan: α := β wykonaj test na niezależność konfiguracji Główny program (A) wprowadź konfiguracje początkową α , (B) wygeneruj nową konfigurację β , (C) oblicz prawdopodobieństwo przejścia P(β β|α) (D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny) (E) Jeśli r < P zaakceptuj nowy stan : α := β wykonaj test na niezależność konfiguracji •jeżeli konfiguracje są niezależne, to wylicz O dla tej konfiguracji i zmagazynuj wynik Główny program (A) wprowadź konfiguracje początkową α , (B) wygeneruj nową konfigurację β , (C) oblicz prawdopodobieństwo przejścia P(β β|α) (D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny) (E) Jeśli r < P zaakceptuj nowy stan : α := β wykonaj test na niezależność konfiguracji •jeżeli konfiguracje są niezależne, to wylicz O dla tej konfiguracji i zmagazynuj wynik (F) wróć do (B) (A) wprowadź konfiguracje początkową α , (B) wygeneruj nową konfigurację β , (C) oblicz prawdopodobieństwo przejścia P(β β|α) (D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny) (E) Jeśli r < P zaakceptuj nowy stan : α := β wykonaj test na niezależność konfiguracji •jeżeli konfiguracje są niezależne, to wylicz O dla tej konfiguracji i zmagazynuj wynik (F) wróć do (B) (G) wyznacz średnią zmagazynowanych wyników (A) wprowadź konfiguracje początkową α , ustal temperaturę T (B) wygeneruj nową konfigurację β , (C) oblicz prawdopodobieństwo przejścia P(β β|α) (D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny) (E) Jeśli r < P zaakceptuj nowy stan : α := β wykonaj test na niezależność konfiguracji •jeżeli konfiguracje są niezależne, to wylicz O dla tej konfiguracji i zmagazynuj wynik (F) wróć do (B) (G) wyznacz średnią zmagazynowanych wyników (H) obniż temperaturę Przepis Metropolisa et.al. w zespole kanonicznym λ {λe P(β | α) = −(1/ kT)[E( β )−E(α )] gdy gdy E(β ) ≤ E(α ) E(β ) > E(α ) Spin-flip dynamics : Termostat (heat bath) Pr{ s i = 1} = Glauber Q2R: sąsiadów e − β E ( s i =1 ) e − β E ( s i =1 ) + e − β E ( s i = − 1 ) Pr{ si − > − si } = 12 [1 + tanh βE ( si )] z prawdopodobieństwem p obróć spin jeśli ilość w stanie +1 jest identyczna z ilością w stanie -1 Kawasaki: zamień stany dowolnie wybranej pary spinów Głosowanie większościowe : z prawdopodobieństwem p wybierz stan identyczny z większością sąsiadów. kTc 2 = = 2.269.. J ln(1 + 2) kT/J (A)wprowadź konfiguracje początkową α , ustal energię D(demona) (B) wygeneruj nową konfigurację β , (C) oblicz zmianę energii : ∆=E(β β) - E( α) (D) wygeneruj liczbę losową r z [0,1) (rozkład jednostajny) (E) Jeśli ∆ < D zaakceptuj nowy stan , popraw energie demona D= D - ∆ wykonaj test na niezależność konfiguracji •jeżeli konfiguracje są niezależne, to wylicz O dla tej konfiguracji i zmagazynuj wynik (F) wróć do (B) (G) wyznacz średnią zmagazynowanych wyników Mózg czy umysł Najbardziej złożony obiekt we Wszechświecie Fakty: 1. Mózg ma masę o 1.1-2.0kg 2. Mózg ma pofałdowaną powierzchnię i wyraźne dwie półkule. 3. Powierzchnia zewnętrzna to kora mózgowa: inaczej substancja szara (powierzchnia: 1.5- 2.0 m2). Pod nią jest warstwa substancji białej. 4. Neurony to komórki, z których zbudowany jest mózg. Masa neuronu średnio 10-9g (bywają i masy 10-6g). Jest ich w układzie człowieka 100 * 10+9, są bardzo różne 5. Wokół neuronów : komórki glejowe i mielinowe 6 Aktywność mózgu to generowanie impulsów elektrochemicznych ( moc mózgu: 20 W) h e m e m b r a n e i s i m p e 4 of 28 Figure 2.3 The membrane of a neuron. Embedded in the membrane are protein channels that permit certain ions to cross through the membrane at a controlled rate. model Hopfielda j wij Neuron McCullocha-Pittsa N si (t ) = f (∑ wij s j (t − 1) − Ti ) j =1 i Reguła Hebba: 1 wij = N i Zapamiętaj zbiór p wzorców. p µ µ ξ ∑ i ξj µ =1 Po pokazaniu nowego wzorca, sieć pokaże najbliższy mu zapamiętany wzorzec Warunek stabilności wzorców ν ν ξ i = sgn( ∑ wij ξ j ) j i = 1, 2 ,...., N v = 1, 2 ...., p Pojemność pamięci: 1 µ µ ν C i = −ξ i ∑ ∑ ξ j ξi ξ j N j µ ≠ν ν ν ν Ci < 0 ν Ci < 1 ν Ci ≥ 1 p α = ≤ 0.138 N w1 IN w5 OUT w7 w3 w4 w2 w6 w8 1 IN 1 OUT 1 1 1 1 1 1 1 1 IN 1 OUT 1 1 1 1 1 1 1 1 1 IN 1 1 OUT 2 1 2 1 1 1 1 1 1 2 1 2 1 1 IN 1 1 OUT 1 1 1 1 1 0 1 0 1 1 1 1 -1 1 IN 1 -1 OUT 0 1 0 1 1 1 1 1 1 0 1 0 1 0.3 IN 0.3 0.2 OUT 0.1 0.2 0.02 − 0.1 − 0. 2 1 − 0. 2 -0.2 0. 3 -0.09 0.5 -0.045 -1 0.3 IN -0.3 0.2 OUT -0.02 0.2 -0.004 − 0.1 − 0. 2 1 − 0. 2 -0.2 0. 3 0.01 0. 5 0.005 IN x 1 0 OUT 1 y 1 1 y 1 0 1 x Algorytm propagacji wstecznej IN OUT x1 y1 x2 y2 Iteracyjne metody poszukiwania rozwiązania optymalnego: Metoda gradientowa Symulowane wyżarzanie Symulowane wyżarzanie •Algorytmy genetyczne •Algorytmy genetyczne •Algorytmy genetyczne •Algorytmy genetyczne •Algorytmy genetyczne •Algorytmy genetyczne Wykład XIII Wierzchołki: komputery i routery INTERNET Krawędzie : fizyczne połączenia „druty” GENOME protein-gene interactions PROTEOME protein-protein interactions METABOLISM Bio-chemical reactions Citrate Cycle Nature 408 307 (2000) p53 network (mammals) sieć regularna Silnie sklastrowana Średnia odległość duża sieć regularna Dane N wierzchołków. Prawdopodobieństwo, że dowolne dwa spośród nich sa połączone jest p Model Erdös-Rényi (1960) sieć stochastyczna: Graf losowy - ewolucja p∝N z Graf losowy a perkolacja: Graf losowy: kiedy gigant komponent? Perkolacja: kiedy nieskończony klaster? Drzewo Cayley’a: drzewo, gdzie każdy wierzchołek oprócz liści ma ten sam stopień z z =3 Drzewo Cayley’a i nieskończenie wymiarowa perkolacja 1 pc = z −1 Klasa uniwersalności ta sama. inaczej taki sam charakter funkcyjny różnych wielkości w otoczeniu progu krytycznego inaczej te same wartości wykładników krytycznych przy potęgowym opisie zależności. 1 p < pc = N 1 p < pc = N graf Prawdopodobieństwo pojawienia się giganta jest 0 Prawdopodobieństwo pojawienia się klastera perkol nieskończonego jest 0 1 p < pc = N graf Prawdopodobieństwo pojawienia się giganta jest 0 Prawdopodobieństwo pojawienia się klastera perkol nieskończonego jest 0 graf Komponenty to drzewa klastery to fraktale perkol 1 p < pc = N graf Prawdopodobieństwo pojawienia się giganta jest 0 Prawdopodobieństwo pojawienia się klastera perkol nieskończonego jest 0 graf Komponenty to drzewa klastery to fraktale perkol graf perkol Komponent_MAX ma ln(N) wierzchołków klaster_MAX ma ln(N) wierzchołków 1 p = pc = N graf perkol pojawia się gigant pojawia się klaster nieskończony 1 p = pc = N graf pojawia się gigant pojawia się klaster nieskończony perkol graf gigant to drzewo nieskończony klaster to fraktal perkol 1 p = pc = N graf pojawia się gigant pojawia się klaster nieskończony perkol graf gigant to drzewo nieskończony klaster to fraktal perkol graf perkol Gigant ma (N)2/3 wierzchołków Nieskończony klaster skaluje się jak (N)2/3 1 p > pc = N graf perkol N[f(p c N) − f(pN)] Gigant rośnie: Klaster nieskończony rośnie: N[p c − p] 1 p > pc = N graf perkol N[f(p c N) − f(pN)] Gigant rośnie: Klaster nieskończony rośnie: N[p c − p] graf gigant ma złożoną strukturę: cykle, grafy pełne perkol nieskończony klaster nie jest fraktalem Cechy mierzalne grafu •Rozkład stopni wierzchołków •Średnica grafu •Współczynnik klastrowania Graf losowy a sieć rzeczywista Graf losowy a sieć rzeczywista Większość sieci rzeczywistych ma własność potęgowej postaci dystrybucji stopnia wierzchołka: −γ Pk ∝ k Sieć swobodna : Scale-free networks Co to oznacza? Dlaczego? Stochastyczny graf swobodny: ki zaczepów i j kj zaczepów ki zaczepów i j kj zaczepów Pk ∝ k −γ Czy w grafie losowym swobodnym, gdzie stopień wierzchołka ma rozkład potęgowy: • istnieje próg pojawiania się giganta? • jak zmienia się rozmiar i topologia klastrów? • kiedy graf staje się spójny? 0 γ 1 2 3.47875..... Prawie na pewno jest gigant kluster Prawie na pewno spójny Gigant rośnie Prawie na pewno nie ma giganta Sieć: „Small-world” : wszędzie jest blisko Z prawdopodobieństwem p przekręcamy krawędź O r i g i n S F (1) Liczba węzłów N w sieci nie jest stała Sieci bez przerwy rosną : zwiększa się ilość krawędzi i węzłów Przykłady: WWW : dodawanie nowych dokumentów Citation : publikowanie nowych artykułów (2) Dowiązywanie nowych wierzchołków nie jest jednorodne Nowy węzeł z większym prawdopodobieństwem przyłączy się do węzła “popularnego” Przykłady : WWW : nowe strony prawdopodobniej dołącza się do stron wysoko połączonych: CNN, YAHOO, NewYork Times, etc Citation : dobrze znane a więc cytowane artykuły będą z pewnością najczęściej cytowane Barabasi-Albert model A.-L.Barabási, R. Albert, Science 286, 509 (1999) (1) GROWTH : W każdej chwili czasu nowy węzeł i m krawędzi się pojawia : łączą one nowy węzeł z węzłami już obecnymi (2) PREFERENTIAL ATTACHMENT : Prawdopodobieństwo Π że nowy węzeł będzie połączony do węzła i zależy od stopnia wierzchołka ki ki Π (ki ) = Σ jk j P(k) ~k-3 Mean Field Theory ∂ki ki ki ∝ Π (ki ) = A = , with initial condition ki (ti ) = m k t ∂t 2 ∑j j t ki (t ) = m ti m 2t m 2t m 2t P (ki (t ) < k ) = Pt (ti > 2 ) = 1 − Pt (ti ≤ 2 ) = 1 − 2 k k k (m0 + t ) ∂P(ki (t ) < k ) 2m 2t 1 −3 ~ ∴ P(k ) = = k 3 ∂k mo + t k γ=3 A.-L.Barabási, R. Albert and H. Jeong, Physica A 272, 173 (1999) Model A growth preferential attachment Π(ki) : uniform ∂ki m = AΠ (ki ) = ∂t m0 + t − 1 m0 + t − 1 ) + 1 ki (t ) = m ln( m + ti − 1 e k −k P (k ) = exp(− ) ~ e m m Model B growth preferential attachment ∂ki 1 N ki 1 = AΠ (ki ) + = + ∂t N N − 1 2t N 2( N − 1) ki (t ) = t + Ct N ( N − 2) N 2 ( N −1) 2 ~ t N P(k) : power law (initially) ⇒ Gaussian Średnia odleglość Współczynnik klastrowania Pięta Achillesowa Achilles’ Heel of complex network failure attack Internet Protein network R. Albert, H. Jeong, A.L. Barabasi, Nature 406 378 (2000) Efekt kaskadowego załamania: Power grids Internet October 1986: the first documented Internet congestion collapse August 1996: sag of just one electrical line in Oregon August 2003: initial disturbance in Ohio Drop in speed of a factor 100 Blackout for 4 million people in 9 different States Largest blackout in the US’s hystory Conclusions Another bad news • Scale –free degree networks are vulnerable to spreading diseases such as viruses. • They propagate viruses efficiently . • Hubs do a good job in passing them to many connected vertices. • This suggests immunizing hubs as a good prevention strategy Conclusions[1] • The September 11, 2001 attack was a devastating blow to the World Trade Center. • We have seen some cascading effects on our economy, industry, and society. • BUT, all networks from Internet to complex economic webs survived. • This demonstrates the resilience of selforganized networks. • In this sense the terrorists failed.