1.3. Optymalizacja geometrii cz ˛asteczki
Transkrypt
1.3. Optymalizacja geometrii cz ˛asteczki
20 1. Cz˛eść teoretyczna 1.3. Optymalizacja geometrii czasteczki ˛ Poszukiwanie punktów stacjonarnych (krytycznych) funkcji stanowi niezwykle istotny problem w obliczeniowej chemii kwantowej. Sprowadza si˛e on do dwóch istotnych zagadnie n´: poszukiwania przybliżonych (wariacyjnych) rozwiaza ˛ n´ równania Schrödingera dla układów wieloelektronowych oraz lokalizacji i klasyfikacji punktów stacjonarnych (minimów i punktów siodłowych niższych rz˛edów, vide infra) na hiperpowierzchni energii potencjalnej. W przypadku lokalizacji i klasyfikacji punktów stacjonarnych na hiperpowierzchni energii potencjalnej optymalizacji poddaje si˛e energi˛e elektronowa˛ czasteczki ˛ . W przybliżeniu Borna-Oppenheimera każdy stan elektronowy czasteczki ˛ posiada własna˛ powierzchni˛e ener- gii potencjalnej PES (ang. Potential Energy Surface), zdefiniowana˛ w -wymiarowej przestrzeni, gdzie jest liczba˛ stopni swobody danej molekuły (vide infra). W znaczeniu takim powierzchnia energii potencjalnej czasteczki ˛ jest matematyczna˛ zależno´ scia˛ mi˛edzy jej energia˛ a parametrami geometrycznymi. Problem optymalizacji geometrii czasteczki ˛ sprowadza si˛e do wyznaczenia struktury równowagowej, czyli takich współrz˛ednych jadrowych, ˛ dla których na hiperpowierzchni energii potencjalnej wyst˛epuje minimum lokalne. Stany przej´ sciowe reakcji chemicznych odpowiadaja˛ punktom siodłowym na PES. Dla reakcji chemicznych możliwa jest także optymalizacja struktury układu reakcyjnego przy zadanej warto´ sci tzw. współrz˛ednej reakcji, która mierzy post˛ep wzdłuż drogi energii minimalnej. Lokalizacja i klasyfikacja punktów stacjonarnych na powierzchni energii potencjalnej zostanie szerzej omówiona w niniejszym rozdziale. 1.3.1. Diagnostyka punktów stacjonarnych. Energia potencjalna czasteczki ˛ -atomowej jest liczba˛ stopni swobody czasteczki. ˛ , uwzgl˛edniajaca ˛ wzajemne odpychanie jader ˛ atomowych, zależy od tzw. współrz˛ednych wewn˛etrznych 14 , gdzie Jako współrz˛edne wewn˛etrzne wybiera si˛e na ogół długo´ sci wiaza´ ˛ n, katy ˛ walencyjne i torsyjne [19]. Punkty stacjonarne na hiperpowierzchni energii 14 wyznacza si˛e z warunku koniecznego istnienia ekstremum, tj. ! #"$ dla %&(')*+,- .0/21436587 W przypadku czasteczki ˛ liniowej . (1.37) 21 1.3. Optymalizacja geometrii czasteczki ˛ $ , ) . Dla zadanej geometrii , gradient wyznacza ujemne siły działajace ˛ na jadra ˛ atomowe. Siły te wskazuja˛ kierunek relaksacji struktury czasteczki ˛ do położenia równowagowego (dla geometrii rów˛ Zależno´ sc´(1.37) pozwala jedynie na wyznaczenie ekstremum nowagowej siły te zanikaja). lokalnego w punkcie , czyli lokalizacj˛e punktów stacjonarnych na powierzchni energii poElementy tworza˛ wektor zwany gradientem 15 tencjalnej. Natomiast podstawa˛ dalszej ich diagnostyki jest wyznaczenie tensora drugich pochodnych czastkowych ˛ energii elektronowej wzgl˛edem współrz˛ednych jadrowych ˛ – hessianu , tj. .. . .. . .. . ! (1.38) , podobnie jak gradient , ma istotny sens fizyczny – okre´sla bowiem stałe siłowe dla wychyle´ n jader ˛ w otoczeniu danej geometrii układu . Na podstawie znaków minoobliczonego dla geometrii równowagowej wyznaczonej z warunku rów wyznacznika Hessian "$#% '& (1.37) dokonuje si˛e klasyfikacji punktów stacjonarnych na powierzchni energii elektronowej. Stosowne informacje na ten temat można znale´zc´w typowych podr˛ecznikach analizy matema- o elementach. Liczba niezerowych tycznej (patrz np. [20, 21]). Hessian stanowi symetryczna˛ macierz wymiaru )( elementów macierzy może ulec redukcji przez diagonalizacj˛e hessianu, która sprowadza si˛e do rozwiazania ˛ zagadnienia własnego, tj. +* gdzie * jest macierza˛ ortogonalna,˛ tj. natomiast 2 43 52 76 83 *'*,/ *,.- * / * (1.39) 10 (0 oznacza tu macierz jednostkowa) ˛ . Dzi˛eki tej transformacji otrzymuje si˛e macierz diagonalna˛ - . Diagonalizacja tensora kwadratowych stałych siłowych za pomoca˛ transformacji ortogonalnej jest możliwa z uwagi na symetryczno´ sc´macierzy . Odpowiada ona pewnemu obrotowi & - dla powierzchni dwuwymiarowej układu współrz˛ednych [1, 22]. Na przykład w układzie 9 :9 , gdzie - , która może by´clokalnie przybliżona przez elipsoidalne zagł˛ebienie (w przypadku minimum) diagonalizacja polega na takim doborze układu współrz˛ednych , aby osie elipsy pokrywały si˛e z osiami układu primowanego. W ogólno´sci współrz˛edne punktu w układzie primowanym powiazane ˛ sa˛ ze współrz˛ednymi punktu w układzie & - 9 ; - 9 ; 9 9 - 9 15 - 9 - Od tej pory przyjmuje si˛e, ˙ze współrz˛edne wektora tworza˛ wektor wierszowy. 9 :9 22 1. Cz˛eść teoretyczna zależno´ scia˛ 9 3 - 19 czyli * Ortogonalna macierz * ; (1.40) (1.41) dana jest jako * gdzie - ; 3 (1.42) oznacza kat ˛ obrotu (patrz Rys. 1.2). Z prostego rachunku natomiast wynika, że x’2 x2 x2 x’2 x x1’ x1’ a x1 x1 Rys. 1.2. Obrót układu współrz˛ednych o kat ˛ - 9 - 9 3 9 3 9 czyli gdzie odpowiednio - 9 3 * - / 43 3 3 3 (1.43) (1.44) i sa˛ gradientami w układach 9 w układzie primowanym i - . Macierz drugich pochodnych - 9 9 :9 natomiast, po zróżniczkowaniu równania (1.43), dana jest jako 2 83 czyli - / .- 2 * / Korzystajac ˛ z własno´ sci macierzy ortogonalnej * * 3 (1.45) (1.46) zależno´ sc´(1.46) przekształca si˛e do rów- nania (1.39), b˛edacego ˛ zagadnieniem własnym hessianu. Jak wi˛ec wida´ c, można wybra´ c taki 23 1.3. Optymalizacja geometrii czasteczki ˛ układ współrz˛ednych, w którym hessian b˛edzie macierza˛ diagonalna.˛ Powyższe rozważanie ˛ Odpowiadajace ˛ wektorom własnym można z łatwo´ scia˛ uogólni´ c na przestrze´ n -wymiarowa. (kolumny macierzy * ) warto´ sci własne moga˛ by´ c wykorzystane do badania lokalnej topologii powierzchni energii potencjalnej – klasyfikacji punktów stacjonarnych. Dla minimum lokalnego, okre´ slajacego ˛ geometri˛e równowagowa˛ czasteczki ˛ i odpowiadajacego ˛ stabilnym konformerom molekuły, wszystkie warto´ sci własne położone na diagonali macierzy - sa˛ dodatnie. Punkt siodłowy -tego rz˛edu charakteryzuje obecno´ sc´wszystkich dodatnich warto´ sci własnych warto´ sci ujemnych. Punkty siodłowe pierwszego rz˛edu ( =1) wyznaczaja˛ kom- z wyjatkiem ˛ pleksy przej´ sciowe reakcji chemicznych. Wyst˛epowanie wyłacznie ˛ ujemnych warto´ sci własnych wskazuje na istnienie maksimum lokalnego. Maksima lokalne podobnie jak punkty siodłowe wyższych rz˛edów nie koresponduja˛ z żadna˛ okre´ slona˛ struktura˛ czasteczki ˛ [22]. 1.3.2. Strategie optymalizacji Najcz˛estszym problemem wyst˛epujacym ˛ przy procedurze minimalizacji jest odnalezienie globalnego minimum energii. Na powierzchni energii potencjalnej może wystapi´ ˛ c szereg minimów lokalnych, gdzie zeruja˛ si˛e pierwsze pochodne, lecz nie jest tam osiagana ˛ najmniejsza jej warto´ sc´. Algorytmy minimalizacji cz˛esto odnajduja˛ struktur˛e czasteczki ˛ odpowiadajac ˛ a˛ minimum lokalnemu. Szukajac ˛ minimum globalnego należy rozpocza´ ˛c obliczenia z różnych geometrii poczatkowych, ˛ czyli z odpowiadajacym ˛ im różnych punktów na powierzchni energii potencjalnej. Ciagle ˛ nie ma jednak pewno´ sci, że odnalezionej w ten sposób geometrii odpowiada minimum globalne. Zadaniem algorytmów optymalizacyjnych jest okre´ slenie kierunku i odległo´ sci do minimum od punktu poczatkowego. ˛ Najprostsze algorytmy na przykład poszukiwanie liniowe (ang. line search) lokalizuja˛ minimum poprzez odnalezienie jedynie kierunku, w którym należy si˛e przesuwa´ c od punktu ; dowolnego wektora z obowiazuje ˛ musi istnie´ c dla " " takie, że , aby malały pochodne funkcji ; ; ; "$ / 5 . Ponieważ dla ; . Kierunek spadku pochodnej funkcji jest wi˛ec wyznaczony przez wektor . Istnieje wiele strategii minimalizacji, do najważniejszych należa: ˛ metoda najwi˛ekszego spadku, metoda sprz˛eżonych gradientów oraz metoda Newtona-Raphsona. 24 1. Cz˛eść teoretyczna Metoda najwi˛ekszego spadku (ang. steepest descent) wykorzystuje w każdym kroku iteracyjnym algorytm poszukiwania liniowego. Za kierunek najwi˛ekszego spadku funkcji przyjmuje si˛e gradient funkcji w danym punkcie wzi˛ety ze znakiem przeciwnym. Nast˛epnie w wyniku minimalizacji ; wzgl˛edem w kierunku tym odszukiwany jest punkt o najniższej warto´ sci funkcji. Procedura powtarza si˛e aż do odnalezienia minimum. Metoda sprz˛eżonych gradientów (ang. conjugate gradient) zwana jest także metoda˛ zmiennej metryki. Algorytm ten wykorzystuje pierwsze pochodne (gradient) do wyznaczenia opty- malnego kierunku dla liniowego poszukiwania minimum generowanego z punktu startowego ; zgodnie z rekurencyjna˛ formuła˛ ; j˛etej metryki, a gdzie jest czynnikiem skalujacym, ˛ ; (1.47) macierza˛ symetryczna,˛ której posta´ c zależy od przy- jest gradientem funkcji [19]. Algorytm ten może by´ c niestabilny, jeżeli punkt startowy jest daleki od minimum. Natomiast Metoda Newtona-Raphsona oprócz informacji, które niesie obliczanie gradientu, wykorzystuje macierz drugich pochodnych energii – hessian. Z uwagi na wi˛eksza˛ efektywno´ sc´, stabilno´ sc´i szybko´ sc´zbieżno´ sci w porównaniu z metodami najwi˛ekszego spadku i sprz˛eżonych gradientów, (co można uzyska´ c kontrolujac ˛ długo´ sc´kroku przy użyciu procedur RFO (ang. Rational Function Optimization) oraz TRM (ang.Trust Radius Model)) algorytm ten zostanie omówiony szerzej. 1.3.3. Metoda Newtona-Raphsona Dla przypadku jednowymiarowego ekspansja funkcji 9 , aproksymujacej ˛ krzywa˛ energii po- ' - * (1.48) , . Przybliżanie funkcji funkcja˛ liniowa˛ uwzgl˛edniajac˛ a˛ gdzie 2 , jedynie dwa pierwsze człony rozwini˛ecia charakteryzuje tzw. model liniowy. Nieograniczono´ sc´ , tego modelu wynika z braku punktów stacjonarnych dla funkcji postaci - 9 , w szereg Taylora wokół punktu 9 tencjalnej 9 9 2 9 dana jest jako 2 9 nie zawierajacej ˛ żadnych informacji o krzywi´znie funkcji aproksymowanej 9 9 . Dyskwalifikuje to model liniowy w procedurach lokalizacji punktów krytycznych. Biorac ˛ pod uwag˛e trzy człony szeregu Taylora uzyskuje si˛e funkcj˛e postaci trójmianu kwadratowego. Model kwadratowy (paraboliczny) stanowi dobre przybliżenie powierzchni energii 1.3. Optymalizacja geometrii czasteczki ˛ 25 " , wynika, że potencjalnej w sasiedztwie ˛ punktu 9 , w szczególno´ sci wokół jej punktów stacjonarnych. Z warunku koniecznego istnienia ekstremum, tj. 9 2 (1.49) 9 Równanie (1.49) stanowi podstaw˛e metody Newtona-Raphsona dla jednego wymiaru, a warto´ sc´ nosi nazw˛e iteracyjnego kroku Newtona. Procedura iteracyjna znajdowania punktów wyznaczana jest z zależno´ sci stacjonarnych opiera si˛e wi˛ec na obliczeniu ze stosunku warto´ sci pierwszej i drugiej pochodnej dla startowego punktu 9 kroku . Nowa współrz˛edna 9 9 9 (1.50) Przedstawiona˛ wyżej procedur˛e numeryczna˛ ilustruje rysunek 1.3. Pogrubiona˛ linia˛ cia˛ gła˛ oznaczono krzywa˛ energii potencjalnej czasteczki ˛ HCl (dla kilku długo´ sci wiazania ˛ obli- ') czono warto´ sci energii na poziomie teorii DFT/B3LYP/6-311G(d,p) a nast˛epnie dopasowano do nich funkcj˛e Morse’a). Za punkt startowy w procedurze iteracyjnej przyj˛eto Å. Nast˛epnie obliczono warto´ sc´energii oraz warto´ sci pierwszej i drugiej pochodnej, na podsta- ') wie czego wyznaczono równanie paraboli (zaznaczonej linia˛ kropkowana). ˛ Jej minimum w ˙ Å) stanowi lepsze przybliżenie punktu stacjonarnego Å (odpowiadajace ˛ "+ ' funkcji Morse’a. Jest to jednocze´ snie punkt startowy do nast˛epnej iteracji, w której buduje si˛e nowa˛ parabol˛e (linia przerywana). Kryteria zatrzymania procedury iteracyjnej zostana˛ omówione w dalszej cz˛es´ci tego rozdziału. - , rozwini˛ecie w sze- Podobnie dla funkcji wielu zmiennych ; , gdzie ; = 9 9 9 reg Taylora drugiego rz˛edu prowadzi do przybliżenia parabolicznego, tj. (1.51) $ *' $ gdzie $ , , 8 . W zapisie macierzowym równanie (1.51) ma posta´ c ' (1.52) & * Analogicznie jak w przypadku jednego wymiaru dla punktu stacjonarnego spełniony jest wa " dla % ' ,*+4 . Różniczkujac˛ równanie (1.52) i korzystajac˛ z zależno´sci runek otrzymuje si˛e (1.53) ( 9 9 ; 32 43 43 2 83 ; / / 6 43 / / Równanie (1.53) jest wielowymiarowym uogólnieniem równania (1.49) (patrz np. [23, 24]). Podobnie także wyznaczane sa˛ punkty startowe kolejnych iteracji, tzn. ; ; (1.54) 26 1. Cz˛eść teoretyczna −0.8 Energia potencjalna [+460 j.at.] Funkcja Morse’a, rmin=1.320 A 1 Pierwsza iteracja, r =1.5 A 2 Druga iteracja, r =1.345 A −0.81 −0.82 −0.83 −0.84 1 1.1 1.2 1.3 1.4 rH−Cl [Å] 1.5 1.6 1.7 Rys. 1.3. Graficzna ilustracja zbie˙znó sci metoda˛ Newtona-Raphsona Procedura iteracyjna zostaje zatrzymana, kiedy dla ustalonych warto´ sci progowych zostana˛ spełnione podstawowe kryteria zbieżno´ sci. Sa˛ to: mi˛edzy kolejnymi iteracjami musi by´ c mniejsza od warto´ sci progowej ; 1. kryterium zmian warto´ sci funkcji. Zmiana warto´ sci funkcji ; ; musi by´ 2. kryterium gradientowe (najważniejsze). Norma16 gradientu c mniejsza od warto´ sci progowej ; 3. kryterium długo´ sci kroku. Norma kroku musi by´ c mniejsza od warto´ sci progowej ; 4. kryterium zbieżno´ sci drugiego rz˛edu. Wielko´ sc´ / , okre´ slajaca ˛ udział członów rz˛edu drugiego w równaniu (1.52), musi by´ c mniejsza od warto´ sci progowej . Kryteria warto´ sci funkcji i gradientowe zwiazane ˛ sa˛ z testem stacjonarno´ sci i wynikaja˛ z warunku koniecznego istnienia ekstremum. Cz˛esto nie sa˛ one jednak wystarczajace. ˛ W przypadku bowiem wystapienia ˛ „płaskiego” minimum zarówno zmiany warto´ sci funkcji jak i gradient moga˛ przyjmowa´ c niewielkie warto´ sci, mimo, że punkt stacjonarny nie został osiagni˛ ˛ ety. Z pomoca˛ przychodzi test długo´ sci kroku – niewielkie warto´ sci hessianu w opisanej tu sytuacji 16 Norma˛ wektora / nazywamy jego długość, tj. 4/ / ! " # $& % $ . 27 1.3. Optymalizacja geometrii czasteczki ˛ powoduja, ˛ że krok / / jest znaczny, wi˛ec procedura iteracyjna nie powinna by´ c zatrzymana. Kryterium drugiego rz˛edu jest rzadziej stosowane. W praktyce procedur˛e iteracyjna˛ można zatrzyma´ c wówczas, gdy spełnione sa˛ przynajmniej dwa z wymienionych kryte j.at., riów. W przypadku czasteczek ˛ za racjonalne warto´ sci progowe przyjmuje si˛e ( j.at. i j.at. Ciag ˛ punktów generowanych przez algorytm Newtona- ' " '" ) ' " Raphsona jest zbieżny z szybko´ scia˛ drugiego rz˛edu do minimum, o ile w każdym kroku hessian jest s´ci´ sle dodatnio okre´ slony i spełnia lokalnie warunek Lipschitza (funkcja aproksymujaca ˛ nie może zbyt szybko rosna´ ˛c w stosunku do argumentów).