pliku pdf
Transkrypt
pliku pdf
Od wielkoskalowych obliczeń diagnostyki w kardiologii. równoległych do innowacyjnej Opiekun naukowy: dr hab. prof. UŚ Marcin Kostur Celem tych badań jest zastosowanie symulacji układu krwionośnego do diagnostyki lub planowania operacji. Z pomocą obliczeń lekarz będzie mógł nieinwazyjnie przewidzieć skutki wykonania danego zabiegu chirurgicznego lub precyzyjnie ocenić ryzyko jego niewykonania. Lekarz przyszłości będzie mógł wykonać zabieg na wirtualnym pacjencie i ocenić jego efekty i następstwa przed ingerencją w żywego człowieka. Aby ta wizja stała się rzeczywistością niezbędne jest opanowanie szybkich i precyzyjnych obliczeń hemodynamicznych. Dynamika płynów a w szczególności obliczenia hemodynamiczne są jednym z trudniejszych wyzwań nauki w XXI wieku. Osiągnięcie weryfikowalnych wyników wymaga wykonywania wielodniowych obliczeń oraz zastosowania potężnych komputerów. Innowacją w technologiach obliczeniowych jest wykorzystanie architektury GPU (Graphical Processing Units), która umożliwia w pewnych przypadkach nawet kilkusetkrotne przyśpieszenie wykonywanych obliczeń. Nad tymi zagadnieniami pracuje interdyscyplinarny zespół doktorantów składający się z lekarza-kardiologa, oraz trzech fizyków posiadających drugi fakultet z informatyki i będących jednocześnie ekspertami w zakresie obliczeń równoległych. Badania obejmują cztery zagadnienia: 1. 2. 3. 4. Metoda siatkowa Boltzmanna. Technologia GPU Symulacje hemodynamiczne Technika kontrastu fazy rezonansu magnetycznego (4D- MRI) Powyższe zagadnienia są ze sobą powiązane w następujący sposób: metoda siatkowa Boltzmana jest implementowana na klastrach GPU. Stworzone oprogramowanie zostanie wykorzystane do symulacji zjawisk kardiologicznych. Technologia pomiaru 4D MRI będzie służyć jako narzędzie walidacji obliczeń i punkt wyjścia do dalszych badań medycznych. Dlaczego stosujemy metodę siatkową Boltzmanna? Klasyczne podejścia do obliczeniowej dynamiki płynów opierają się na numerycznym rozwiązywaniu równiania Naviera-Stokesa, np. metodą elementów lub objętości skończonych. Równanie Naviera-Stokesa jest cząstkowym równaniem różniczkowym, które wyraża zachowanie pędu w ośrodku ciągłym i tym samym opisuje dynamikę płynu na poziomie makroskopowym. Istnieją jednak alternatywne podejścia do problemu numerycznej symulacji płynów. Jednym z nich jest rozwijana w ciągu ostatnich 20 lat metoda siatkowa Boltzmanna (ang. Lattice Boltzmann Method -- LBM). W metodzie tej obszar symulacji pokryty jest jednorodną, kartezjańską siecią. Z każdym węzłem sieci związany jest zestaw dystrybucji, które na poziomie mezoskopowym określają jaka część płynu porusza się w poszczególnych kierunkach. Co ciekawe, ilość tych kierunków jest zwykle dosyć mała (od kilku do kilkunastu). Symulacja przepływu cieczy w LBM sprowadza się do dwóch wykonywanych naprzemiennie kroków: ● relaksacji, w której dystrybucje w każdym węźle dążą do wcześniej określonego rozkładu równowagowego, ● propagacji, w której dystrybucje są przenoszone z węzła źródłowego do węzłów sąsiednich zgodnie ze wspomnianym wcześniej zestawem kierunków. Można pokazać, że taka procedura przy odpowiednio określonym rozkładzie równowagowym prowadzi do rozwiązania, które jest zgodne z równaniem Naviera-Stokesa. Głównymi zaletami LBM jest prosta, intuicyjnie zrozumiała interpretacja schematu numerycznego oraz lokalność obliczeń. Właściwości płynu takie jak gęstość czy prędkość mogą być wyliczone w każdym węźle korzystając tylko z dostępnych w nim dystrybucji. Powoduje to, iż LBM niezwykle dobrze sprawdza się przy wykorzystaniu obliczeń równoległych, gdzie minimalizacja ilości danych przesyłanych między jednostkami obliczeniowymi bezpośrednio przekłada się na szybkość symulacji. W ciągu ostatnich kilku lat LBM znacząco zyskał na popularności, co jest związane zarówno z postępami w analizie teoretycznych podstaw samej metody, jak i trendami w rozwoju sprzętu komputerowego. Powodują one, iż hardware do obliczeń równoległych jest obecnie powszechnie dostępny w postaci komputerowych kart graficznych. Za ich pomocą symulacje metodą LBM można wykonywać kilkadziesiąt razy szybciej niż jest to możliwe przy użyciu głównego procesora. Do daje nam wykorzystanie technologii GPU? Spoglądając na ostatnią dekadę rozwoju jednostek centralnych komputerów (CPU) wyraźnie można zauważyć zmianę jego kierunku. Producenci procesorów nie prześcigają się już w osiąganiu coraz to większych wartości ich taktowania. Dzisiaj stawiają na wielowątkowość zadań. Jest to kierunek, który producentom kart graficznych znany był już od dawna. Zadaniem procesora graficznego początkowo było wykonywanie obliczeń numerycznych związanych z wyświetlaniem grafiki. Dzięki technologii CUDA (Compute Unified Device Architecture) wprowadzonej w 2007 przez firmę NVIDIA, możliwym stało się programowanie kart graficznych i wykorzystanie ich mocy obliczeniowych w zastosowaniach nie związanych z wyświetlaniem grafiki. Technologia CUDA narzuciła standard w budowie karty graficznej. Współczesny procesor graficzny (GPU) zgodny z CUDA jest urządzeniem, które posiada od kilkudziesięciu do kilkuset procesorów skalarnych zwanych również "rdzeniami CUDA". Każdy z rdzeni potrafi wykonywać te same operacje co procesor główny komputera. W rezultacie karta graficzna przekracza swoją mocą obliczeniową CPU o rząd wielkości. Dodatkowo wykorzystanie GPU w stosunku do CPU jest bardziej ekonomiczne i ekologiczne, porównując jego wydajność do ceny oraz poboru energii, co nie jest bez znaczenia w dzisiejszych czasach. Poza standardami w budowie sprzętu firma NVIDIA wprowadziła zestaw narzędzi programistycznych. Narzędzia te znacznie ułatwiły tworzenie programów wykorzystujących dobrodziejstwa karty graficznej, ponieważ są one bliskie standardowi C/C++. Obecnie można zauważyć, że świat wiąże nadzieje z dziedziną GPGPU (General-Purpose Computing on Graphics Processing Units). Powstaje wiele komercyjnych i darmowych programów, które ją wykorzystują np. Sailfish, Jacket for Matlab lub Mathematica. Powstają również superkomputery, które kwalifikują się do pierwszej dziesiątki "TOP500", posiadające w swych zasobach procesory GPU. Mimo swoich zalet, technologia GPGPU nie jest wolna od problemow i obaw. Przenoszenie istniejących programów nie jest procesem automatycznym. Wiąże się z konstruowaniem dla nich nowych algorytmów i struktur danych pasujących do architektury karty graficznej. GPGPU jest eksperymentalną technologią wykorzystywaną praktycznie od 3 lat, która ulega ciągłej ewolucji. Z tego powodu, by wykorzystać jej możliwości, niezbędne jest prowadzenie na bieżąco intensywnych badań naukowych. Dlaczego warto zajmować się kardiologią i stosować w niej metody obliczeniowe? Kardiologia i kardiochirurgia są jednymi z najszybciej rozwijających się dziedzin współczesnej medycyny. Jest to ważne, ponieważ obecnie ponad połowa zgonów powodowana jest przez choroby układu krążenia. Jednym z istotnych i popularnych w ostatnich czasach tematów w tych dziedzinach stało się wykorzystanie metod modelowania dla celów symulacji efektów zabiegów kardiologicznych. Zastosowanie symulacji w połączeniu z danymi klinicznymi umożliwia wgląd w procesy hemodynamiczne przed i po operacji. Wyniki numeryczne otrzymane z symulacji mogą ułatwić podjęcie decyzji i ocenę, która z metod chirurgicznych będzie najlepsza dla pacjenta. Zastosowanie nieinwazyjnych metod obrazowania medycznego takich, jak tomografia komputerowa lub rezonans magnetyczny pozwala uzyskać informacje o indywidualnej budowie pacjenta. Przebieg procedury można opisać w trzech krokach. Aby symulacja odnosiła się do danego pacjenta, w pierwszym kroku niezbędne jest stworzenie przestrzennego modelu jego układu krążenia. Informacje te mogą zostać uzyskane z badań diagnostycznych. Otrzymana geometria jest następnie importowana do oprogramowania CFD, czyli obliczeniowej mechaniki płynów w którym przeprowadzana jest symulacja. W jej trakcie obliczane są parametry hemodynamiczne wybranych obszarów układu krążenia, które następnie mogą zostać porównane z danymi pomiarowymi. Trzecim etapem jest zmiana geometrii zgodnie z planowaną operacją i ponowne przeprowadzenie symulacji oraz obliczeń. Celem jest dopasowanie ingerencji chirurgicznej do danego pacjenta. Procedura ta może być wykonana nie tylko przy użyciu CFD ale także z wykorzystaniem modelu fizycznego, czyli fantomu. Nie jest to jednak rozwiązanie, które mogłoby być wprowadzone powszechnie do użytku. Symulacja wykorzystująca obliczeniową mechanikę płynów ma więc przewagę nad tym rozwiązaniem. Krytyczną rolę w omawianym procesie pełni jednak czas potrzebny na uzyskanie wyników. Aby rozwiązanie mogło być stosowane powszechnie w przypadkach klinicznych czas ten powinien być możliwie jak najkrótszy, bowiem każda zaoszczędzona chwila może zwiększać szanse pacjenta na przeżycie i powrót do zdrowia. Obecne techniki CFD pozwalają symulować pełny cykl pracy serca dla prostych naczyń w czasie rzędu dni. Czas ten jest więc zbyt długi dla testów klinicznych. Aby przyspieszyć obliczenia wymagane jest zastosowanie obliczeń równoległych oraz algorytmu, który byłby efektywny i wydajny na takiej architekturze. Czy można bezinwazyjnie mierzyć przepływy krwi w organizmie? W ciągu ostatnich lat nieinwazyjne metody obrazowania stały się coraz częściej wykorzystywanym narzędziem diagnostycznym do jakościowej i ilościowej oceny układu krążenia. Chociaż przepływy krwi w obrębie serca i naczyń krwionośnych były dotychczas przedmiotem licznych badań, to aktualna wiedza dotycząca wewnątrzsercowych i wewnątrznaczyniowych przepływów krwi jest ciągle bardzo ograniczona, zarówno w warunkach fizjologicznych jak i patologicznych. Do niedawna nie było dostępnego narzędzia diagnostycznego umożliwiającego obrazowanie złożonych trójwymiarowych zjawisk przepływowych w układzie krążenia u ludzi in vivo. Technika 4D kontrastu fazu rezonansu magnetycznego umożliwia pomiar prędkości przepływającej krwi we wszystkich trzech kierunkach przestrzennych w czasie trwania całego cyklu pracy serca (stąd nazwa 4D: 3D + czas). Znaczna ilość uzyskanych danych wymaga jednak dużej mocy obliczeniowej i zaawansowanych strategii post-processingowych do analizy jakościowej i ilościowej. W pierwszym etapie zostanie opracowane narzędzie umożliwiające analizę i wizualizację trójwymiarowych zjawisk przepływowych w układzie krążenia w oparciu o dane uzyskane przy pomocy techniki kontrastu fazy rezonansu magnetycznego. W drugim etapie wykorzystując stworzone narzędzie będą zanalizowane przepływy krwi u ludzi zarówno w warunkach fizjologicznych jak i w zakresie szerokiego spektrum patologii układu krążenia. Mamy nadzieję, że badanie 4D zjawisk przepływowych w sercu i w naczyniach krwionośnych pozwoli na lepsze zrozumienie złożonej patofizjologii układu krążenia i w przyszłości będzie wykorzystywane do opracowywania skuteczniejszych i bardziej zindywidualizowanych metod terapeutycznych.