pliku pdf

Transkrypt

pliku pdf
Od wielkoskalowych obliczeń
diagnostyki w kardiologii.
równoległych
do
innowacyjnej
Opiekun naukowy: dr hab. prof. UŚ Marcin Kostur
Celem tych badań jest zastosowanie symulacji układu krwionośnego do diagnostyki lub
planowania operacji. Z pomocą obliczeń lekarz będzie mógł nieinwazyjnie przewidzieć skutki
wykonania danego zabiegu chirurgicznego lub precyzyjnie ocenić ryzyko jego niewykonania.
Lekarz przyszłości będzie mógł wykonać zabieg na wirtualnym pacjencie i ocenić jego efekty i
następstwa przed ingerencją w żywego człowieka. Aby ta wizja stała się rzeczywistością
niezbędne jest opanowanie szybkich i precyzyjnych obliczeń hemodynamicznych.
Dynamika płynów a w szczególności obliczenia hemodynamiczne są jednym z trudniejszych
wyzwań nauki w XXI wieku. Osiągnięcie weryfikowalnych wyników wymaga wykonywania
wielodniowych obliczeń oraz zastosowania potężnych komputerów. Innowacją w technologiach
obliczeniowych jest wykorzystanie architektury GPU (Graphical Processing Units), która
umożliwia w pewnych przypadkach nawet kilkusetkrotne przyśpieszenie wykonywanych
obliczeń. Nad tymi zagadnieniami pracuje interdyscyplinarny zespół doktorantów składający się
z lekarza-kardiologa, oraz trzech fizyków posiadających drugi fakultet z informatyki i będących
jednocześnie ekspertami w zakresie obliczeń równoległych. Badania obejmują cztery
zagadnienia:
1.
2.
3.
4.
Metoda siatkowa Boltzmanna.
Technologia GPU
Symulacje hemodynamiczne
Technika kontrastu fazy rezonansu magnetycznego (4D- MRI)
Powyższe zagadnienia są ze sobą powiązane w następujący sposób: metoda siatkowa
Boltzmana jest implementowana na klastrach GPU. Stworzone oprogramowanie zostanie
wykorzystane do symulacji zjawisk kardiologicznych. Technologia pomiaru 4D MRI będzie
służyć jako narzędzie walidacji obliczeń i punkt wyjścia do dalszych badań medycznych.
Dlaczego stosujemy metodę siatkową Boltzmanna?
Klasyczne podejścia do obliczeniowej dynamiki płynów opierają się na numerycznym
rozwiązywaniu równiania Naviera-Stokesa, np. metodą elementów lub objętości skończonych.
Równanie Naviera-Stokesa jest cząstkowym równaniem różniczkowym, które wyraża
zachowanie pędu w ośrodku ciągłym i tym samym opisuje dynamikę płynu na poziomie
makroskopowym.
Istnieją jednak alternatywne podejścia do problemu numerycznej symulacji płynów. Jednym z
nich jest rozwijana w ciągu ostatnich 20 lat metoda siatkowa Boltzmanna (ang. Lattice
Boltzmann Method -- LBM). W metodzie tej obszar symulacji pokryty jest jednorodną,
kartezjańską siecią. Z każdym węzłem sieci związany jest zestaw dystrybucji, które na
poziomie mezoskopowym określają jaka część płynu porusza się w poszczególnych kierunkach.
Co ciekawe, ilość tych kierunków jest zwykle dosyć mała (od kilku do kilkunastu).
Symulacja przepływu cieczy w LBM sprowadza się do dwóch wykonywanych naprzemiennie
kroków:
● relaksacji, w której dystrybucje w każdym węźle dążą do wcześniej określonego
rozkładu równowagowego,
● propagacji, w której dystrybucje są przenoszone z węzła źródłowego do węzłów
sąsiednich zgodnie ze wspomnianym wcześniej zestawem kierunków.
Można pokazać, że taka procedura przy odpowiednio określonym rozkładzie równowagowym
prowadzi do rozwiązania, które jest zgodne z równaniem Naviera-Stokesa. Głównymi zaletami
LBM jest prosta, intuicyjnie zrozumiała interpretacja schematu numerycznego oraz lokalność
obliczeń. Właściwości płynu takie jak gęstość czy prędkość mogą być wyliczone w każdym
węźle korzystając tylko z dostępnych w nim dystrybucji. Powoduje to, iż LBM niezwykle dobrze
sprawdza się przy wykorzystaniu obliczeń równoległych, gdzie minimalizacja ilości danych
przesyłanych między jednostkami obliczeniowymi bezpośrednio przekłada się na szybkość
symulacji.
W ciągu ostatnich kilku lat LBM znacząco zyskał na popularności, co jest związane zarówno z
postępami w analizie teoretycznych podstaw samej metody, jak i trendami w rozwoju sprzętu
komputerowego.
Powodują one, iż hardware do obliczeń równoległych jest obecnie
powszechnie dostępny w postaci komputerowych kart graficznych. Za ich pomocą symulacje
metodą LBM można wykonywać kilkadziesiąt razy szybciej niż jest to możliwe przy użyciu
głównego procesora.
Do daje nam wykorzystanie technologii GPU?
Spoglądając na ostatnią dekadę rozwoju jednostek centralnych komputerów (CPU) wyraźnie
można zauważyć zmianę jego kierunku. Producenci procesorów nie prześcigają się już w
osiąganiu coraz to większych wartości ich taktowania. Dzisiaj stawiają na wielowątkowość
zadań. Jest to kierunek, który producentom kart graficznych znany był już od dawna. Zadaniem
procesora graficznego początkowo było wykonywanie obliczeń numerycznych związanych z
wyświetlaniem grafiki. Dzięki technologii CUDA (Compute Unified Device Architecture)
wprowadzonej w 2007 przez firmę NVIDIA, możliwym stało się programowanie kart graficznych
i wykorzystanie ich mocy obliczeniowych w zastosowaniach nie związanych z wyświetlaniem
grafiki.
Technologia CUDA narzuciła standard w budowie karty graficznej. Współczesny procesor
graficzny (GPU) zgodny z CUDA jest urządzeniem, które posiada od kilkudziesięciu do kilkuset
procesorów skalarnych zwanych również "rdzeniami CUDA". Każdy z rdzeni potrafi wykonywać
te same operacje co procesor główny komputera. W rezultacie karta graficzna przekracza swoją
mocą obliczeniową CPU o rząd wielkości. Dodatkowo wykorzystanie GPU w stosunku do CPU
jest bardziej ekonomiczne i ekologiczne, porównując jego wydajność do ceny oraz poboru
energii, co nie jest bez znaczenia w dzisiejszych czasach. Poza standardami w budowie sprzętu
firma NVIDIA wprowadziła zestaw narzędzi programistycznych. Narzędzia te znacznie ułatwiły
tworzenie programów wykorzystujących dobrodziejstwa karty graficznej, ponieważ są one
bliskie standardowi C/C++.
Obecnie można zauważyć, że świat wiąże nadzieje z dziedziną GPGPU (General-Purpose
Computing on Graphics Processing Units). Powstaje wiele komercyjnych i darmowych
programów, które ją wykorzystują np. Sailfish, Jacket for Matlab lub Mathematica. Powstają
również superkomputery, które kwalifikują się do pierwszej dziesiątki "TOP500", posiadające w
swych zasobach procesory GPU. Mimo swoich zalet, technologia GPGPU nie jest wolna od
problemow i obaw. Przenoszenie istniejących programów nie jest procesem automatycznym.
Wiąże się z konstruowaniem dla nich nowych algorytmów i struktur danych pasujących do
architektury karty graficznej. GPGPU jest eksperymentalną technologią wykorzystywaną
praktycznie od 3 lat, która ulega ciągłej ewolucji. Z tego powodu, by wykorzystać jej możliwości,
niezbędne jest prowadzenie na bieżąco intensywnych badań naukowych.
Dlaczego warto zajmować się kardiologią i stosować w niej metody
obliczeniowe?
Kardiologia i kardiochirurgia są jednymi z najszybciej rozwijających się dziedzin współczesnej
medycyny. Jest to ważne, ponieważ obecnie ponad połowa zgonów powodowana jest przez
choroby układu krążenia. Jednym z istotnych i popularnych w ostatnich czasach tematów w tych
dziedzinach stało się wykorzystanie metod modelowania dla celów symulacji efektów zabiegów
kardiologicznych. Zastosowanie symulacji w połączeniu z danymi klinicznymi umożliwia wgląd w
procesy hemodynamiczne przed i po operacji. Wyniki numeryczne otrzymane z symulacji mogą
ułatwić podjęcie decyzji i ocenę, która z metod chirurgicznych będzie najlepsza dla pacjenta.
Zastosowanie nieinwazyjnych metod obrazowania medycznego takich, jak tomografia
komputerowa lub rezonans magnetyczny pozwala uzyskać informacje o indywidualnej budowie
pacjenta.
Przebieg procedury można opisać w trzech krokach. Aby symulacja odnosiła się do danego
pacjenta, w pierwszym kroku niezbędne jest stworzenie przestrzennego modelu jego układu
krążenia. Informacje te mogą zostać uzyskane z badań diagnostycznych. Otrzymana geometria
jest następnie importowana do oprogramowania CFD, czyli obliczeniowej mechaniki płynów w
którym przeprowadzana jest symulacja. W jej trakcie obliczane są parametry hemodynamiczne
wybranych obszarów układu krążenia, które następnie mogą zostać porównane z danymi
pomiarowymi. Trzecim etapem jest zmiana geometrii zgodnie z planowaną operacją i ponowne
przeprowadzenie symulacji oraz obliczeń. Celem jest dopasowanie ingerencji chirurgicznej do
danego pacjenta.
Procedura ta może być wykonana nie tylko przy użyciu CFD ale także z wykorzystaniem
modelu fizycznego, czyli fantomu. Nie jest to jednak rozwiązanie, które mogłoby być
wprowadzone powszechnie do użytku. Symulacja wykorzystująca obliczeniową mechanikę
płynów ma więc przewagę nad tym rozwiązaniem. Krytyczną rolę w omawianym procesie pełni
jednak czas potrzebny na uzyskanie wyników. Aby rozwiązanie mogło być stosowane
powszechnie w przypadkach klinicznych czas ten powinien być możliwie jak najkrótszy, bowiem
każda zaoszczędzona chwila może zwiększać szanse pacjenta na przeżycie i powrót do
zdrowia.
Obecne techniki CFD pozwalają symulować pełny cykl pracy serca dla prostych naczyń w
czasie rzędu dni. Czas ten jest więc zbyt długi dla testów klinicznych. Aby przyspieszyć
obliczenia wymagane jest zastosowanie obliczeń równoległych oraz algorytmu, który byłby
efektywny i wydajny na takiej architekturze.
Czy można bezinwazyjnie mierzyć przepływy krwi w organizmie?
W ciągu ostatnich lat nieinwazyjne metody obrazowania stały się coraz częściej
wykorzystywanym narzędziem diagnostycznym do jakościowej i ilościowej oceny układu
krążenia. Chociaż przepływy krwi w obrębie serca i naczyń krwionośnych były dotychczas
przedmiotem licznych badań, to aktualna wiedza dotycząca wewnątrzsercowych i
wewnątrznaczyniowych przepływów krwi jest ciągle bardzo ograniczona, zarówno w warunkach
fizjologicznych jak i patologicznych.
Do niedawna nie było dostępnego narzędzia diagnostycznego umożliwiającego obrazowanie
złożonych trójwymiarowych zjawisk przepływowych w układzie krążenia u ludzi in vivo.
Technika 4D kontrastu fazu rezonansu magnetycznego umożliwia pomiar prędkości
przepływającej krwi we wszystkich trzech kierunkach przestrzennych w czasie trwania całego
cyklu pracy serca (stąd nazwa 4D: 3D + czas). Znaczna ilość uzyskanych danych wymaga
jednak dużej mocy obliczeniowej i zaawansowanych strategii post-processingowych do analizy
jakościowej i ilościowej.
W pierwszym etapie zostanie opracowane narzędzie umożliwiające analizę i wizualizację
trójwymiarowych zjawisk przepływowych w układzie krążenia w oparciu o dane uzyskane przy
pomocy techniki kontrastu fazy rezonansu magnetycznego. W drugim etapie wykorzystując
stworzone narzędzie będą zanalizowane przepływy krwi u ludzi zarówno w warunkach
fizjologicznych jak i w zakresie szerokiego spektrum patologii układu krążenia. Mamy nadzieję,
że badanie 4D zjawisk przepływowych w sercu i w naczyniach krwionośnych pozwoli na lepsze
zrozumienie złożonej patofizjologii układu krążenia i w przyszłości będzie wykorzystywane do
opracowywania skuteczniejszych i bardziej zindywidualizowanych metod terapeutycznych.