przegląd systema - Diagnostyka Laboratoryjna
Transkrypt
przegląd systema - Diagnostyka Laboratoryjna
diagnostyka laboratoryjna Journal of Laboratory Diagnostics 2009 • Volume 45 • Number 2 • 187-190 Przegląd piśmiennictwa • Journals Club Wartość prognostyczna VEGF w raku wątrobowokomórkowym: przegląd systematyczny i metaanaliza Rak wątrobowokomórkowy (hepatocellular carcinoma – HCC) jest piątym pod względem częstości występowania nowotworem na świecie. Ponadto znajduje się na trzecim miejscu wśród chorób nowotworowych prowadzących do zgonu. Przewiduje się wzrost częstości zachorowań w następnych dekadach. Dlatego istotnym jest poszukiwanie czynników, które mają wpływ na prognozę chorych z HCC. Naczyniowo-śródbłonkowy czynnik wzrostu (vascular endothelial growth factor – VEGF) uważany jest obecnie za kluczowy czynnik regulujący zarówno fizjologiczną, jak i patologiczną angiogenezę. Tworzenie nowych naczyń krwionośnych odgrywa zasadniczą rolę w procesie wzrostu i rozwoju nowotworów. Nadmierne unaczynienie HCC związane jest z wysoką ekspresją VEGF w tkance nowotworu. W badaniach skupiono się na przeglądzie systematycznym danych literaturowych i przeprowadzeniu metaanalizy w celu oszacowania wartości prognostycznej podwyższonego poziomu VEGF w surowicy i tkance nowotworowej. Ze stu opublikowanych badań zakwalifikowano 16 oryginalnych prac do opracowania metaanalizy. W badaniach tych stwierdzono, że wysoki poziom VEGF w tkance i surowicy koreluje zarówno z całkowitym czasem przeżycia chorych, jak i z czasem wolnym od choroby. Zaobserwowano również brak różnicy w poziomie VEGF pomiędzy grupą chorych leczonych chirurgicznie, a grupą chorych poddanych innej formie terapii (chemoembolizacja, radioablacja). Dodatkowo stwierdzono, że całkowity poziom surowiczego VEGF koreluje z liczbą płytek. Nie wykazano związku między poziomem VEGF a stanem chorych z przewlekłym wirusowym zapaleniem wątroby. Sugeruje się większą użyteczność wyników oznaczeń poziomu VEGF w surowicy niż oznaczania ekspresji VEGF w tkance nowotworowej. Zalecane są seryjne badania stężenia VEGF u chorych z rakiem wątroby w celu oceny odpowiedzi na stosowaną terapię. VEGF może okazać się również markerem progresji choroby. Dalsze badania powinny skupiać się na określeniu rozkładu i wartości odcięcia dla marskości wątroby, HCC i czasu całkowitego przeżycia. Według: Schoenleber SJ, Kurtz DM, Talwalkar JA, Roberts LR, Gores GJ. Prognostic role of vascular endothelial growth factor in hepatocellular carcinoma: systematic review and meta-analysis. Br J Cancer 2009; 100: 1385-1392. (opracowała: Ewa Leporowska) Hemoliza: główne przyczyny nieprawidłowości próbek w laboratorium medycznym Zapobieganie błędom medycznym jest ważnym zadaniem pracowników ochrony zdrowia. Błąd medyczny może być przyczyną nieodpowiedniego lub opóźnionego postępowania leczniczego. Błąd diagnostyczny jest składową błędu medycznego i może wynikać ze złego zdefiniowania badań laboratoryjnych, niewłaściwej interpretacji wyników i w konsekwencji nietrafnej diagnozy. Szacuje się, że około 70% błędów laboratoryjnych jest związanych z fazą przedanalityczną. Czynnikiem wpływającym na tę fazę jest głównie złe pobranie próbki; nieodpowiednia objętość, zła jakość próbki (hemoliza, skrzep, kontaminacja). Hemoliza występuje w ponad 3,3% rutynowo pobranych próbkach i stanowi 40-70% wszystkich nieprawidłowości. Hemoliza jest to uwalnianie hemoglobiny i innych składników wewnątrzkomórkowych erytrocytów do otaczającego osocza w wyniku uszkodzenia lub przerwania błony komórkowej. Górna granica zakresu referencyjnego dla wolnej hemoglobiny w surowicy wynosi 50 mg/l, w osoczu 20 mg/l. Wizualnie obecność wolnej hemoglobiny można stwierdzić przy stężeniu powyżej 0,3 g/l. Hemoliza zachodzi zarówno w warunkach in vivo, jak i in vitro. Przyczynami występowania hemolizy in vivo mogą być między innymi: hemoglobinopatie, anemia autoimmunohemolityczna, zaburzenia metaboliczne (choroby wątroby), leki, ciężkie infekcje, DIC, reakcje poprzetoczeniowe, sztuczne zastawki serca. Do hemolizy może dochodzić również w trakcie pobierania materiału. Główne przyczyny to: trudności z dostępem nakłucia żyły, użycie igieł o zbyt małym przekroju, zbyt duże ciśnienie w probówce, nieodpowiednie napełnienie probówki, nadmierne mieszanie, pienienie się krwi. Czynnikami, które mogą wpływać na wystąpienie hemolizy w dalszym postępowaniu z próbką związane są z transportem w niewłaściwej temperaturze, wilgotnością, opóźnieniem separacji surowicy bądź osocza, nieprawidłowym przechowywaniem i wirowaniem. Hemoliza jest poważnym problemem w laboratorium diagnostycznym, ponieważ nie można jej zaobserwować w krwi pełnej. Obecność hemoglobiny w surowicy czy osoczu zakłóca szereg reakcji analitycznych. Interferuje przy odczytach absorbancji, szczególnie przy długościach fal 415, 540 i 570 nm. Uwolnione podczas hemolizy składniki krwinek czerwonych zmieniają jakościowo i ilościowo skład surowicy. W próbkach zhemolizowanych stwierdza się wyższy poziom aminotransferaz, kreatyniny, CK, żelaza, LDH, lipazy, magnezu, fosforu, potasu, kalcytoniny, PSA, mocznika, tropo187 Przegląd piśmiennictwa niny I. Wyższy poziom wynika z uwalniania tych substancji z krwinek czerwonych, bądź też z analitycznej interferencji. Hemoliza może być przyczyną obniżenia stężenia albuminy, chlorków, bilirubiny, kortyzolu, glukozy, glukagonu, haptoglobiny, sodu, troponiny T, poziomu ALP. Przyczyną obniżenia wartości jest zarówno interferencja analityczna, jak i proteoliza czy efekt rozcieńczenia próbki. Innym problemem dla laboratorium staje się stosowanie syntetycznych substytutów hemoglobiny, które wywołują intensywne zabarwienie. Zhemolizowane próbki krwi stanowią problem dla wszystkich laboratoriów na całym świecie. Wielorakość przyczyn hemolizy in vivo i in vitro zmusza do starannego postępowania w trakcie pobierania, transportowania i przechowywania materiału. Zrozumienie wpływu hemolizy na wynik badania laboratoryjnego pozwoli na zredukowanie błędu laboratoryjnego, który wpływa na cały proces postępowania z pacjentem. Według: Lippi G, Blanckaert N, Bonini P, Green S, Kitchen S, Palicka V, Vassault AJ, Plebani M. Haemolysis: an overview of the leading cause of unsuitable specimens in clinical laboratories. Clin Chem Lab Med 2008; 46: 764-772. (opracowała: Ewa Leporowska) Stężenie prokalcytoniny w surowicy oznaczone w czasie przyjęcia na oddział intensywnej opieki medycznej jako czynnik predykcyjny zgonu w krótkim czasie Ciężka sepsa i wstrząs septyczny należą do najpowszechniejszych powikłań występujących u pacjentów na oddziałach intensywnej opieki medycznej i wiążą się z dużą umieralnością. Właściwe rozpoznanie i zastosowanie odpowiedniej terapii są kluczowe dla zmniejszenia liczby tych powikłań. Zdiagnozowanie sepsy i odróżnienie jej od nieinfekcyjnych stanów zapalnych często jest trudne, a zastosowanie niewłaściwych antybiotyków może skutkować pojawieniem się oporności na leki i złym rokowaniem. Chociaż wykonanie posiewu jest najlepszą metodą diagnozowania infekcji, to jednak ma swoje wady: długi czas oczekiwania na wynik (ok. 24 godziny) i brak możliwości prognostycznych. Stężenie prokalcytoniny, 116 aminokwasowego prekursora kalcytoniny, jest znacznie podwyższone w sepsie. Prokalcytonina w warunkach fizjologicznych jest prekursorem w procesie powstawania kalcytoniny w komórkach C tarczycy, ale w stanie sepsy jest produkowana przez makrofagi i monocyty różnych narządów i uwalniana do krążenia. Wyniki wielu ostatnio przeprowadzonych badań wskazują, że pomiar stężenia prokalcytoniny jest pomocny w diagnozowaniu sepsy. Stężenie prokalcytoniny w surowicy jest bezpośrednio związane z ciężkością infekcji i może służyć jako bardziej czuły marker niż CRP czy oznaczenie liczby leukocytów do oceny ciężkości i progresji sepsy. Ponadto w badaniach przeprowadzanych na zwierzętach wykazano, że podanie 188 prokalcytoniny zwierzętom w stanie sepsy powoduje wzrost wśród nich umieralności. Wysokie stężenie prokalcytoniny w surowicy jest wiązane z wystąpieniem zgonu. Ostatnio powszechnie dostępna stała się szybka i niedroga, półilościowa metoda do pomiaru stężenia prokalcytoniny w niewielkiej objętości krwi (PCT-Q test). Wykazano, że w porównaniu z metodą ilościową test PCT-Q okazał się bardziej czuły i specyficzny w diagnozowaniu sepsy u noworodków i dzieci w stanie krytycznym. Celem badań przeprowadzonych przez Meng i wsp. była ocena czy pomiar stężenia prokalcytoniny w surowicy z zastosowaniem testu PCT-Q w ciągu 24 godzin od momentu przyjęcia pacjentów w stanie krytycznym na oddział intensywnej opieki medycznej jest użytecznym prognostycznym wskaźnikiem umieralności w ciągu najbliższych 28 dni. Badania przeprowadzono u 86 pacjentów. Trwały ponad 16 miesięcy. Stężenie prokalcytoniny oznaczone podczas przyjęcia na oddział intensywnej opieki medycznej korelowało bezpośrednio z odsetkiem pacjentów, którzy zmarli do 28. dnia od przyjęcia do szpitala. Analiza ROC wykazała, że stężenia prokalcytoniny uzyskane z zastosowaniem testu PCT-Q cechują się wyższą wartością prognostyczną dla oceny wystąpienia zgonu w krótkim odstępie czasu niż stężenie CRP. Stężenie prokalcytoniny ≥10 ng/ml w czasie przyjęcia na oddział intensywnej opieki medycznej bardzo dobrze i niezależnie korelowało z umieralnością oraz stanowiło silny czynnik predykcyjny wystąpienia zgonu w krótkim odstępie czasu. Jak każdy test również immunochromatograficzny test PCT -Q ma swoje ograniczenia. Wyniki odczytuje się w określonych zakresach wartości <2 ng/ml, 2-9,9 ng/ml i ≥10 ng/ml. Test jest półilościowy, choć czuły i specyficzny dla wartości prokalcytoniny ≥10 ng/ml, ale czasami może dawać wyniki fałszywie ujemne lub fałszywie dodatnie. We wcześniejszych badaniach u małych dzieci z zakażeniem meningokokowym wykazano 100% czułość i 100% wartość predykcyjną wyniku ujemnego testu PCT-Q przy zastosowaniu jako wartość odcięcia 10 ng/ml. Wartość prognostyczną testu oceniono bardzo wysoko; u dzieci z zakażenieniem meningokokowym i oznaczonym przy przyjęciu do szpitala stężeniem PCT<10 ng/ml rokowanie było dobre, natomiast u wszystkich ze stężeniem PCT ≥10 ng/ml stwierdzono zespół dysfunkcji wielonarządowej lub zgon. Mimo iż wyniki testu półilościowego korespondują z wynikami metody ilościowej w codziennej praktyce do pomiarów stężenia prokalcytoniny u pacjentów w ciężkim stanie dla celów diagnostycznych i prognostycznych zaleca się jednak oznaczanie prokalcytoniny przy użyciu ilościowej metody immunoluminometrycznej. Według: Meng FS, Su L, Tang YQ, Wen Q, Liu YS, Liu ZF. Serum procalcitonin at the time of admission to the ICU as a predictor of short-term mortality. Clinical Biochemistry 2009; 42: 1025-1031. (opracowała: Agnieszka Pater) Przegląd piśmiennictwa Podwójna oporność na leki hamujące działanie płytek jest czynnikiem ryzyka zdarzeń sercowo-naczyniowych po przezskórnych zabiegach wieńcowych Zahamowanie agregacji płytek stanowi główny cel leczenia pacjentów z chorobą niedokrwienną serca po przezskórnym zabiegu wieńcowym (PCI) w celu zapobiegania incydentom sercowo-naczyniowym, takim jak: ostry zawał mięśnia sercowego, zakrzepica stentu czy śmierć sercowa. Mimo stosowania podwójnej terapii przeciwpłytkowej, czyli jednoczesnego podawania klopidogrelu i kwasu acetylosalicylowego (aspiryny), aż u 33% pacjentów stwierdza się normalną niezahamowaną agregację płytek. Oporność na klopidogrel i aspirynę, którą często stwierdza się jako wynik badań laboratoryjnych w świetle niskiej częstości występowania zdarzeń sercowych stawia pod znakiem zapytania przydatność stosowania badania agregometrii płytek. Przyczyny braku odpowiedzi na leczenie przeciwpłytkowe mogą być różne i nie są w pełni zrozumiałe. Istotną rolę odgrywa przestrzeganie przyjmowania leków, dostępność biologiczna leku, aktywność enzymów czy genetyczny polimorfizm. Dotychczas stosowane badania agregacji płytek po stosowaniu klopidogrelu i aspiryny nie są w pełni wystandaryzowane. Ivandic i wsp. zwalidowali metodę agregometrii impedancyjnej. W celu zwiększenia jej specyficzności poddawali próbki krwi 20-minutowej inkubacji in vitro z aspiryną lub metylo-S-adenozynomonofosforanem (M-S-AMP), selektywnym receptorem blokera ADP-(P2Y12; klopidogrel hamuje agregację płytek zależną od funkcji receptora ADP). Dzięki zastosowaniu inkubacji możliwe jest rozróżnienie między farmakodynamicznym, rzadziej występującym i bardziej rozpowszechnionym farmakokinetycznym rodzajem oporności. Potwierdzenie, po inkubacji, farmakokinetycznego rodzaju oporności na lek jest bardzo pomocne w leczeniu pacjentów, ponieważ zahamowanie agregacji płytek można wówczas uzyskać poprzez zwiększenie stosowanych dawek leków (klopidogrelu i/lub aspiryny). Natomiast stwierdzenie oporności farmakodynamicznej wymaga włączenia alternatywnej terapii przeciwpłytkowej. W badanej grupie 182 chorych 12-24 godzin po przeprowadzonym zabiegu PCI 10,4% stanowili chorzy, u których stwierdzono oporność na oba leki – aspirynę i klopidogrel. Przeważała oporność rodzaju farmakokinetyczngo. Pośród 182 pacjentów 134 nie wykazywało oporności na żaden z podawanych leków, natomiast 15 było opornych tylko na klopidogrel, a 14 na aspirynę. Interesujący jest fakt, iż u pacjentów z opornością na jeden lek nie stwierdzono żadnych zdarzeń sercowo-naczyniowych. Oporność jedynie na aspirynę, u pacjentów odpowiadających na klopidogrel, nie jest związana z incydentami sercowo-naczyniowymi prawdopodobnie dlatego, iż kwas acetylosalicylowy słabiej hamuje agregację płytek, w przeciwieństwie do klopidogrelu. Zatem, w rutynowej praktyce, wystarczające może być sprawdzenie najpierw odpowiedzi na klopidogrel, a następnie dopiero na aspirynę, wówczas gdy stwierdzi się oporność na klopidogrel. Wcześniejsze badania wykazały, że cechy takie jak: płeć żeńska, cukrzyca, wiek, palenie papierosów i występowanie choroby niedokrwiennej czy nadciśnienie występują znacznie częściej u pacjentów nie odpowiadających na leczenie antypłytkowe. Ponadto silną reaktywność płytek często obserwuje się u pacjentów w ostrym lub ciężkim stanie, co może spowodować podwójny brak odpowiedzi. Autorzy omawianego artykułu obserwowali pacjentów po zabiegu PCI przez kolejnych 30 dni. Spośród 19 chorych z opornością na oba leki przeciwpłytkowe u 6 chorych (31,6%) wystąpiły w tym czasie incydenty sercowo-naczyniowe. Autorzy wnioskują, że występowanie podwójnej oporności na leki przeciwpłytkowe niesie ze sobą ponad dwukrotnie większe ryzyko incydentów sercowo-naczyniowych i wskazują na celowość wykonywania badań agregometrii impedancyjnej w pełnej krwi. Wyniki badań agregometrycznych umożliwiłyby intensyfikację terapii antypłytkowej w celu obniżenia ryzyka. Nadal jednak nie zaleca się powszechnie modyfikacji leczenia przeciwpłytkowego w oparciu o badania funkcji płytek testem jednego rodzaju (agregometria, agregometria impedancyjna). Aktualnie dostępnych jest wiele innych metod: cytometria przepływowa, oznaczanie stężenia tromboksanu B2 w surowicy krwi, badania statyczne adhezji płytek do białek (albumina, kolagen, fibrynogen) opłaszczonych na mikropłytkach. Należy podkreślić, że zanim metody laboratoryjne mogą być zastosowane do celów klinicznych należy sprawdzić ich powtarzalność i swoistość, a czasem także wewnątrzosobniczą i sezonową zmienność biologiczną (oznaczanie TXB2 w surowicy). Według: Ivandic BT, Sausemuth M, Ibrahim H, Giannitsis E, Gawaz M, Katus HA. Dual antiplatet drug resistance is a risk faktor for cardiovascular events after percutaneous coronary intervention. Clinical Chemistry 2009; 55: 1171-1176. Eriksson AC, Jonasson L, Lindahl TL, Hedback B, Whiss PA. Static platelet adhesion, flow cytometry and serum TXB2 levels for monitoring platelet inhibiting treatment with ASA and clopidogrel in coronary artery disease: a randomised cross-over study. J Translat Med 2009; 7:42-56. (opracowała: Agnieszka Pater) Choroby genomowe Główne cele programu poznania genomu człowieka, sformułowane w roku 1990, zostały osiągnięte w roku 2001 i udostępnione szerokiej społeczności naukowej w specjalnych wydaniach czasopism „Science” i „Nature”. Cele te osiągnięto dzięki rozwojowi metod cytogenetyki, cytogenetyki molekularnej i biologii molekularnej. Technika mikromacierzy DNA i RNA bezpośrednio bazuje na tych osiągnię189 Przegląd piśmiennictwa ciach i stanowi kolejny krok technologiczny umożliwiający wykorzystanie osiągnięć cytogenetyki molekularnej w diagnostyce i leczeniu chorób oraz poprawienie jakości życia ludzkości. Niezależnie od powyższego dzięki pracom prof. Lupskiego i Dr Stankiewicza stało się oczywistym, że przyczyn chorób uwarunkowanych genetycznie należy szukać nie tylko w aberracjach chromosomowych oraz mutacjach, ale też w subtelnych zaburzeniach struktury genomu polegających na mikrodelecjach lub mikroduplikacjach, które są praprzyczyną szeregu chorób obecnie nazywanych chorobami genomowymi [1, 2]. Choroby genomowe choć znane od dekad, uzyskały to miano dopiero dwanaście lat temu, zapewne dzięki wprowadzeniu do rutynowej diagnostyki genetycznej takich technik jak hybrydyzacja in situ – FISH, elektroforeza w zmiennym polu (PFGE) oraz porównawcza hybrydyzacja genomowa do mikromacierzy (aCGH) [1, 2, 3, 4]. W odróżnieniu od mutacji punktowych i ich wpływu na dawkę genu, choroby genomowe są efektem nieprawidłowej rekombinacji DNA mając również wpływ na dawkę genu i w konsekwencji na fenotyp. Przedmiotem zainteresowania stały się ponownie regiony genomu, szczególnie bogate w sekwencje DNA o niskiej częstości powtórzeń (low copy repeats, LCRs) oraz LCVs (large-scale copy number variants). Szczególnie użyteczna w diagnostyce chorób genomowych jest porównawcza hybrydyzacja genomowa do mikromacierzy (aCGH), która polega na hybrydyzacji DNA pacjenta i referencyjnego, znakowanych różnymi fluorochromami do sekwencji naniesionych na mikromacierz, a następnie jej przeskanowania i analizę. Dzięki tej metodzie możemy wykryć „mikrozmiany” w genomie na poziomie nawet kilkuset par zasad. Możemy także zdiagnozować od kilkudziesięciu tysięcy, kilkuset tysięcy, a nawet 1 miliona mikroaberracji w pojedynczym eksperymencie. Stosowanie innych metod byłoby wieloetapowe i trudne. aCGH umożliwiając analizę DNA, jest jedyną molekularną metodą przesiewową, która 190 pozwala na detekcję niezrównoważenia chromosomowego w pojedynczym badaniu. Inne metody oparte o analizę DNA (np.: swoiste testy genowe, lub technika FISH) „zwracają wynik tylko wtedy, jeśli o niego pytamy”. Stosowanie techniki FISH jako badania przesiewowego ma istotne ograniczenia, które wynikają ze specyfiki tego badania. Technikę FISH możemy stosować jedynie jako badanie celowane. Z tych powodów metoda ta odgrywa obecnie szczególną rolę w badaniach genetycznych, a ich użyteczność jest niekwestionowana. Techniki mikromacierzowe wysokiej rozdzielczości znajdują coraz większe zastosowanie w diagnostyce genetycznej w przypadkach niepełnosprawności intelektualnej, dysmorfii, wad rozwojowych, a także w diagnostyce nowotworowej, jako narzędzie poszukiwania nowych markerów, a także czynników prognostycznych choroby [1, 2, 3]. Sprawą dyskusyjną pozostaje nadal diagnostyka prenatalna z wykorzystaniem aCGH – analiza uzyskanego wyniku, jego interpretacja i przełożenie na poradę genetyczną [4]. Według: Stankiewicz P, Lupski JR. Genome architecture, rearrangements and genomic disorders. Trends Genet 2002 Feb; 18(2): 74-82. Stankiewicz P, Lupski JR. The genomic basis of disease, mechanisms and assays for genomic disorders. Genome Dyn. 2006; 1: 1-16. Van den Veyver IB, Patel A, Shaw CA, Pursley AN, Kang SH, Simovich MJ, Ward PA, Darilek S, Johnson A, Neill SE, Bi W, White LD, Eng CM, Lupski JR, Cheung SW, Beaudet AL. Clinical use of array comparative genomic hybridization (aCGH) for prenatal diagnosis in 300 cases. Prenat Diagn 2009 Jan; 29(1): 29-39. Pinkel1 D, Albertson DG. Array comparative genomic hybridization and its applications in cancer. Nature Genetics 2005; 37: S11-S17. (opracowała: Maria Constantinou)