Mitochondrialne tRNA w chorobach nowotworowych,Wyniki
Transkrypt
Mitochondrialne tRNA w chorobach nowotworowych,Wyniki
Poradnik: Optymalizacja reakcji PCR – algorytm postępowania Jak przeprowadzić „optymalizację” reakcji PCR? Co zmienić w metodyce, by pozbyć się produktów niespecyficznych? Jak poprawić plon reakcji? Od czego zacząć? Czego unikać? Proponujemy algorytm postępowania, który pozwoli na szybką i bezbolesną poprawę wyników waszych reakcji PCR. Schemat optymalizacji A. Zawsze po zamówieniu nowych starterów PCR zaczynamy od nastawienia próbnej reakcji– od jej wyniku będzie zależało dalsze postępowanie. Musimy znać temperaturę annealingu starterów (albo obliczoną teoretycznie, albo używaną przez inne grupy badawcze, jeżeli nasze startery są zamówione na podstawie już publikacji). Jeżeli korzystaliśmy wcześniej z danego zestawu do PCR, mamy już jakiś działający program amplifikacji i ustalone proporcje reagentów -wykorzystajmy je teraz. Jeżeli jesteśmy nieobeznani z zestawem, przeczytajmy ulotkę i na jej podstawie obliczmy ilości odczynników. Zwykle musimy w końcowej objętości mieć: * bufor 1x stężony * dNTP 200μM * MgCl2 1-2,5mM * startery po 200nM * polimerazę ok. 0,5-1U * matrycę: DNA w ilości 25-50 ng lub cDNA uzyskane z ok. 50-100ng RNA * wodę DEPC, którą uzupełniamy objętość reakcji. (nie podajemy tutaj konkretnych objętości, ponieważ zależnie od zastosowanego zestawu PCR będą one różne, w instrukcji do zestawu jest jednak zwykle wyszczególniony przepis w mikrolitrach) B. Jeżeli nie mamy ustalonego programu PCR, zastosujmy najprostszy, obejmujący : *5 minut denaturacji w 94 stopniach (jeżeli polimeraza nie jest typu HotStart) lub 10 minut w 95 stopniach (dla enzymu HotStart) *30 cykli: (30 sekund denaturacji+ 30 sekund annealingu w temperaturze zależnej od pary starterów + 30 sekund elongacji) *2 minuty elongacji końcowej. C. Po skończonej reakcji pobieramy 5ul, dodajemy obciążnik do elektroforezy i rozdzielamy na żelu agarozowym. Nie zapomnijmy rozdzielić produktu wobec markera mas, by móc zorientować się, czy otrzymany prążek jest tym, czego oczekiwaliśmy. W zależności od tego, czy otrzymamy prążek na żelu, postępujmy dalej zgodnie z poniższym algorytmem By uniknąć frustracji i niepotrzebnego „kręcenia się w kółko” podczas wprowadzania nowej metodyki opartej na reakcji PCR powinniśmy mieć jasny plan działania i przestrzegać kilku prostych zasad. 1. Stosujmy się do reguły małych kroków. Dążymy w pierwszej kolejności do otrzymania jakiegokolwiek śladu produktu, następnie powoli dopracowujmy reakcję korzystając po kolei ze wszelkich dostępnych metod i odczynników. Czasami od razu uda nam się trafić w idealne warunki, a czasem trzeba będzie dochodzić do nich dłużej. 2. Zapisujmy wszystkie żele, nawet te najbrzydsze. Sporządzajmy notatki dotyczące warunków reakcji i kolejnych rund optymalizacji. Moim zdaniem najlepsza metoda na takie notatki to zapisywanie bezpośrednio na elektronicznym zdjęciu żelu warunków, w jakich reakcja została wykonana. Czyli: kiedy ją wykonano, na jakim sprzęcie, na jakim zestawie do PCR (jeśli mamy kilka). Zapiszmy program PCR lub chociażby temperaturę annealingu oraz koniecznie stężenie magnezu. Jeżeli używaliśmy dodatków (np. DMSO) także nie zapomnijmy tego napisać. 3. Zanim zabierzemy się do nastawiania PCR zweryfikujmy stężenia naszych reagentów, ich termin ważności oraz (TO BARDZO ISTOTNE!) sprawdźmy sekwencje naszych starterów. Jeżeli pomyliliśmy się podczas zamawiania, zweryfikowanie tego drobnego szczegółu oszczędzi nam tygodni frustracji. 4. Jeśli jakaś metoda „nie chodzi” mimo wszystkich naszych działań, nie wypruwajmy sobie żył. Spróbujmy zmienić startery albo zestaw do PCR. Alternatywą jest poproszenie współpracownika o pomoc. Bywa że to pomaga D. Bogatsi o tę wiedzę możemy zacząć optymalizację. Spójrzcie na powyższy prosty schemat blokowy, którym możecie się posłużyć przy wprowadzaniu większości nowych reakcji. Podstawowym narzędziem pracy podczas optymalizacji jest gradient termiczny i gradient magnezu. Pozwalają one na wykonanie dokładnie tej samej reakcji w szeregu różnych temperatur i stężeń magnezu. Wykonanie gradientu temperatury jest możliwe na nowszych termocyklerach. Potrafią one nagrzać blok grzewczy tak, by w kolejnych rzędach dołków temperatura stopniowo wzrastała. Żeby uzyskać jednolite warunki PCR w każdej próbówce, musimy przygotować wspólną mieszaninę reakcyjną zawierającą wszystkie składniki, a potem rozporcjować ją na pojedyncze próbówki. Polecam wykonać na początku dość „szeroki” gradient, np. co 2 stopnie celcjusza zaczynając od temperatury dużo niższej od temperatury obliczonej jako optymalna (np. 0d ok. 50 stopni celcjusza przy optymalnej ok. 60), kończąc na temperaturze wyższej niż obliczona optymalna (np. 62 w naszym przykładzie). Jeżeli taki gradient da odpowiedź, w której temperaturze produkt jest najlepiej widoczny, możemy wykonać drugi PCR gradientowy w węższym zakresie temperatur, np. co ok. 1 stopień celcjusza wokół wcześniej wytypowanej przez nas optymalnej temperatury. E. Zwykle po pierwszej lub drugiej reakcji PCR otrzymujemy jakiś ślad pożądanego produktu, nawet jeśli jest on słaby i nawet jeśli są obecne produkty niespecyficzne. Po dokonaniu wyboru optymalnej temperatury, wykonujemy gradient magnezu. Przygotowujemy kilka próbówek PCR z różnymi stężeniami magnezu. Może to być trudne dla początkującego, proponuję więc poradzić się osoby bardziej doświadczonej, jeżeli mamy z tym problem. W próbówce nr 1 przygotujmy stężenie, które po dodaniu do MIXu da nam 0,5mM, w próbówce 2: 1mM, w próbówce 3 : 1,5mM itd. aż do 3,5mM ((instrukcja znajduje się u dou strony). Wykonujemy wspólny mix reakcyjny podobnie jak przy gradiencie temperatury, ale bez dodatku magnezu. Pipetujemy mieszaninę do osobnych próbówek, a potem dodajemy odpowiednio stężony magnez, osobno do każdej z próbówek. F. Po wykonaniu reakcji w gradiencie magnezu i rozdziale agarozowym produktów w 3/4 przypadków udaje nam się uzyskać w miarę czysty i dobrze widoczny produkt. W pozostałych przypadkach musimy wrócić do gradientu temperatury z już wybranym optymalnym stężeniem magnezu (o ile uda nam się takie wybrać). Jeżeli nie liczymy się z kosztami, możemy wykonać jednocześnie gradient 2D na płytce 96-dołkowej (w wymiarze szerszym gradient termiczny, w węższymmagnezu). Przeprowadzenie kolejne obu gradientów jest tańsze, ale bardziej czasochłonne niż wykonanie podwójnego gradientu. Jeżeli nie otrzymaliśmy w ogóle żadnego produktu, wykonajmy na użytych do optymalizacji odczynnikach inną reakcję PCR, o której wiemy że działa. Jeśli okaże się że równieżnie otrzymamy produktu, musimy zmienić zestaw do PCR, w przeciwnym razie dalej zmagamy się z optymalizacją na tych samych odczynnikach- możemy dodać więcej starterów lub więcej dNTP. O tym jak modyfikować te parametry i jak połaczyć kilka reakcji PCR w multiplex, przeczytacie w części III naszego opracowania. Jeżeli nie otrzymujemy produktu, możemy także dodać któregoś z dodatków do trudnych matryc (DMSO, betaina, DTT, albumina). O tym jak z nich korzystać- dowiemy się w części IV niniejszego cyklu artykułów. Życzymy samych udanych optymalizacji! *Krótka instrukcja wykonania gradientu (przykład dla reakcji o całkowitej objętości 25μl): Dodatek 3,5μl MgCl2 o standardowym stężeniu 25mM na 25μl całkowitej objętości reakcji daje nam finalne stężenie po sporządzeniu MIXu 3,5mM MgCl2. Żeby przygotować stężenia odpowiednio mniejsze w tej samej objętości 3,5μl, wystarczy odmierzyć odpowiednio mniej magnezu i uzupełnić wodą do 3,5μl. Tak więc żeby otrzymać: * 0,5mM końcowej reakcji dodajmy 0,5 μl MgCl2 + 3μl H20 * 1mM : 1μl MgCl2 + 2,5μl H20, * 1,5mM: 1,5μl MgCl2 + 2μl H20 *2mM: 2μl MgCl2 + 1,5μl H20 *2,5mM: 2,5μl MgCl2 + 1μl H20 *3mM: 3μl MgCl2 + 0,5μl H20 Osobno mix reakcyjny na 7 próbówek przygotowujemy bez magnezu o objętości 3,5μl, który mamy sporządzony zgodnie z powyższą instrukcją w 7 osobnych próbówkach. Mix dobrze mieszamy i dozujemy po 21,5μl do gotowych stężeń magnezu. Można oczywiście sporządzić większą objętość magnezu na więcej reakcji gradientowych (np. mnożąc objętości z powyższego przepisu x10) i odmierzać po 3,5μl gdy najdzie nas taka potrzeba. Piśmiennictwo: Doświadczenia własne Mitochondrialne tRNA chorobach nowotworowych w Mitochondria jako autonomiczne organella występujące w komórkach eukariotycznych są bardzo interesującym obiektem badań. Pierwsze prace, w których pokazano, że zaburzenia pracy mitochondriów mogą być podstawą do występowania różnych chorób, opublikowano w latach 60. Od tego czasu ukazało się wiele publikacji wskazujących na korelację między mutacjami w mitochondrialnym DNA a występowaniem chorób mitochondrialnych. Jednak mitochondria i występujące w nich mutacje można wiązać nie tylko z chorobami mitochondrialnymi. Publikowane są doniesienia prezentujące pojawianie się mutacji w mitochondrialnym DNA w powiązaniu z występowaniem chorób nowotworowych. Jednym z takich przypadków są mutacje punktowe występujące w genach mitochondrialnych tRNA. Mitochondria ze względu na swoją budowę, funkcje i pochodzenie są dość szczególną częścią komórki. To miejsce, gdzie w wyniku procesu oddychania komórkowego powstaje adenozynotrifosforan (ATP), będący źródłem energii dla komórki. Są szczególne również ze względu na swoją autonomię, która wynika z posiadania własnego genomu z niezależnym mechanizmem transkrypcji i translacji. Poza mitochondriami podobną autonomią cieszą się występujące u roślin chloroplasty. Jak już wspomniano mitochondria posiadają własny genom. Występuje w nich DNA, w postaci kolistej cząsteczki, w którym zapisany jest genom mitochondrialny. U ludzi genom ten składa się z 16569 par zasad (tzw. sekwencja Cambridge , ang. the Cambridge reference sequence – CRS). Można w nim wyróżnić geny kodujące trzynaście białek niezbędnych do przetwarzania energii (cytochrom c, ATPaza 6, cytochrom b), geny podjednostek 12S i 16S rRNA i dwudziestu dwóch cząsteczek tRNA niezbędnych do syntezy wspomnianych już białek [1, 2]. Mitochondrialne tRNA można podzielić na dwie grupy, związane z umiejscowieniem genów odpowiedzialnych za sekwencje mt tRNA na niciach mt DNA: ciężką (heavy) i lekką (light). Pierwszą z tych grup tworzy osiem mitochodrialnych tRNA (Heavy (nić light): tRNA(Pro) (16023-15955), tRNA(Glu) (9990-10058), tRNA(Ser(UCN)) (7516-7445), tRNA(Tyr) (5891-5825), tRNA(Cys) (5826-5861), tRNA(Asn) (5729-5656), tRNA(Ala) (5655-5587), tRNA(Gln) (4400-4329)), a drugą czternaście cząsteczek. (Light (nić Heavy): tRNA(Phe) (576-647), tRNA(Val) (1602-1670), tRNA(Leu(UUR)) (3229-3304), tRNA(Ile) (4262-4331), tRNA(Met) (4401-4469), tRNA(Trp) (5511-5579), tRNA(Asp) (7518-7585), tRNA(Lys) (8295-8364), tRNA(Arg) (10405-10469), tRNA(His) (12138-12206), tRNA(Ser(AGY)) (12207-12265), tRNA(Leu(CUN)) (12266-12236), tRNA(Glu) (14742-14674), tRNA(Thr) (15888-15953)) Najważniejszą funkcją tRNA jest udział w procesie biosyntezy białka. Reakcja przyłączenia swoistego aminokwasu do tRNA jest katalizowana przez syntetazy aminoacylo-tRNA, które rozpoznają strukturalnie podobne specyficzne tRNA. Proces ten ma wielkie znaczenie dla prawidłowego funkcjonowania mechanizmu biosyntezy białka. Jest to dwuetapowa reakcja podczas której, w trakcie pierwszego etapu następuje aktywacja aminokwasu (AA) przez syntetazę (AARS) i ATP, powstaje aminoacyloadenylan. W drugim etapie reakcji aminokwas zostaje przeniesiony na cząsteczkę odpowiedniego tRNA. Podstawą doboru tRNA, w celu przeniesienia na tę cząsteczkę aminokwasu, jest stworzenie specyficznego kompleksu między syntetazą aminoacylo-tRNA a cząsteczką tRNA. Najważniejszymi czynnikami decydującymi o swoistości tego procesu są: rozpoznawanie i identyczność tRNA. Z tego powodu bardzo ważną rolę ogrywa budowa tRNA. Rozpoznawanie oznacza identyfikację danego tRNA przez odpowiednią syntetazę przy wykorzystaniu w tym celu specyficznych elementów strukturalnych tRNA (ang. recognition elements). Natomiast identyczność tRNA dotyczy tych elementów kwasu nukleinowego, które są rozpoznawane przez odpowiednią syntetazę i zarazem są to cechy strukturalne uniemożliwiające rozpoznanie tRNA przez niehomologiczna syntetazę (ang. discrimination elements). Warto więc przyjrzeć się budowie tRNA, a szczególnie mitochondrialnych tRNA. Budowa cytoplazmatycznych tRNA została stosunkowo nieźle poznana i jest obiektem licznych prac badawczych. Drugorzędowa struktura tRNA została opisana w 1965 roku przez Holley’a, dla drożdżowego tRNA alaninowego (tRNA(Ala)) Model ten przedstawiany jako „liść koniczyny” opiera się na zdolności tworzenia się wewnątrz cząsteczkowych par zasad według reguł Watsona-Cricka. Przewidują one, że wszystkie tRNA posiadają 4 jednoniciowe regiony zwane pętlami, które razem z sąsiadującymi regionami spiralnymi tworzą struktury zwane ramionami. Licząc od końca 5’ do 3’ wyróżnia się: ramię dihdrourydynowe (D), ramię antykodonowe (A), posiadające jedynie pętlę ramię dodatkowe nazywane również zmiennym (V – ang.: variable), ramię psedourydynowe (TΨC), oraz ramię akceptorowe (AA), nie posiadające pętli [3]. Ryc. 1 Schemat struktury drugorzędowej cytoplazmatycznego, drożdżowego tRNA(Phe). Kolorem zielonym zaznaczone są miejsca istotne do rozpoznania tRNA(Phe) przez PheRS. Po lewej struktura drugorzędowa w klasycznym schemacie „liścia koniczyny”, po prawej przedstawienie tRNA w układzie zbliżonym do przestrzennego w kształcie litery „L”. Opracowanie własne. Drożdżowy tRNA(Phe) jest złożony z 76 nukletydów. Siedem par tworzy ramię akceptorowe. Dwa kolejne nukleotydy (8 i 9) licząc od końca 5’ w kierunku 3’ tworzą połączenie (łącznik) między ramieniem akceptorowym i ramieniem D, które składa się z dwóch regionów: spiralnego (dupleksu) zbudowanego z czterech par nukleotydów oraz pętli w skład której wchodzi 8 nukleotydów. Nukleotyd w pozycji 26 łączy ramie D z ramieniem antykodonu złożonego również zbudowanego z 5 par nukleotydów i pętli zawierającej 7 nukleotydów. Kolejnym elementem tworzącym fenyloalaninowy tRNA jest ramię dodatkowe w postaci pętli złożonej z 5 nukleotydów. Kolejne z ramion tego tRNA, ramię pseudourydynowe jest złożone z dwóch regionów: dupleksu – 5 par nukleotydów i pętli – 7 nukleotydów. W przypadku innych tRNA możliwe są pewne różnice w budowie cząsteczki najczęściej widoczne w pętli ramienia D (dodatkowe cztery nukleotydy), oraz w ramieniu dodatkowym (poza pięcioma występującymi zasadniczo, możliwych jest jeszcze dziewiętnaście nukleotydów), w efekcie liczba nukleotydów nie jest identyczna we wszystkich izoakceptorach. Innego rodzaju zaburzeniami w drugorzędowej strukturze tRNA jest występowanie par nukleotydów niezgodnych z regułami Watsona-Cricka, przykładem mogą być pary takie jak U•U, A•A, C•U [4]. Struktura trzeciorzędowa tRNA spełnia ważną role w rozpoznawaniu transferowych RNA przez syntetazę aminoacylo-tRNA. Prawidłowa budowa cząsteczki pozwala, bowiem syntetazie natrafić na zestaw elementów niezbędnych do prawidłowego rozpoznania tRNA. Bardzo dokładny opis budowy tRNA można znaleźć dla drożdżowego tRNA(Phe), którego budowa została opisana na podstawie różnych badań, w tym również badań krystalograficznych. Struktura trzeciorzędowa tRNA(Phe) drożdży, przypomina swoim kształtem literę „L”. Drugorzędowa struktura tej cząsteczki jest zwinięta tak, że ramiona: akceptorowe i TΨC tworzą jedno z ramion litery „L”, a antykodon i ramie D drugie z ramion. Każde ramię ma około 60Å, a średnica około 20 Å. Przeciwległych końców tRNA o kształcie litery „L” wynosi 80 Å. Kąty między osiami ramion wynoszą: akceptorowego i TΨC – 15°, a między o D i antykodonu 25°. Między dwiema częściami cząsteczki tworzącej kształt litery „L” – 90°. Struktura trzeciorzędowa jest utrzymywana przez szereg oddziaływań występujących między poszczególnymi nukloetydami. Są to oddziaływania międzycząsteczkowe (jony magnezu, cząsteczki wody, poliaminy), oraz wewnątrzcząsteczkowe (wiązania wodorowe, asocjacja warstwowa zasad, energia konformacyjna cząsteczki). Jako miejsca występowania trzeciorzędowych interakcji należy wymienić pozycje: 8-14-21; 9-23-12; 25-10-45; 13-22-46; 15-48; 18-55; 19-56; 26-44; 54-58 [5]. Stabilizujący wpływ na strukturę tRNA spełniają chemiczne modyfikacje nukleozydów. W strukturze wprowadzane są po trankskrypcji tRNA, na etapie dojrzewania pre-tRNA. Kolejność wystąpienia modyfikacji, zależy od struktury pre-tRNA w określonym etapie dojrzewania oraz od lokalizacji w komórce enzymów modyfikujących [6]. Dwadzieścia dwa mitochondrialne tRNA tworzą typową dla tRNA strukturę drugorzędową. Istnieją jednak wśród nich dwa wyjątki. Są dwa izoakceptory serynowe: tRNA o antykodonie AGY a drugi UCN. Pozostałe mitochondrialne tRNA posiadają typową budowę drugorzędową, zasadniczo porównywalną z tRNA cytoplazmatycznymi. Szczególną cechą mitochondrialnego tRNA(Ser(UCN)) jest dłuższe o jedną parę nukleotydową ramię antykodonu. Drugą wyraźną różnicą w stosunku do innych tRNA serynowych jest brak długiego ramienia dodatkowego, które jest jednym z elementów pozwalających na identyfikację tego izoakceptora przez aminoacylosyntetazę serynową [7]. Cząsteczka mitochondrialnego tRNA(Ser(UCN)) została poddana badaniom z użyciem sond enzymatycznych i chemicznych [8], przeprowadzono też komputerowe modelowanie struktury przestrzennej [9]. Przedstawiono model w którym występują oddziaływania trzeciorzędowe między pętlami D i T (Ψ55-G18, C56-G19), oraz w pętli T (T54A58). Ryc. 2 Schemat struktury drugorzędowej wołowego mt tRNA(Ser(UCN)), czerwone linie pokazują proponowany model wiązań trzeciorzędowych opisany w literaturze. Opracowanie własne. Pierwsze badania, w efekcie których pokazano, że zaburzenia pracy mitochondriów mogą być podstawą do występowania różnych chorób, przeprowadzono w latach 60. W 1988 roku opublikowano wyniki wskazujące mutacje w mitochondrialnym DNA, jako odpowiedzialną za występowanie jednej z chorób mitochondrialnych – zespołu Lebera. Od tego czasu ukazało się wiele publikacji wskazujących na korelację między mutacjami w mitochondrialnym DNA a występowaniem chorób mitochondrialnych. Efekty chorób mitochondrialnych prowadzą do zaburzeń w działaniu wielu układów i narządów w organizmie, objawiających się problemami z wytworzeniem energii koniecznej do prawidłowego funkcjonowania narządów i układów. Szczególnie jest to odczuwalne w układzie nerwowym i mięśniowym, ale może też być przyczyną zaburzeń działania wątroby, nerek, czy trzustki. Trzeba też, zwrócić uwagę, że na występowanie chorób mitochondrialnych mogą mieć wpływ nie tylko mutacje występujące w mt DNA, ale też występujące w genach jądrowych, które mają wpływ na białka mitochondrialne, kodowane w jądrowym DNA. Liczne mutacje punktowe występujące w genach mt tRNA są związane z chorobami mitochondrialnymi. Do porównania wybrano 68 mutacji powiązanych z chorobami mitochondrialnymi i 64 mutacje polimorficzne, neutralne z punktu widzenia chorób powiązanych z mitochondriami. Statystyczna analiza tych mutacji pokazała, że wszystkie domeny mitochondrialnych tRNA są tak samo wrażliwe na oba typy mutacji [10]. Największą liczbę zmian niesie w sobie tRNA(Leu(UUR)), dla którego można przytoczyć co najmniej 16 mutacji powiązanych z różnymi chorobami czy syndromami chorób mitochondrialnych, których przykładem może być MELAS [11]. Efektem mutacji punktowych są zmiany w sekwencji nukleotydowej tRNA, które mogą mieć wpływ na strukturę tRNA. Z 12 teoretycznie możliwych konwersji par WC do pojedynczych niesparowań dominują cztery: A-C, C-A, G-U, i U-G. Ponad 30% wszystkich mutacji związanych z różnymi chorobami i syndromami chorobowymi zawiera niesparowania C-A, w strukturze drugorzędowej tRNA. Występowanie pojedynczych niesparowań ma wpływ na trzeciorzędową strukturę tRNA [10]. Kluczem procesu biosyntezy białka jest proces aminoacylacji transferowych RNA. Wszelkie zaburzenia tego procesu mają wpływ na proces wytwarzania białka a więc są też przyczyną występowania chorób mitochondrialnych, w przypadku defektów w mt tRNA. Innym aspektem związanym z badaniami mutacji w genomie mitochondrialnym jest ich występowanie nie tylko w chorobach mitochondrialnych, ale również nowotworowych [12]. Zaobserwowano również korelacje chorób nowotworowych z mutacjami punktowymi w genach kodujących mitochonrialne tRNA. W przypadku raka płuc taka korelacja dotyczyła mutacji A7460G w tRNA(Ser(UCN)), G5563A w tRNA(Trp) oraz A12172G w tRNA(His) [13]. Pierwsza z nich to A7460G w tRNA(Ser(UCN)). Mutacja ta znajduje się w pętli T, w bezpośrednim sąsiedztwie miejsca potencjalnych oddziaływań trzeciorzędowych jakie tworzy para 54-58. Jednak przeprowadzone badania z wykorzystaniem RNA Fold Web Server (program z tzw. pakietu wiedeńskiego, gdzie podstawą modelowania struktury drugorzędowej są wartości energii swobodnych dla konformacji badanego RNA [14, 15]) pozwalających przewidywać strukturę drugorzędową nie wykazują szczególnych zmian w strukturze tRNA. Należy też dodać, że mutacja ta nie jest wymieniania w żaden sposób w odniesieniu do chorób mitochondrialnych. Ryc. 3 Schemat tRNA(Ser(UCN) z mitochondriów człowieka z zaznaczonym miejscem występowania mutacji A7460G (U59C). Opracowanie własne. Kolejnym opisywanym przypadkiem jest mutacja G5563A w tRNA(Trp). Jest to mutacja, którą opisuje się jako polimorficzną w przypadku chorób mitochondrialnych [16]. Również w tym przypadku próby modelowania struktury drugorzędowej nie wskazują na poważniejsze zmiany w strukturze tRNA. Ryc. 4 Schemat mt tRNA(Trp) z zaznaczonym miejscem występowania mutacji G5563A. Opracowanie własne. Ostatnią z trzech mutacji, jakie zaobserwowano w powiązaniu z rakiem płuc jest A12172G w tRNA(His). Miejsce to jest zauważalne w odniesieniu do chorób mitochondrialnych. Mutacja ta była uznawana za polimorficzną, jednak obecnie jest określana jako potencjalnie patogenna. W jej przypadku różnice wartości energii swobodnej pomiędzy mutantem i cząsteczka pozbawioną mutacji wskazują na występowanie alternatywnych struktur, których nie będą w stanie ustabilizować zmodyfikowane nukleotydy. W efekcie utrudniony bądź niemożliwy staje się proces tworzenia kompleksu pomiędzy tRNA i odpowiednią dla niego syntetazę a w konsekwencji ma to negatywny wpływ na proces biosyntezy białka. Podobne mechanizmy były opisywane w przypadku mutacji związanych z chorobami mitochondrialnymi na przykład w mt tRNA(Leu(UUR)). W przypadku mutantów tego tRNA obserwowano rozluźnienie struktury pomiędzy pętlami antykodonu i D [17, 18]. Ryc. 5 Schemat mt tRNA(His) z zaznaczonym miejscem występowania mutacji A12172G. Opracowanie własne. Warto wspomnieć o jeszcze jednej mutacji w mitochondrialnym tRNA, jaką można powiązać z chorobami nowotworowymi. Jest to mutacja punktowa A12308G w tRNA(Leu(CUN)), której występowanie zostało powiązane z rakiem jelita grubego (CRC) [19]. Ryc. 6 Schemat mt tRNA(Leu(CUN) z zaznaczonym miejscem występowania mutacji A12308G. Opracowanie własne. Mutacja A12308G dotyczy pozycji 44 w ramieniu antykodonu jednocześnie w sąsiedztwie ramienia zmiennego. Warto zwrócić uwagę na to, że jest to miejsce biorące udział w jednym z potencjalnych wiązań trzeciorzędowych. Ponadto sąsiednie nukleotydy z ramienia zmiennego również są miejscami potencjalnych wiązań trzeciorzędowych. Tak więc możliwe jest tu dość poważne rozluźnienie struktury trzeciorzędowej, co może mieć wpływ na proces rozpoznawania tRNA przez odpowiednią syntetazę. Mutacja A12308G skorelowana jest również z występowaniem zespołu przewlekłej postępującej zewnętrznej oftalmoplegii (ang. Chronic progressive external ophthalmoplegia, CPEO) – jednej z chorób mitochondrialnych [20]. Algorytm optymalizacji PCR Mutacje w mitochondrialnych tRNA były dotychczas kojarzone głównie z chorobami mitochondrialnymi lub tymi, które występuje w obrębie układu nerwowego. Jak widać z powyższych przykładów mogą również być odnotowywane w chorobach nowotworowych. Prezentuje to skomplikowany mechanizm związany z chorobami nowotworowymi i jednocześnie pokazuje, że mutacje w mitochondrialnym DNA mogą być spotykane nie tylko w wąskiej grupie chorób mitochondrialnych. Jednak aby dokładnie ustalić rolę jaką w chorobach nowotworowych mogą pełnić mutacje w genach mt tRNA potrzeba jeszcze wielu kolejnych prac badawczych. Piśmiennictwo: 1. Anderson S. et al. Sequence and organization of the human mitochondrial genome. Nature, 1981; 290: 457-465. 2. Andrews RM. et al. Reanalysis and revision of the Cambridge reference sequence for human mitochondrial DNA. Nat Genet, 1999 23: 147. 3. Holley RW. et al. Structure of a Ribonucleic Acid. Science, 1965; 147: 1462-1465. 4. Grosjean H. et al. Structure in tRNA data. Biochimie. 1982; 64, 6: 387-397. 5. Helm M. et al. Search for characteristic structural features of mammalian mitochondrial tRNAs. RNA 2000. 6, 10:1356-1379. 6. Machnicka MA. et al. Distribution and frequencies of posttranscriptional modifications in tRNAs. RNA Biol. 2014; 11, 12:1619-1629. 7. Siatecka M. et al. Struktura i funkcja syntetaz aminoacylo-tRNA. Postepy Biochem. 1993; 41, 4: 266-275. 8. Yokogawa T. et al. A novel cloverleaf structure found in mammalian mitochondrial tRNA(Ser) (UCN). Nucleic Acids Res. 1991; 19: 6101-6105 9. Watanabe Y, et al. Higher-order structure of bovine mitochondrial tRNA(SerUGA): chemical modification and computer modeling. Nucleic Acids Res. 1994; 22: 5378-5384. 10. Florentz C. et al. Disease-related versus polymorphic mutations in human mitochondrial tRNAs. Where is the difference? EMBO Reports 2001; 21: 481-486. 11. Goto Y. et al. A new point mutation at nucleotide pair 3291 of the mitochondrial tRNA(Leu(UUR)) gene in a patient with mitochondrial myopathy, encephalopathy, lactic acidosis, and stroke-like episodes (MELAS). Biochem Biophys Res Commun 1994; 202: 1624-1630. 12. Księżakowska-Łakoma K. et al. Mitochondrial dysfunction in cancer. Prz Menopauzalny. 2014; 13, 2: 136-144. 13. Wang L. et al. The role of mitochondrial tRNA mutations in lung cancer. Int J Clin Exp Med 2015; 8, 8: 13341-13346. 14. Hofacker IL. Vienna RNA secondary structure server. Nucleic Acids Res. 2003; 31, 13: 3429-3431. 15. Olszak K. Zanim sami zbudujemy RNA. Dolina Biotechnologiczna, 2012. 16. Maniura-Weber, K. et al. A novel point mutation in the mitochondrial tRNA(Trp) gene produces a neurogastrointestinal syndrome. European Journal of Human Genetics. 2004; 12, 6: 509-512. 17. Sohm B. et al. Towards Understanding Human Mitochondrial Leucine Aminoacylation Identity. J. Mol. Biol. 2003; 328:995-1010. 18. Helm M. Post-transcriptional nucleotide modification and alternative holding RNA. Nucleic Acids Res. 2006; 34:721-733. 19. Mohammed F. et al. Mitochondrial A12308G alteration in tRNA(Leu(CUN)) in colorectal cancer samples. Diagn Pathol. 2015 Jul 19;10:115. 20. Pütz J. Et al. Mamit-tRNA, a database of mammalian mitochondrial tRNA primary and secondary structures. RNA 2007; 13: 1184-1190. Wyniki fałszywie pozytywne w PCR! Jak się przed nimi bronić? (II) „Kontaminacja” to chyba najbardziej przerażające wyrażenie w słowniku każdego biologa molekularnego. Przypadkowe przeniesienie produktu PCR na blaty, plastiki lub sprzęt laboratoryjny może zamienić życie pracowników laboratorium w koszmar na długie tygodnie. Jak nie dopuścić do tej sytuacji? W części pierwszej przestawiłam podstawowe sposoby na uniknięcie fałszywych pozytywów i obnażyłam słabości lamp UV. Dziś przedstawiam Wam rozwiązania , które można zastosować, jeśli już kontaminacja nam się zdarzyła. 1. Na kłopoty… wybielacz W pierwszej części tego dwuodcinkowego cyklu wspominałam, że pomieszczenie w którym pracować będziemy z produktami PCR powinno być odporne na utleniacze. Co konkretnie miałam na myśli? Żeby pozbyć się DNA najprościej jest je chemicznie unieszkodliwić. Są na to dziesiątki sposobów, a jak zwykle najlepsze są te najtańsze i znane z naszych gospodarstw domowych. * W literaturze spotykamy różne pomysły na dekontaminację, prym wiedzie HCl i mieszaniny kwasu z rozmaitymi substancjami (np.glicyną) wspomagającymi. HCl 1M obniża pH do tego stopnia, że indukuje depurynację i hydrolizę DNA. Gorący kwas solny z glicyną jest szczególnie polecany do dekontaminacji końcówek pipet, jednak mycie nim większych powierzchni jest kłopotliwe. Poza tym kwaśna hydroliza wymaga albo podwyższonej temperatury, albo długiego czasu ekspozycji. Dlatego nie jest polecana do ogólnych zastosowań. * DNA ulega hydrolizie także pod wpływem środków do sterylizacji i dezynfekcji wysokiego stopnia, takich jak tlenek etylenu i gazowy formaldehyd oraz aldehyd glutarowy. Jednakże tych związków każdy z nas chciałby unikać jak ognia- uwierzcie na słowo. Są to środki bardzo korozyjne i niebezpieczne dla błon śluzowych, używane w celu całkowitej eliminacji patogenów np. z materiałów i narzędzi chirurgicznych. Nie wiem, czy gdziekolwiek stosuje się rutynowo te środki (może poza formaldehydem, znam osobę która używa tej nad wyraz nieprzyjemnej substancji). * Dostępne w katalogach niektórych firm produkujących odczynniki są specjalne, przeznaczone do dekontaminacji preparaty typu „DNA-Away”. Mogą to być roztwory DNAz lub środki chemiczne. Są stosunkowo drogie, a ich skuteczność jest podobna jak rozwiązań opisanych poniżej. * Najlepsze w walce z kontaminacją DNA są … komercyjnie dostępne wybielacze i środki czyszczące. Odpowiednio rozcieńczony roztwór NaOCl tworzy nacięcia nici (nick’uje DNA) i tym samym uniemożliwia amplifikację. Podobnie działa wiele innych środków dostępnych w sklepach z chemią gospodarczą. Tabletki calgonitu, zawierające wodorotlenki sodu i potasu oraz podchloryn, wszelkie środki w sprayu wydzielające wolny chlor lub tlen rodnikowy (oparte na eterach, epoksydach, aldehydach) są jak najbardziej skuteczne i bardziej bezpieczne dla użytkownika niż środki do sterylizacji gazowej. * Jak używać wybielacza? Ważne jest stężenie aktywnego chloru. DNA- bójczo działa nawet 0,5% roztwór, wystarczy więc odpowiednio rozcieńczyć wybielacz i przemyć blaty. Albo zastosować spryskiwacz. Ważne jest, by pozostawić warstwę wybielacza na mytej powierzchni przez 15minut albo do wyschnięcia, a potem zmyć wodą. Najlepsze działanie związków generujących rodniki tlenowe i wolny cholor otrzymujemy przy kontakcie preparatu z powietrzem, dlatego nanosimy cienką warstewkę. Dlatego nie urządzamy kąpieli np. statywów w wybielaczu, raczej je spryskujemy. Tipsy z filtrem- koszt który warto ponosić W połączeniu z regularnym myciem powierzchni wybielaczami i okresowymi kąpielami końcówek pipet w HCL-glicynie, dobrze jest stosować tipsy z filtrem jako prewencję w codziennej praktyce laboratoryjnej. Tipsy z odpowiednio umiejscowionymi, grubymi filtrami pozwalają na ochronę pojedynczych próbek przed aerozolami DNA, które mogą osadzić się na dispenserze podczas pipetowania. Taka ochrona jest szczególnie polecana w laboratoriach diagnostycznych i w placówkach korzystający z metod QPCR i nested PCR. Warto zwrócić uwagę na jakość filtra. Spotkałam się z produktami, w których silikonowa wkładka nie powinna w ogóle zostać uznana za filtr, gdyż jej niewielka grubość nie zapewniała żadnej ochrony. Na rynku dostępne są końcówki zawierające nawet 2 lub 3 warstwy filtrujące- takiemu rozwiązaniu nie oprze się żaden aerozol DNA. Nie polecam oszczędzać na końcówkach z filtrem, jeżeli w naszym laboratorium zdarzały się w przeszłości zanieczyszczenia, oraz w sytuacji, gdy nie dysponujemy pomieszczeniami dedykowanymi do PCRu i komorami laminarnymi. Oszczędność 10zł na opakowaniu tipsów może nas kosztować setki złotych stracone na powtarzaniu reakcji PCR! UNG: rozwiązanie wygodne, ale nie zawsze praktyczne Uracylo-N-glikozylacja to elegancka metoda unieszkodliwiania kwasów nukleinowych po reakcji PCR. Używana jest już od wielu lat i pozwala na większą swobodę pracy z produktami PCR. * UNG to system amplifikacji opartej na deoksyurydynie zamiast deoksytymidynie. Po reakcji PCR otrzymujemy produkt z inkorporowanym dU, który (o ile zostanie przeniesiony do kolejnej reakcji) jest niszczony przez specjalny, dodawany do reakcji enzym urydylo-N-glikozylazę przed rozpoczęciem właściwej amplifikacji PCR. Tym sposobem nici zawierające dU degradują i nie mogą stanowić matrycy w tej reakcji. * Warto zasygnalizować, że UNG pozwala na uniknięcie kontaminacji tylko matrycami z inkorporowanym dU z poprzednich reakcji PCR< nie daje natomiast żadnej ochrony przed kontaminacją na pierwszych etapach pracy z analitem. Tak więc wracamy do punktu wyjścia, czyli opisanego w I części tego opracowania GLP. * Drugim ważnym mankamentem może być bezzasadność wykorzystania UNG w reakcjach nested-PCR, w których konieczne jest reamplifikowanie matrycy z poprzedniego PCRu. Można do drugiego MIXu nie dodawać UNG, ale w ten sposób znowu wystawiamy się na kontaminację! Algorytm optymalizacji PCR Tak oto wspólnie dotarliśmy do końca opracowania, które może ułatwi Wam pracę w czystym, wolnym od kontaminacji otoczeniu. Czego Wam i sobie życzę! Opracowanie powstało na bazie własnych doświadczeń, jednak niezwykle pomocne okazały się artykuły z BiteSizeBio: Eliminate PCR Amplicon Carry-Over With UNG PCR: The Right Way to Decontaminate and Eliminate False Positives Wyniki fałszywie pozytywne w PCR! Jak się przed nimi bronić? (I) „Kontaminacja” to chyba najbardziej przerażające wyrażenie w słowniku każdego biologa molekularnego. Przypadkowe przeniesienie produktu PCR na blaty, plastiki lub sprzęt laboratoryjny może zamienić życie pracowników laboratorium w koszmar na długie tygodnie. Jak nie dopuścić do tej sytuacji? Przedstawiam Wam rozwiązania, które uchronią Was przed fałszywymi pozytywami i oszczędzą mnóstwa frustracji. 1. GLP przede wszystkim Niestety nie istnieje rozwiązanie, które pozwoli nam zupełnie beztrosko poczynać sobie z produktami PCR w laboratorium. Podstawą każdej czynności, począwszy od pipetowania, skończywszy na usuwaniu odpadów, musi być dobra praktyka laboratoryjna i należy mieć tego pełną świadomość. Zacznijmy od najważniejszego: myślmy nad każdą wykonywaną czynnością. Niech nie zgubi nas rutyna! * Aby nie dopuścić do kontaminacji, spróbujmy rozdzielić przestrzennie czynności wykonywane w laboratorium. Przypiszmy pipety do poszczególnych stanowisk laboratoryjnych i nie wychodźmy z nimi poza obszar roboczy, do którego są przyporządkowane. * Pilnujmy tipsów- czy nakładane są do pudełek w innym miejscu niż wykonujemy PCR? Czy personel który to robi, używa zawsze świeżych rękawic? Czy pudełka na tipsy są zamykane, gdy z nimi nie pracujemy? * Uważajmy na standardy do Real-Time PCRu i próbówki z produktami reakcji. Kwestia warta rozważenia: jeżeli w każdym mikrolitrze standardu jest sto milionów kopii matrycy, to co się stanie, jeśli taki mikrolitr kapnie nam na stół a następnie zostanie roztarty przez sprzątaczkę ścierką po całym blacie? Albo gdy kapnie nam na rękę, którą następnie złapiemy za pipetę, klamkę lub mikropłytkę? * Zachowujmy szeroko rozumiany porządek wokół siebie * Dbajmy o reagenty: gdy to tylko możliwe, pipetujmy duże objętości na małe alikwoty do jednorazowego użytku. Zmieniajmy tipsy dodając po sobie kolejne reagenty. Nigdy nie przelewajmy resztek z jednej buteleczki do drugiej, bo możemy zepsuć kolejną partię odczynnika lub buforu! 2. Odpowiednie pomieszczenia laboratoryjne są na wagę złota Jeżeli planujemy dopiero rozkład pomieszczeń laboratoryjnych, od początku miejmy na uwadze, że będziemy wykonywać w tych pomieszczeniach rożne etapy naszej pracy. Oddzielenie przestrzenne PCRu od reszty zadań laboratoryjnych jest najłatwiejszą i najskuteczniejszą bronią w walce z kontaminacją. Walczmy o każdą piędź ziemi z tymi, którzy finansują przedsięwzięcie, bo im więcej zainwestujemy w pomieszczenia, tym mniej stracimy na powtarzaniu nieudanych reakcji. To się zwróci- nie od razu, ale z cała pewnością. * Pomieszczenie, w którym będziemy trzymać nowe odczynniki, przygotowywać MIXy i bufory, DEPCować wodę, powinno być jak najbardziej oddalone od reszty pomieszczeń. Jest to pomieszczenie czyste. * Drugie pomieszczenie, które powinno oddzielać część brudną od czystej, to pomieszczenie biurowe/socjalne/sala komputerowa- miejsce na dokumentację, seminaria, pracę z komputerem itp. W nim w ogóle nie powinny znajdować się próbki ani reagenty. * Trzecie pomieszczenie to pomieszczenie brudne do preparatyki próbek. Ideałem byłoby, gdyby odbywała się tam tylko wstępna preparatyka próbek, izolacja DNA i RNA, ewentualnie katalogowanie i mrożenie analitów. * W ostatnim pomieszczeniu przygotowujemy PCR, rozcieńczamy matryce, puszczamy żele i utylizujemy materiał. Jest to najbardziej narażona na skażenie cześć laboratorium, idealny pokój tego typu jest całkowicie wyłożony kafelkami i powierzchniami zmywalnymi, odpornymi na silne utleniacze. Zamiast komory laminarnej (radzę sobie ją całkowicie odpuścić o ile nie pracujemy z próbkami o wysokim zagrożeniu biologicznym lub z mikrośladami!) radzę właśnie kafelki. Zero półek, zakamarków, tylko stół, krzesło, 1 zestaw pipet i nic poza tym. Wszystko powinno dać się odkazić po zakończonym dniu pracy! (czym odkażać? O tym będzie traktować druga część opracowania!) 3. Mit lampy UV W laboratoriach medycznych i badawczych złotym standardem jest dekontaminacja przy użyciu światła UV. Jest to bardzo dobre rozwiązanie, ale dla mikrobiologów i osób pracujących z hodowlami in vitro. * UV absolutnie nie nadaje się za to do pozbywania się DNA z powierzchni roboczych, jest na to zbyt mało wydajne! Światło UV ma moc biobójczą, i mutagenną, ale nie lityczną w stosunku do polimerów DNA. Poza tym jego działanie jest ograniczone do przestrzeni nieporowatych, wystawionych bezpośrednio na promieniowanie. * UV zażółca papier i niszczy niektóre tworzywa sztuczne, więc nie powinniśmy trzymać tam dokumentacji. * Jeszcze jedna ważna rzecz, o której się nie pamięta. Światło UVC jest potężne, ale świetlówki szybko się zużywają. Po roku tracą nawet połowę swojej emisji UVC- taka świetlówka już nie nadaje się do dekontaminacji. Komu więc polecać UV? Pracowniom, które pracują z ludzkimi płynami ustrojowymi do pomieszczeń, w których wykonuje się np. ekstrakcję białek czy kwasów nukleinowych i gdzie utylizuje się materiał. Obowiązkowo do pracowni mikrobiologii i tam, gdzie prowadzi się hodowle komórkowe. UV nie radzi sobie z wirusami tak wydajnie jak z bakteriami, ale i tak pomaga w walce np. z fagami. Natomiast UV w pomieszczeniach do PCR i pod komorami laminarnymi sprawdza się raczej słabo. Można je stosować jako dodatkowy środek ochronny- wszak nie zaszkodzi, ale pożytku z niego niewiele. W drugiej części opracowania dowiecie się, jakie chemiczne i fizyczne środki zaradcze można zastosować, by pozbyć się niechcianego DNA z powierzchni laboratoryjnych. Algorytm optymalizacji PCR Trombocytopatie – przyczyny często niewyjaśnionych krwawień Zaburzenia czynności płytek krwi mogą pojawić się już w dzieciństwie, jako skłonności do sińców, krwawienia z nosa, z dziąseł lub nadmierne krwawienia miesiączkowe. Ponieważ w większości wypadków krwawienia te mają małe nasilenie i nie wymagają interwencji medycznej, często są ignorowane. O zapewnieniu prawidłowej hemostazy decyduje nie tylko odpowiednia liczba płytek krwi, lecz także ich funkcjonowanie. Defekty oraz zaburzenia funkcji płytek mogą być przyczyną trombocytopatii i prowadzić do wystąpienia krwawień [2]. Trombocytopatie ze względu na skomplikowaną diagnostykę oraz objawy wskazujące na inne przyczyny skazy krwotocznej często pozostają nierozpoznane. Niezdiagnozowane wcześniej zaburzenia czynności płytek mogą skutkować wystąpieniem silnych, zagrażających życiu krwotoków w przypadku urazów, w trakcie zabiegów chirurgicznych lub inwazyjnych procedur medycznych [2]. Pojawienie się u chorych ciężkiej skazy krwotocznej może być także spowodowane przyjmowaniem leków przeciwpłytkowych, powszechnie stosowanych w leczeniu lub zapobieganiu zakrzepicy tętniczej [3]. Trombocytopatie ze względu na swoje pochodzenie można podzielić na wrodzone i nabyte. Wrodzone zaburzenia czynności płytek krwi występują bardzo rzadko i z tego względu nie zawsze są brane pod uwagę, jako przyczyna skazy krwotocznej. Najczęściej stosowana klasyfikacja trombocytopatii wrodzonych została oparta na nieprawidłowościach w pełnieniu określonej funkcji. Ponieważ funkcje płytek krwi takie jak adhezja, agregacja, aktywacja, sekrecja i aktywność prokoagulacyjna są ze sobą powiązane, podział ten w wielu wypadkach jest problematyczny [1]. Wrodzone trombocytopatie można podzielić na: -pierwotne defekty adhezji płytek krwi -pierwotne defekty agregacji płytek krwi -zaburzenia ziarnistości płytkowych -zaburzenia sekrecji lub transdukcji sygnału [2]. Do grupy pierwotnych defektów adhezji płytek krwi można zaliczyć zespół Bernarda-Souliera (BSS) oraz płytkowy typ choroby von Willebranda (PT-vWD). Zespół Bernarda-Souliera jest spowodowany zaburzeniami w przyleganiu płytek krwi za pośrednictwem czynnika von Willebranda do warstwy podśródbłonkowej w miejscu uszkodzenia naczynia. Wynika to ze zmniejszonej ilości lub nieprawidłowej budowy kompleksu białkowego na płytkach krwi GPIb/IX/V, który jest receptorem dla czynnika von Willebranda. Zmniejszenie wiązania czynnika von Willebranda do płytki, a tym samym zaburzenia adhezji w miejscu uszkodzenia, ma duże znaczenie w naczyniach o szybkim przepływie krwi [1]. Skaza krwotoczna może mieć ciężki przebieg, mogą wystąpić krwawienia z nosa, dziąseł, z przewodu pokarmowego lub krwawienia pourazowe [2]. Płytkowy typ choroby von Willebranda jest spowodowany nieprawidłowościami w budowie glikoproteiny GPIbα występującej na płytkach krwi, na skutek jej zmian konformacyjnych. Powoduje to wiązanie się dużych multimetrów czynnika von Willebranda z białkiem GPIbα i tym samym szybkie usuwanie ich z krwiobiegu. Brak lub niedobór multimerów czynnika von Willebranda we krwi obniża krzepliwość i może być przyczyną krwawień. Podobne objawy oraz etiopatogenezę można zaobserwować w podtypie 2B choroby von Willebranda. W przypadku silnych krwawień lub przed zabiegami chirurgicznymi należy stosować przetoczenia koncentratów krwinek płytkowych, natomiast desmopresyna, rekombinowany czynnik VIII i czynnik von Willebranda są przeciwwskazane lub nieskuteczne [2]. Do grupy pierwotnych defektów agregacji płytek krwi należy Trombastenia Glanzmanna (GT). Tromabastenia Glanzmanna jest spowodowana obniżoną ekspresją lub nieprawidłową budową płytkowej integryny GPIIb/IIIa. Integryna ta pełni bardzo ważną rolę w agregacji płytek, gdyż do niej przyłącza się fibrynogen tworząc mostki pomiędzy sąsiednimi płytkami, co skutkuje wytworzeniem czopu pierwotnego [1]. Skaza krwotoczna może mieć ciężki przebieg, u chorych mogą wystąpić wybroczyny, sińce, krwawienia z nosa, rzadziej krwawienia z przewodu pokarmowego lub krwiomocz [2]. Zaburzenia ziarnistości płytkowych występują bardzo rzadko i obejmują różne nieprawidłowości w funkcjonowaniu płytek krwi spowodowane zmniejszeniem liczby ziarnistości w komórce, stężenia białek lub też zaburzeniami w mechanizmach ich uwalniania. Między innymi można wśród nich wymienić: zespół szarych płytek, chorobę puli magazynowej δ, zespół Hermansky-Pudlak, zespół Chediaka-Higashi’ego lub skazę płytkową Quebec [2]. Zaburzenia sekrecji lub transdukcji sygnału są heterogenną grupą wrodzonych zaburzeń aktywacji płytek krwi. Nieprawidłowa czynność lub niedobór receptorów błonowych hamuje aktywację płytek krwi oraz upośledzenie procesów uwalniania substancji, agregacji a także zaburzenia w budowie cytoszkieletu. Należą do nich między innymi defekty receptorów dla ADP, tromboksanu A2, kolagenu lub receptorów α adrenergicznych [2]. Nabyte zaburzenia czynności płytek krwi mają największe znaczenie kliniczne w warunkach intensywnej opieki medycznej, u chorych z koagulopatią, posocznicą, niewydolnością wielonarządową lub w leczeniu przeciwzakrzepowym ostrych zespołów wieńcowych [3]. Nabyte trombocytopatie mogą być spowodowane: wpływem leków, obecnością chorób nerek, wątroby, chorób układu krwiotwórczego, chorób autoimmunologicznych lub wystąpieniem zespołu wykrzepiania wewnątrznaczyniowego [3]. Najczęstszą przyczyną obniżenia czynności płytek, mogącą objawiać się występowaniem krwawień są leki przeciwpłytkowe powszechnie stosowane w leczeniu lub zapobieganiu chorób tętnic. Działanie leków przeciwpłytkowych polega na blokowaniu albo hamowaniu szlaków metabolicznych prowadzących do aktywacji i agregacji płytek. Do leków hamujących czynność płytek krwi należą przede wszystkim: -kwas acetylosalicylowy (np. aspiryna) blokujący szlak aktywacji zależny od tromboksanu A2 -pochodne tienopirydyny (np. klopidogrel) hamujące szlak prowadzący do agregacji płytek zależny od ADP -leki blokujące receptory (GPIIb/IIIa) dla fibrynogenu (np. abcyksymab, eptyfibatyd, tirofiban). Wśród innych leków wpływających na czynność płytek można wymienić: niesterydowe leki przeciwzapalne, antybiotyki (penicyliny, cefalosporyny), leki krążeniowe (nitrogliceryna, antagoniści wapnia, β-adrenolityki), heparynę, protaminę, streptokinazę [4]. Nabyte zaburzenia czynności płytek krwi mogą wystąpić w chorobach nerek np. w mocznicy, u pacjentów hemodializowanych a także w zaburzeniach czynności wątroby, gdzie współwystępują z małopłytkowością oraz koagulopatią. Dysfunkcja płytek krwi może ujawnić się w przebiegu chorób układu krwiotwórczego: w zespołach mieloproliferacyjnych, białaczkach, w szpiczaku plazmocytowym, w chorobach autoimmunologicznych lub w zespole wykrzepiania wewnątrznaczyniowego [3]. Diagnostyka trombocytopatii obejmuje ocenę kliniczną, wykluczenie choroby von Willebranda i innych przyczyn zaburzeń hemostazy oraz ocenę wpływu leków [4]. Do testów przesiewowych należą badania czasu krwawienia (BT) i czasu okluzji (CT) w aparacie PFA-100 lub PFA-200. W celu zróżnicowania trombocytopatii z małopłytkowością oznacza się morfologię krwi z liczbą płytek oraz parametrami obrazującymi różnice w ich wielkości (MPV – średnia objętość, PDW – wskaźnik zmienności objętości, P-LCR – odsetek płytek dużych) [5]. Dla określenia rodzaju defektu płytkowego wykonuje się agregację płytek metodą agregometrii impedancyjnej pod wpływem różnych agonistów (kolagenu, rystocetyny, ADP, kwasu arachidonowego) oraz oznaczenie ekspresji receptorów błonowych metodą cytometrii przepływowej [5,6]. Najczulszymi metodami diagnostycznymi potwierdzającymi obecność wrodzonych trombocytopatii są badania genetyczne. Metodami biologii molekularnej można przeprowadzić analizę mutacji odpowiedzialnych na występowanie określonych defektów płytek krwi. W tym celu przeprowadza się sekwencjonowanie egzonów genomowego DNA zawierających fragmenty dla białek, w których zmiany są przyczyną dysfunkcji płytek [7]. Nabyte zaburzenia czynności płytek można także wykryć metodą tromboelastometrii, co znalazło zastosowanie u chorych przebywających na oddziałach chirurgicznych [3]. Terapia zaburzeń czynności płytek krwi polega na leczeniu choroby podstawowej, zmniejszeniu dawek leków przeciwpłytkowych, stosowaniu leków antyfibrynolitycznych, rekombinowanych czynników krzepnięcia, desmopresyny lub przetoczeniach koncentratów krwinek płytkowych [2,4]. Algorytm optymalizacji PCR Zaburzenia czynności płytek krwi ze względu na rzadkie występowanie lub towarzyszenie innym chorobom pozostają często niezdiagnozowane. Mogą być one jednak przyczyną ciężkich krwawień, szczególnie w zespole Bernarda- Souliera, w Trombastenii Glanzmanna, u chorych po urazach, w momencie przeprowadzania zabiegów chirurgicznych lub u pacjentów przyjmujących leki przeciwpłytkowe. W ostatnich latach metody badań czynności płytek krwi znacznie się rozwinęły i stały się bardziej dostępne, co zapewnia wczesną diagnostykę i terapię w przypadku podejrzenia trombocytopatii. Piśmiennictwo: 1. Cattaneo M. Congenital disorders of platelet function. [In:] Gresele P, Fuster V, Lopez J, Page C, Vermylen J, ed. Platelets in hematologic and cardiovascular disorders. A clinical handbook. New York: Cambridge University Press; 2008: 201-224. 2. Chojnowski K. i wsp. Część III: Zasady postępowania we wrodzonych zaburzeniach czynności płytek krwi. Acta Haematol Pol2009; 40 (3): 731-752. 3. Kroll MH, Hassan AA. Acquired disorders of platelet function. [In:] Gresele P, Fuster V, Lopez J, Page C, Vermylen J, ed. Platelets in hematologic and cardiovascular disorders. A clinical handbook. New York: Cambridge University Press; 2008: 225-241. 4. Gresele P, Born G, Patrono C, Page C, ed. Antiplatelet agents. Berlin, Heidelberg: Springer-Verlag; 2012: pp. 471-606. 5. Gresele P. et al. Diagnosis of suspected inherited platelet function disorders: results of a worldwide survey. J Thromb Haemost. 2014; 12 (9): 1562-1569. 6. Bienias J. et al. Standaryzacja metody oznaczenia ekspresji P-selektyny na płytkach krwi przy pomocy cytometru przepływowego oraz analiza porównawcza z metodą agregometrii impedancyjnej u chorych na ostrą białaczkę szpikową. Post Nauk Med 2015; 28 (6): 384-390. 7. Solh T. et al. Glanzmann’s thrombasthenia: pathogenesis, diagnosis, and current and emerging treatment options. J Blood Med. 2015; 6: 219-227. CE IVD bez tajemnic Czym jest, na czym bazuje i po co w ogóle to wprowadzono? Niniejszy artykuł dotyczy dyrektywy 98/79/EC i jej konsekwencji laboratoryjnych oraz prawno-ekonomicznych. Idea polityki jakości jest już dość leciwa, wymyślono ją dla celów wielkoskalowego przemysłu, bo takiego przemysłu nie stać na „brak jakości”. Czym w ogóle jest jakość? Jakość definiowana po konsumencku to przecież nie to samo, co jakość zawarta w procedurach i normach. Tak definiowana jakość oznacza wysoką powtarzalność parametrów produktów danego typu wykonanych w zgodzie z normą, a także bezpieczeństwo wytwórcy w procesie produkcyjnym i bezpieczeństwo odbiorcy podczas użytkowania. Taka definicja jakości wcale nie daje gwarancji, że produkt na przykład będzie stworzony z wysokiej jakości bawełny. Dlatego sceptycznie podchodzimy do znaczków CE na opakowaniach, które jednak są potrzebne, bo gwarantują bezpieczeństwo użytkowania i humanitarne warunki pracy wytwórców. Jednak skupmy się na diagnostyce in vitro: co ją odróżnia od reszty rynku konsumenckiego? Mamy wytwórcę, mamy użytkownika — diagnostę. Mamy jednak kogoś jeszcze. Pacjenta, który jest faktycznym beneficjentem i odbiorcą testu diagnostycznego, mimo że dzieje się to poza jego świadomością tego faktu. Po to właśnie, by chronić także chorego, którego przecież nie stać na pomyłki producenta testu (płaciłby swoim zdrowiem!) powstała dyrektywa UE „o medycznych przyrządach* do diagnostyki in vitro” (98/79/EC). Dlatego certyfikat jakości CE nie wystarcza jako gwarancja odpowiedniej jakości w diagnostyce medycznej. 98/79/EC… Cóż to za dokument i czego dotyczy? Jest to zestaw bardzo ogólnikowych norm, jakie muszą spełniać odczynniki i urządzenia używane w laboratoriach diagnostycznych. Jako „medyczne przyrządy* diagnostyczne” rozumie się wg dyrektywy nie tylko urządzenia, ale także systemy przechowywania próbek, odczynniki diagnostyczne oraz software do analizy danych. Wszelka aparatura i chemia, która ma styczność z próbką na którymkolwiek etapie analizy jest zatem traktowana jako medyczny przyrząd diagnostyczny i podlega tym wytycznym. Dyrektywa IVD mówi między innymi, że do diagnostyki in vitromoże by stosowany sprzęt/odczynnik który spełnia kryteria dla normy CE (działającej w oparciu o dokument EN ISO 9001) i dodatkowe kryteria, zawarte w aneksach (I- X). Ponadto pewne odrębne kryteria, inne niż dla odczynników używanych w laboratoriach, muszą spełnić urządzenia do samokontroli u pacjentów — glukometry, paski testowe itp. Z punktu widzenia laboratoriów najważniejszy jest załącznik 2. Zawarta jest w nim klasyfikacja badań o podwyższonym poziomie wymaganych norm jakości ze względu na istotność tych badań w kontekście zdrowia i życia pacjenta i personelu. W aneksie A mamy badania serologiczne grup krwi: systemu ABO, Rh (C, c, D, E, e) Kell, oraz badania wirusologiczne HIV, HTLV oraz badania wirusów wątrobowych. W aneksie B figurują grupy krwi Duffy i Kidd, przeciwciała przeciwkrwinkowe, typowanie tkankowe HLA (serologia), detekcja toksoplazmozy i różyczki, wirusa cytomegalii i chlamydiozy (mikrobiologia, wirusologia), testy na fenyloketonurię, oznaczenie trisomii 21 (genetyczne zaburzenia wrodzone), oznaczenia markeru nowotworowego PSA oraz glukozy we krwi. Oznacza to, że oprócz obowiązkowych wymagań z aneksu I i wymogu posiadania certyfikatu CE dla tych oznaczeń wymagane jest spełnienie kryteriów załączników IV-VIII, potwierdzone certyfikatami zgodności z drugą normą, DIN EN ISO 13485 i (najlepiej) oświadczeniem producenta że produkt może by stosowany w diagnostyce in vitro. Dla diagnostów ważne jest, co rozumie się przez stosowanie się do wytycznych dla oznaczeń z aneksów A i B: — testy używane w diagnostyce MUSZĄ być certyfikowane CE IVD — wszystkie urządzenia służące do wykonania oznaczeń, a wiec zarówno systemy do pobierania próbek, jak i pipety, plastiki laboratoryjne i inne urządzenia muszą spełniać takowe wymagania. O tym wiele laboratoriów zapomina. Zapomina się także o tym, że zestaw może być certyfikowany np. tylko dla krwi, bo firmie nie chciało się certyfikować zestawu dla innych typów materiału (to są koszty a firmy lubią je ciąć!), a my oznaczamy tym zestawem parametry np. w PMR. To błąd który nie powinien mieć miejsca. Za to powinno się karać i to surowo (a w Polsce jest z tym różnie). Dlaczego nie wszystkie laboratoria stosują się do wytycznych aneksów A i B? Bo jakość kosztuje. Zestawy z IVD są droższe, a konkurencyjność wymaga obniżania cen. Często kadra jest też nieprzeszkolona i żyje w błogiej niewiedzy. Niestety nieznajomość prawa nie jest usprawiedliwieniem. A dlaczego producenci znanych, rewelacyjnych marek sprzętu i odczynników na przykład do biologii molekularnej często uwzględniają adnotacje „for research use only”, mimo że ich odczynnikom można ufać bardziej niż KITom z IVD mało znanych firm? Ma to 2 przyczyny. Po pierwsze certyfikat podraża odczynnik, a adresatami odczynników do badań molekularnych są głównie jednostki naukowe, którym IVD nie jest absolutnie do niczego potrzebne. Po drugie zaś, firmy nie chcą brać na siebie odpowiedzialności prawnej. Wolą swoje enzymy sprzedać podwykonawcy, który produkuje KITy i sam stara się o certyfikację, sam też ponosi odpowiedzialność prawną w razie zaistnienia niezgodności. Tak więc np. bardzo znane polimerazy i odwrotne transkryptazy nie posiadają certyfikacji IVD, ale wchodzą w skład zestawów z IVD. Czyż to nie ironiczne? Tak jednak działa prawo, do którego, chcąc nie chcąc, powinniśmy się stosować. Oczywiście brak certyfikatu IVD przy wykazanym przez producenta fakcie, że produkt spełnia normę CE i kryteria załącznika I (obligatoryjne) wystarcza, by taki sprzęt znalazł się w laboratorium, w którym nie wykonuje się analiz z aneksu II. A więc przyrządy z oznaczeniem zgodności np. z EN ISO 13485 mogą być automatycznie traktowane jako mogące uczestniczyć w procesie diagnostycznym. Oczywiście jeśli podlegają przeglądom technicznym i są sprawne. * Uwaga: Używam określenia „przyrząd”, by nie mylił się on z terminem „urządzenie” używanym w polskich dokumentach-córkach. Kojarzy się on bowiem jednoznacznie z aparaturą mechaniczną, a nie chciałam wprowadzać zamętu podczas objaśnień. Piśmiennictwo: Directive 98/79/EC of the European Parliament and of the Council of 27 October 1998 on in vitro diagnostic medical devices. Różnorodność morfologiczna erytrocytów — anizoi poikilocytoza. Podczas oceny rozmazu krwi obwodowej często skupiamy się wyłącznie na ilościowej i jakościowej ocenie układu białokrwinkowego, zapominając o istotności zmian w obrębie układu czerwonokrwinkowego. W związku z powyższym warto zwrócić uwagę na zmiany morfologiczne erytrocytów, które możemy napotkać w codziennej praktyce laboratoryjnej. Występowanie różnych wariantów erytrocytów może wiązać się z wahaniami w obrębie wielkości, kształtu, stopnia wybarwienia oraz obecności nieprawidłowych struktur i wtrętów w cytoplazmie. Znalezienie w oglądanych preparatach charakterystycznych cech morfologicznych znacznie ułatwia dalszą diagnostykę. Aby zrozumieć istotę pojawiających się zmian należy przytoczyć najpierw kilka podstawowych danych fizjologicznych i stosowanych powszechnie pojęć. Za produkcję erytrocytów jest odpowiedzialny układ czerwonokrwinkowy. Krwinki czerwone powstają w procesie zwanym erytropoezą, który zachodzi w szpiku kostnym. Erytrocyty jako dojrzałe krwinki czerwone znajdują się we krwi obwodowej. Prawidłowy erytrocyt jest formą okrągłą, dwuwklęsłą w środku o średnicy od 6 do 9 um [1]. Specyficzny kształt erytrocytu zapewnia nadmiar powierzchni do objętości, co sprzyja wymianie gazowej i odkształcaniu krwinki. W przypadku występowania różnic w zakresie wielkości erytrocytów mówi się o anizocytozie. Gdy w rozmazie pojawiają się krwinki o różnych kształtach mamy do czynienia z poikilocytozą. Wielobarwliwość krwinek czerwonych nosi miano polichromatofilii. Anizocytoza Pod względem wielkości erytrocyty można podzielić na mikrocyty, normocyty i makrocyty. Normocyty to erytrocyty o prawidłowej średnicy, mikrocyty to mniejsze krwinki (średnica poniżej 6 um), makrocyty – większe (średnica powyżej 9 um). W przypadku średnicy większej niż 12 um mówi się o megalocytach, występujących przede wszystkim w niedokrwistościach megaloblastycznych. Obecność mikrocytów związana jest z kilkoma jednostkami chorobowymi. Odnotowano takie zmiany wielkości krwinek czerwonych w niedoborze żelaza, talasemiach, niedokrwistości syderoblastycznej oraz niedokrwistościach w chorobach przewlekłych. Makrocyty obserwuje się w chorobach wątroby, przy nadużywaniu alkoholu, w ciąży, u noworodków, w niedokrwistości z niedoboru witaminy B12 lub kwasu foliowego, przy stosowaniu antymetabolitów, niedoczynności tarczycy, przewlekłej niedoczynności oddechowej, niedokrwistości aplastycznej, MDS (eng. myelodysplastic syndrome) oraz zwiększonej retykulocytozie [2]. Ich obecność odzwierciedla zazwyczaj nieprawidłowości w erytropoezie – spada liczba podziałów komórkowych podczas dojrzewania ich prekursorów [3]. Poikilocytoza Pod względem różnokształtności krwinki można podzielić na: — sferocyty — eliptocyty — stomatocyty — krwinki tarczowate — krwinki sierpowate — schistocyty — akantocyty — lakrymocyty — echinocyty Sferocyty to małe, okrągłe, równomiernie wybarwione krwinki bez środkowego przejaśnienia. Są one mniejsze od normocytów. Spotyka się je w sferocytozie wrodzonej, AIHA z ciepłymi przeciwciałami (eng. autoimmune hemolytic anemia), późnej reakcji poprzetoczeniowej, chorobie hemolitycznej noworodków, DIC (eng. disseminated intravascular coagulation), MAHA (eng. microangiopathic hemolytic anemia), po splenektomii. Sferocytoza wrodzona jest chorobą dziedziczoną autosomalnie dominująco (75% przypadków), związaną z zaburzeniami w obrębie błony erytrocytu. Zaburzenia dotyczą interakcji poziomej białek błonowych (zachodzą między łańcuchami spektryny alfa i beta, między spektryną beta i białkiem prążka 4.1 oraz między białkiem 4.1 i aktyną). Wzrasta przepuszczalność błony dla jonów sodu i wody, nasila się glikoliza. Erytrocyty pęcznieją – powstają sferocyty. Sferocyty zawierają taką samą ilość hemoglobiny co prawidłowe erytrocyty, ale średnie stężenie hemoglobiny w krwince czerwonej jest znacznie wyższe. Dzieje się tak dlatego, że spada średnica napęczniałego erytrocytu. Spada integralność błony komórkowej, sferocyty są mniej wytrzymałe, mniej elastyczne i łatwiej ulęgają hemolizie [1, 2, 4]. Oprócz podłoża genetycznego powstawania sferocytów, ich pojawienie się może być także wynikiem aktywności uczulonych przez przeciwciała makrofagów, które usuwają część błony erytrocytu, formując nowy wariant krwinki. Istotny wpływ mogą mieć także siły tnące prądu krwi [3]. Powszechne występowanie sferocytów obserwuje się w przebiegu malarii. Potwierdzeniem są obserwacje zakażonych dzieci z rejonu jeziora Wiktorii (Afryka). Pojawienie się sferocytów przypuszczalnie jest wynikiem przemieszczania się zarodźca malarii wewnątrz erytrocytu [5]. Eliptocyty znane są także jako owalocyty. Jak sama nazwa wskazuje krwinki mają owalny kształt. W niewielkim odsetku dopuszczalne jest występowanie tego rodzaju krwinek we krwi. Znaczną liczbę eliptocytów spotyka się w dziedzicznej owalocytozie (od 25 do 75% erytrocytów), niedokrwistości złośliwej, niedokrwistości z niedoboru żelaza, MPD (eng. myeloproliferative disease) i MDS. Eliptocytoza wrodzona dziedziczona jest autosomalnie dominująco. Powstanie eliptocytów wynika z defektu błony erytrocytu. Charakter zmian jest głównie jakościowy i wynika przede wszystkim z defektów białka 4.1 oraz występowania różnych wariantów spektryny [1, 6]. Stomatocyty to erytrocyty charakteryzujące się podłużnym centralnym przejaśnieniem. Kształtem przypominają otwarte usta. Występują w stomatocytozie wrodzonej oraz nabytych niedokrwistościach hemolitycznych. Stomatocytozadziedziczona jest w sposób autosomalny dominujący. Mechanizmy regulujące przepływ kationów sodu i potasu przez błonę komórkową nie działają prawidłowo, co powoduje wzrost przepuszczalności błony erytrocytu i w konsekwencji powadzi do nadmiernego uwodnienia erytrocytu [1, 5]. Zmiany morfologiczne erytrocytów w kierunku stomatocytozy może wywoływać także lek przeciwmalaryczny Lupeol oraz niektóre związki amfifilowe. W wyniku transformacji błony komórkowej rozwój pasożytów ulega inhibicji [6]. Stomatocyty spotyka się w dużych ilościach u alkoholików [3]. Krwinki tarczowate to erytrocyty charakteryzujące się obecnością hemoglobiny na obwodzie i w samym środku krwinki z przejaśnieniem pomiędzy tymi dwoma warstwami. Wyglądem przypominają tarczę wojownika, skąd ich nazwa. Powstawanie tych krwinek może mieć podłoże genetyczne w talasemii. U ludzi zdrowych mogą występować pojedyncze krwinki tarczowate. Większe ilości pojawiają się w hemoglobinopatiach, niedoborze żelaza, po splenektomii, w chorobach obstrukcyjnych wątroby (wzrasta zawartość cholesterolu w częściach powierzchniowych erytrocytów). Mniejsze ilości tych erytrocytów spotyka się w anemii sierpowatej, niedoborze żelaza oraz zatruciu ołowiem [1, 2, 3]. Krwinki sierpowate, znane także pod nazwą drepanocyty, to erytrocyty przypominające kształtem sierp lub półksiężyc. Są typowe dla szczególnego rodzaju hemoglobinopatii, jakim jest niedokrwistość sierpowatokrwinkowa. Po dodaniu do krwi substancji redukujących lub inkubacji w warunkach beztlenowych krwinki są łatwiej wykrywalne. Niedokrwistość sierpowata to anemia wrodzona. Wynika ona z nieprawidłowej budowy hemoglobiny. W wyniku mutacji punktowej w genie łańcucha beta hemoglobiny dochodzi do zmiany pojedynczego aminokwasu w sekwencji białka (w pozycji 6 dochodzi do zamiany kwasu glutaminowego na walinę). Zmieniona w ten sposób hemoglobina określana jest jako hemoglobina S. Choroba jest rozpowszechniona głównie w niektórych rejonach Afryki, rzadko występując u rasy białej [2, 4]. Schistocyty, znane także jako fragmentocyty, to rozfragmentowane krwinki czerwone. Pojawiają się w niedokrwistości hemolitycznej mikroangiopatycznej, niedokrwistości polekowej, mechanicznej, talasemii, DIC, MAHA, HUS (eng. hemolytic-uremic syndrome), TTP (eng. thrombotic thrombocytopenic purpura) oraz niewydolności nerek. Mogą być skutkiem mechanicznego uszkodzenia przez wiązania fibryny, siły tnące prądu krwi, zmienione powierzchnie (zastawki w wadach serca), ciała obce w krążeniu, skupiska komórek nowotworowych, czasami działanie płytek krwi lub uszkodzenia termiczne (oparzenia II i III stopnia) [1, 2]. Występowanie schistocytów jest typowe w stanach po przeszczepie macierzystych komórek hematopoetycznych szpiku (SCT). Udowodniono przydatność systematycznego określania liczby schistocytów po SCT. Wzrost odsetka schistocytów może służyć jako dodatkowy, choć niespecyficzny marker wystąpienia komplikacji po mikroangiopatii zakrzepowej [7]. Akantocyty zwane krwinkami kolczystymi to sferoidalne erytrocyty posiadające od 2 do 20 ‘kolców’ rozmieszczonych nieregularnie na powierzchni krwinki. ,Kolce’ to długie, ostro zakończone wypustki cytoplazmy. Występują one przede wszystkim we wrodzonej abetalipoproteinemii, polekowej niedokrwistości hemolitycznej mikroangiopatycznej, niedokrwistości hemolitycznej u chorych z wszczepionymi sztucznymi zastawkami serca, mocznicy, nocnej napadowej hemoglobinurii oraz w przewlekłych chorobach wątroby (zespół Zievego) [2]. Akantocyty i inne poikilocyty pojawiają się we krwi obwodowej po splenektomii oraz są charakterystyczne dla zaburzeń kłębuszków nerkowych. W alkoholowej chorobie wątroby wzrasta zawartość cholesterolu przy zachowanym prawidłowym poziomie fosfolipidów w częściach powierzchniowych erytrocytu [3, 8]. Lakrymocyty, zwane także dakriocytami czy krwinkami kroplowatymi, to erytrocyty w kształcie spadającej kropli lub łzy. Są one typowe dla zwłóknienia szpiku (mielofibroza). Występują przy nacieczeniu szpiku przerzutami MDS. Obraz jest bardzo charakterystyczny — silna anizo- i poikilocytoza we krwi obwodowej [3]. Echinocyty mianowane także krwinkami karbowanymi to wariant erytrocytu posiadającego od 10 do 30 krótkich, regularnych wypustek cytoplazmatycznych. Pojawiają się przykładowo w mocznicy, hiperlipidemii, po splenektomii czy przy niewydolności nerek. Zazwyczaj jednak występują jako artefakt w rozmazie krwi obwodowej(wynik zakłócenia równowagi osmotycznej przez nieodpowiednie lub długie przechowywanie, EDTA) [2]. W przypadku deficytu kinazy pirogronianowej erytrocytów (spada produkcja ATP, dochodzi do ucieczki wody i potasu z erytrocytów), w niektórych nowotworach oraz krótko po transfuzji dłużej przechowywanej krwi pojawiają się echinocyty [3]. Algorytm optymalizacji PCR Istnieje szereg wariantów morfologicznych krwinek czerwonych mniej lub bardziej charakterystycznych dla określonych jednostek chorobowych. Niewątpliwie jednak prawidłowa ocena abberacji od prawidłowego kształtu erytrocytu stanowi istotny element diagnostyki. mgr Agnieszka Helis, diagnosta laboratoryjny Piśmiennictwo: 1. Mariańska B., Fabijańska-Mitek J., Windyga J. Badania laboratoryjne w hematologii. Warszawa; Wyd Lek. PZWL, 2006. 2. Provan D. et al. Hematologia kliniczna. Warszawa; Wyd.Lek. PZWL, 2006. 3. Lynch E. Peripheral blood smear [In:] Walker HK., Hall WD., Hurst JW. ed. Clinical Methods: The History, Physical, and Laboratory Examinations. 3rd ed., Boston; Butterworths, 1990. 4. Matysiak M., Adamowicz A. Wrodzone niedokrwistości hemolityczne. Acta Haematologica Polonica, 2009; 40: 455–462. 5. Anyona SB., Schrier SL., Gichuki CW. et al. Pitting of malaria parasites and spherocyte formation. Malar J, 2006; 5: 64. 6. Ziegler HL., Staerk D., Christensen J. et al. In vitro Plasmodium falciparum drug sensitivity assay: inhibition of parasite growth by incorporation of stomatocytogenic amphiphiles into the erythrocyte membrane. Antimicrob Agents Chemother. 2002; 46, 5: 1441-1446. 7. Lesesve JF., Alla F., Dugué F. et al. Evaluation of schistocyte monitoring after haematopoietic stem cell transplantation. Int J Lab Hematol. 2011; 33, 4: 343-356. 8. Köhler H., Wandel E., Brunck B. Acanthocyturia–a characteristic marker for glomerular bleeding. Kidney Int. 1991; 40, 1: 115-20. Cystatyna C jako marker oceniający filtrację kłębuszkową Wiarygodna i rzetelna ocena funkcji nerek stanowi jeden z najważniejszych kierunków w diagnostyce. Szacuje się, że w Polsce przewlekła choroba nerek (PChN) może dotyczyć 4 mln osób. Wydłużenie średniej długości życia, jak i powszechne występowanie chorób cywilizacyjnych, takich jak cukrzyca, nadciśnienie tętnicze, miażdżyca, powodują wzrost częstości występowania niewydolności omawianego narządu [1,3]. Ostre uszkodzenie nerek jest obarczone dużą śmiertelnością i wymaga szybkiej diagnostyki. Również u dzieci poważne schorzenia nerek mogą przebiegać bez charakterystycznych objawów, dlatego zdarza się, że są wykrywane zbyt późno, kiedy konieczny jest już przeszczep nerki lub dializoterapia [2]. Parametrem laboratoryjnym stosowanym do oceny funkcji nerek jest wskaźnik przesączania kłębuszkowego GFR (ang. Glomerular Filtration Rate). Wskazuje on na zdolność tego narządu do oczyszczania osocza w jednostce czasu. Stężenie kreatyniny w surowicy jest najczęściej stosowanym w diagnostyce parametrem, odzwierciedlającym GFR, którego poziom ujemnie koreluje z wielkością przesączania kłębuszkowego. Podwyższone stężenie kreatyniny w surowicy wiąże się z pogorszeniem funkcji nerek [4,5]. Wykorzystanie kreatyniny w ocenie funkcji nerek ma jedynie przybliżoną wartość diagnostyczną. Korelacja poziomu kreatyniny w surowicy z wydolnością nefronów jest zależna od wielu czynników. Na stężenie kreatyniny wpływa wiek (wyższe wartości u ludzi młodych), płeć (wyższe u mężczyzn), masa mięśniowa, masa ciała, dieta (spożywanie pokarmów wysokobiałkowych powoduje wzrost o ok. 10%), aktywność fizyczna oraz rasa (wyższe stężenie u ludzi rasy białej) [1,5]. Spore ograniczenia w zastosowaniu kreatyniny napotykamy u pacjentów z żółtaczką oraz u noworodków, u których współistniejąca hiperbilirubinemia ujemnie interferuje z poziomem kreatyniny. U noworodków w pierwszych dniach życia poziom kreatyniny w surowicy odzwierciedla stężenie we krwi matki, ponieważ związek ten swobodnie przechodzi przez łożysko [2]. Aby zwiększyć dokładność oceny przesączania kłębuszkowego na podstawie pomiaru kreatyniny opracowano szereg wzorów antropometrycznych, które pozwalają ograniczyć wpływ czynników pozanerkowych. Najczęściej stosuje się wzory według Cockcrofta i Gaulta, MDRD (ang. Modification of Diet in Renal Disease) oraz wzór Schwartza dla dzieci do obliczania szacowanego GFR (ang. estimate GFR). Mimo że wzory te umożliwiły znaczny postęp w diagnostyce nefrologicznej, to szacowanie filtracji nerkowej za ich pomocą nie jest wolne od ograniczeń [4,6]. Tabela 1. Równania empiryczne stosowane do szacowania GFR [1] Równanie MDRD jest to wskaźnik mało dokładny u ludzi starszych i u osób o granicznych wartościach BMI (otyłych lub z niedowagą). Wzory MDRD nie doszacowują eGFR u ludzi dobrze umięśnionych lub stosujących dietę bogatą w białko, u których stężenie kreatyniny w surowicy jest wyższe. Natomiast u pacjentów o niskiej masie mięśniowej (osoby w podeszłym wieku lub przewlekle chorzy) na podstawie równania MDRD uzyskujemy fałszywie zawyżone wyniki eGFR. Ograniczenia w interpretacji oznaczeń kreatyniny powodują wzrost zapotrzebowania na bardziej wiarygodny wskaźnik oceny funkcji nerek. Prawdopodobnie taką rolę może pełnić cystatyna C. Cystatyna C to drobnocząsteczkowe białko, składające się z jednego łańcucha polipeptydowego. Jest ona wydzielana do krwi w jednakowym tempie przez wszystkie komórki jądrzaste, dlatego jej zawartość w organizmie jest stała [1,6]. Cystatyna C z racji swojej niskiej masy cząsteczkowej ulega przefiltrowaniu w kłębuszkach nerkowych w 98%. W dalszych częściach nefronu jest niemal w całości resorbowana i w prawidłowym moczu występuje w minimalnych ilościach, a jedynie w niewielkim stopniu jest usuwana z organizmu drogą pozanerkową [2,6]. Duże znaczenie przypisuje się cystatynie C w diagnostyce PChN w stadium przedklinicznym oraz w umiarkowanej niewydolności nerek. Istotnym faktem, potwierdzającym użyteczność pomiaru cystatyny C w diagnostyce nefrologicznej, jest jej wysoka czułość (81%). Jest więc ona czulszym wskaźnikiem niewielkich zmian w nefronach niż oznaczanie kreatyniny, której czułość wynosi 69%, a znamienny wzrost poziomu kreatyniny następuje dopiero, gdy GFR obniży się do około połowy wartości prawidłowej [1]. Dużą zaletą cystatyny C jest brak istotnej zależności między jej stężeniem a czynnikami osobniczymi oraz dietą. Względna niezależność poziomu omawianego białka od masy mięśniowej czyni z niego dobry marker oceny funkcji nerek u dzieci. Cystatyna C jest lepszym od kreatyniny wskaźnikiem oceny GFR u noworodków z uwagi na brak interferencji z bilirubiną, a także fakt, że nie przechodzi ona przez barierę łożyskową [5]. Poziom cystatyny C w surowicy jest zależny od wieku, a ustalone wartości referencyjne mieszczą się w granicach 0,53-0,92 mg/L (dla dorosłych poniżej 50. roku życia) [5]. Stężenie tego białka jest kilkukrotnie wyższe u noworodków i niemowląt, niż u ludzi dorosłych i wyrównuje się dopiero po drugim roku życia. Obserwuje się stopniowy wzrost poziomu cystatyny C u osób po 50. roku życia [2,6]. Poza stanami z niedoczynnością nerek podwyższone stężenie cystatyny C występuje w chorobach nowowtworowych oraz w gorączce reumatycznej. Co więcej, nadczynność tarczycy oraz terapia glikokortykosteroidami odwracalnie zwiększają stężenie cystatyny C, natomiast niedoczynność tarczycy i terapia cyklosporyną obniżają jej poziom [1,3]. Algorytm optymalizacji PCR Cystatyna C pomimo pewnych ograniczeń wydaje się być lepszym wskaźnikiem oceny pracy nerek niż kreatynina. Jedną z największych korzyści jest wzrost jej stężenia już przy bardzo nieznacznej redukcji filtracji kłębuszkowej oraz niewielki wpływ na jej poziom czynników pozanerkowych. Niestety oznaczanie cystatyny C nadal nie wchodzi w skład ogólnie przyjętych procedur rutynowej diagnostyki. Obecnie największym ograniczeniem w rozpowszechnieniu tego badania jest cena, która około 10-krotnie przewyższa koszty związane z oznaczeniem kreatyniny. Należy jednak pamiętać, że niejednokrotnie szybka i trafna diagnoza, pozwala uniknąć również kosztownego i obciążającego dla pacjenta leczenia nerkozastępczego. Piśmiennictwo: 1. Imiela J., Lewandowicz A. Cystatyna C w diagnostyce przewlekłej choroby nerek. Nefrol Dial Pol, 2007; 11: 126-132. 2. Konopska B., Grzebyk E., Warwas M. Postępy badań nad użytecznością oznaczania cystatyny C u dzieci. Diagn Lab, 2013; 49, 1: 39-47. 3. Sodolska M., Walczak K., Krysicka A. i wsp. Użyteczność cystatyny C w ocenie funkcji nerek u osób po 65. roku życia bez cukrzycy. Geront Pol, 2010; 18, 3: 120-127. 4. Skalska A., Klimek E. Przydatność cystatyny C jako markera funkcji nerek u osób w starszym wieku. Geront Pol, 2006; 14, 2: 91-97. 5. Ciach E., Bobilewicz D. Zastosowanie stężenia cystatyny C w ocenie filtracji kłębuszkowej u dzieci i ludzi starszych. Diagn Lab, 2012; 48, 4: 423-431. 6. Rozentryt P. Cystatyna C – co wiemy w roku 2008. LabForum, grudzień 2008: 3-6. Poradnik: Optymalizacja reakcji PCR. Manipulowanie stężeniami i programem termocyklera Jak przeprowadzić „optymalizację” reakcji PCR? Co zmienić w metodyce, by pozbyć się produktów niespecyficznych? Jak poprawić plon reakcji? Od czego zacząć? Czego unikać? Dziś zwiększamy tempo, starając się już nie tylko otrzymać produkt, ale dopracować amplifikację do perfekcji poprzez różne zabiegi chemiczne i fizyczne. Manipulowanie stężeniami i programem termocyklera W poprzednich częściach pisaliśmy o podstawach. O tym, jak otrzymać produkt. Jednakże kinetyka reakcji jest często równie ważna jak sam efekt w postaci obecności prążka na żelu. Co jeszcze możemy zrobić, by poprawić wydajność amplifikacji? A. Zmieniamy stężenia starterów – jeżeli na żelu po PCR widzimy na wysokości poniżej 25-5o pz prążek, świadczy to o zbyt dużej ilości starterów dodanych do PCR lub o słabej amplifikacji i tworzeniu par primer-dimer (czyli startery się „kleją” same do siebie i amplifikują się zamiast matrycy!). Pary primer-dimer możemy wyrugować podwyższając temperaturę annealingu, zaś słabą amplifikację powinniśmy poprawić albo przez zmianę stężeń MgCl2, albo inne modyfikacje omówione w częściach I-II. Jeżeli nie widzimy w ogóle starterów na żelu, możemy zaryzykować podwyższenie ich stężenia, uważając by nie przesadzić. Może to pomóc zwiększyć plon amplifikacji lub nie, warto jednak spróbować (byle nie doprowadzić do przeładowania starterami, widocznego na żelu). Co jeszcze możemy zrobić ze starterami? Może się okazać że różnią się one długością lub temperaturą annealingu,wtedy możemy zrównoważyć te różnice, zwiększając stężenie tego z nich, który jest krótszy i ma niższą temperaturę topnienia. Jest to stosowane najczęściej w reakcjach multiplex, w których poszczególne pary starterów wchodzą ze sobą w interakcje i często może być potrzebna taka ingerencja. B. Zwiększamy ilość dNTP – raczej rzadko stosowany zabieg, może pomóc poprzez zmianę siły jonowej roztworu. Nie należy dodawać więcej niż 2-krotnie większej dawki dNTP niż zalecana przez producenta. bo to już w niczym nie może pomóc. C. Zatężanie buforu reakcyjnego – metoda wykorzystywana czasami dla amplifikacji w multiplexie. Wiele polimeraz toleruje zwiększenie stężenia buforu reakcyjnego od 1,1x do nawet 2x. Wyższa siła jonowa rzekomo pomaga w amplifikacji na krótkich primerach i w reakcjach multiplex. Przy użyciu mojego zestawu do PCR nie widziałam różnic w amplifikacji wielu różnych matryc po zatężeniu buforu, ale wg autorów licznych publikacji (m.in. tej z Biotechniques) to może zadziałać. D. Ilość matrycy – zwykle rozsądną minimalną ilością DNA dodawaną do reakcji PCR jest 10ng. Poniżej tej ilości da się wciąż otrzymać wyraźny produkt, jednak podczas wstępnego dopracowywania warunków lepiej mieć pewność, że zbyt mała ilość matrycy nie zakłóca przebiegu reakcji. Oczywiście matryca powinna być wolna od zanieczyszczeń organicznych i soli, najlepiej sprawdzona uprzednio w innej reakcji PCR i/lub oceniona spektrofotometrycznie pod kątem czystości i stężenia. Algorytm optymalizacji PCR Co do cDNA nie ma tak precyzyjnych wytycznych, amplifikacja zależy w bardzo dużym stopniu od rodzaju amplifikowanej matrycy RNA- czy jest to gen wysokokopijny, czy też niskokopijny? Czy amplifikujemy koniec 3′ czy też 5′ transkryptu? Czy odwrotna transkrypcja była wykonana na oligo-dT, na heksamerach,czy też na starterze specyficznym? Jakiego zestawu użyliśmy do RT? Czasami brak produktu RT-PCR może świadczyć nie o braku amplifikacji, ale o bardzo niskiej ekspresji amplifikowanego genu w danej próbce, albo też o degradacji/zanieczyszczeniu matrycy. Jeśli chodzi o ilość cDNA poddawaną amplifikacji, to starajmy się korzystać (w przeliczeniu na RNA użyte do reakcji RT) z co najmniej 50ng RNA (dla przykładu może to być 1µl cDNA, jeżeli do 20µl reakcji RT dodane było 1000ng RNA, bo 1000/20=50). Jeżeli nie jesteśmy pewni, czy w naszej próbce znajduje się mało czy dużo kopii amplifikowanego cDNA, możemy w niektórych przypadkach bardziej znanych organizmów posiłkować się profilami ekspresji genów, dostępnymi np.w bazie GEO lub TiGER. Warto pamiętać jeszcze o jednym szczególe: wiele genów posiada kilka izoform tego samego genu ( alternatywny splicing!). Dlatego przed wyrzuceniem starterów podejrzanych o niespecyficzna amplifikację sprawdźcie, czy dodatkowe produkty to nie warianty splicingowe! E. Program amplifikacji: czas i temperatura (szczególnie annealingu) mają znaczenie dla wydajności amplifikacji. Niestety tak jak w przypadku składników mieszaniny reakcyjnej, dla każdej matrycy idealne warunki amplifikacji trzeba wyznaczyć empirycznie. Generalnie programy PCR dzielimy na 2- i 3-etapowe. Dwuetapowe używane są zwykle w reakcjach qRT-PCR, ale nic nie stoi na przeszkodzie, by stosować je także w konwencjonalnym PCR. Wówczas naprzemiennie stosuje się temperaturę annealingu (zwykle ok. 60 stopni) i denaturację (94-95 stopni). Programy trójstopniowe pomiędzy annealingiem a denaturacją zawierają etap elongacji w optimum termicznym enzymu, ok. 72 stopni. Warto wspomnieć także o drugim kluczowym dla reakcji PCR elemencie: o denaturacji wstępnej, która w przypadku enzymów rekombinowanych typu HotStart jest niezbędna dla aktywacji polimerazy. Ten etap może być zasadniczo pominięty dla enzymów nierekombinowanych (stosuje się zwykle tylko krótką, np. 2-minutową denaturację w 94 stopniach). Dla enzymów HotStart programujemy cykler na dłuższą denaturację wstępną zgodnie z instrukcją producenta, zwykle na 5-15 minut w temperaturze 95 stopni. Oczywiście manipulowanie temperaturą nie wyczerpuje możliwości modyfikowania przebiegu reakcji. Możemy np. próbować wydłużać czas annaelingu i/lub elongacji. Bardzo skrajnym przykładem takiego postępowania jest tzw. rapid PCR. Ten wariant PCR polega na zerosekundowych (sic!), naprzemiennych etapach denaturacji (95-98 stopni) i annealingu (50-65 stopni) w namnażaniu krótkich (<100pz) amplikonów. W rezultacie cała reakcja PCR może trwać zaledwie kwadrans i dawać całkiem ładny profil amplifikacji! (drobna uwaga: większość zwykłych termocyklerów nie ma możliwości technicznych, by oscylować pomiędzy temperaturą 50 stopni i 98 stopni w odpowiednich interwałach czasowych, więc takie reakcje prowadzi się w termocyklerach do qRT-PCR) Kolejną ciekawą modyfikacją programu reakcji jest stosowanie tzw. „touchdown PCR„. Jest to ciekawa propozycja szczególnie dla osób, które chcą optymalizować multiplex PCR. Stosujemy go jeżeli: -mamy w mieszaninie reakcyjnej 2 pary starterów, z których jedna amplifikuje się preferencyjnie w wyższej temperaturze, a druga w niższej, -gdy dana para starterów tworzy pary primer-dimer -gdy w reakcji tworzą się oprócz produktu głównego także produkty niespecyficzne Tradycyjnie w tych przypadkach możemy wybierać w kwestii temperatury amplifikacji: albo amplifikujemy z gorszą wydajnością w wyższej temperaturze, albo godzimy się na niespecyficzną amplifikację/powstawanie dimerów starterów/nierówną amplifikację w multiplexie w niższej temperaturze. Wyjściem pośrednim, niejako kompromisem jest sztuczka z „opadającym PCR”. Idea jest prosta: z każdym cyklem temperatura annealingu obniża się o zadeklarowaną ilość stopni celcjusza. Wobec tego w początkowych cyklach amplifikacja jest gorsza (bo temperatura wyższa niż optimum), ale faworyzowany jest wyłącznie specyficzny produkt. W kolejnych cyklach warunki amplifikacji są coraz łagodniejsze, dążą do optimum, ale ilość specyficznego produktu wygenerowanego w pierwszych cyklach w wyższej temperaturze jest na tyle duża, że ma on przewagę amplifikacji nad wszelkimi „śmieciami”, które mogłyby z nim konkurować, o ile nie zostałby zastosowany „touchdown”. Tym samym pomagamy żądanemu amplikonowi „wybić się” w tłumie niespecyficznych produktów reakcji. Jeszcze inną, interesującą modyfikacją programu PCR jest „pomostowanie” annealingu i elongacji (tzw. „ramp-PCR„). Polega to w dużym skrócie na powolnym podwyższaniu temperatury annealingu do temperatury elongacji. Wówczas nie deklarujemy czasu trwania etapu annealingu, za to wyznaczamy jak „stromy” ma być pomost, np.możemy zastosować „ramp” od 56 stopni do 72 stopni ze wzrostem temperatury co 1 sekundę o 0,1 stopnia albo o wiele szybszy, jeżeli będziemy zwiększać temperaturę o 0,5 stopień. Parametr „ramp” wpisywany jest zwykle do programu termocyklera jako %. Co nam daje pomostowanie w PCR? Przede wszystkim może poprawić amplifikację specyficznego produktu, szczególnie dla primerów o bardzo różnej temperaturze annealingu. Są także matryce, które cechują się sekwencją repetytywną. Na takich sekwencjach polimeraza lubi się „jąkać”, „mieć czkawkę” lub „ślizgać się” (takie nazwy potoczne funkcjonują w różnych laboratoriach), tworząc niespecyficzne produkty o kilka par zasad mniejsze lub większe niż produkt główny. Jest to bolączką np. genotypowania polimorfizmu STR w kryminalistyce. Pomostowanie pomaga pozbyć się tych „zająknięć” (ang. „stuttter”), co jest kluczowe dla analiz sądowych. Poniżej przedstawiamy przykład takiego właśnie „zająknięcia”. Rycina 1: Zjawisko „stutter” powoduje tworzenie się małych ilości produktów niespecyficznych o obniżonej lub (rzadko) podwyższonej długości w stosunku do właściwego amplikonu. W tym przypadku jest to zanieczyszczenie o niewielkim znaczeniu, niedopracowana reakcja PCR może jednak spowodować „stutter” obciążający nawet o ponad 20% produkt amplifikacji! Źródło ryciny. Tym oto sposobem dobrnęliśmy do końca części trzeciej. W ostatnim odcinku zaprezentujemy chemiczne dodatki, które pomogą stopić trudne matryce, bogate w pary GC, podsumujemy też cały cykl artykułów. Dziś nie pozostaje mi już nic innego, jak życzyć Wam dalszych udanych optymalizacji. Piśmiennictwo: Doświadczenia własne Czy wirus Zika zapuka do naszych drzwi? Oczy ludzi z całego świata zwrócone są w kierunku Ameryki, gdzie z pozoru mało szkodliwy wirus Zika zbiera straszne żniwo wśród noworodków. Aktualna sytuacja to brak szczepionki przeciwko wirusowi. Brak jest także lekarstwa. Powaga problemu wywołała ogólnoświatowe poruszenie. Centers for Disease Control and Prevention (CDC) oraz Pan American Health Organization (PAHO) zareagowały natychmiast, wydając szereg zaleceń związanych m.in. z ograniczeniem populacji komarów przenoszących wirusa, kampaniami informacyjnymi, zaleceniami dla osób podróżujących, przyspieszyły także prace badawcze nad szczepionką oraz wydały oświadczenie o zdrowiu publicznym. Prasa wręcz wrze o skutkach zakażenia wirusem, a naukowcy i instytucje kontroli epidemiologicznych próbują znaleźć najszybsze i najskuteczniejsze rozwiązanie problemu. Stosunkowo mało wiemy o wirusie Zika w porównaniu do wiedzy na temat innych patogenów przenoszonych przez komary. Wiemy, że nie ma szczepionki ani skutecznych leków przeciwwirusowych. Wiemy, że możemy zapobiegać przez stosowanie repelentów i unikanie ukąszeń komarów. Gdzie występuje wirus? O wirusie wiemy już od 1947 roku, kiedy pojawił się w lasach tropikalnych Zika w Ugandzie pierwszy przypadek. Niemniej jednak, udokumentowana epidemia wybuchła dopiero w 2007 roku w Azji Południowej i regionie Pacyfiku. Począwszy od 2013 roku pojawiły się kolejne epidemie – we wschodnim rejonie Pacyfiku, obu Amerykach i Afryce [1]. Na chwilę obecną wirusa nie wykryto w Polsce, ale pojawiły się pierwsze przesłanki ku temu – podejrzenie o przenoszenie wirusa przez inne gatunki komarów czy możliwość zakażenia drogą płciową. Największym problemem jest tu mobilność ludzi. Znane są już pierwsze przypadki zakażeń w Europie – w Danii, Szwecji, Hiszpanii i Wielkiej Brytanii – u osób które podróżowały do zagrożonych terenów [2,3,4]. Jak może dojść do zakażenia? Głównym wektorem wirusa są komary Aedes, które przenoszą także wirusy chikungunya, dengi oraz żółtej febry. Wirus Zika przenoszony jest przede wszystkim przez Aedes aegipti oraz Aedes albopictus. Pierwszy gatunek występuje w klimacie tropikalnym i subtropikalnym, nie będąc w stanie przetrwać niższych temperatur, drugi wykazuje zdolność hibernacji w niskich temperaturach. Naturalny cykl transmisji wirusa obejmuje jednak większość gatunków z rodzaju Aedes (A. furcifer, A. taylori, A. luteocephalus oraz A. africanus ) [1, 8]. Naukowcy z Brock University w St. Catharines pracują nad określeniem czy powszechnie występujący rodzaj komarów Culex może przenosić wirusa Zika. Aktualnie jest zbyt mało badań, aby z całą pewnością to potwierdzić. Komar ten przenosi wiele arbowirusów, pokrewnych wirusowi Zika. Culex zwykle przenoszą wirusy, których gospodarzem pośrednim są ptaki, podczas gdy w przypadku wirusa Zika są to ludzie. Badacze z Oswaldo Cruz Foundation in Recife, Pernambuco State twierdzą, że transmisja dzięki komarom Culex jest możliwa i prowadzą dogłębne badania w tym kierunku [2]. Przenoszenie Zika przez Culex nie wydaje się nieprawdopodobne. Już wcześniej zaobserwowano adaptacyjne zmiany genetyczne wirusa, łącząc brak glikozylacji w pozycji N154 białka otoczki z przystosowaniem się do Aedes dalzieli jako wektora i idącym za tym zwiększeniem zakaźności [8]. Komary tak, ale nie tylko…. Odnotowano przypadki zakażenia wirusem Zika drogą płciową i poprzez preparaty krwiopochodne. Transmisja drogą płciową jest niezwykle rzadka. Dotychczas zgłoszono trzy takie przypadki. I. W 2008 roku biolog Brian D. Foy, prowadzący wraz z Kevinem Kobylinskim badania nad malarią w Senegalu, wrócił do Kolorado, zarażając wirusem swoją żonę. U obydwojga pojawiły się podobne objawy w postaci wysypki, zmęczenia i bólu głowy. Pobrano wówczas od chorych krew na badania w kierunku chorób typowych dla Afryki Zachodniej: malarii, dengi i gorączki krwotocznej. Wszystkie testy wyszły negatywnie. Ich krew zamrożono z myślą o przyszłości, ponieważ infekcja, którą przeszli pozostała niewyjaśniona. Rok później Kobylinski wrócił do Senegalu, gdzie inny naukowiec zasugerował mu wirus Zika jako przyczynę zachorowania [4, 7]. II. W 2013 roku wykryto za pomocą odwrotnej transkrypcji real-time PCR wykryto wysoki poziom wirusa Zika w nasieniu 44-letniego mieszkańca Tahiti. Nie wiadomo jak długo wirus pozostawał w jego ciele, ale utrzymywał się w nasieniu nawet wtedy, gdy nie był już wykrywany we krwi. Obecność wirusa stwierdzono także w moczu pacjenta [3, 4]. III. Na początku stycznia 2016 roku osoba podróżująca z Wenezueli do Teksasu zaraziła swojego partnera seksualnego [4]. Zakażenie wirusem Zika poprzez preparaty krwiopochodne jest niezmiernie rzadkie, ale nie jest już abstrakcją. Na problem zwrócono uwagę podczas wybuchu epidemii w Polinezji w 2013 roku. W marcu 2015 roku został zainfekowany mężczyzna, który otrzymał krew zakażonego dawcy. Natomiast w kwietniu tego samego roku, po wielokrotnych przetoczeniach krwi, zainfekowano osobę z ranami postrzałowymi [3,11]. Jakie są objawy zakażenia? Zakażenie zwykle przebiega łagodnie. Pierwsze objawy pojawiają się kilka dni po zainfekowaniu i trwają od 2 do 7 dni. Wśród symptomów zakażenia wirusem Zika wymienia się wysypkę, bóle mięśni i stawów, zapalenie spojówek, gorączkę i ogólne zmęczenie. Aż 80% zarażonych nie wykazuje żadnych objawów [1, 5]. Skoro choroba ma łagodny przebieg to czego się boimy….? Boimy się komplikacji choroby, powiązano bowiem wirusa Zika ze wzrostem ilości przypadków syndromu Guillain-Barré (system immunologiczny atakuje układ nerwowy) oraz mikrocefalią (wada rozwojowa charakteryzująca się nienaturalnie małymi wymiarami czaszki). Trwają badania w tym kierunku [1,5]. Wiadomo jednak, że liczba dzieci urodzonych z mikrocefalią wzrosła 20-krotnie, odkąd po raz pierwszy w maju 2015 roku pojawił się w Brazylii wirus Zika [6]. Nasuwa się więc pytanie: Skoro wirus jest w Brazylii to czy przykładowa Pani Kowalska może się zarazić i urodzić dziecko z mikrocefalią? Tak, nie, być może. Odpowiedź nie jest jednoznaczna. Jest wciąż zbyt dużo niewiadomych. Żeby doszło do zakażenia Pani Kowalskiej musiałby nastąpić wyjątkowo niekorzystny zbieg okoliczności lub owa Pani wykazywałaby wysoce ryzykowne zachowanie, podróżując na tereny endemiczne. Pozostaje jeszcze niewyjaśniona kwestia komarów Culex, potwierdzenie powiązania mikrocefalii z wirusem, transmisja przez krew czy stosunek płciowy. Jak wykryć czy jestem zakażony? Aktualnie nie ma żadnego komercyjnego testu na wirus Zika. W celu potwierdzenia infekcji pobiera się krew pacjenta w pierwszym tygodniu trwania infekcji i wysyła do specjalistycznych laboratoriów wykonujących badania metodami biologii molekularnej. Algorytm obejmujący sposób pobierania i badania próbek opisuje CDC w specjalnych zaleceniach. Krew na badania serologiczne metodą ELISA powinna zostać pobrana ≥4 dnia od wystąpienia objawów. Należy jednak pamiętać, że poziom specyficznego IgM może być niewykrywalny nawet po 7 dniach od zachorowania. Warto także zwrócić uwagę na pokrewieństwo z wirusem dengi czy gorączki krwotocznej, które może powodować wystąpienie reakcji krzyżowych. Pozytywne wyniki testu ELISA są potwierdzane testami neutralizacji [1,9]. Szczegółowe algorytmy postępowania można znaleźć tutaj. Jestem w wieku prokreacyjnym, planuję dziecko, jestem w ciąży, co mogę zrobić? CDC opracowało zalecenia dla kobiet ciężarnych. Algorytm jest dość skomplikowany. W przypadku, gdy kobiety przebywały na terenach, gdzie istniała możliwość zakażenia się wirusem Zika, powinny skonsultować się z lekarzem. Jeżeli podczas podróży lub do 2 tygodni po jej zakończeniu pojawiły się u nich objawy takie jak gorączka, wysypka, bóle stawów czy zapalenie spojówek, powinny mieć wykonane testy z krwi. W styczniu 2016 roku dodano zalecenie, że ciężarne asymptomatyczne wracające z niebezpiecznych terenów, powinny także zbadać się w czasie od 2 do 12 tygodni po powrocie. Ze względu na dużą ilość fałszywie pozytywnych wyników testów serologicznych oraz krótki okres na pobranie krwi po zainfekowaniu, sugeruje się wykonanie USG bez względu na uzyskany wynik testów krwi. Niektórym zaleca się amniocentezę z powodu ograniczeń ultrasonograficznych w pierwszych dwóch trymestrach ciąży w tym zakresie. Osobom planującym dziecko poleca się antykoncepcję do czasu opanowania sytuacji epidemiologicznej [4]. Jakie są kierunki badań mających na celu ograniczenie rozprzestrzeniania się wirusa? Przede wszystkim badania kierują się ku wektorom zakażenia. Od 2011 roku w Australii, Wietnamie, Indonezji, Brazylii i Kolumbii prowadzone są badania nad zastosowaniem bakterii znanej jako Wolbrachia w ramach programu Eliminate Dengue. Naukowcy przetransferowali bakterię do komarów Aedes aegypti, co znacznie zmniejszyło zdolność owadów do przenoszenia dengi. Test skuteczności metody przeprowadzono w 2014 roku w Townsville w stanie Queensland. Odniesiono niebywały sukces – w ciągu kilku miesięcy doszło do znacznego spadku zachorowalności na dengę. W związku z bliskim pokrewieństwem wirusa dengi i Zika, upatruje się możliwości wykorzystania Wolbrachia także na terenach endemicznych wirusa Zika [10, 12]. Oxitec wraz z Piracicaba City Hall opracowali projekt kontroli populacji komarów A.aegypti. W kwietniu 2015 roku uwolniono samoograniczającą się populację komarów, których potomstwo nie przeżywa. Pod koniec 2015 roku uzyskano zmniejszenie ilości larw komarów o 82%. W Brazylii, Panamie i na Kajmanach przeprowadzono badania kliniczne genetycznie zmodyfikowanych komarów. Uzyskano ponad 90% supresję dzikich A.aegypti [13]. W III fazę badań klinicznych wkracza także szczepionka przeciw wirusowi dengi. Być może bliskie pokrewieństwo patogenów pozwoli na sprawne opracowanie szczepionki także przeciw wirusowi Zika [14]. Algorytm optymalizacji PCR Należy pamiętać, że sprawy epidemiologiczne nie mają miejsca w izolacji, tylko i wyłącznie w jednym punkcie. W obecnych czasach infekcje z najodleglejszych zakątków świata mogą zapukać do naszych drzwi. mgr Agnieszka Helis, diagnosta laboratoryjny Piśmiennictwo: 1.WHO. Zika virus: Questions and answers. WHO, 20 Jan 2016. 2.CBC News. Canadian mosquito spread of Zika untested.CBC, 29 Jan 2016. 3.Musso D. et al. Potential sexual transmission of Zika virus. Emerg Infect dis, 2015, 21,2: 359-361. 4.Oster AM. et al. Interim Guidelines for Prevention of Sexual Transmission of Zika Virus — United States, 2016. MMWR, 2016; 65, 5: 1-2. 5.Emory University. Zika virus ‚a game-changer’ for mosquito-borne diseases. ScienceDaily. 26 Jan 2016. 6.Bogoch II. et al.Anticipating the international spread of Zika virus from Brazil. Lancet, 2016; 387,10016: 335-336. 7.Foy BD. et al. Probable Non–Vector-borne Transmission of Zika Virus, Colorado, USA. Emerg Infect Dis, 2011; 17, 5: 880–882. 8.Faye O. et al. Molecular Evolution of Zika Virus during Its Emergence in the 20th Century. PLoS Negl Trop Dis, 2014; 8, 1: e2636. 9.CDC. Revised diagnostic testing for Zika, chikungunya, and dengue viruses in US Public Health Laboratories. CDC, Division of Vector-Borne Diseases, 7 Feb 2016. 10.Lambrechts L. et al. Assessing the epidemiological effect of wolbachia for dengue control. Lancet, 2015; 15,7: 862-866. 11.Schnirring L. Brazil confirms blood-transfusion Zika; PAHO calls for global support. CIDRAP News, 4 Feb 2016. 12.Program Eliminate Dengue 13.Creese C. Expansion of Oxitec’s Vector Control Solution in Brazil Attacking Source of Zika Virus and Dengue Fever after Positive Program Results. Oxitec, 19 Jan 2016. 14.Butantan Institute. Phase III Trial to Evaluate Efficacy and Safety of a Tetravalent Dengue Vaccine, 14 Jan 2016.