Mitochondrialne tRNA w chorobach nowotworowych,Wyniki

Transkrypt

Mitochondrialne tRNA w chorobach nowotworowych,Wyniki
Poradnik: Optymalizacja reakcji
PCR – algorytm postępowania
Jak przeprowadzić „optymalizację” reakcji PCR? Co zmienić w metodyce,
by pozbyć się produktów niespecyficznych? Jak poprawić plon reakcji? Od
czego zacząć? Czego unikać?
Proponujemy algorytm postępowania, który pozwoli na szybką i bezbolesną
poprawę wyników waszych reakcji PCR.
Schemat optymalizacji
A. Zawsze po zamówieniu nowych starterów PCR zaczynamy od
nastawienia próbnej reakcji– od jej wyniku będzie zależało dalsze
postępowanie. Musimy znać temperaturę annealingu starterów (albo obliczoną
teoretycznie, albo używaną przez inne grupy badawcze, jeżeli nasze startery są
zamówione na podstawie już publikacji).
Jeżeli korzystaliśmy wcześniej z danego zestawu do PCR, mamy już jakiś
działający program amplifikacji i ustalone proporcje reagentów -wykorzystajmy je
teraz. Jeżeli jesteśmy nieobeznani z zestawem, przeczytajmy ulotkę i na jej
podstawie obliczmy ilości odczynników.
Zwykle musimy w końcowej objętości mieć:
* bufor 1x stężony
* dNTP 200μM
* MgCl2 1-2,5mM
* startery po 200nM
* polimerazę ok. 0,5-1U
* matrycę: DNA w ilości 25-50 ng lub cDNA uzyskane z ok. 50-100ng RNA
* wodę DEPC, którą uzupełniamy objętość reakcji.
(nie podajemy tutaj konkretnych objętości, ponieważ zależnie od zastosowanego
zestawu PCR będą one różne, w instrukcji do zestawu jest jednak zwykle
wyszczególniony przepis w mikrolitrach)
B. Jeżeli nie mamy ustalonego programu PCR, zastosujmy najprostszy,
obejmujący :
*5 minut denaturacji w 94 stopniach (jeżeli polimeraza nie jest typu HotStart) lub
10 minut w 95 stopniach (dla enzymu HotStart)
*30 cykli: (30 sekund denaturacji+ 30 sekund annealingu w temperaturze zależnej
od pary starterów + 30 sekund elongacji)
*2 minuty elongacji końcowej.
C. Po skończonej reakcji pobieramy 5ul, dodajemy obciążnik do
elektroforezy i rozdzielamy na żelu agarozowym. Nie zapomnijmy rozdzielić
produktu wobec markera mas, by móc zorientować się, czy otrzymany prążek jest
tym, czego oczekiwaliśmy.
W zależności od tego, czy otrzymamy prążek na żelu, postępujmy dalej zgodnie z
poniższym algorytmem
By uniknąć frustracji i niepotrzebnego „kręcenia się w kółko” podczas
wprowadzania nowej metodyki opartej na reakcji PCR powinniśmy mieć jasny
plan działania i przestrzegać kilku prostych zasad.
1. Stosujmy się do reguły małych kroków. Dążymy w pierwszej kolejności do
otrzymania jakiegokolwiek śladu produktu, następnie powoli dopracowujmy
reakcję korzystając po kolei ze wszelkich dostępnych metod i odczynników.
Czasami od razu uda nam się trafić w idealne warunki, a czasem trzeba będzie
dochodzić do nich dłużej.
2. Zapisujmy wszystkie żele, nawet te najbrzydsze. Sporządzajmy notatki
dotyczące warunków reakcji i kolejnych rund optymalizacji. Moim zdaniem
najlepsza metoda na takie notatki to zapisywanie bezpośrednio na elektronicznym
zdjęciu żelu warunków, w jakich reakcja została wykonana. Czyli: kiedy ją
wykonano, na jakim sprzęcie, na jakim zestawie do PCR (jeśli mamy kilka).
Zapiszmy program PCR lub chociażby temperaturę annealingu oraz koniecznie
stężenie magnezu. Jeżeli używaliśmy dodatków (np. DMSO) także nie zapomnijmy
tego napisać.
3. Zanim zabierzemy się do nastawiania PCR zweryfikujmy stężenia naszych
reagentów, ich termin ważności oraz (TO BARDZO ISTOTNE!) sprawdźmy
sekwencje naszych starterów. Jeżeli pomyliliśmy się podczas zamawiania,
zweryfikowanie tego drobnego szczegółu oszczędzi nam tygodni frustracji.
4. Jeśli jakaś metoda „nie chodzi” mimo wszystkich naszych działań, nie
wypruwajmy sobie żył. Spróbujmy zmienić startery albo zestaw do PCR.
Alternatywą jest poproszenie współpracownika o pomoc. Bywa że to pomaga
D. Bogatsi o tę wiedzę możemy zacząć optymalizację. Spójrzcie na
powyższy prosty schemat blokowy, którym możecie się posłużyć przy
wprowadzaniu większości nowych reakcji.
Podstawowym narzędziem pracy podczas optymalizacji jest gradient termiczny i
gradient magnezu. Pozwalają one na wykonanie dokładnie tej samej reakcji w
szeregu różnych temperatur i stężeń magnezu.
Wykonanie gradientu temperatury jest możliwe na nowszych termocyklerach.
Potrafią one nagrzać blok grzewczy tak, by w kolejnych rzędach dołków
temperatura stopniowo wzrastała. Żeby uzyskać jednolite warunki PCR w każdej
próbówce, musimy przygotować wspólną mieszaninę reakcyjną zawierającą
wszystkie składniki, a potem rozporcjować ją na pojedyncze próbówki.
Polecam wykonać na początku dość „szeroki” gradient, np. co 2 stopnie celcjusza
zaczynając od temperatury dużo niższej od temperatury obliczonej jako
optymalna (np. 0d ok. 50 stopni celcjusza przy optymalnej ok. 60), kończąc na
temperaturze wyższej niż obliczona optymalna (np. 62 w naszym przykładzie).
Jeżeli taki gradient da odpowiedź, w której temperaturze produkt jest najlepiej
widoczny, możemy wykonać drugi PCR gradientowy w węższym zakresie
temperatur, np. co ok. 1 stopień celcjusza wokół wcześniej wytypowanej przez nas
optymalnej temperatury.
E. Zwykle po pierwszej lub drugiej reakcji PCR otrzymujemy jakiś ślad
pożądanego produktu, nawet jeśli jest on słaby i nawet jeśli są obecne produkty
niespecyficzne. Po dokonaniu wyboru optymalnej temperatury, wykonujemy
gradient magnezu. Przygotowujemy kilka próbówek PCR z różnymi stężeniami
magnezu. Może to być trudne dla początkującego, proponuję więc poradzić się
osoby bardziej doświadczonej, jeżeli mamy z tym problem. W próbówce nr 1
przygotujmy stężenie, które po dodaniu do MIXu da nam 0,5mM, w próbówce 2:
1mM, w próbówce 3 : 1,5mM itd. aż do 3,5mM ((instrukcja znajduje się u dou
strony). Wykonujemy wspólny mix reakcyjny podobnie jak przy gradiencie
temperatury, ale bez dodatku magnezu. Pipetujemy mieszaninę do osobnych
próbówek, a potem dodajemy odpowiednio stężony magnez, osobno do każdej z
próbówek.
F. Po wykonaniu reakcji w gradiencie magnezu i rozdziale agarozowym
produktów w 3/4 przypadków udaje nam się uzyskać w miarę czysty i
dobrze widoczny produkt. W pozostałych przypadkach musimy wrócić do
gradientu temperatury z już wybranym optymalnym stężeniem magnezu (o ile uda
nam się takie wybrać).
Jeżeli nie liczymy się z kosztami, możemy wykonać jednocześnie gradient 2D na
płytce 96-dołkowej (w wymiarze szerszym gradient termiczny, w węższymmagnezu). Przeprowadzenie kolejne obu gradientów jest tańsze, ale bardziej
czasochłonne niż wykonanie podwójnego gradientu.
Jeżeli nie otrzymaliśmy w ogóle żadnego produktu, wykonajmy na użytych
do optymalizacji odczynnikach inną reakcję PCR, o której wiemy że działa.
Jeśli okaże się że równieżnie otrzymamy produktu, musimy zmienić zestaw
do PCR, w przeciwnym razie dalej zmagamy się z optymalizacją na tych
samych odczynnikach- możemy dodać więcej starterów lub więcej dNTP. O
tym jak modyfikować te parametry i jak połaczyć kilka reakcji PCR w
multiplex, przeczytacie w części III naszego opracowania.
Jeżeli nie otrzymujemy produktu, możemy także dodać któregoś z
dodatków do trudnych matryc (DMSO, betaina, DTT, albumina). O tym jak
z nich korzystać- dowiemy się w części IV niniejszego cyklu artykułów.
Życzymy samych udanych optymalizacji!
*Krótka instrukcja wykonania gradientu (przykład dla reakcji o całkowitej
objętości 25μl):
Dodatek 3,5μl MgCl2 o standardowym stężeniu 25mM na 25μl całkowitej
objętości reakcji daje nam finalne stężenie po sporządzeniu MIXu 3,5mM MgCl2.
Żeby przygotować stężenia odpowiednio mniejsze w tej samej objętości 3,5μl,
wystarczy odmierzyć odpowiednio mniej magnezu i uzupełnić wodą do 3,5μl. Tak
więc żeby otrzymać:
* 0,5mM końcowej reakcji dodajmy 0,5 μl MgCl2 + 3μl H20
* 1mM : 1μl MgCl2 + 2,5μl H20,
* 1,5mM: 1,5μl MgCl2 + 2μl H20
*2mM: 2μl MgCl2 + 1,5μl H20
*2,5mM: 2,5μl MgCl2 + 1μl H20
*3mM: 3μl MgCl2 + 0,5μl H20
Osobno mix reakcyjny na 7 próbówek przygotowujemy bez magnezu o objętości
3,5μl, który mamy sporządzony zgodnie z powyższą instrukcją w 7 osobnych
próbówkach. Mix dobrze mieszamy i dozujemy po 21,5μl do gotowych stężeń
magnezu.
Można oczywiście sporządzić większą objętość magnezu na więcej reakcji
gradientowych (np. mnożąc objętości z powyższego przepisu x10) i odmierzać po
3,5μl gdy najdzie nas taka potrzeba.
Piśmiennictwo:
Doświadczenia własne
Mitochondrialne
tRNA
chorobach nowotworowych
w
Mitochondria jako autonomiczne organella występujące w komórkach
eukariotycznych są bardzo interesującym obiektem badań. Pierwsze prace,
w których pokazano, że zaburzenia pracy mitochondriów mogą być
podstawą do występowania różnych chorób, opublikowano w latach 60. Od
tego czasu ukazało się wiele publikacji wskazujących na korelację między
mutacjami w mitochondrialnym DNA a występowaniem chorób
mitochondrialnych. Jednak mitochondria i występujące w nich mutacje
można wiązać nie tylko z chorobami mitochondrialnymi. Publikowane są
doniesienia prezentujące pojawianie się mutacji w mitochondrialnym DNA
w powiązaniu z występowaniem chorób nowotworowych. Jednym z takich
przypadków są mutacje punktowe występujące w genach
mitochondrialnych tRNA.
Mitochondria ze względu na swoją budowę, funkcje i pochodzenie są dość
szczególną częścią komórki. To miejsce, gdzie w wyniku procesu oddychania
komórkowego powstaje adenozynotrifosforan (ATP), będący źródłem energii dla
komórki. Są szczególne również ze względu na swoją autonomię, która wynika z
posiadania własnego genomu z niezależnym mechanizmem transkrypcji i
translacji. Poza mitochondriami podobną autonomią cieszą się występujące u
roślin chloroplasty. Jak już wspomniano mitochondria posiadają własny genom.
Występuje w nich DNA, w postaci kolistej cząsteczki, w którym zapisany jest
genom mitochondrialny. U ludzi genom ten składa się z 16569 par zasad (tzw.
sekwencja Cambridge , ang. the Cambridge reference sequence – CRS). Można w
nim wyróżnić geny kodujące trzynaście białek niezbędnych do przetwarzania
energii (cytochrom c, ATPaza 6, cytochrom b), geny podjednostek 12S i 16S rRNA
i dwudziestu dwóch cząsteczek tRNA niezbędnych do syntezy wspomnianych już
białek [1, 2]. Mitochondrialne tRNA można podzielić na dwie grupy, związane z
umiejscowieniem genów odpowiedzialnych za sekwencje mt tRNA na niciach mt
DNA: ciężką (heavy) i lekką (light). Pierwszą z tych grup tworzy osiem
mitochodrialnych tRNA (Heavy (nić light): tRNA(Pro) (16023-15955), tRNA(Glu)
(9990-10058), tRNA(Ser(UCN)) (7516-7445), tRNA(Tyr) (5891-5825), tRNA(Cys)
(5826-5861), tRNA(Asn) (5729-5656), tRNA(Ala) (5655-5587), tRNA(Gln)
(4400-4329)), a drugą czternaście cząsteczek. (Light (nić Heavy): tRNA(Phe)
(576-647), tRNA(Val) (1602-1670), tRNA(Leu(UUR)) (3229-3304), tRNA(Ile)
(4262-4331), tRNA(Met) (4401-4469), tRNA(Trp) (5511-5579), tRNA(Asp)
(7518-7585), tRNA(Lys) (8295-8364), tRNA(Arg) (10405-10469), tRNA(His)
(12138-12206), tRNA(Ser(AGY)) (12207-12265), tRNA(Leu(CUN)) (12266-12236),
tRNA(Glu) (14742-14674), tRNA(Thr) (15888-15953))
Najważniejszą funkcją tRNA jest udział w procesie biosyntezy białka.
Reakcja przyłączenia swoistego aminokwasu do tRNA jest katalizowana przez
syntetazy aminoacylo-tRNA, które rozpoznają strukturalnie podobne specyficzne
tRNA. Proces ten ma wielkie znaczenie dla prawidłowego funkcjonowania
mechanizmu biosyntezy białka. Jest to dwuetapowa reakcja podczas której, w
trakcie pierwszego etapu następuje aktywacja aminokwasu (AA) przez syntetazę
(AARS) i ATP, powstaje aminoacyloadenylan. W drugim etapie reakcji aminokwas
zostaje przeniesiony na cząsteczkę odpowiedniego tRNA. Podstawą doboru tRNA,
w celu przeniesienia na tę cząsteczkę aminokwasu, jest stworzenie specyficznego
kompleksu między syntetazą aminoacylo-tRNA a cząsteczką tRNA.
Najważniejszymi czynnikami decydującymi o swoistości tego procesu są:
rozpoznawanie i identyczność tRNA. Z tego powodu bardzo ważną rolę ogrywa
budowa tRNA. Rozpoznawanie oznacza identyfikację danego tRNA przez
odpowiednią syntetazę przy wykorzystaniu w tym celu specyficznych elementów
strukturalnych tRNA (ang. recognition elements). Natomiast identyczność tRNA
dotyczy tych elementów kwasu nukleinowego, które są rozpoznawane przez
odpowiednią syntetazę i zarazem są to cechy strukturalne uniemożliwiające
rozpoznanie tRNA przez niehomologiczna syntetazę (ang. discrimination
elements).
Warto więc przyjrzeć się budowie tRNA, a szczególnie mitochondrialnych tRNA.
Budowa cytoplazmatycznych tRNA została stosunkowo nieźle poznana i jest
obiektem licznych prac badawczych. Drugorzędowa struktura tRNA została
opisana w 1965 roku przez Holley’a, dla drożdżowego tRNA alaninowego
(tRNA(Ala)) Model ten przedstawiany jako „liść koniczyny” opiera się na zdolności
tworzenia się wewnątrz cząsteczkowych par zasad według reguł Watsona-Cricka.
Przewidują one, że wszystkie tRNA posiadają 4 jednoniciowe regiony zwane
pętlami, które razem z sąsiadującymi regionami spiralnymi tworzą struktury
zwane ramionami. Licząc od końca 5’ do 3’ wyróżnia się: ramię dihdrourydynowe
(D), ramię antykodonowe (A), posiadające jedynie pętlę ramię dodatkowe
nazywane również zmiennym (V – ang.: variable), ramię psedourydynowe (TΨC),
oraz ramię akceptorowe (AA), nie posiadające pętli [3].
Ryc. 1 Schemat struktury drugorzędowej cytoplazmatycznego, drożdżowego
tRNA(Phe). Kolorem zielonym zaznaczone są miejsca istotne do rozpoznania
tRNA(Phe) przez PheRS. Po lewej struktura drugorzędowa w klasycznym
schemacie „liścia koniczyny”, po prawej przedstawienie tRNA w układzie
zbliżonym do przestrzennego w kształcie litery „L”. Opracowanie własne.
Drożdżowy tRNA(Phe) jest złożony z 76 nukletydów. Siedem par tworzy ramię
akceptorowe. Dwa kolejne nukleotydy (8 i 9) licząc od końca 5’ w kierunku 3’
tworzą połączenie (łącznik) między ramieniem akceptorowym i ramieniem D,
które składa się z dwóch regionów: spiralnego (dupleksu) zbudowanego z
czterech par nukleotydów oraz pętli w skład której wchodzi 8 nukleotydów.
Nukleotyd w pozycji 26 łączy ramie D z ramieniem antykodonu złożonego również
zbudowanego z 5 par nukleotydów i pętli zawierającej 7 nukleotydów. Kolejnym
elementem tworzącym fenyloalaninowy tRNA jest ramię dodatkowe w postaci
pętli złożonej z 5 nukleotydów. Kolejne z ramion tego tRNA, ramię
pseudourydynowe jest złożone z dwóch regionów: dupleksu – 5 par nukleotydów i
pętli – 7 nukleotydów.
W przypadku innych tRNA możliwe są pewne różnice w budowie cząsteczki
najczęściej widoczne w pętli ramienia D (dodatkowe cztery nukleotydy), oraz w
ramieniu dodatkowym (poza pięcioma występującymi zasadniczo, możliwych jest
jeszcze dziewiętnaście nukleotydów), w efekcie liczba nukleotydów nie jest
identyczna we wszystkich izoakceptorach.
Innego rodzaju zaburzeniami w drugorzędowej strukturze tRNA jest
występowanie par nukleotydów niezgodnych z regułami Watsona-Cricka,
przykładem mogą być pary takie jak U•U, A•A, C•U [4].
Struktura trzeciorzędowa tRNA spełnia ważną role w rozpoznawaniu
transferowych RNA przez syntetazę aminoacylo-tRNA.
Prawidłowa budowa cząsteczki pozwala, bowiem syntetazie natrafić na zestaw
elementów niezbędnych do prawidłowego rozpoznania tRNA. Bardzo dokładny
opis budowy tRNA można znaleźć dla drożdżowego tRNA(Phe), którego budowa
została opisana na podstawie różnych badań, w tym również badań
krystalograficznych.
Struktura trzeciorzędowa tRNA(Phe) drożdży, przypomina swoim kształtem literę
„L”. Drugorzędowa struktura tej cząsteczki jest zwinięta tak, że ramiona:
akceptorowe i TΨC tworzą jedno z ramion litery „L”, a antykodon i ramie D drugie
z ramion. Każde ramię ma około 60Å, a średnica około 20 Å. Przeciwległych
końców tRNA o kształcie litery „L” wynosi 80 Å. Kąty między osiami ramion
wynoszą: akceptorowego i TΨC – 15°, a między o D i antykodonu 25°. Między
dwiema częściami cząsteczki tworzącej kształt litery „L” – 90°. Struktura
trzeciorzędowa jest utrzymywana przez szereg oddziaływań występujących
między poszczególnymi nukloetydami. Są to oddziaływania międzycząsteczkowe
(jony magnezu, cząsteczki wody, poliaminy), oraz wewnątrzcząsteczkowe
(wiązania wodorowe, asocjacja warstwowa zasad, energia konformacyjna
cząsteczki). Jako miejsca występowania trzeciorzędowych interakcji należy
wymienić pozycje: 8-14-21; 9-23-12; 25-10-45; 13-22-46; 15-48; 18-55; 19-56;
26-44; 54-58 [5]. Stabilizujący wpływ na strukturę tRNA spełniają chemiczne
modyfikacje nukleozydów. W strukturze wprowadzane są po trankskrypcji tRNA,
na etapie dojrzewania pre-tRNA. Kolejność wystąpienia modyfikacji, zależy od
struktury pre-tRNA w określonym etapie dojrzewania oraz od lokalizacji w
komórce enzymów modyfikujących [6].
Dwadzieścia dwa mitochondrialne tRNA tworzą typową dla tRNA strukturę
drugorzędową. Istnieją jednak wśród nich dwa wyjątki. Są dwa izoakceptory
serynowe: tRNA o antykodonie AGY a drugi UCN. Pozostałe mitochondrialne
tRNA posiadają typową budowę drugorzędową, zasadniczo porównywalną z tRNA
cytoplazmatycznymi. Szczególną cechą mitochondrialnego tRNA(Ser(UCN)) jest
dłuższe o jedną parę nukleotydową ramię antykodonu. Drugą wyraźną różnicą w
stosunku do innych tRNA serynowych jest brak długiego ramienia dodatkowego,
które jest jednym z elementów pozwalających na identyfikację tego izoakceptora
przez aminoacylosyntetazę serynową [7]. Cząsteczka mitochondrialnego
tRNA(Ser(UCN)) została poddana badaniom z użyciem sond enzymatycznych i
chemicznych [8], przeprowadzono też komputerowe modelowanie struktury
przestrzennej [9]. Przedstawiono model w którym występują oddziaływania
trzeciorzędowe między pętlami D i T (Ψ55-G18, C56-G19), oraz w pętli T (T54A58).
Ryc.
2
Schemat struktury drugorzędowej wołowego mt tRNA(Ser(UCN)), czerwone linie
pokazują proponowany model wiązań trzeciorzędowych opisany w literaturze.
Opracowanie własne.
Pierwsze badania, w efekcie których pokazano, że zaburzenia pracy
mitochondriów mogą być podstawą do występowania różnych chorób,
przeprowadzono w latach 60. W 1988 roku opublikowano wyniki wskazujące
mutacje w mitochondrialnym DNA, jako odpowiedzialną za występowanie jednej z
chorób mitochondrialnych – zespołu Lebera. Od tego czasu ukazało się wiele
publikacji wskazujących na korelację między mutacjami w mitochondrialnym DNA
a występowaniem chorób mitochondrialnych.
Efekty chorób mitochondrialnych prowadzą do zaburzeń w działaniu wielu
układów i narządów w organizmie, objawiających się problemami z
wytworzeniem energii koniecznej do prawidłowego funkcjonowania narządów i
układów.
Szczególnie jest to odczuwalne w układzie nerwowym i mięśniowym, ale może też
być przyczyną zaburzeń działania wątroby, nerek, czy trzustki. Trzeba też,
zwrócić uwagę, że na występowanie chorób mitochondrialnych mogą mieć wpływ
nie tylko mutacje występujące w mt DNA, ale też występujące w genach
jądrowych, które mają wpływ na białka mitochondrialne, kodowane w jądrowym
DNA.
Liczne mutacje punktowe występujące w genach mt tRNA są związane z
chorobami mitochondrialnymi.
Do porównania wybrano 68 mutacji powiązanych z chorobami mitochondrialnymi
i 64 mutacje polimorficzne, neutralne z punktu widzenia chorób powiązanych z
mitochondriami. Statystyczna analiza tych mutacji pokazała, że wszystkie domeny
mitochondrialnych tRNA są tak samo wrażliwe na oba typy mutacji [10].
Największą liczbę zmian niesie w sobie tRNA(Leu(UUR)), dla którego można
przytoczyć co najmniej 16 mutacji powiązanych z różnymi chorobami czy
syndromami chorób mitochondrialnych, których przykładem może być MELAS
[11]. Efektem mutacji punktowych są zmiany w sekwencji nukleotydowej tRNA,
które mogą mieć wpływ na strukturę tRNA. Z 12 teoretycznie możliwych
konwersji par WC do pojedynczych niesparowań dominują cztery: A-C, C-A, G-U, i
U-G. Ponad 30% wszystkich mutacji związanych z różnymi chorobami i
syndromami chorobowymi zawiera niesparowania C-A, w strukturze
drugorzędowej tRNA. Występowanie pojedynczych niesparowań ma wpływ na
trzeciorzędową strukturę tRNA [10]. Kluczem procesu biosyntezy białka jest
proces aminoacylacji transferowych RNA. Wszelkie zaburzenia tego procesu mają
wpływ na proces wytwarzania białka a więc są też przyczyną występowania
chorób mitochondrialnych, w przypadku defektów w mt tRNA.
Innym aspektem związanym z badaniami mutacji w genomie mitochondrialnym
jest ich występowanie nie tylko w chorobach mitochondrialnych, ale również
nowotworowych [12].
Zaobserwowano również korelacje chorób nowotworowych z mutacjami
punktowymi w genach kodujących mitochonrialne tRNA. W przypadku raka płuc
taka korelacja dotyczyła mutacji A7460G w tRNA(Ser(UCN)), G5563A w
tRNA(Trp) oraz A12172G w tRNA(His) [13].
Pierwsza z nich to A7460G w tRNA(Ser(UCN)). Mutacja ta znajduje się w pętli T,
w bezpośrednim sąsiedztwie miejsca potencjalnych oddziaływań trzeciorzędowych
jakie tworzy para 54-58. Jednak przeprowadzone badania z wykorzystaniem RNA
Fold Web Server (program z tzw. pakietu wiedeńskiego, gdzie podstawą
modelowania struktury drugorzędowej są wartości energii swobodnych dla
konformacji badanego RNA [14, 15]) pozwalających przewidywać strukturę
drugorzędową nie wykazują szczególnych zmian w strukturze tRNA. Należy też
dodać, że mutacja ta nie jest wymieniania w żaden sposób w odniesieniu do
chorób mitochondrialnych.
Ryc. 3 Schemat tRNA(Ser(UCN) z mitochondriów człowieka z zaznaczonym
miejscem występowania mutacji A7460G (U59C). Opracowanie własne.
Kolejnym opisywanym przypadkiem jest mutacja G5563A w tRNA(Trp). Jest to
mutacja, którą opisuje się jako polimorficzną w przypadku chorób
mitochondrialnych [16]. Również w tym przypadku próby modelowania struktury
drugorzędowej nie wskazują na poważniejsze zmiany w strukturze tRNA.
Ryc. 4 Schemat mt tRNA(Trp) z zaznaczonym miejscem występowania
mutacji G5563A. Opracowanie własne.
Ostatnią z trzech mutacji, jakie zaobserwowano w powiązaniu z rakiem płuc jest
A12172G w tRNA(His). Miejsce to jest zauważalne w odniesieniu do chorób
mitochondrialnych. Mutacja ta była uznawana za polimorficzną, jednak obecnie
jest określana jako potencjalnie patogenna. W jej przypadku różnice wartości
energii swobodnej pomiędzy mutantem i cząsteczka pozbawioną mutacji wskazują
na występowanie alternatywnych struktur, których nie będą w stanie
ustabilizować zmodyfikowane nukleotydy. W efekcie utrudniony bądź niemożliwy
staje się proces tworzenia kompleksu pomiędzy tRNA i odpowiednią dla niego
syntetazę a w konsekwencji ma to negatywny wpływ na proces biosyntezy białka.
Podobne mechanizmy były opisywane w przypadku mutacji związanych z
chorobami mitochondrialnymi na przykład w mt tRNA(Leu(UUR)). W przypadku
mutantów tego tRNA obserwowano rozluźnienie struktury pomiędzy pętlami
antykodonu i D [17, 18].
Ryc. 5 Schemat mt tRNA(His) z zaznaczonym miejscem występowania mutacji
A12172G. Opracowanie własne.
Warto wspomnieć o jeszcze jednej mutacji w mitochondrialnym tRNA, jaką można
powiązać z chorobami nowotworowymi. Jest to mutacja punktowa A12308G w
tRNA(Leu(CUN)), której występowanie zostało powiązane z rakiem jelita grubego
(CRC) [19].
Ryc. 6 Schemat mt tRNA(Leu(CUN) z zaznaczonym miejscem występowania
mutacji A12308G. Opracowanie własne.
Mutacja A12308G dotyczy pozycji 44 w ramieniu antykodonu jednocześnie w
sąsiedztwie ramienia zmiennego. Warto zwrócić uwagę na to, że jest to miejsce
biorące udział w jednym z potencjalnych wiązań trzeciorzędowych. Ponadto
sąsiednie nukleotydy z ramienia zmiennego również są miejscami potencjalnych
wiązań trzeciorzędowych. Tak więc możliwe jest tu dość poważne rozluźnienie
struktury trzeciorzędowej, co może mieć wpływ na proces rozpoznawania tRNA
przez odpowiednią syntetazę. Mutacja A12308G skorelowana jest również z
występowaniem zespołu przewlekłej postępującej zewnętrznej oftalmoplegii (ang.
Chronic progressive external ophthalmoplegia, CPEO) – jednej z chorób
mitochondrialnych [20].
Algorytm optymalizacji PCR
Mutacje w mitochondrialnych tRNA były dotychczas kojarzone głównie z
chorobami mitochondrialnymi lub tymi, które występuje w obrębie układu
nerwowego. Jak widać z powyższych przykładów mogą również być
odnotowywane w chorobach nowotworowych. Prezentuje to skomplikowany
mechanizm związany z chorobami nowotworowymi i jednocześnie pokazuje, że
mutacje w mitochondrialnym DNA mogą być spotykane nie tylko w wąskiej grupie
chorób mitochondrialnych. Jednak aby dokładnie ustalić rolę jaką w chorobach
nowotworowych mogą pełnić mutacje w genach mt tRNA potrzeba jeszcze wielu
kolejnych prac badawczych.
Piśmiennictwo:
1. Anderson S. et al. Sequence and organization of the human mitochondrial
genome. Nature, 1981; 290: 457-465.
2. Andrews RM. et al. Reanalysis and revision of the Cambridge reference
sequence for human mitochondrial DNA. Nat Genet, 1999 23: 147.
3. Holley RW. et al. Structure of a Ribonucleic Acid. Science, 1965; 147:
1462-1465.
4. Grosjean H. et al. Structure in tRNA data. Biochimie. 1982; 64, 6: 387-397.
5. Helm M. et al. Search for characteristic structural features of mammalian
mitochondrial tRNAs. RNA 2000.
6, 10:1356-1379. 6. Machnicka MA. et al. Distribution and frequencies of posttranscriptional modifications in tRNAs. RNA Biol. 2014; 11, 12:1619-1629.
7. Siatecka M. et al. Struktura i funkcja syntetaz aminoacylo-tRNA. Postepy
Biochem. 1993; 41, 4: 266-275.
8. Yokogawa T. et al. A novel cloverleaf structure found in mammalian
mitochondrial tRNA(Ser) (UCN). Nucleic Acids Res. 1991; 19: 6101-6105
9. Watanabe Y, et al. Higher-order structure of bovine mitochondrial
tRNA(SerUGA): chemical modification and computer modeling. Nucleic Acids Res.
1994; 22: 5378-5384.
10. Florentz C. et al. Disease-related versus polymorphic mutations in human
mitochondrial tRNAs. Where is the difference? EMBO Reports 2001; 21: 481-486.
11. Goto Y. et al. A new point mutation at nucleotide pair 3291 of the
mitochondrial tRNA(Leu(UUR)) gene in a patient with mitochondrial myopathy,
encephalopathy, lactic acidosis, and stroke-like episodes (MELAS). Biochem
Biophys Res Commun 1994; 202: 1624-1630.
12. Księżakowska-Łakoma K. et al. Mitochondrial dysfunction in cancer. Prz
Menopauzalny. 2014; 13, 2: 136-144.
13. Wang L. et al. The role of mitochondrial tRNA mutations in lung cancer. Int J
Clin Exp Med 2015; 8, 8: 13341-13346.
14. Hofacker IL. Vienna RNA secondary structure server. Nucleic Acids Res.
2003; 31, 13: 3429-3431.
15. Olszak K. Zanim sami zbudujemy RNA. Dolina Biotechnologiczna, 2012.
16. Maniura-Weber, K. et al. A novel point mutation in the mitochondrial
tRNA(Trp) gene produces a neurogastrointestinal syndrome. European Journal of
Human Genetics. 2004; 12, 6: 509-512.
17. Sohm B. et al. Towards Understanding Human Mitochondrial Leucine
Aminoacylation Identity. J. Mol. Biol. 2003; 328:995-1010.
18. Helm M. Post-transcriptional nucleotide modification and alternative holding
RNA. Nucleic Acids Res. 2006; 34:721-733.
19. Mohammed F. et al. Mitochondrial A12308G alteration in tRNA(Leu(CUN)) in
colorectal cancer samples. Diagn Pathol. 2015 Jul 19;10:115.
20. Pütz J. Et al. Mamit-tRNA, a database of mammalian mitochondrial tRNA
primary and secondary structures. RNA 2007; 13: 1184-1190.
Wyniki fałszywie pozytywne w
PCR! Jak się przed nimi bronić?
(II)
„Kontaminacja” to chyba najbardziej przerażające wyrażenie w słowniku
każdego biologa molekularnego. Przypadkowe przeniesienie produktu
PCR na blaty, plastiki lub sprzęt laboratoryjny może zamienić życie
pracowników laboratorium w koszmar na długie tygodnie. Jak nie
dopuścić do tej sytuacji? W części pierwszej przestawiłam podstawowe
sposoby na uniknięcie fałszywych pozytywów i obnażyłam słabości lamp
UV. Dziś przedstawiam Wam rozwiązania , które można zastosować, jeśli
już kontaminacja nam się zdarzyła.
1. Na kłopoty… wybielacz
W pierwszej części tego dwuodcinkowego cyklu wspominałam, że pomieszczenie
w którym pracować będziemy z produktami PCR powinno być odporne na
utleniacze. Co konkretnie miałam na myśli? Żeby pozbyć się DNA najprościej jest
je chemicznie unieszkodliwić. Są na to dziesiątki sposobów, a jak zwykle najlepsze
są te najtańsze i znane z naszych gospodarstw domowych.
*
W literaturze spotykamy różne pomysły na dekontaminację, prym wiedzie
HCl i mieszaniny kwasu z rozmaitymi substancjami (np.glicyną)
wspomagającymi. HCl 1M obniża pH do tego stopnia, że indukuje depurynację
i hydrolizę DNA. Gorący kwas solny z glicyną jest szczególnie polecany do
dekontaminacji końcówek pipet, jednak mycie nim większych powierzchni jest
kłopotliwe. Poza tym kwaśna hydroliza wymaga albo podwyższonej
temperatury, albo długiego czasu ekspozycji. Dlatego nie jest polecana do
ogólnych zastosowań.
*
DNA ulega hydrolizie także pod wpływem środków do sterylizacji i
dezynfekcji wysokiego stopnia, takich jak tlenek etylenu i gazowy formaldehyd
oraz aldehyd glutarowy. Jednakże tych związków każdy z nas chciałby unikać
jak ognia- uwierzcie na słowo. Są to środki bardzo korozyjne i niebezpieczne
dla błon śluzowych, używane w celu całkowitej eliminacji patogenów np. z
materiałów i narzędzi chirurgicznych. Nie wiem, czy gdziekolwiek stosuje się
rutynowo te środki (może poza formaldehydem, znam osobę która używa tej
nad wyraz nieprzyjemnej substancji).
*
Dostępne w katalogach niektórych firm produkujących odczynniki są
specjalne, przeznaczone do dekontaminacji preparaty typu „DNA-Away”.
Mogą to być roztwory DNAz lub środki chemiczne. Są stosunkowo drogie, a
ich skuteczność jest podobna jak rozwiązań opisanych poniżej.
*
Najlepsze w walce z kontaminacją DNA są … komercyjnie dostępne
wybielacze i środki czyszczące. Odpowiednio rozcieńczony roztwór NaOCl
tworzy nacięcia nici (nick’uje DNA) i tym samym uniemożliwia amplifikację.
Podobnie działa wiele innych środków dostępnych w sklepach z chemią
gospodarczą. Tabletki calgonitu, zawierające wodorotlenki sodu i potasu oraz
podchloryn, wszelkie środki w sprayu wydzielające wolny chlor lub tlen
rodnikowy (oparte na eterach, epoksydach, aldehydach) są jak najbardziej
skuteczne i bardziej bezpieczne dla użytkownika niż środki do sterylizacji
gazowej.
* Jak używać wybielacza? Ważne jest stężenie aktywnego chloru. DNA-
bójczo działa nawet 0,5% roztwór, wystarczy więc odpowiednio rozcieńczyć
wybielacz i przemyć blaty. Albo zastosować spryskiwacz. Ważne jest, by
pozostawić warstwę wybielacza na mytej powierzchni przez 15minut albo do
wyschnięcia, a potem zmyć wodą. Najlepsze działanie związków
generujących rodniki tlenowe i wolny cholor otrzymujemy przy
kontakcie preparatu z powietrzem, dlatego nanosimy cienką
warstewkę. Dlatego nie urządzamy kąpieli np. statywów w wybielaczu, raczej
je spryskujemy.
Tipsy z filtrem- koszt który warto ponosić
W połączeniu z regularnym myciem powierzchni wybielaczami i okresowymi
kąpielami końcówek pipet w HCL-glicynie, dobrze jest stosować tipsy z filtrem
jako prewencję w codziennej praktyce laboratoryjnej. Tipsy z odpowiednio
umiejscowionymi, grubymi filtrami pozwalają na ochronę pojedynczych próbek
przed aerozolami DNA, które mogą osadzić się na dispenserze podczas
pipetowania. Taka ochrona jest szczególnie polecana w laboratoriach
diagnostycznych i w placówkach korzystający z metod QPCR i nested PCR.
Warto zwrócić uwagę na jakość filtra. Spotkałam się z produktami, w których
silikonowa wkładka nie powinna w ogóle zostać uznana za filtr, gdyż jej niewielka
grubość nie zapewniała żadnej ochrony. Na rynku dostępne są końcówki
zawierające nawet 2 lub 3 warstwy filtrujące- takiemu rozwiązaniu nie oprze się
żaden aerozol DNA. Nie polecam oszczędzać na końcówkach z filtrem, jeżeli w
naszym laboratorium zdarzały się w przeszłości zanieczyszczenia, oraz w sytuacji,
gdy nie dysponujemy pomieszczeniami dedykowanymi do PCRu i komorami
laminarnymi. Oszczędność 10zł na opakowaniu tipsów może nas kosztować setki
złotych stracone na powtarzaniu reakcji PCR!
UNG: rozwiązanie wygodne, ale nie zawsze praktyczne
Uracylo-N-glikozylacja to elegancka metoda unieszkodliwiania kwasów
nukleinowych po reakcji PCR. Używana jest już od wielu lat i pozwala na większą
swobodę pracy z produktami PCR.
*
UNG to system amplifikacji opartej na deoksyurydynie zamiast
deoksytymidynie. Po reakcji PCR otrzymujemy produkt z inkorporowanym dU,
który (o ile zostanie przeniesiony do kolejnej reakcji) jest niszczony przez
specjalny, dodawany do reakcji enzym urydylo-N-glikozylazę przed
rozpoczęciem właściwej amplifikacji PCR. Tym sposobem nici zawierające dU
degradują i nie mogą stanowić matrycy w tej reakcji.
*
Warto zasygnalizować, że UNG pozwala na uniknięcie kontaminacji tylko
matrycami z inkorporowanym dU z poprzednich reakcji PCR< nie daje
natomiast żadnej ochrony przed kontaminacją na pierwszych etapach pracy z
analitem. Tak więc wracamy do punktu wyjścia, czyli opisanego w I części
tego opracowania GLP.
*
Drugim ważnym mankamentem może być bezzasadność wykorzystania
UNG w reakcjach nested-PCR, w których konieczne jest reamplifikowanie
matrycy z poprzedniego PCRu. Można do drugiego MIXu nie dodawać UNG,
ale w ten sposób znowu wystawiamy się na kontaminację!
Algorytm optymalizacji PCR
Tak oto wspólnie dotarliśmy do końca opracowania, które może ułatwi
Wam pracę w czystym, wolnym od kontaminacji otoczeniu. Czego Wam i
sobie życzę!
Opracowanie powstało na bazie własnych doświadczeń, jednak niezwykle
pomocne okazały się artykuły z BiteSizeBio:
Eliminate PCR Amplicon Carry-Over With UNG
PCR: The Right Way to Decontaminate and Eliminate False Positives
Wyniki fałszywie pozytywne w
PCR! Jak się przed nimi bronić? (I)
„Kontaminacja” to chyba najbardziej przerażające wyrażenie w słowniku
każdego biologa molekularnego. Przypadkowe przeniesienie produktu
PCR na blaty, plastiki lub sprzęt laboratoryjny może zamienić życie
pracowników laboratorium w koszmar na długie tygodnie. Jak nie
dopuścić do tej sytuacji? Przedstawiam Wam rozwiązania, które uchronią
Was przed fałszywymi pozytywami i oszczędzą mnóstwa frustracji.
1. GLP przede wszystkim
Niestety nie istnieje rozwiązanie, które pozwoli nam zupełnie beztrosko poczynać
sobie z produktami PCR w laboratorium. Podstawą każdej czynności, począwszy
od pipetowania, skończywszy na usuwaniu odpadów, musi być dobra praktyka
laboratoryjna i należy mieć tego pełną świadomość. Zacznijmy od
najważniejszego: myślmy nad każdą wykonywaną czynnością. Niech nie
zgubi nas rutyna!
*
Aby nie dopuścić do kontaminacji, spróbujmy rozdzielić przestrzennie
czynności wykonywane w laboratorium. Przypiszmy pipety do poszczególnych
stanowisk laboratoryjnych i nie wychodźmy z nimi poza obszar roboczy, do
którego są przyporządkowane.
*
Pilnujmy tipsów- czy nakładane są do pudełek w innym miejscu niż
wykonujemy PCR? Czy personel który to robi, używa zawsze świeżych
rękawic? Czy pudełka na tipsy są zamykane, gdy z nimi nie pracujemy?
*
Uważajmy na standardy do Real-Time PCRu i próbówki z produktami
reakcji. Kwestia warta rozważenia: jeżeli w każdym mikrolitrze standardu jest
sto milionów kopii matrycy, to co się stanie, jeśli taki mikrolitr kapnie nam na
stół a następnie zostanie roztarty przez sprzątaczkę ścierką po całym blacie?
Albo gdy kapnie nam na rękę, którą następnie złapiemy za pipetę, klamkę lub
mikropłytkę?
*
Zachowujmy szeroko rozumiany porządek wokół siebie
*
Dbajmy o reagenty: gdy to tylko możliwe, pipetujmy duże objętości na
małe alikwoty do jednorazowego użytku. Zmieniajmy tipsy dodając po sobie
kolejne reagenty. Nigdy nie przelewajmy resztek z jednej buteleczki do
drugiej, bo możemy zepsuć kolejną partię odczynnika lub buforu!
2. Odpowiednie pomieszczenia laboratoryjne są na wagę złota
Jeżeli planujemy dopiero rozkład pomieszczeń laboratoryjnych, od początku
miejmy na uwadze, że będziemy wykonywać w tych pomieszczeniach rożne etapy
naszej pracy. Oddzielenie przestrzenne PCRu od reszty zadań laboratoryjnych jest
najłatwiejszą i najskuteczniejszą bronią w walce z kontaminacją. Walczmy o każdą
piędź ziemi z tymi, którzy finansują przedsięwzięcie, bo im więcej zainwestujemy
w pomieszczenia, tym mniej stracimy na powtarzaniu nieudanych reakcji. To się
zwróci- nie od razu, ale z cała pewnością.
*
Pomieszczenie, w którym będziemy trzymać nowe odczynniki,
przygotowywać MIXy i bufory, DEPCować wodę, powinno być jak najbardziej
oddalone od reszty pomieszczeń. Jest to pomieszczenie czyste.
*
Drugie pomieszczenie, które powinno oddzielać część brudną od czystej,
to pomieszczenie biurowe/socjalne/sala komputerowa- miejsce na
dokumentację, seminaria, pracę z komputerem itp. W nim w ogóle nie
powinny znajdować się próbki ani reagenty.
*
Trzecie pomieszczenie to pomieszczenie brudne do preparatyki próbek.
Ideałem byłoby, gdyby odbywała się tam tylko wstępna preparatyka próbek,
izolacja DNA i RNA, ewentualnie katalogowanie i mrożenie analitów.
*
W ostatnim pomieszczeniu przygotowujemy PCR, rozcieńczamy matryce,
puszczamy żele i utylizujemy materiał. Jest to najbardziej narażona na
skażenie cześć laboratorium, idealny pokój tego typu jest całkowicie wyłożony
kafelkami i powierzchniami zmywalnymi, odpornymi na silne utleniacze.
Zamiast komory laminarnej (radzę sobie ją całkowicie odpuścić o ile nie
pracujemy z próbkami o wysokim zagrożeniu biologicznym lub z
mikrośladami!) radzę właśnie kafelki. Zero półek, zakamarków, tylko stół,
krzesło, 1 zestaw pipet i nic poza tym. Wszystko powinno dać się odkazić po
zakończonym dniu pracy! (czym odkażać? O tym będzie traktować druga część
opracowania!)
3. Mit lampy UV
W laboratoriach medycznych i badawczych złotym standardem jest
dekontaminacja przy użyciu światła UV. Jest to bardzo dobre rozwiązanie, ale dla
mikrobiologów i osób pracujących z hodowlami in vitro.
*
UV absolutnie nie nadaje się za to do pozbywania się DNA z powierzchni
roboczych, jest na to zbyt mało wydajne! Światło UV ma moc biobójczą, i
mutagenną, ale nie lityczną w stosunku do polimerów DNA. Poza tym jego
działanie jest ograniczone do przestrzeni nieporowatych, wystawionych
bezpośrednio na promieniowanie.
*
UV zażółca papier i niszczy niektóre tworzywa sztuczne, więc nie
powinniśmy trzymać tam dokumentacji.
*
Jeszcze jedna ważna rzecz, o której się nie pamięta. Światło UVC jest
potężne, ale świetlówki szybko się zużywają. Po roku tracą nawet połowę
swojej emisji UVC- taka świetlówka już nie nadaje się do dekontaminacji.
Komu więc polecać UV?
Pracowniom, które pracują z ludzkimi płynami ustrojowymi do pomieszczeń, w
których wykonuje się np. ekstrakcję białek czy kwasów nukleinowych i gdzie
utylizuje się materiał. Obowiązkowo do pracowni mikrobiologii i tam, gdzie
prowadzi się hodowle komórkowe. UV nie radzi sobie z wirusami tak wydajnie jak
z bakteriami, ale i tak pomaga w walce np. z fagami. Natomiast UV w
pomieszczeniach do PCR i pod komorami laminarnymi sprawdza się raczej słabo.
Można je stosować jako dodatkowy środek ochronny- wszak nie zaszkodzi, ale
pożytku z niego niewiele.
W drugiej części opracowania dowiecie się, jakie chemiczne i fizyczne
środki zaradcze można zastosować, by pozbyć się niechcianego DNA z
powierzchni laboratoryjnych.
Algorytm optymalizacji PCR
Trombocytopatie – przyczyny
często niewyjaśnionych krwawień
Zaburzenia czynności płytek krwi mogą pojawić się już w dzieciństwie,
jako skłonności do sińców, krwawienia z nosa, z dziąseł lub nadmierne
krwawienia miesiączkowe. Ponieważ w większości wypadków krwawienia
te mają małe nasilenie i nie wymagają interwencji medycznej, często są
ignorowane.
O zapewnieniu prawidłowej hemostazy decyduje nie tylko odpowiednia liczba
płytek krwi, lecz także ich funkcjonowanie. Defekty oraz zaburzenia funkcji płytek
mogą być przyczyną trombocytopatii i prowadzić do wystąpienia krwawień [2].
Trombocytopatie ze względu na skomplikowaną diagnostykę oraz objawy
wskazujące na inne przyczyny skazy krwotocznej często pozostają nierozpoznane.
Niezdiagnozowane wcześniej zaburzenia czynności płytek mogą skutkować
wystąpieniem silnych, zagrażających życiu krwotoków w przypadku urazów, w
trakcie zabiegów chirurgicznych lub inwazyjnych procedur medycznych [2].
Pojawienie się u chorych ciężkiej skazy krwotocznej może być także spowodowane
przyjmowaniem leków przeciwpłytkowych, powszechnie stosowanych w leczeniu
lub zapobieganiu zakrzepicy tętniczej [3].
Trombocytopatie ze względu na swoje pochodzenie można podzielić na
wrodzone i nabyte.
Wrodzone zaburzenia czynności płytek krwi występują bardzo rzadko i z tego
względu nie zawsze są brane pod uwagę, jako przyczyna skazy krwotocznej.
Najczęściej stosowana klasyfikacja trombocytopatii wrodzonych została oparta na
nieprawidłowościach w pełnieniu określonej funkcji. Ponieważ funkcje płytek krwi
takie jak adhezja, agregacja, aktywacja, sekrecja i aktywność prokoagulacyjna są
ze sobą powiązane, podział ten w wielu wypadkach jest problematyczny [1].
Wrodzone trombocytopatie można podzielić na:
-pierwotne defekty adhezji płytek krwi
-pierwotne defekty agregacji płytek krwi
-zaburzenia ziarnistości płytkowych
-zaburzenia sekrecji lub transdukcji sygnału [2].
Do grupy pierwotnych defektów adhezji płytek krwi można zaliczyć zespół
Bernarda-Souliera (BSS) oraz płytkowy typ choroby von Willebranda (PT-vWD).
Zespół Bernarda-Souliera jest spowodowany zaburzeniami w przyleganiu płytek
krwi za pośrednictwem czynnika von Willebranda do warstwy podśródbłonkowej
w miejscu uszkodzenia naczynia. Wynika to ze zmniejszonej ilości lub
nieprawidłowej budowy kompleksu białkowego na płytkach krwi GPIb/IX/V, który
jest receptorem dla czynnika von Willebranda. Zmniejszenie wiązania czynnika
von Willebranda do płytki, a tym samym zaburzenia adhezji w miejscu
uszkodzenia, ma duże znaczenie w naczyniach o szybkim przepływie krwi [1].
Skaza krwotoczna może mieć ciężki przebieg, mogą wystąpić krwawienia z nosa,
dziąseł, z przewodu pokarmowego lub krwawienia pourazowe [2].
Płytkowy typ choroby von Willebranda jest spowodowany nieprawidłowościami w
budowie glikoproteiny GPIbα występującej na płytkach krwi, na skutek jej zmian
konformacyjnych. Powoduje to wiązanie się dużych multimetrów czynnika von
Willebranda z białkiem GPIbα i tym samym szybkie usuwanie ich z krwiobiegu.
Brak lub niedobór multimerów czynnika von Willebranda we krwi obniża
krzepliwość i może być przyczyną krwawień. Podobne objawy oraz etiopatogenezę
można zaobserwować w podtypie 2B choroby von Willebranda. W przypadku
silnych krwawień lub przed zabiegami chirurgicznymi należy stosować
przetoczenia koncentratów krwinek płytkowych, natomiast desmopresyna,
rekombinowany czynnik VIII i czynnik von Willebranda są przeciwwskazane lub
nieskuteczne [2].
Do grupy pierwotnych defektów agregacji płytek krwi należy Trombastenia
Glanzmanna (GT).
Tromabastenia Glanzmanna jest spowodowana obniżoną ekspresją lub
nieprawidłową budową płytkowej integryny GPIIb/IIIa. Integryna ta pełni bardzo
ważną rolę w agregacji płytek, gdyż do niej przyłącza się fibrynogen tworząc
mostki pomiędzy sąsiednimi płytkami, co skutkuje wytworzeniem czopu
pierwotnego [1]. Skaza krwotoczna może mieć ciężki przebieg, u chorych mogą
wystąpić wybroczyny, sińce, krwawienia z nosa, rzadziej krwawienia z przewodu
pokarmowego lub krwiomocz [2].
Zaburzenia ziarnistości płytkowych występują bardzo rzadko i obejmują różne
nieprawidłowości w funkcjonowaniu płytek krwi spowodowane zmniejszeniem
liczby ziarnistości w komórce, stężenia białek lub też zaburzeniami w
mechanizmach ich uwalniania. Między innymi można wśród nich wymienić: zespół
szarych płytek, chorobę puli magazynowej δ, zespół Hermansky-Pudlak, zespół
Chediaka-Higashi’ego lub skazę płytkową Quebec [2].
Zaburzenia sekrecji lub transdukcji sygnału są heterogenną grupą wrodzonych
zaburzeń aktywacji płytek krwi. Nieprawidłowa czynność lub niedobór receptorów
błonowych hamuje aktywację płytek krwi oraz upośledzenie procesów uwalniania
substancji, agregacji a także zaburzenia w budowie cytoszkieletu. Należą do nich
między innymi defekty receptorów dla ADP, tromboksanu A2, kolagenu lub
receptorów α adrenergicznych [2].
Nabyte zaburzenia czynności płytek krwi mają największe znaczenie kliniczne w
warunkach intensywnej opieki medycznej, u chorych z koagulopatią,
posocznicą, niewydolnością wielonarządową lub w leczeniu
przeciwzakrzepowym ostrych zespołów wieńcowych [3].
Nabyte trombocytopatie mogą być spowodowane: wpływem leków, obecnością
chorób nerek, wątroby, chorób układu krwiotwórczego, chorób
autoimmunologicznych lub wystąpieniem zespołu wykrzepiania
wewnątrznaczyniowego [3].
Najczęstszą przyczyną obniżenia czynności płytek, mogącą objawiać się
występowaniem krwawień są leki przeciwpłytkowe powszechnie stosowane w
leczeniu lub zapobieganiu chorób tętnic. Działanie leków przeciwpłytkowych
polega na blokowaniu albo hamowaniu szlaków metabolicznych prowadzących do
aktywacji i agregacji płytek.
Do leków hamujących czynność płytek krwi należą przede wszystkim:
-kwas acetylosalicylowy (np. aspiryna) blokujący szlak aktywacji zależny od
tromboksanu A2
-pochodne tienopirydyny (np. klopidogrel) hamujące szlak prowadzący do
agregacji płytek zależny od ADP
-leki blokujące receptory (GPIIb/IIIa) dla fibrynogenu (np. abcyksymab,
eptyfibatyd, tirofiban).
Wśród innych leków wpływających na czynność płytek można wymienić:
niesterydowe leki przeciwzapalne, antybiotyki (penicyliny, cefalosporyny), leki
krążeniowe (nitrogliceryna, antagoniści wapnia, β-adrenolityki), heparynę,
protaminę, streptokinazę [4]. Nabyte zaburzenia czynności płytek krwi mogą
wystąpić w chorobach nerek np. w mocznicy, u pacjentów hemodializowanych a
także w zaburzeniach czynności wątroby, gdzie współwystępują z
małopłytkowością oraz koagulopatią. Dysfunkcja płytek krwi może ujawnić się w
przebiegu chorób układu krwiotwórczego: w zespołach mieloproliferacyjnych,
białaczkach, w szpiczaku plazmocytowym, w chorobach autoimmunologicznych
lub w zespole wykrzepiania wewnątrznaczyniowego [3].
Diagnostyka trombocytopatii obejmuje ocenę kliniczną, wykluczenie choroby von
Willebranda i innych przyczyn zaburzeń hemostazy oraz ocenę wpływu leków [4].
Do testów przesiewowych należą badania czasu krwawienia (BT) i czasu okluzji
(CT) w aparacie PFA-100 lub PFA-200. W celu zróżnicowania trombocytopatii z
małopłytkowością oznacza się morfologię krwi z liczbą płytek oraz parametrami
obrazującymi różnice w ich wielkości (MPV – średnia objętość, PDW – wskaźnik
zmienności objętości, P-LCR – odsetek płytek dużych) [5]. Dla określenia rodzaju
defektu płytkowego wykonuje się agregację płytek metodą agregometrii
impedancyjnej pod wpływem różnych agonistów (kolagenu, rystocetyny, ADP,
kwasu arachidonowego) oraz oznaczenie ekspresji receptorów błonowych metodą
cytometrii przepływowej [5,6].
Najczulszymi metodami diagnostycznymi potwierdzającymi obecność
wrodzonych trombocytopatii są badania genetyczne.
Metodami biologii molekularnej można przeprowadzić analizę mutacji
odpowiedzialnych na występowanie określonych defektów płytek krwi. W tym celu
przeprowadza się sekwencjonowanie egzonów genomowego DNA zawierających
fragmenty dla białek, w których zmiany są przyczyną dysfunkcji płytek [7]. Nabyte
zaburzenia czynności płytek można także wykryć metodą tromboelastometrii, co
znalazło zastosowanie u chorych przebywających na oddziałach chirurgicznych
[3].
Terapia zaburzeń czynności płytek krwi polega na leczeniu choroby podstawowej,
zmniejszeniu dawek leków przeciwpłytkowych, stosowaniu leków
antyfibrynolitycznych, rekombinowanych czynników krzepnięcia, desmopresyny
lub przetoczeniach koncentratów krwinek płytkowych [2,4].
Algorytm optymalizacji PCR
Zaburzenia czynności płytek krwi ze względu na rzadkie występowanie lub
towarzyszenie innym chorobom pozostają często niezdiagnozowane. Mogą być
one jednak przyczyną ciężkich krwawień, szczególnie w zespole Bernarda-
Souliera, w Trombastenii Glanzmanna, u chorych po urazach, w momencie
przeprowadzania zabiegów chirurgicznych lub u pacjentów przyjmujących leki
przeciwpłytkowe. W ostatnich latach metody badań czynności płytek krwi
znacznie się rozwinęły i stały się bardziej dostępne, co zapewnia wczesną
diagnostykę i terapię w przypadku podejrzenia trombocytopatii.
Piśmiennictwo:
1. Cattaneo M. Congenital disorders of platelet function. [In:] Gresele P, Fuster V,
Lopez J, Page C, Vermylen J, ed. Platelets in hematologic and cardiovascular
disorders. A clinical handbook. New York: Cambridge University Press; 2008:
201-224.
2. Chojnowski K. i wsp. Część III: Zasady postępowania we wrodzonych
zaburzeniach czynności płytek krwi. Acta Haematol Pol2009; 40 (3): 731-752.
3. Kroll MH, Hassan AA. Acquired disorders of platelet function. [In:] Gresele P,
Fuster V, Lopez J, Page C, Vermylen J, ed. Platelets in hematologic and
cardiovascular disorders. A clinical handbook. New York: Cambridge University
Press; 2008: 225-241.
4. Gresele P, Born G, Patrono C, Page C, ed. Antiplatelet agents. Berlin,
Heidelberg: Springer-Verlag; 2012: pp. 471-606.
5. Gresele P. et al. Diagnosis of suspected inherited platelet function disorders:
results of a worldwide survey. J Thromb Haemost. 2014; 12 (9): 1562-1569.
6. Bienias J. et al. Standaryzacja metody oznaczenia ekspresji P-selektyny na
płytkach krwi przy pomocy cytometru przepływowego oraz analiza porównawcza z
metodą agregometrii impedancyjnej u chorych na ostrą białaczkę szpikową. Post
Nauk Med 2015; 28 (6): 384-390.
7. Solh T. et al. Glanzmann’s thrombasthenia: pathogenesis, diagnosis, and
current and emerging treatment options. J Blood Med. 2015; 6: 219-227.
CE IVD bez tajemnic
Czym jest, na czym bazuje i po co w ogóle to wprowadzono? Niniejszy
artykuł dotyczy dyrektywy 98/79/EC i jej konsekwencji laboratoryjnych
oraz prawno-ekonomicznych.
Idea polityki jakości jest już dość leciwa, wymyślono ją dla celów wielkoskalowego
przemysłu, bo takiego przemysłu nie stać na „brak jakości”. Czym w ogóle jest
jakość? Jakość definiowana po konsumencku to przecież nie to samo, co jakość
zawarta w procedurach i normach. Tak definiowana jakość oznacza wysoką
powtarzalność parametrów produktów danego typu wykonanych w zgodzie z
normą, a także bezpieczeństwo wytwórcy w procesie produkcyjnym i
bezpieczeństwo odbiorcy podczas użytkowania. Taka definicja jakości wcale nie
daje gwarancji, że produkt na przykład będzie stworzony z wysokiej jakości
bawełny. Dlatego sceptycznie podchodzimy do znaczków CE na opakowaniach,
które jednak są potrzebne, bo gwarantują bezpieczeństwo użytkowania i
humanitarne warunki pracy wytwórców.
Jednak skupmy się na diagnostyce in vitro: co ją odróżnia od reszty rynku
konsumenckiego? Mamy wytwórcę, mamy użytkownika — diagnostę. Mamy
jednak kogoś jeszcze. Pacjenta, który jest faktycznym beneficjentem i odbiorcą
testu diagnostycznego, mimo że dzieje się to poza jego świadomością tego faktu.
Po to właśnie, by chronić także chorego, którego przecież nie stać na pomyłki
producenta testu (płaciłby swoim zdrowiem!) powstała dyrektywa UE „o
medycznych przyrządach* do diagnostyki in vitro” (98/79/EC). Dlatego certyfikat
jakości CE nie wystarcza jako gwarancja odpowiedniej jakości w diagnostyce
medycznej.
98/79/EC… Cóż to za dokument i czego dotyczy? Jest to zestaw bardzo
ogólnikowych norm, jakie muszą spełniać odczynniki i urządzenia używane w
laboratoriach diagnostycznych. Jako „medyczne przyrządy* diagnostyczne”
rozumie się wg dyrektywy nie tylko urządzenia, ale także systemy
przechowywania próbek, odczynniki diagnostyczne oraz software do analizy
danych. Wszelka aparatura i chemia, która ma styczność z próbką na
którymkolwiek etapie analizy jest zatem traktowana jako medyczny przyrząd
diagnostyczny i podlega tym wytycznym.
Dyrektywa IVD mówi między innymi, że do diagnostyki in vitromoże by stosowany
sprzęt/odczynnik który spełnia kryteria dla normy CE (działającej w oparciu o
dokument EN ISO 9001) i dodatkowe kryteria, zawarte w aneksach (I- X).
Ponadto pewne odrębne kryteria, inne niż dla odczynników używanych w
laboratoriach, muszą spełnić urządzenia do samokontroli u pacjentów —
glukometry, paski testowe itp.
Z punktu widzenia laboratoriów najważniejszy jest załącznik 2. Zawarta jest w
nim klasyfikacja badań o podwyższonym poziomie wymaganych norm jakości ze
względu na istotność tych badań w kontekście zdrowia i życia pacjenta i
personelu. W aneksie A mamy badania serologiczne grup krwi: systemu ABO, Rh
(C, c, D, E, e) Kell, oraz badania wirusologiczne HIV, HTLV oraz badania wirusów
wątrobowych.
W aneksie B figurują grupy krwi Duffy i Kidd, przeciwciała przeciwkrwinkowe,
typowanie tkankowe HLA (serologia), detekcja toksoplazmozy i różyczki, wirusa
cytomegalii i chlamydiozy (mikrobiologia, wirusologia), testy na fenyloketonurię,
oznaczenie trisomii 21 (genetyczne zaburzenia wrodzone), oznaczenia markeru
nowotworowego PSA oraz glukozy we krwi.
Oznacza to, że oprócz obowiązkowych wymagań z aneksu I i wymogu posiadania
certyfikatu CE dla tych oznaczeń wymagane jest spełnienie
kryteriów załączników IV-VIII, potwierdzone certyfikatami zgodności z drugą
normą, DIN EN ISO 13485 i (najlepiej) oświadczeniem producenta że produkt
może by stosowany w diagnostyce in vitro.
Dla diagnostów ważne jest, co rozumie się przez stosowanie się do wytycznych dla
oznaczeń z aneksów A i B:
— testy używane w diagnostyce MUSZĄ być certyfikowane CE IVD
— wszystkie urządzenia służące do wykonania oznaczeń, a wiec zarówno systemy
do pobierania próbek, jak i pipety, plastiki laboratoryjne i inne urządzenia muszą
spełniać takowe wymagania. O tym wiele laboratoriów zapomina.
Zapomina się także o tym, że zestaw może być certyfikowany np. tylko dla krwi,
bo firmie nie chciało się certyfikować zestawu dla innych typów materiału (to są
koszty a firmy lubią je ciąć!), a my oznaczamy tym zestawem parametry np. w
PMR. To błąd który nie powinien mieć miejsca. Za to powinno się karać i to
surowo (a w Polsce jest z tym różnie).
Dlaczego nie wszystkie laboratoria stosują się do wytycznych aneksów A i B? Bo
jakość kosztuje. Zestawy z IVD są droższe, a konkurencyjność wymaga obniżania
cen. Często kadra jest też nieprzeszkolona i żyje w błogiej niewiedzy. Niestety
nieznajomość prawa nie jest usprawiedliwieniem.
A dlaczego producenci znanych, rewelacyjnych marek sprzętu i odczynników na
przykład do biologii molekularnej często uwzględniają adnotacje „for research use
only”, mimo że ich odczynnikom można ufać bardziej niż KITom z IVD mało
znanych firm? Ma to 2 przyczyny. Po pierwsze certyfikat podraża odczynnik, a
adresatami odczynników do badań molekularnych są głównie jednostki naukowe,
którym IVD nie jest absolutnie do niczego potrzebne. Po drugie zaś, firmy nie chcą
brać na siebie odpowiedzialności prawnej. Wolą swoje enzymy sprzedać
podwykonawcy, który produkuje KITy i sam stara się o certyfikację, sam też
ponosi odpowiedzialność prawną w razie zaistnienia niezgodności. Tak więc np.
bardzo znane polimerazy i odwrotne transkryptazy nie posiadają certyfikacji IVD,
ale wchodzą w skład zestawów z IVD. Czyż to nie ironiczne? Tak
jednak działa prawo, do którego, chcąc nie chcąc, powinniśmy się stosować.
Oczywiście brak certyfikatu IVD przy wykazanym przez producenta fakcie, że
produkt spełnia normę CE i kryteria załącznika I (obligatoryjne) wystarcza, by taki
sprzęt znalazł się w laboratorium, w którym nie wykonuje się analiz z aneksu II. A
więc przyrządy z oznaczeniem zgodności np. z EN ISO 13485 mogą być
automatycznie traktowane jako mogące uczestniczyć w procesie diagnostycznym.
Oczywiście jeśli podlegają przeglądom technicznym i są sprawne.
* Uwaga: Używam określenia „przyrząd”, by nie mylił się on z terminem
„urządzenie” używanym w polskich dokumentach-córkach. Kojarzy się on bowiem
jednoznacznie z aparaturą mechaniczną, a nie chciałam wprowadzać zamętu
podczas objaśnień.
Piśmiennictwo:
Directive 98/79/EC of the European Parliament and of the Council of 27 October
1998 on in vitro diagnostic medical devices.
Różnorodność
morfologiczna
erytrocytów
—
anizoi
poikilocytoza.
Podczas oceny rozmazu krwi obwodowej często skupiamy się wyłącznie na
ilościowej i jakościowej ocenie układu białokrwinkowego, zapominając o
istotności zmian w obrębie układu czerwonokrwinkowego. W związku z
powyższym warto zwrócić uwagę na zmiany morfologiczne erytrocytów,
które możemy napotkać w codziennej praktyce laboratoryjnej.
Występowanie różnych wariantów erytrocytów może wiązać się z wahaniami w
obrębie wielkości, kształtu, stopnia wybarwienia oraz obecności nieprawidłowych
struktur i wtrętów w cytoplazmie. Znalezienie w oglądanych preparatach
charakterystycznych cech morfologicznych znacznie ułatwia dalszą diagnostykę.
Aby zrozumieć istotę pojawiających się zmian należy przytoczyć najpierw kilka
podstawowych danych fizjologicznych i stosowanych powszechnie pojęć.
Za produkcję erytrocytów jest odpowiedzialny układ czerwonokrwinkowy. Krwinki
czerwone powstają w procesie zwanym erytropoezą, który zachodzi w szpiku
kostnym. Erytrocyty jako dojrzałe krwinki czerwone znajdują się we krwi
obwodowej. Prawidłowy erytrocyt jest formą okrągłą, dwuwklęsłą w środku o
średnicy od 6 do 9 um [1].
Specyficzny kształt erytrocytu zapewnia nadmiar powierzchni do objętości, co
sprzyja wymianie gazowej i odkształcaniu krwinki.
W przypadku występowania różnic w zakresie wielkości erytrocytów mówi się o
anizocytozie. Gdy w rozmazie pojawiają się krwinki o różnych kształtach mamy do
czynienia z poikilocytozą. Wielobarwliwość krwinek czerwonych nosi miano
polichromatofilii.
Anizocytoza
Pod względem wielkości erytrocyty można podzielić na mikrocyty, normocyty i
makrocyty. Normocyty to erytrocyty o prawidłowej średnicy, mikrocyty to
mniejsze krwinki (średnica poniżej 6 um), makrocyty – większe (średnica powyżej
9 um). W przypadku średnicy większej niż 12 um mówi się o megalocytach,
występujących przede wszystkim w niedokrwistościach megaloblastycznych.
Obecność mikrocytów związana jest z kilkoma jednostkami chorobowymi.
Odnotowano takie zmiany wielkości krwinek czerwonych w niedoborze żelaza,
talasemiach, niedokrwistości syderoblastycznej oraz niedokrwistościach w
chorobach przewlekłych.
Makrocyty obserwuje się w chorobach wątroby, przy nadużywaniu alkoholu, w
ciąży, u noworodków, w niedokrwistości z niedoboru witaminy B12 lub kwasu
foliowego, przy stosowaniu antymetabolitów, niedoczynności tarczycy, przewlekłej
niedoczynności oddechowej, niedokrwistości aplastycznej, MDS (eng.
myelodysplastic syndrome) oraz zwiększonej retykulocytozie [2]. Ich obecność
odzwierciedla zazwyczaj nieprawidłowości w erytropoezie – spada liczba
podziałów komórkowych podczas dojrzewania ich prekursorów [3].
Poikilocytoza
Pod względem różnokształtności krwinki można podzielić na:
— sferocyty
— eliptocyty
— stomatocyty
— krwinki tarczowate
— krwinki sierpowate
— schistocyty
— akantocyty
— lakrymocyty
— echinocyty
Sferocyty to małe, okrągłe, równomiernie wybarwione krwinki bez środkowego
przejaśnienia. Są one mniejsze od normocytów. Spotyka się je w sferocytozie
wrodzonej, AIHA z ciepłymi przeciwciałami (eng. autoimmune hemolytic anemia),
późnej reakcji poprzetoczeniowej, chorobie hemolitycznej noworodków, DIC (eng.
disseminated intravascular coagulation), MAHA (eng. microangiopathic hemolytic
anemia), po splenektomii. Sferocytoza wrodzona jest chorobą dziedziczoną
autosomalnie dominująco (75% przypadków), związaną z zaburzeniami w obrębie
błony erytrocytu. Zaburzenia dotyczą interakcji poziomej białek błonowych
(zachodzą między łańcuchami spektryny alfa i beta, między spektryną beta i
białkiem prążka 4.1 oraz między białkiem 4.1 i aktyną). Wzrasta przepuszczalność
błony dla jonów sodu i wody, nasila się glikoliza. Erytrocyty pęcznieją – powstają
sferocyty. Sferocyty zawierają taką samą ilość hemoglobiny co prawidłowe
erytrocyty, ale średnie stężenie hemoglobiny w krwince czerwonej jest znacznie
wyższe. Dzieje się tak dlatego, że spada średnica napęczniałego erytrocytu. Spada
integralność błony komórkowej, sferocyty są mniej wytrzymałe, mniej elastyczne i
łatwiej ulęgają hemolizie [1, 2, 4]. Oprócz podłoża genetycznego powstawania
sferocytów, ich pojawienie się może być także wynikiem aktywności uczulonych
przez przeciwciała makrofagów, które usuwają część błony erytrocytu, formując
nowy wariant krwinki. Istotny wpływ mogą mieć także siły tnące prądu krwi [3].
Powszechne występowanie sferocytów obserwuje się w przebiegu malarii.
Potwierdzeniem są obserwacje zakażonych dzieci z rejonu jeziora Wiktorii
(Afryka). Pojawienie się sferocytów przypuszczalnie jest wynikiem
przemieszczania się zarodźca malarii wewnątrz erytrocytu [5].
Eliptocyty znane są także jako owalocyty. Jak sama nazwa wskazuje krwinki mają
owalny kształt. W niewielkim odsetku dopuszczalne jest występowanie tego
rodzaju krwinek we krwi. Znaczną liczbę eliptocytów spotyka się w dziedzicznej
owalocytozie (od 25 do 75% erytrocytów), niedokrwistości złośliwej,
niedokrwistości z niedoboru żelaza, MPD (eng. myeloproliferative disease) i MDS.
Eliptocytoza wrodzona dziedziczona jest autosomalnie dominująco. Powstanie
eliptocytów wynika z defektu błony erytrocytu. Charakter zmian jest głównie
jakościowy i wynika przede wszystkim z defektów białka 4.1 oraz występowania
różnych wariantów spektryny [1, 6].
Stomatocyty to erytrocyty charakteryzujące się podłużnym centralnym
przejaśnieniem. Kształtem przypominają otwarte usta. Występują w
stomatocytozie wrodzonej oraz nabytych niedokrwistościach hemolitycznych.
Stomatocytozadziedziczona jest w sposób autosomalny dominujący. Mechanizmy
regulujące przepływ kationów sodu i potasu przez błonę komórkową nie działają
prawidłowo, co powoduje wzrost przepuszczalności błony erytrocytu i w
konsekwencji powadzi do nadmiernego uwodnienia erytrocytu [1, 5].
Zmiany morfologiczne erytrocytów w kierunku stomatocytozy może wywoływać
także lek przeciwmalaryczny Lupeol oraz niektóre związki amfifilowe. W wyniku
transformacji błony komórkowej rozwój pasożytów ulega inhibicji [6]. Stomatocyty
spotyka się w dużych ilościach u alkoholików [3].
Krwinki tarczowate to erytrocyty charakteryzujące się obecnością hemoglobiny na
obwodzie i w samym środku krwinki z przejaśnieniem pomiędzy tymi dwoma
warstwami. Wyglądem przypominają tarczę wojownika, skąd ich nazwa.
Powstawanie tych krwinek może mieć podłoże genetyczne w talasemii. U ludzi
zdrowych mogą występować pojedyncze krwinki tarczowate. Większe ilości
pojawiają się w hemoglobinopatiach, niedoborze żelaza, po splenektomii, w
chorobach obstrukcyjnych wątroby (wzrasta zawartość cholesterolu w częściach
powierzchniowych erytrocytów). Mniejsze ilości tych erytrocytów spotyka się w
anemii sierpowatej, niedoborze żelaza oraz zatruciu ołowiem [1, 2, 3].
Krwinki sierpowate, znane także pod nazwą drepanocyty, to erytrocyty
przypominające kształtem sierp lub półksiężyc. Są typowe dla szczególnego
rodzaju hemoglobinopatii, jakim jest niedokrwistość sierpowatokrwinkowa. Po
dodaniu do krwi substancji redukujących lub inkubacji w warunkach
beztlenowych krwinki są łatwiej wykrywalne. Niedokrwistość sierpowata to
anemia wrodzona. Wynika ona z nieprawidłowej budowy hemoglobiny. W wyniku
mutacji punktowej w genie łańcucha beta hemoglobiny dochodzi do zmiany
pojedynczego aminokwasu w sekwencji białka (w pozycji 6 dochodzi do zamiany
kwasu glutaminowego na walinę). Zmieniona w ten sposób hemoglobina
określana jest jako hemoglobina S. Choroba jest rozpowszechniona głównie w
niektórych rejonach Afryki, rzadko występując u rasy białej [2, 4].
Schistocyty, znane także jako fragmentocyty, to rozfragmentowane krwinki
czerwone. Pojawiają się w niedokrwistości hemolitycznej mikroangiopatycznej,
niedokrwistości polekowej, mechanicznej, talasemii, DIC, MAHA, HUS (eng.
hemolytic-uremic syndrome), TTP (eng. thrombotic thrombocytopenic purpura)
oraz niewydolności nerek. Mogą być skutkiem mechanicznego uszkodzenia przez
wiązania fibryny, siły tnące prądu krwi, zmienione powierzchnie (zastawki w
wadach serca), ciała obce w krążeniu, skupiska komórek nowotworowych,
czasami działanie płytek krwi lub uszkodzenia termiczne (oparzenia II i III
stopnia) [1, 2]. Występowanie schistocytów jest typowe w stanach po przeszczepie
macierzystych komórek hematopoetycznych szpiku (SCT). Udowodniono
przydatność systematycznego określania liczby schistocytów po SCT. Wzrost
odsetka schistocytów może służyć jako dodatkowy, choć niespecyficzny marker
wystąpienia komplikacji po mikroangiopatii zakrzepowej [7].
Akantocyty zwane krwinkami kolczystymi to sferoidalne erytrocyty posiadające od
2 do 20 ‘kolców’ rozmieszczonych nieregularnie na powierzchni krwinki. ,Kolce’
to długie, ostro zakończone wypustki cytoplazmy. Występują one przede
wszystkim we wrodzonej abetalipoproteinemii, polekowej niedokrwistości
hemolitycznej mikroangiopatycznej, niedokrwistości hemolitycznej u chorych z
wszczepionymi sztucznymi zastawkami serca, mocznicy, nocnej napadowej
hemoglobinurii oraz w przewlekłych chorobach wątroby (zespół Zievego) [2].
Akantocyty i inne poikilocyty pojawiają się we krwi obwodowej po splenektomii
oraz są charakterystyczne dla zaburzeń kłębuszków nerkowych. W alkoholowej
chorobie wątroby wzrasta zawartość cholesterolu przy zachowanym prawidłowym
poziomie fosfolipidów w częściach powierzchniowych erytrocytu [3, 8].
Lakrymocyty, zwane także dakriocytami czy krwinkami kroplowatymi, to
erytrocyty w kształcie spadającej kropli lub łzy. Są one typowe dla zwłóknienia
szpiku (mielofibroza). Występują przy nacieczeniu szpiku przerzutami MDS. Obraz
jest bardzo charakterystyczny — silna anizo- i poikilocytoza we krwi obwodowej
[3].
Echinocyty mianowane także krwinkami karbowanymi to wariant erytrocytu
posiadającego od 10 do 30 krótkich, regularnych wypustek cytoplazmatycznych.
Pojawiają się przykładowo w mocznicy, hiperlipidemii, po splenektomii czy przy
niewydolności nerek. Zazwyczaj jednak występują jako artefakt w rozmazie krwi
obwodowej(wynik zakłócenia równowagi osmotycznej przez nieodpowiednie lub
długie przechowywanie, EDTA) [2]. W przypadku deficytu kinazy pirogronianowej
erytrocytów (spada produkcja ATP, dochodzi do ucieczki wody i potasu z
erytrocytów), w niektórych nowotworach oraz krótko po transfuzji dłużej
przechowywanej krwi pojawiają się echinocyty [3].
Algorytm optymalizacji PCR
Istnieje szereg wariantów morfologicznych krwinek czerwonych mniej lub
bardziej charakterystycznych dla określonych jednostek chorobowych.
Niewątpliwie jednak prawidłowa ocena abberacji od prawidłowego kształtu
erytrocytu stanowi istotny element diagnostyki.
mgr Agnieszka Helis, diagnosta laboratoryjny
Piśmiennictwo:
1. Mariańska B., Fabijańska-Mitek J., Windyga J. Badania laboratoryjne w
hematologii. Warszawa; Wyd Lek. PZWL, 2006.
2. Provan D. et al. Hematologia kliniczna. Warszawa; Wyd.Lek. PZWL, 2006.
3. Lynch E. Peripheral blood smear [In:] Walker HK., Hall WD., Hurst JW.
ed. Clinical Methods: The History, Physical, and Laboratory Examinations. 3rd
ed., Boston; Butterworths, 1990.
4. Matysiak M., Adamowicz A. Wrodzone niedokrwistości hemolityczne. Acta
Haematologica Polonica, 2009; 40: 455–462.
5. Anyona SB., Schrier SL., Gichuki CW. et al. Pitting of malaria parasites and
spherocyte formation. Malar J, 2006; 5: 64.
6. Ziegler HL., Staerk D., Christensen J. et al. In vitro Plasmodium falciparum
drug sensitivity assay: inhibition of parasite growth by incorporation of
stomatocytogenic amphiphiles into the erythrocyte membrane. Antimicrob Agents
Chemother. 2002; 46, 5: 1441-1446.
7. Lesesve JF., Alla F., Dugué F. et al. Evaluation of schistocyte monitoring after
haematopoietic stem cell transplantation. Int J Lab Hematol. 2011; 33, 4: 343-356.
8. Köhler H., Wandel E., Brunck B. Acanthocyturia–a characteristic marker for
glomerular bleeding. Kidney Int. 1991; 40, 1: 115-20.
Cystatyna
C
jako
marker
oceniający filtrację kłębuszkową
Wiarygodna i rzetelna ocena funkcji nerek stanowi jeden z
najważniejszych kierunków w diagnostyce. Szacuje się, że w Polsce
przewlekła choroba nerek (PChN) może dotyczyć 4 mln osób. Wydłużenie
średniej długości życia, jak i powszechne występowanie chorób
cywilizacyjnych, takich jak cukrzyca, nadciśnienie tętnicze, miażdżyca,
powodują wzrost częstości występowania niewydolności omawianego
narządu [1,3]. Ostre uszkodzenie nerek jest obarczone dużą
śmiertelnością i wymaga szybkiej diagnostyki. Również u dzieci poważne
schorzenia nerek mogą przebiegać bez charakterystycznych objawów,
dlatego zdarza się, że są wykrywane zbyt późno, kiedy konieczny jest już
przeszczep nerki lub dializoterapia [2].
Parametrem laboratoryjnym stosowanym do oceny funkcji nerek jest wskaźnik
przesączania kłębuszkowego GFR (ang. Glomerular Filtration Rate). Wskazuje on
na zdolność tego narządu do oczyszczania osocza w jednostce czasu.
Stężenie kreatyniny w surowicy jest najczęściej stosowanym w diagnostyce
parametrem, odzwierciedlającym GFR, którego poziom ujemnie koreluje z
wielkością przesączania kłębuszkowego. Podwyższone stężenie kreatyniny w
surowicy wiąże się z pogorszeniem funkcji nerek [4,5].
Wykorzystanie kreatyniny w ocenie funkcji nerek ma jedynie przybliżoną
wartość diagnostyczną.
Korelacja poziomu kreatyniny w surowicy z wydolnością nefronów jest zależna od
wielu czynników. Na stężenie kreatyniny wpływa wiek (wyższe wartości u ludzi
młodych), płeć (wyższe u mężczyzn), masa mięśniowa, masa ciała, dieta
(spożywanie pokarmów wysokobiałkowych powoduje wzrost o ok. 10%),
aktywność fizyczna oraz rasa (wyższe stężenie u ludzi rasy białej) [1,5]. Spore
ograniczenia w zastosowaniu kreatyniny napotykamy u pacjentów z żółtaczką oraz
u noworodków, u których współistniejąca hiperbilirubinemia ujemnie interferuje z
poziomem kreatyniny. U noworodków w pierwszych dniach życia poziom
kreatyniny w surowicy odzwierciedla stężenie we krwi matki, ponieważ związek
ten swobodnie przechodzi przez łożysko [2].
Aby zwiększyć dokładność oceny przesączania kłębuszkowego na podstawie
pomiaru kreatyniny opracowano szereg wzorów antropometrycznych, które
pozwalają ograniczyć wpływ czynników pozanerkowych. Najczęściej stosuje się
wzory według Cockcrofta i Gaulta, MDRD (ang. Modification of Diet in Renal
Disease) oraz wzór Schwartza dla dzieci do obliczania szacowanego GFR (ang.
estimate GFR). Mimo że wzory te umożliwiły znaczny postęp w diagnostyce
nefrologicznej, to szacowanie filtracji nerkowej za ich pomocą nie jest wolne od
ograniczeń [4,6].
Tabela 1. Równania empiryczne stosowane do szacowania GFR [1]
Równanie MDRD jest to wskaźnik mało dokładny u ludzi starszych i u osób o
granicznych wartościach BMI (otyłych lub z niedowagą). Wzory MDRD nie
doszacowują eGFR u ludzi dobrze umięśnionych lub stosujących dietę bogatą w
białko, u których stężenie kreatyniny w surowicy jest wyższe. Natomiast u
pacjentów o niskiej masie mięśniowej (osoby w podeszłym wieku lub przewlekle
chorzy) na podstawie równania MDRD uzyskujemy fałszywie zawyżone wyniki
eGFR.
Ograniczenia w interpretacji oznaczeń kreatyniny powodują wzrost
zapotrzebowania na bardziej wiarygodny wskaźnik oceny funkcji nerek.
Prawdopodobnie taką rolę może pełnić cystatyna C.
Cystatyna C to drobnocząsteczkowe białko, składające się z jednego łańcucha
polipeptydowego. Jest ona wydzielana do krwi w jednakowym tempie przez
wszystkie komórki jądrzaste, dlatego jej zawartość w organizmie jest stała [1,6].
Cystatyna C z racji swojej niskiej masy cząsteczkowej ulega przefiltrowaniu w
kłębuszkach nerkowych w 98%. W dalszych częściach nefronu jest niemal w
całości resorbowana i w prawidłowym moczu występuje w minimalnych ilościach,
a jedynie w niewielkim stopniu jest usuwana z organizmu drogą pozanerkową
[2,6].
Duże znaczenie przypisuje się cystatynie C w diagnostyce PChN w stadium
przedklinicznym oraz w umiarkowanej niewydolności nerek.
Istotnym faktem, potwierdzającym użyteczność pomiaru cystatyny C w
diagnostyce nefrologicznej, jest jej wysoka czułość (81%). Jest więc ona czulszym
wskaźnikiem niewielkich zmian w nefronach niż oznaczanie kreatyniny, której
czułość wynosi 69%, a znamienny wzrost poziomu kreatyniny następuje dopiero,
gdy GFR obniży się do około połowy wartości prawidłowej [1]. Dużą zaletą
cystatyny C jest brak istotnej zależności między jej stężeniem a czynnikami
osobniczymi oraz dietą. Względna niezależność poziomu omawianego białka od
masy mięśniowej czyni z niego dobry marker oceny funkcji nerek u dzieci.
Cystatyna C jest lepszym od kreatyniny wskaźnikiem oceny GFR u noworodków z
uwagi na brak interferencji z bilirubiną, a także fakt, że nie przechodzi ona przez
barierę łożyskową [5].
Poziom cystatyny C w surowicy jest zależny od wieku, a ustalone wartości
referencyjne mieszczą się w granicach 0,53-0,92 mg/L (dla dorosłych poniżej 50.
roku życia) [5]. Stężenie tego białka jest kilkukrotnie wyższe u noworodków i
niemowląt, niż u ludzi dorosłych i wyrównuje się dopiero po drugim roku życia.
Obserwuje się stopniowy wzrost poziomu cystatyny C u osób po 50. roku życia
[2,6].
Poza stanami z niedoczynnością nerek podwyższone stężenie cystatyny C
występuje w chorobach nowowtworowych oraz w gorączce reumatycznej. Co
więcej, nadczynność tarczycy oraz terapia glikokortykosteroidami odwracalnie
zwiększają stężenie cystatyny C, natomiast niedoczynność tarczycy i terapia
cyklosporyną obniżają jej poziom [1,3].
Algorytm optymalizacji PCR
Cystatyna C pomimo pewnych ograniczeń wydaje się być lepszym wskaźnikiem
oceny pracy nerek niż kreatynina. Jedną z największych korzyści jest wzrost jej
stężenia już przy bardzo nieznacznej redukcji filtracji kłębuszkowej oraz niewielki
wpływ na jej poziom czynników pozanerkowych. Niestety oznaczanie cystatyny C
nadal nie wchodzi w skład ogólnie przyjętych procedur rutynowej diagnostyki.
Obecnie największym ograniczeniem w rozpowszechnieniu tego badania jest cena,
która około 10-krotnie przewyższa koszty związane z oznaczeniem kreatyniny.
Należy jednak pamiętać, że niejednokrotnie szybka i trafna diagnoza, pozwala
uniknąć również kosztownego i obciążającego dla pacjenta leczenia
nerkozastępczego.
Piśmiennictwo:
1. Imiela J., Lewandowicz A. Cystatyna C w diagnostyce przewlekłej choroby
nerek. Nefrol Dial Pol, 2007; 11: 126-132.
2. Konopska B., Grzebyk E., Warwas M. Postępy badań nad użytecznością
oznaczania cystatyny C u dzieci. Diagn Lab, 2013; 49, 1: 39-47.
3. Sodolska M., Walczak K., Krysicka A. i wsp. Użyteczność cystatyny C w ocenie
funkcji nerek u osób po 65. roku życia bez cukrzycy. Geront Pol, 2010; 18, 3:
120-127.
4. Skalska A., Klimek E. Przydatność cystatyny C jako markera funkcji nerek u
osób w starszym wieku. Geront Pol, 2006; 14, 2: 91-97.
5. Ciach E., Bobilewicz D. Zastosowanie stężenia cystatyny C w ocenie filtracji
kłębuszkowej u dzieci i ludzi starszych. Diagn Lab, 2012; 48, 4: 423-431.
6. Rozentryt P. Cystatyna C – co wiemy w roku 2008. LabForum, grudzień 2008:
3-6.
Poradnik: Optymalizacja reakcji
PCR. Manipulowanie stężeniami i
programem termocyklera
Jak przeprowadzić „optymalizację” reakcji PCR? Co zmienić w metodyce,
by pozbyć się produktów niespecyficznych? Jak poprawić plon reakcji? Od
czego zacząć? Czego unikać?
Dziś zwiększamy tempo, starając się już nie tylko otrzymać produkt, ale
dopracować amplifikację do perfekcji poprzez różne zabiegi chemiczne i fizyczne.
Manipulowanie stężeniami i programem termocyklera
W poprzednich częściach pisaliśmy o podstawach. O tym, jak otrzymać produkt.
Jednakże kinetyka reakcji jest często równie ważna jak sam efekt w postaci
obecności prążka na żelu. Co jeszcze możemy zrobić, by poprawić wydajność
amplifikacji?
A. Zmieniamy stężenia starterów – jeżeli na żelu po PCR widzimy na wysokości
poniżej 25-5o pz prążek, świadczy to o zbyt dużej ilości starterów dodanych do
PCR lub o słabej amplifikacji i tworzeniu par primer-dimer (czyli startery się
„kleją” same do siebie i amplifikują się zamiast matrycy!). Pary primer-dimer
możemy wyrugować podwyższając temperaturę annealingu, zaś słabą amplifikację
powinniśmy poprawić albo przez zmianę stężeń MgCl2, albo inne modyfikacje
omówione w częściach I-II.
Jeżeli nie widzimy w ogóle starterów na żelu, możemy zaryzykować podwyższenie
ich stężenia, uważając by nie przesadzić. Może to pomóc zwiększyć plon
amplifikacji lub nie, warto jednak spróbować (byle nie doprowadzić do
przeładowania starterami, widocznego na żelu).
Co jeszcze możemy zrobić ze starterami? Może się okazać że różnią się one
długością lub temperaturą annealingu,wtedy możemy zrównoważyć te różnice,
zwiększając stężenie tego z nich, który jest krótszy i ma niższą temperaturę
topnienia. Jest to stosowane najczęściej w reakcjach multiplex, w których
poszczególne pary starterów wchodzą ze sobą w interakcje i często może być
potrzebna taka ingerencja.
B. Zwiększamy ilość dNTP – raczej rzadko stosowany zabieg, może pomóc
poprzez zmianę siły jonowej roztworu. Nie należy dodawać więcej niż 2-krotnie
większej dawki dNTP niż zalecana przez producenta. bo to już w niczym nie może
pomóc.
C. Zatężanie buforu reakcyjnego – metoda wykorzystywana czasami dla
amplifikacji w multiplexie. Wiele polimeraz toleruje zwiększenie stężenia buforu
reakcyjnego od 1,1x do nawet 2x. Wyższa siła jonowa rzekomo pomaga w
amplifikacji na krótkich primerach i w reakcjach multiplex. Przy użyciu mojego
zestawu do PCR nie widziałam różnic w amplifikacji wielu różnych matryc po
zatężeniu buforu, ale wg autorów licznych publikacji (m.in. tej z Biotechniques) to
może zadziałać.
D. Ilość matrycy – zwykle rozsądną minimalną ilością DNA dodawaną do reakcji
PCR jest 10ng. Poniżej tej ilości da się wciąż otrzymać wyraźny produkt, jednak
podczas wstępnego dopracowywania warunków lepiej mieć pewność, że zbyt mała
ilość matrycy nie zakłóca przebiegu reakcji. Oczywiście matryca powinna być
wolna od zanieczyszczeń organicznych i soli, najlepiej sprawdzona uprzednio w
innej reakcji PCR i/lub oceniona spektrofotometrycznie pod kątem czystości i
stężenia.
Algorytm optymalizacji PCR
Co do cDNA nie ma tak precyzyjnych wytycznych, amplifikacja zależy w bardzo
dużym stopniu od rodzaju amplifikowanej matrycy RNA- czy jest to gen
wysokokopijny, czy też niskokopijny? Czy amplifikujemy koniec 3′ czy też 5′
transkryptu? Czy odwrotna transkrypcja była wykonana na oligo-dT, na
heksamerach,czy też na starterze specyficznym? Jakiego zestawu użyliśmy do RT?
Czasami brak produktu RT-PCR może świadczyć nie o braku amplifikacji, ale o
bardzo niskiej ekspresji amplifikowanego genu w danej próbce, albo też o
degradacji/zanieczyszczeniu matrycy. Jeśli chodzi o ilość cDNA poddawaną
amplifikacji, to starajmy się korzystać (w przeliczeniu na RNA użyte do reakcji RT)
z co najmniej 50ng RNA (dla przykładu może to być 1µl cDNA, jeżeli do 20µl
reakcji RT dodane było 1000ng RNA, bo 1000/20=50).
Jeżeli nie jesteśmy pewni, czy w naszej próbce znajduje się mało czy dużo kopii
amplifikowanego cDNA, możemy w niektórych przypadkach bardziej znanych
organizmów posiłkować się profilami ekspresji genów, dostępnymi np.w bazie
GEO lub TiGER.
Warto pamiętać jeszcze o jednym szczególe: wiele genów posiada kilka izoform
tego samego genu ( alternatywny splicing!). Dlatego przed wyrzuceniem
starterów podejrzanych o niespecyficzna amplifikację sprawdźcie, czy dodatkowe
produkty to nie warianty splicingowe!
E. Program amplifikacji: czas i temperatura (szczególnie annealingu) mają
znaczenie dla wydajności amplifikacji. Niestety tak jak w przypadku składników
mieszaniny reakcyjnej, dla każdej matrycy idealne warunki amplifikacji trzeba
wyznaczyć empirycznie. Generalnie programy PCR dzielimy na 2- i 3-etapowe.
Dwuetapowe używane są zwykle w reakcjach qRT-PCR, ale nic nie stoi na
przeszkodzie, by stosować je także w konwencjonalnym PCR. Wówczas
naprzemiennie stosuje się temperaturę annealingu (zwykle ok. 60 stopni) i
denaturację (94-95 stopni). Programy trójstopniowe pomiędzy annealingiem a
denaturacją zawierają etap elongacji w optimum termicznym enzymu, ok. 72
stopni.
Warto wspomnieć także o drugim kluczowym dla reakcji PCR elemencie: o
denaturacji wstępnej, która w przypadku enzymów rekombinowanych typu
HotStart jest niezbędna dla aktywacji polimerazy. Ten etap może być zasadniczo
pominięty dla enzymów nierekombinowanych (stosuje się zwykle tylko krótką, np.
2-minutową denaturację w 94 stopniach). Dla enzymów HotStart programujemy
cykler na dłuższą denaturację wstępną zgodnie z instrukcją producenta, zwykle na
5-15 minut w temperaturze 95 stopni.
Oczywiście manipulowanie temperaturą nie wyczerpuje możliwości
modyfikowania przebiegu reakcji. Możemy np. próbować wydłużać czas
annaelingu i/lub elongacji. Bardzo skrajnym przykładem takiego postępowania
jest tzw. rapid PCR. Ten wariant PCR polega na zerosekundowych (sic!),
naprzemiennych etapach denaturacji (95-98 stopni) i annealingu (50-65 stopni) w
namnażaniu krótkich (<100pz) amplikonów. W rezultacie cała reakcja PCR może
trwać zaledwie kwadrans i dawać całkiem ładny profil amplifikacji! (drobna
uwaga: większość zwykłych termocyklerów nie ma możliwości technicznych, by
oscylować pomiędzy temperaturą 50 stopni i 98 stopni w odpowiednich
interwałach czasowych, więc takie reakcje prowadzi się w termocyklerach do
qRT-PCR)
Kolejną ciekawą modyfikacją programu reakcji jest stosowanie tzw. „touchdown
PCR„. Jest to ciekawa propozycja szczególnie dla osób, które chcą optymalizować
multiplex PCR.
Stosujemy go jeżeli:
-mamy w mieszaninie reakcyjnej 2 pary starterów, z których jedna amplifikuje się
preferencyjnie w wyższej temperaturze, a druga w niższej,
-gdy dana para starterów tworzy pary primer-dimer
-gdy w reakcji tworzą się oprócz produktu głównego także produkty
niespecyficzne
Tradycyjnie w tych przypadkach możemy wybierać w kwestii temperatury
amplifikacji: albo amplifikujemy z gorszą wydajnością w wyższej temperaturze,
albo godzimy się na niespecyficzną amplifikację/powstawanie dimerów
starterów/nierówną amplifikację w multiplexie w niższej temperaturze. Wyjściem
pośrednim, niejako kompromisem jest sztuczka z „opadającym PCR”. Idea jest
prosta: z każdym cyklem temperatura annealingu obniża się o zadeklarowaną
ilość stopni celcjusza. Wobec tego w początkowych cyklach amplifikacja jest
gorsza (bo temperatura wyższa niż optimum), ale faworyzowany jest wyłącznie
specyficzny produkt. W kolejnych cyklach warunki amplifikacji są coraz
łagodniejsze, dążą do optimum, ale ilość specyficznego produktu
wygenerowanego w pierwszych cyklach w wyższej temperaturze jest na tyle duża,
że ma on przewagę amplifikacji nad wszelkimi „śmieciami”, które mogłyby z nim
konkurować, o ile nie zostałby zastosowany „touchdown”. Tym samym pomagamy
żądanemu amplikonowi „wybić się” w tłumie niespecyficznych produktów reakcji.
Jeszcze inną, interesującą modyfikacją programu PCR jest „pomostowanie”
annealingu i elongacji (tzw. „ramp-PCR„). Polega to w dużym skrócie na
powolnym podwyższaniu temperatury annealingu do temperatury elongacji.
Wówczas nie deklarujemy czasu trwania etapu annealingu, za to wyznaczamy jak
„stromy” ma być pomost, np.możemy zastosować „ramp” od 56 stopni do 72
stopni ze wzrostem temperatury co 1 sekundę o 0,1 stopnia albo o wiele szybszy,
jeżeli będziemy zwiększać temperaturę o 0,5 stopień. Parametr „ramp”
wpisywany jest zwykle do programu termocyklera jako %.
Co nam daje pomostowanie w PCR? Przede wszystkim może poprawić
amplifikację specyficznego produktu, szczególnie dla primerów o bardzo różnej
temperaturze annealingu. Są także matryce, które cechują się sekwencją
repetytywną. Na takich sekwencjach polimeraza lubi się „jąkać”, „mieć czkawkę”
lub „ślizgać się” (takie nazwy potoczne funkcjonują w różnych laboratoriach),
tworząc niespecyficzne produkty o kilka par zasad mniejsze lub większe niż
produkt główny. Jest to bolączką np. genotypowania polimorfizmu STR w
kryminalistyce. Pomostowanie pomaga pozbyć się tych „zająknięć” (ang.
„stuttter”), co jest kluczowe dla analiz sądowych. Poniżej przedstawiamy przykład
takiego właśnie „zająknięcia”.
Rycina 1: Zjawisko „stutter” powoduje tworzenie się małych ilości
produktów niespecyficznych o obniżonej lub (rzadko) podwyższonej
długości w stosunku do właściwego amplikonu. W tym przypadku jest to
zanieczyszczenie o niewielkim znaczeniu, niedopracowana reakcja PCR
może jednak spowodować „stutter” obciążający nawet o ponad 20%
produkt amplifikacji! Źródło ryciny.
Tym oto sposobem dobrnęliśmy do końca części trzeciej. W ostatnim odcinku
zaprezentujemy chemiczne dodatki, które pomogą stopić trudne matryce, bogate
w pary GC, podsumujemy też cały cykl artykułów. Dziś nie pozostaje mi już nic
innego, jak życzyć Wam dalszych udanych optymalizacji.
Piśmiennictwo:
Doświadczenia własne
Czy wirus Zika zapuka do naszych
drzwi?
Oczy ludzi z całego świata zwrócone są w kierunku Ameryki, gdzie z
pozoru mało szkodliwy wirus Zika zbiera straszne żniwo wśród
noworodków. Aktualna sytuacja to brak szczepionki przeciwko wirusowi.
Brak jest także lekarstwa.
Powaga problemu wywołała ogólnoświatowe poruszenie. Centers for Disease
Control and Prevention (CDC) oraz Pan American Health Organization (PAHO)
zareagowały natychmiast, wydając szereg zaleceń związanych m.in. z
ograniczeniem populacji komarów przenoszących wirusa, kampaniami
informacyjnymi, zaleceniami dla osób podróżujących, przyspieszyły także prace
badawcze nad szczepionką oraz wydały oświadczenie o zdrowiu publicznym.
Prasa wręcz wrze o skutkach zakażenia wirusem, a naukowcy i instytucje kontroli
epidemiologicznych próbują znaleźć najszybsze i najskuteczniejsze rozwiązanie
problemu.
Stosunkowo mało wiemy o wirusie Zika w porównaniu do wiedzy na temat
innych patogenów przenoszonych przez komary.
Wiemy, że nie ma szczepionki ani skutecznych leków przeciwwirusowych. Wiemy,
że możemy zapobiegać przez stosowanie repelentów i unikanie ukąszeń komarów.
Gdzie występuje wirus?
O wirusie wiemy już od 1947 roku, kiedy pojawił się w lasach tropikalnych Zika w
Ugandzie pierwszy przypadek. Niemniej jednak, udokumentowana epidemia
wybuchła dopiero w 2007 roku w Azji Południowej i regionie Pacyfiku. Począwszy
od 2013 roku pojawiły się kolejne epidemie – we wschodnim rejonie Pacyfiku, obu
Amerykach i Afryce [1].
Na chwilę obecną wirusa nie wykryto w Polsce, ale pojawiły się pierwsze
przesłanki ku temu – podejrzenie o przenoszenie wirusa przez inne gatunki
komarów czy możliwość zakażenia drogą płciową. Największym problemem jest tu
mobilność ludzi. Znane są już pierwsze przypadki zakażeń w Europie – w Danii,
Szwecji, Hiszpanii i Wielkiej Brytanii – u osób które podróżowały do zagrożonych
terenów [2,3,4].
Jak może dojść do zakażenia?
Głównym wektorem wirusa są komary Aedes, które przenoszą także wirusy
chikungunya, dengi oraz żółtej febry. Wirus Zika przenoszony jest przede
wszystkim przez Aedes aegipti oraz Aedes albopictus. Pierwszy gatunek
występuje w klimacie tropikalnym i subtropikalnym, nie będąc w stanie przetrwać
niższych temperatur, drugi wykazuje zdolność hibernacji w niskich
temperaturach. Naturalny cykl transmisji wirusa obejmuje jednak większość
gatunków z rodzaju Aedes (A. furcifer, A. taylori, A. luteocephalus oraz A.
africanus ) [1, 8].
Naukowcy z Brock University w St. Catharines pracują nad określeniem czy
powszechnie występujący rodzaj komarów Culex może przenosić wirusa Zika.
Aktualnie jest zbyt mało badań, aby z całą pewnością to potwierdzić. Komar ten
przenosi wiele arbowirusów, pokrewnych wirusowi Zika. Culex zwykle przenoszą
wirusy, których gospodarzem pośrednim są ptaki, podczas gdy w przypadku
wirusa Zika są to ludzie. Badacze z Oswaldo Cruz Foundation in Recife,
Pernambuco State twierdzą, że transmisja dzięki komarom Culex jest możliwa i
prowadzą dogłębne badania w tym kierunku [2]. Przenoszenie Zika
przez Culex nie wydaje się nieprawdopodobne. Już wcześniej zaobserwowano
adaptacyjne zmiany genetyczne wirusa, łącząc brak glikozylacji w pozycji N154
białka otoczki z przystosowaniem się do Aedes dalzieli jako wektora i idącym za
tym zwiększeniem zakaźności [8].
Komary tak, ale nie tylko….
Odnotowano przypadki zakażenia wirusem Zika drogą płciową i poprzez
preparaty krwiopochodne.
Transmisja drogą płciową jest niezwykle rzadka. Dotychczas zgłoszono trzy takie
przypadki.
I. W 2008 roku biolog Brian D. Foy, prowadzący wraz z Kevinem Kobylinskim
badania nad malarią w Senegalu, wrócił do Kolorado, zarażając wirusem swoją
żonę. U obydwojga pojawiły się podobne objawy w postaci wysypki, zmęczenia i
bólu głowy. Pobrano wówczas od chorych krew na badania w kierunku chorób
typowych dla Afryki Zachodniej: malarii, dengi i gorączki krwotocznej. Wszystkie
testy wyszły negatywnie. Ich krew zamrożono z myślą o przyszłości, ponieważ
infekcja, którą przeszli pozostała niewyjaśniona. Rok później Kobylinski wrócił do
Senegalu, gdzie inny naukowiec zasugerował mu wirus Zika jako przyczynę
zachorowania [4, 7].
II. W 2013 roku wykryto za pomocą odwrotnej transkrypcji real-time PCR wykryto
wysoki poziom wirusa Zika w nasieniu 44-letniego mieszkańca Tahiti. Nie
wiadomo jak długo wirus pozostawał w jego ciele, ale utrzymywał się w nasieniu
nawet wtedy, gdy nie był już wykrywany we krwi. Obecność wirusa stwierdzono
także w moczu pacjenta [3, 4].
III. Na początku stycznia 2016 roku osoba podróżująca z Wenezueli do Teksasu
zaraziła swojego partnera seksualnego [4].
Zakażenie wirusem Zika poprzez preparaty krwiopochodne jest niezmiernie
rzadkie, ale nie jest już abstrakcją. Na problem zwrócono uwagę podczas
wybuchu epidemii w Polinezji w 2013 roku. W marcu 2015 roku został
zainfekowany mężczyzna, który otrzymał krew zakażonego dawcy. Natomiast w
kwietniu tego samego roku, po wielokrotnych przetoczeniach krwi, zainfekowano
osobę z ranami postrzałowymi [3,11].
Jakie są objawy zakażenia?
Zakażenie zwykle przebiega łagodnie. Pierwsze objawy pojawiają się kilka dni po
zainfekowaniu i trwają od 2 do 7 dni. Wśród symptomów zakażenia wirusem Zika
wymienia się wysypkę, bóle mięśni i stawów, zapalenie spojówek, gorączkę i
ogólne zmęczenie. Aż 80% zarażonych nie wykazuje żadnych objawów [1, 5].
Skoro choroba ma łagodny przebieg to czego się boimy….?
Boimy się komplikacji choroby, powiązano bowiem wirusa Zika ze wzrostem ilości
przypadków syndromu Guillain-Barré (system immunologiczny atakuje układ
nerwowy) oraz mikrocefalią (wada rozwojowa charakteryzująca się nienaturalnie
małymi wymiarami czaszki). Trwają badania w tym kierunku [1,5]. Wiadomo
jednak, że liczba dzieci urodzonych z mikrocefalią wzrosła 20-krotnie, odkąd po
raz pierwszy w maju 2015 roku pojawił się w Brazylii wirus Zika [6].
Nasuwa się więc pytanie: Skoro wirus jest w Brazylii to czy przykładowa Pani
Kowalska może się zarazić i urodzić dziecko z mikrocefalią?
Tak, nie, być może. Odpowiedź nie jest jednoznaczna. Jest wciąż zbyt dużo
niewiadomych. Żeby doszło do zakażenia Pani Kowalskiej musiałby nastąpić
wyjątkowo niekorzystny zbieg okoliczności lub owa Pani wykazywałaby wysoce
ryzykowne zachowanie, podróżując na tereny endemiczne. Pozostaje jeszcze
niewyjaśniona kwestia komarów Culex, potwierdzenie powiązania mikrocefalii z
wirusem, transmisja przez krew czy stosunek płciowy.
Jak wykryć czy jestem zakażony?
Aktualnie nie ma żadnego komercyjnego testu na wirus Zika. W celu
potwierdzenia infekcji pobiera się krew pacjenta w pierwszym tygodniu trwania
infekcji i wysyła do specjalistycznych laboratoriów wykonujących badania
metodami biologii molekularnej.
Algorytm obejmujący sposób pobierania i badania próbek opisuje CDC w
specjalnych zaleceniach.
Krew na badania serologiczne metodą ELISA powinna zostać pobrana ≥4 dnia od
wystąpienia objawów. Należy jednak pamiętać, że poziom specyficznego IgM
może być niewykrywalny nawet po 7 dniach od zachorowania. Warto także
zwrócić uwagę na pokrewieństwo z wirusem dengi czy gorączki krwotocznej,
które może powodować wystąpienie reakcji krzyżowych. Pozytywne wyniki testu
ELISA są potwierdzane testami neutralizacji [1,9].
Szczegółowe algorytmy postępowania można znaleźć tutaj.
Jestem w wieku prokreacyjnym, planuję dziecko, jestem w ciąży, co mogę
zrobić?
CDC opracowało zalecenia dla kobiet ciężarnych. Algorytm jest dość
skomplikowany. W przypadku, gdy kobiety przebywały na terenach, gdzie istniała
możliwość zakażenia się wirusem Zika, powinny skonsultować się z lekarzem.
Jeżeli podczas podróży lub do 2 tygodni po jej zakończeniu pojawiły się u nich
objawy takie jak gorączka, wysypka, bóle stawów czy zapalenie spojówek,
powinny mieć wykonane testy z krwi. W styczniu 2016 roku dodano zalecenie, że
ciężarne asymptomatyczne wracające z niebezpiecznych terenów, powinny także
zbadać się w czasie od 2 do 12 tygodni po powrocie.
Ze względu na dużą ilość fałszywie pozytywnych wyników testów serologicznych
oraz krótki okres na pobranie krwi po zainfekowaniu, sugeruje się wykonanie USG
bez względu na uzyskany wynik testów krwi. Niektórym zaleca się amniocentezę z
powodu ograniczeń ultrasonograficznych w pierwszych dwóch trymestrach ciąży
w tym zakresie. Osobom planującym dziecko poleca się antykoncepcję do czasu
opanowania sytuacji epidemiologicznej [4].
Jakie są kierunki badań mających na celu ograniczenie rozprzestrzeniania
się wirusa?
Przede wszystkim badania kierują się ku wektorom zakażenia.
Od 2011 roku w Australii, Wietnamie, Indonezji, Brazylii i Kolumbii prowadzone
są badania nad zastosowaniem bakterii znanej jako Wolbrachia w ramach
programu Eliminate Dengue. Naukowcy przetransferowali bakterię do
komarów Aedes aegypti, co znacznie zmniejszyło zdolność owadów do
przenoszenia dengi. Test skuteczności metody przeprowadzono w 2014 roku w
Townsville w stanie Queensland. Odniesiono niebywały sukces – w ciągu kilku
miesięcy doszło do znacznego spadku zachorowalności na dengę.
W związku z bliskim pokrewieństwem wirusa dengi i Zika, upatruje się
możliwości wykorzystania Wolbrachia także na terenach endemicznych wirusa
Zika [10, 12].
Oxitec wraz z Piracicaba City Hall opracowali projekt kontroli populacji
komarów A.aegypti. W kwietniu 2015 roku uwolniono samoograniczającą się
populację komarów, których potomstwo nie przeżywa. Pod koniec 2015 roku
uzyskano zmniejszenie ilości larw komarów o 82%. W Brazylii, Panamie i na
Kajmanach przeprowadzono badania kliniczne genetycznie zmodyfikowanych
komarów. Uzyskano ponad 90% supresję dzikich A.aegypti [13].
W III fazę badań klinicznych wkracza także szczepionka przeciw wirusowi dengi.
Być może bliskie pokrewieństwo patogenów pozwoli na sprawne opracowanie
szczepionki także przeciw wirusowi Zika [14].
Algorytm optymalizacji PCR
Należy pamiętać, że sprawy epidemiologiczne nie mają miejsca w izolacji, tylko i
wyłącznie w jednym punkcie. W obecnych czasach infekcje z najodleglejszych
zakątków świata mogą zapukać do naszych drzwi.
mgr Agnieszka Helis, diagnosta laboratoryjny
Piśmiennictwo:
1.WHO. Zika virus: Questions and answers. WHO, 20 Jan 2016.
2.CBC News. Canadian mosquito spread of Zika untested.CBC, 29 Jan 2016.
3.Musso D. et al. Potential sexual transmission of Zika virus. Emerg Infect dis,
2015, 21,2: 359-361.
4.Oster AM. et al. Interim Guidelines for Prevention of Sexual Transmission of
Zika Virus — United States, 2016. MMWR, 2016; 65, 5: 1-2.
5.Emory University. Zika virus ‚a game-changer’ for mosquito-borne diseases.
ScienceDaily. 26 Jan 2016.
6.Bogoch II. et al.Anticipating the international spread of Zika virus from Brazil.
Lancet, 2016; 387,10016: 335-336.
7.Foy BD. et al. Probable Non–Vector-borne Transmission of Zika Virus, Colorado,
USA. Emerg Infect Dis, 2011; 17, 5: 880–882.
8.Faye O. et al. Molecular Evolution of Zika Virus during Its Emergence in the
20th Century. PLoS Negl Trop Dis, 2014; 8, 1: e2636.
9.CDC. Revised diagnostic testing for Zika, chikungunya, and dengue viruses in
US Public Health Laboratories. CDC, Division of Vector-Borne Diseases, 7 Feb
2016.
10.Lambrechts L. et al. Assessing the epidemiological effect of wolbachia for
dengue control. Lancet, 2015; 15,7: 862-866.
11.Schnirring L. Brazil confirms blood-transfusion Zika; PAHO calls for global
support. CIDRAP News, 4 Feb 2016.
12.Program Eliminate Dengue
13.Creese C. Expansion of Oxitec’s Vector Control Solution in Brazil Attacking
Source of Zika Virus and Dengue Fever after Positive Program Results. Oxitec, 19
Jan 2016.
14.Butantan Institute. Phase III Trial to Evaluate Efficacy and Safety of a
Tetravalent Dengue Vaccine, 14 Jan 2016.

Podobne dokumenty