Powszechny Program Sprawdzianów Chemicznych w Polsce w
Transkrypt
Powszechny Program Sprawdzianów Chemicznych w Polsce w
diagnostyka laboratoryjna Journal of Laboratory Diagnostics 2011 • Volume 47 • Number 1 • 17-29 Kontrola jakości • Quality Control Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010 General programme of chemical surveys in Poland during 2001-2010 period Andrzej M. Brzeziński, Barbara Przybył-Hac Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej, Łódź Streszczenie Rozpoczęty w 1981r. powszechny program chemiczny, obejmujący „wszystkie” laboratoria kraju, został w r.2001 gruntownie zmodyfikowany, z wprowadzeniem 4 sprawdzianów w roku i oznaczaniem 25 składników w dwóch materiałach kontrolnych równolegle. Po 10 latach można podsumować efekty tych zmian. Podczas całej dekady następował bardzo efektywny proces prywatyzacji laboratoriów – procent laboratoriów niepublicznych wzrósł z 25% uczestniczących laboratoriów w r.2001 do 55% w r.2010. Równolegle następowały bardzo znaczne zmiany wyposażenia laboratoriów. W r.2001 ponad 50% wyników kontrolnych było wyznaczonych starymi metodami manualnymi, a po 10 latach dotyczyło to już tylko 16% wyników. Jednocześnie zachodziła bardzo intensywna wymiana używanych analizatorów z towarzyszącymi zmianami wykorzystywanych metod i odczynników. Te wszystkie zmiany zdecydowanie dodatnio wpłynęły na jakość ocenianych wyników kontrolnych. Wysoce użytecznym okazuje się wprowadzony nowy wskaźnik jakości – wskaźnik regularności oznaczeń, związany z liczbą zaliczonych w ciągu roku sprawdzianów. Średni wskaźnik regularności wzrósł w ciągu 10 lat z 3,78 do 4,39 pkt. Jakość wyników kontrolnych jest silnie powiązana z wielkością laboratoriów – wskaźnik regularności wahał się od 4,01 pkt. w laboratoriach najmniejszych do 4,74 pkt. w największych. Summary Initiated in 1981 general chemical programme for “all” polish laboratories has been completely rebuilt in 2001, with four surveys a year (25 constituents, 2 samples simultaneously). After ten years some effects of these changes can be summarised. During whole period changes of public laboratories to non-public (private) were very effective – the per cent of non-public laboratories increased from 25 per cent of all participants in 2001 to 55 per cent in 2010. In the same time modifications of laboratory equipment were extremely effective. In 2001 over 50 per cent of control results were obtained with old manual methods and after ten yours it was about 16 per cent only. Simultaneously striking changes of used analysers were observed with parallel changes in methods and reagents. Obviously all these alterations very positively influenced the quality of control results. Very useful seems to be a new quality index – regularity index, connected with number of surveys accepted during the year. The means regularity index for all estimated constituents in all participating laboratories during ten years had increased from 3,78 to 4,39 points. The quality of control results are strongly dependent on the size of laboratory – the regularity index increase from about 4,01 points in the smallest to 4,74 points in the biggest laboratories. Słowa kluczowe:aparatura laboratoryjna, metody oznaczeń, wartości umownie należne, wskaźnik regularności Key words:laboratory equipment, methods of estimation, consensus values, regularity index Wstęp Zgodnie z wcześniejszymi postulatami, w 2001r. radykalnie zmodyfikowano prowadzony regularnie od 1982r. tzw. powszechny program sprawdzianów chemicznych, obejmujący oceną porównawczą oznaczenia podstawowych składników chemicznych surowicy we „wszystkich” medycznych labora- zlikwidowano podział składników na 10 „podstawowych” i 11 „ponadpodstawowych”, poszerzając jednocześnie panel ocenianych składników do 25, ujednolicono liczbę oznaczanych równolegle materiałów kontrolnych – zawsze 2. Istotny problem stanowi ocena poprawności / wiarygodności wyznaczanych przez uczestników sprawdzianów wartości toriach diagnostycznych kraju. Dwukrotnie zwiększono – z 2 do 4 – liczbę przeprowadzanych w ciągu roku sprawdzianów, oznaczeń kontrolnych. W Polsce brak realnych możliwości wyznaczenia odpowiednimi metodami tzw. wartości defini17 Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010 tywnych bądź wartości referencyjnych ocenianych składników, a możliwości nabycia materiałów kontrolnych z takimi wartościami są bardzo ograniczone. Z konieczności wyniki uzyskiwane przez uczestników sprawdzianów oceniane są względem wartości umownie należnych, będących pochodnymi wyników użytkowników programu. Wykorzystywanych jest kilka poziomów tych wartości – poza mało miarodajnymi średnimi ogólnymi (z wszystkich nadesłanych wyników) zwykle próbuje się określić warunki uzyskania ocenianych wyników, a więc stosowaną metodę analityczną (średnie metodyczne), ewent. dodatkowo wykorzystywany do oznaczeń aparat pomiarowy (średnie metodyczno-aparaturowe), a także odczynniki (średnie metodyczno-aparaturowo-odczynnikowe). Ponieważ wyniki uczestników oceniane są jako odchylenie procentowe od formalnie punktowych wartości umownie należnych (w rzeczywistości są to wartości przedziałowe, co należy uwzględnić przy przyjmowaniu dopuszczalnych granic błędu), to mniej istotny jest sposób oczyszczenia wyjściowego zbioru wyników od wartości, których przynależność do ocenianego zbioru jest wątpliwa (krańcowo – tzw. outliers). Wykorzystywana jest regułą 22S, choć wartości bardzo zbliżone uzyskuje się stosując regułę 13S. Znacznie istotniejsza jest minimalna liczebność zbioru, umożliwiającą wyliczenie odpowiedniej średniej. Przyjęto, że warunkiem wyliczenia średniej jest co najmniej 6 homogennych wyników (zdecydowanie za mało!), co spowodowane było dużym zróżnicowaniem wyposażenia i wykorzystywanych odczynników. Problem się dezaktualizuje, ponieważ zanikają oferujące dużą dowolność doboru warunków oznaczenia metody manualne czy w pełni „otwarte” analizatory (np. Cobas Mira, Express). Nowoczesne analizatory są na ogół wyraźnie powiązane z wybranymi przez producenta metodami oraz firmowymi odczynnikami, coraz bardziej stanowiąc de facto układy zamknięte. Nawet firmy pierwotnie typowo „odczynnikowe” (np. Cormay) starają się związać swoje produkty z rozprowadzanymi / promowanymi przez siebie analizatorami, z dobrym na ogół rezultatem. Będąca podstawą oceny wielkość dopuszczalnego błędu (dopuszczalnego odchylenia procentowego od wartości na- Uczestnicy program Powszechny program sprawdzianów chemicznych z założenia miał być najbardziej podstawowym, obejmując „wszystkie” medyczne laboratoria diagnostyczne wykonujące – choćby wybiórczo – objęte oceną oznaczenia podstawowych składników surowicy (początkowo 10, obecnie 25). Wobec braku wykazu działających w kraju laboratoriów największą trudnością od początku było zidentyfikowanie potencjalnych użytkowników programu. Należy podkreślić, że zapraszane do uczestnictwa laboratoria na ogół chętnie nawiązywały współpracę (uczestnictwo w programie nie było obligatoryjne), choć później bywały trudności z wyegzekwowaniem terminowego odsyłania wyników kontrolnych. Formalnie sytuacja uległa radykalnej zmianie od 1.IV.2009r., kiedy to zgodnie z rozporządzeniem Ministra Zdrowia (z dn.23 marca 2006r., Dz.U. Nr 61 poz.435 i dn.21 stycznia 2009r., Dz.U. Nr 22 poz.128) zostały wdrożone obowiązujące w laboratoriach standardy, w tym m.in. obowiązek uczestnictwa w podstawowych programach sprawdzianów organizowanych przez Centralny Ośrodek. Wbrew obawom obligatoryjność uczestnictwa w programach nie spowodowała napływu nowych zgłoszeń od laboratoriów nie objętych programem. Wydaje się, że nawet bez takiej klauzuli niemal wszystkie (?) objęte programem (zakres wykonywanych badań!) laboratoria już wcześniej nawiązały współpracę z Centralnym Ośrodkiem. Oczywiście nie można określić, czy i ile placówek nie podporządkowało się rozporządzeniu Ministra Zdrowia. W ocenianym okresie największą liczbę uczestniczących w programie laboratoriów (i automatycznie największą liczbę ocenianych wyników kontrolnych) zaobserwowano w 2004r., później następował systematyczny choć powolny spadek (r.2007 – 1816 lab., r.2008 – 1764 lab., r.2009 – 1729 lab., r.2010 – 1696 laboratoriów + około 60 aparatów dodatkowo poddanych ocenie). Jednocześnie przez całą dekadę następowały wśród uczestników programu intensywne zmiany, które częściowo można odczytać z tab. V. Aczkolwiek tabela ta poświęcona jest ocenie poprawności (regularności) oznaczeń, uzyskiwanej w kolejnych latach przez różne grupy laboratoriów, to w każdym polu wynikowym w lewym górnym leżnych) jest ustalana arbitralnie, różniąc się w rozmaitych programach zależnie od sposobu wyznaczania wartości należnych (wartości definitywnie czy umownie należne), liczby równolegle ocenianych próbek czy celu prowadzonych sprawdzianów – szkoleniowy czy licencyjny. Ponieważ w Polsce prowadzone programy sprawdzianów mają wyłącznie charakter informacyjno-szkoleniowy, nie powodując dla uczestników żadnych negatywnych skutków administracyjnych, a wykorzystywanymi wartościami odniesienia są najkorzystniejsze dla uczestników wartości umownie należne dostosowane do warunków prowadzenia oznaczeń (a nie wartości definitywne), przyjmowane w Polsce granice dopuszczalnego błędu mogą być bardziej rygorystyczne niż np. w RFN. Zostały one zresztą w r.2002 dla 14 podstawowych składników zaostrzone (np. glukoza, cholesterol i moczany: ± 8% zamiast ± 10%). rogu podana jest liczba laboratoriów danej klasy / podgrupy. Najistotniejszą a jednocześnie najwyraźniejszą zmianą jest wyraźna kontynuacja zapoczątkowanego w połowie lat 90. procesu prywatyzacji laboratoriów. Jeżeli wg posiadanych danych laboratoria niepubliczne stanowiły w r.1994 – 5,6%, to w r.2001 ok. 25-30%, a w r.2010 – już ok. 55% objętych programem placówek. Z dużym opóźnieniem w połowie ostatniej dekady. wprowadzono nową, wcześniej nieznaną grupę laboratoriów – niepubliczne laboratoria szpitalne. W tradycyjnie od 1981r. prowadzonej klasyfikacji laboratoria tej grupy zastąpiły laboratoria przemysłowe. Laboratoria przemysłowej służby zdrowia, głownie małe, jeszcze na początku lat 90. stanowiły ponad 30% ogółu laboratoriów. Każdy zakład przemysłowy chciał mieć „własną” przychodnię – i to wraz z laboratorium. Później, równolegle do postępującej likwidacji przemysłowej służby zdrowia następował bardzo 18 A.M. Brzeziński i B. Przybył-Hac szybki spadek liczby tych laboratoriów, a pozostałe zostały w latach 2006/2007 dołączone do publicznych laboratoriów „otwartych”. Prywatyzacja początkowo objęła laboratoria otwartej opieki zdrowotnej i na początku dekady liczba laboratoriów tej grupy szybko rosła (r.2001 – 462 lab., r.2005 – 815 laboratoriów), by później ulegać powolnemu spadkowi – część uległa likwidacji, a część przeszła do utworzonej grupy niepublicznych laboratoriów szpitalnych. Wśród laboratoriów niepublicznych początkowo zdecydowanie przeważały placówki bardzo małe, zatrudniające 1-3 pracowników fachowych, o bardzo skromnym wyposażeniu i adekwatnym poziomie usług. Jak już wielokrotnie podnoszono, wprowadzony w 1980r. podział laboratoriów na 4 klasy wielkości zależnie od liczby zatrudnionych pracowników fachowych jest przy postępującej automatyzacji oznaczeń niewątpliwym anachronizmem. Jest jednak wykorzystywany z braku lepszych kryteriów. Zwraca uwagę bardzo znaczny udział laboratoriów najmniejszych – w 2001 r. stanowiły blisko 30% ogółu placówek, a następnie liczba ich wyraźnie rosła, głownie z powodu postępującej prywatyzacji – z 455 laboratoriów w 2001 r. do 690 laboratoriów w 2005 r. Dopiero od połowy dekady liczba ich zaczęła się zmniejszać – część placówek nie zdołała się utrzymać i uległą likwidacji, a część „urosła” do następnej klasy wielkości. Ogólnie laboratoria niepubliczne stanowiąc w 2010 r. ok. 55% ogółu uczestników programu przeważają w grupach laboratoriów bardzo małych i małych (≤ 10 prac. fach.), stanowiąc ok. 66-70% laboratoriów tych grup. Wśród laboratoriów średnich laboratoria prywatne są w mniejszości (ok. 33%), a wśród placówek dużych (≥ 25 prac. fach.) wyraźnie przeważają publiczne / akademickie laboratoria szpitalne, natomiast placówki niepubliczne stanowią zaledwie 12,5% tej grupy. Wyposażenie Zaobserwowane w ciągu minionej dekady zmiany wyposażenia laboratoriów uczestniczących w programie są wręcz nieprawdopodobne. Ze względów technicznych łatwiej jest te zmiany obrazować liczbą ocenianych wyników kontrolnych (w tysiącach), wyznaczonych odpowiednią techniką ną zestawiono w tab.I i na ryc.1. W górnej części tabeli I i na ryc.1A zestawiono (w tysiącach) liczbę wyników kontrolnych, wyznaczanych w kolejnych latach różnymi technikami. Przejście z metod manualnych (spekrofotometry) na zautomatyzowane następowało bardzo szybko, ulęgając dodatkowemu przyśpieszeniu w drugiej połowie minionej dekady. Tylko w r.2007 w stosunku do roku poprzedniego liczba wyników uzyskanych techniką zautomatyzowaną zwiększyła się o 11%, a techniką manualną – zmniejszyła się o 23% (!). W ocenianym okresie nieznacznie zmniejszyła się liczba analizatorów ISE – stały się one integralną składową większości nowoczesnych analizatorów biochemicznych. Na ryc.1B przedstawiono zmiany liczby wyników kontrolnych wyznaczonych dwoma flagowymi w tym okresie (sytuacja będzie się niewątpliwie zmieniać!) aparatami – w latach 2001-2010 liczba wyników kontrolnych uzyskanych aparatami Cobas Integra wzrosła ponad 6-krotnie (z 6,4 do 41,4 tys.), natomiast panującymi w latach 90. spektrofotometrami Epoll zmniejszyła się o blisko 70%, z 53 tys. do 17,4 tys./ rocznie. Na ryc.1C zestawiono kilka wybranych przykładowo analizatorów o szybko rosnącej popularności. Szczególnie widowiskowy jest przyrost wyników wyznaczanych analizatorami A15 i A25, rozprowadzanymi przez firmę BioSystems – z 0,2 tys. w r.2004 do 17,6 tys. w r.2010. W ciągu kilku lat liczba tych aparatów przekroczyła 150 szt., co jest wyrazem zmian wyposażenia w małych placówkach (tylko 1 taki analizator jest wykorzystywany przez laboratoria uczestniczące w programie centralnym). Na ryc.1D zestawiono przykładowo kilka analizatorów / spektrofotometrów wyraźnie wychodzących z użycia, m.in. tak popularne w latach 90. analizatory Cobas Mira i Express. Odczynniki. Z wielu przyczyn – zarówno merytorycznych jak i handlowych – podobnie jak na całym świecie zaopatrzenie odczynnikowe stało się wtórne względem wyposażenia aparaturowego. Dobrym przykładem może być P.Z. Cormay. W początkowym okresie transformacji firma znacząco przyczyniła się do modernizacji metodycznej polskich laboratoriów, wprowadzając na rynek pierwsze rodzime zestawy do enzymatycznego oznaczania np. glukozy czy cholesterolu. czy określonym typem aparatu, niż liczbą sztuk poszczególnych analizatorów. Naturalnie występuje ścisła korelacja pomiędzy tymi dwoma szeregami wartości – liczba wyników kontrolnych jest oczywiście funkcją wykorzystywanych aparatów. Istotnym ograniczeniem jest fakt, że w programach kontrolnych każde laboratorium – niezależnie od wielkości i obciążeń rutynowych – wykonuje dla każdego poddanego ocenie składnika taką samą liczbę 8 oznaczeń w roku. Aczkolwiek w r.2001 wśród wyników oznaczeń kontrolnych nieznacznie przeważały wartości wyznaczone metodami manualnymi nad wyznaczonymi z wykorzystaniem analizatorów (109 tys. vs 103,7 tys.), to nie należy wątpić, że ponieważ analizatory były przede wszystkim w laboratoriach dużych, to wśród wyników rutynowych dla pacjentów zdecydowana większość została uzyskana techniką zautomatyzowaną. Zmiany wyposażenia laboratoriów objętych regularną oce- Później zaczęła tracić nieco swą pozycję, by ostatnio wrócić jako źródło zaopatrzenia w odczynniki na 3. miejsce – w dużej mierze dzięki zabezpieczaniu odczynników do rozprowadzanych przez siebie analizatorów, początkowo dobrych Prestige 24, a obecnie dodatkowo Accent 200 i 300. Duża popularność analizatorów Cobas Integra (a także innych analizatorów Roche) oraz analizatorów rkz i ISE byłej firmy AVL oraz dzięki wykorzystywaniu wyłącznie „własnych” odczynników firma Roche jest bezsprzecznym liderem – w 2010 r. niemal co czwarty wynik kontrolny był wyznaczony odczynnikami f-my Roche (24,5%). Na drugim miejscu (11,7%) znajdują się odczynniki f-my BioSystems (nie tylko dzięki analizatorom A15 i A25), a następnie Cormay (8,9%), BioMaxima (6,2%, analizatory Metrolab), α-Diagnostics (5,6%), Olympus (5,2%). Jak wielokrotnie podkreślano, dane te nie obrazują podziału rynku odczynnikowego w Polsce, 19 Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010 dotycząc wyłącznie oznaczeń kontrolnych, których liczba dla każdego ocenianego składnika jest niezmiennie ta sama (8 / rok), niezależnie od wielkości laboratorium i liczby oznaczeń rutynowych. Przykładowo odczynnikami f-my Olympus jest przypuszczalnie wyznaczanych wyraźnie więcej wyników dla pacjentów, niż odczynnikami dystrybuowanymi przez firmę α-Diagnostics, ponieważ analizatory Olympus eksploatowane są przede wszystkim w dużych laboratoriach, o znacznej liczbie oznaczeń rutynowych. Popularne analiza- tory Konelab wykorzystują odczynniki zarówno f-my Thermo / Kone, jak i f-my bioMerieux, z postępującą przewagą tych pierwszych (aktualnie 2:1). Blisko 60 zgłoszonych analizatorów Vitros jest absolutnie uzależnionych od firmowych filmów wielowarstwowych („slajdów”), ale ponieważ nie mogą być one wykorzystane z innymi analizatorami, to pozycja „odczynników” Ortho Clinical Diagnostics jest adekwatna do liczby / pozycji analizatorów Vitros (obecnie 9. pozycja, 3,6% wyników kontrolnych). Należy żałować, że brak danych na te- Tabela I. Zmiany wyposażenia laboratoriów uczestniczących w powszechnym programie chemicznym w latach 2001-2010 - podano w postaci liczby nadesłanych w ciągu roku wyników kontrolnych. Rycina 1. Zmiany wyposażenia laboratoriów uczestniczących w programie oceniane na podstawie warunków uzyskiwania wyników oznaczeń kontrolnych (w tys. wyników rocznie). A-wyniki uzyskane techniką a) manualną i b) zautomatyzowaną. B-wyniki uzyskane aparatami a) Cobas Integra i b) Epoll. C i D-wyniki uzyskane kilku wybranymi analizatorami czy spektrofotometrami 20 A.M. Brzeziński i B. Przybył-Hac mat rzeczywistego wykorzystywania w Polsce odczynników różnych firm. W dalszym ciągu otrzymywane są informacje o wyznaczaniu części oznaczeń kontrolnych odczynnikami o znikomej popularności. W krańcowych przypadkach (0,01% oznaczeń kontrolnych !) są to najprawdopodobniej pomyłki, choć nie zawsze sytuacja jest tak oczywista. Pozostaje niewytłumaczalny problem ew. opłacalności tak znikomej produkcji / importu. Ze zdumieniem znaleziono pojedyncze małe laboratoria posługujące się „własnymi” odczynnikami, przede wszystkim do oznaczeń białka całk., kreatyniny (met. statyczne) czy nawet bilirubiny (met. Jendrassika). Metody analityczne W latach 80. i 90. ubiegłego wieku intensywnie propagowano wprowadzanie nowych metod o zwiększonej czułości i swoistości, przede wszystkim enzymatycznych. Starano się wyeliminować oznaczanie glukozy met. Hultmana, cholesterolu met. Libermanna-Burcharda, mocznika met. z dwuacetylem czy akt. aminotransferaz met. Reitmana-Frankela. Ponieważ zdecydowanie przeważały wówczas met. manualne ewent. proste, w pełni „otwarte” analizatory, to dokonanie zmian było autonomiczną decyzją każdego laboratorium, a Centralny Ośrodek tylko promował określone rozwiązania. Przykładowo jeżeli w 1984r. zaledwie 3,9% oznaczeń kontrolnych glukozy i 1% oznaczeń kontrolnych cholesterolu zo- stało wyznaczonych nowoczesnymi metodami enzymatycznymi, to w 1994 r. – już po blisko 90% nadesłanych do oceny wyników. Obecnie obserwowane zmiany metodyczne zwykle nie są aż tak radykalne, są jednak wyraźne choć przede wszystkim determinowane wykorzystywanym przez laboratoria wyposażeniem. Niemal wszystkie nowoczesne analizatory systemami „otwartymi” są wyłącznie dla celów propagandowych. De facto są to najczęściej systemy zamknięte, powiązane z zalecanymi / wybranymi przez producenta metodami i firmowymi odczynnikami. Decyzja laboratoriów o wyborze preferowanej metody analitycznej jest najczęściej podejmowana wraz z decyzją o zakupie określonego analizatora – wszelkie późniejsze zmiany (metody, odczynników) są bardzo kłopotliwe i trudne do przeprowadzenia, przy na ogół biernym oporze producenta aparatu. Jednocześnie ta pewna „sztywność” stosowanych rozwiązań bardzo korzystnie wpływa na jakość / poprawność wyznaczanych wartości, a średnie metodyczno-aparaturowe stają się jednocześnie średnimi metodyczno-aparaturowo-odczynnikowymi, zwiększając porównywalność warunków uzyskania ocenianych wartości. Niezależnie od przyczyny, obserwowane zmiany wykorzystywanych metod są znaczne, co dla 13 ocenianych składników (z 25) przedstawiono w tab. II, a dla ośmiu dodatkowo na ryc. 2. Jak podano już wcześniej, absolutnie panująca w latach 80. i 90. met. fotometrii płomieniowej jest Tabela II. Przykładowe zmiany metodyczne oznaczania wybranych składników powszechnego programu chemicznego w latach 2001-2010 - podano odsetek wyników kontrolnych uzyskanych przedstawionymi metodami. 21 Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010 Rycina 2. Zmiany metodyczne w latach 2001-2010 oznaczania wybranych składników: a) Sód/Potas, b) Magnez, c) Chlorki, d) CK, e) Mocznik, f) Kreatynina, g) Glukoza, h) AST/ALT. Oś rzędnych – % nadesłanych wyników, identyfikacja metod w tabeli II w 2010 r. rzadko wykorzystywana (zaledwie 3,2% nadesłanych wyników kontrolnych), zastąpiona oznaczeniami potencjometrycznymi z wykorzystaniem elektrod jonoselektywnych, przede wszystkim w wersji pośredniej (r.2001 – 6%, r.2010 – 35,4% nadesłanych wyników), częściowo wypierając wersję bezpośrednią (r.2005 – 76%, r.2010 – 58% nadesłanych wyników) – ryc. 2a. Jeszcze wyraźniej analogiczne zmiany metodyczne dotyczą oznaczania chlorków (ryc. 2c) – jeżeli met. ISE w wersji bezpośredniej utrzymuje się na stałym poziomie (r.2001 – 47%, r.2010 – 44% nadesłanych do oceny wyników), to udział wyników uzyskanych pośrednią metodą ISE wzrósł z 6% do 46% – niemal ośmiokrotnie (!), przede wszystkim kosztem powściągliwie zalecanych metod kolorymetrycznych (37,4% → 6% wyników), lecz także bardzo dobrej met. kulometrycznej. Dla oznaczania najpóźniej włączonego do programu magnezu w ciągu ostatnich 10 lat odsetek wyników wyznaczanych „klasyczną” dawniej metodą z Calmagitem zmniejszył się z 49% do 22%, na rzecz metody również kolorymetrycznej, ale z chlorofosfonazo III (2,3% → 23,2% - ryc. 2b). Przy oznaczaniu żelaza zwraca uwagę dwukrotny wzrost popularności metody z ferenem S przy zniknięciu zalecanej dawnej metody z batofenantroliną. Dla oznaczeń mocznika metoda z ureazą i GLDH jest niewątpliwie najpopularniejszą (r.1990 – 5%, r.2001 – 75%, r.2010 – 93% nadesłanych wyników kontrolnych), eliminując zarówno metodę z ureazą i salicylanami, jak i rekomendowaną dawniej met. z ureazą i reakcją Berthelota (ryc. 2e). Statyczne metody oznaczania kreatyniny (w wersji zarówno z odbiałczaniem jak i bez odbiałczania próbki) stają się historią na rzecz metod monitorowania przyrostu absorbancji w reakcji z alkalicznym pikrynianem (tzw. metody kinetyczne). Przede wszystkim dzięki dużej popularności analizatorów f-my Roche w ostatnich latach bardzo wzrosło wykorzystanie opracowanej przez tą firmę metody kinetycznej 22 oznaczania kreatyniny z kompensacją (ryc. 2f, met.3), choć chwilowo uzyskiwane wyniki są poniżej oczekiwań (ale w sumie odsetek oznaczeń kontrolnych uznanych za poprawne vs xmet. zwiększył się z 62,4% w r.2001 do 79-80% na koniec minionej dekady). Idealnym przykładem wpływu wybranego wyposażenia na wykorzystywaną metodykę jest oznaczanie glukozy – oczywiście wszystkie metody tzw. chemiczne uległy już zapomnieniu, ale wśród metod enzymatycznych bardzo wyraźnie zyskuje referencyjna metoda z heksokinazą (ryc. 2g, met.2), zastępując met. z oksydazą glukozową (zmiany 2001-2010 odpowiednio 10,3% → 29,3% oraz 86,6% → 66,7% nadesłanych wyników). Wynika to z faktu, że met. heksokinazowa została wybrana jako standardowa zarówno przez f-mę Roche, jak i firmę Olympus, a analizatory tych dwóch firm należą do najpopularniejszych. Nieco zaskakuje mała popularność klasycznego wyznaczania akt. kinazy kreatynowej z wykorzystaniem NAC jako aktywatora (zaledwie 70% nadesłanych wartości – ryc. 2d). Mniej zaskakujące jest wykorzystywanie do oznaczania gammaglutamylotransferazy substratu karboksylowanego, o znacznie lepszej rozpuszczalności (obecnie niemal 1:4 – 20,1% wyników kontrolnych vs 76%). Omówienie wszystkich zachodzących zmian metodycznych przekracza ramy tego opracowania – korzystniejszy wydawał się subiektywny dobór prezentowanych składników, dla których zmiany metodyczne były istotne, obrazując ciągle zachodzące burzliwe przemiany polskiej diagnostyki laboratoryjnej. Wyniki Zaobserwowane w ciągu ostatniej dekady zmiany organizacyjne, wyposażeniowe czy metodyczne wśród laboratoriów uczestniczących w powszechnym programie chemicznym powinny korzystnie wpłynąć na jakość uzyskiwanych wyników – nie tylko kontrolnych, ale i rutynowych. W tab. III A.M. Brzeziński i B. Przybył-Hac Tabela III. Zbiorcze zestawienie wyników ogółem i dla czterech popularnych składników (mocznika, glukozy, cholesterolu i amylazy) w programie powszechnym w latach 2001-2010. Podano: kolumny a - n ocenianych wyników oraz n i % wyników uznanych za poprawne vs X met., kolumny b - ocena regularności: odsetek ocen bardzo dobrych (wiersz górny) i negatywnych (wiersz dolny) oraz średni wskaźnik regularności. dla dekady 2001-2010 zestawiono w kolumnie 1a liczbę ocenianych w kolejnych latach wyników ogółem oraz liczbę i odsetek wyników uznanych za poprawne względem średnich metodycznych (xmet ± dopuszczalny błąd). Zwraca uwagę wyraźny (o blisko 4%) spadek odsetka wyników poprawnych w 2002 r. Było to spowodowane wprowadzeniem w tym roku zaostrzonych kryteriów oceny tj. węższych granic dopuszczalnego błędu dla 14 spośród 25 ocenianych składników: sodu (4% → 3%), potasu (6% → 4,5%), fosforanów, moczanów, glukozy, cholesterolu (10% → 8%) oraz bilirubiny, cholesterolu frakcji HDL a także aktywności 6 enzymów – AST, ALT, ALP, CK, GT, LD (20% → 15%). Dopiero pod koniec ocenianej dekady przekroczono poprawność z 2001 r. – jednak już przy węższych granicach dopuszczalnego błędu! W kolejnych kolumnach tab. III przedstawiono te same informacje (a – liczba wyników i % poprawnych) dla 4 wybranych, bardzo podstawowych oznaczeń – mocznika, glukozy, cholesterolu i akt. amylazy. Przy ocenie oznaczeń kontrolnych glukozy i cholesterolu zawężenie granic dopuszczalnego błędu o 1/5 (z 10% do 8%) spowodowało obniżenie odsetka wyników uznanych za poprawne, odpowiednio o 6,1% (91,6% → 85,5%) i 4,9% (92,4% → 87,5%), a wyrównanie tego spadku zajęło 10 lat – dopiero w 2010 r. osiągnięto poprawność z r.2001. Dla dwóch pozostałych prezentowanych oznaczeń – mocznika i akt. amylazy – nie zmieniano kryteriów oceny, co zaowocowało w miarę regularnym przyrostem odsetka wyników ocenionych jako poprawne, w ciągu dekady o niemal 6,0% dla oznaczeń mocznika i aż 13% dla oznaczeń aktywności amylazy (z 82,7% do 95,7%). Zmieniona w 2001 r. organizacja powszechnego programu chemicznego – zawsze 4 sprawdziany w roku, z 2 materiałami kontrolnymi równolegle – umożliwiła wprowadzenie dodatkowej, bardzo cennej miary jakości – regularności uzyskiwania poprawnych ocen dla poszczególnych oznaczanych składników (co może być miarą stałego poziomu świadczonych usług – stable performance). Przyjęto, że dla zaliczenia oznaczenia określonego składnika w pojedynczym sprawdzianie niezbędne jest nadesłanie dwóch wyników uznanych za poprawne (tj. w obydwu wykorzystywanych materiałach kontrolnych). Nie spełnienie tego warunku powoduje zawsze ocenę negatywną – nie ma znaczenia, czy błędny był tylko jeden czy obydwa nadesłane wyniki bądź wyników nie nadesłano. Ocena wyłącznie informacji pozytywnych jest kontestowana przez część laboratoriów, jest to jednak jedyna możliwość dyscyplinowania uczestników i wymuszenia terminowego odsyłania wyników dla wszystkich włączonych do programu składników. Jeżeli laboratorium: „zaliczy” oznaczenia określonego składnika we wszystkich 4 sprawdzianach w ciągu roku (czyli nadeśle komplet 8 wyników uznanych za poprawne), to regularność oznaczania tego składnika w danym laboratorium należy uznać za bardzo dobrą (= 5 pkt.). Zaliczenie tylko 3 sprawdzianów w roku oceniane jest jako dobre (= 4 pkt.), a dwóch – jako zadowalające (= 3 pkt.), choć ta ostatnia ocena może już 23 Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010 wzbudzać wątpliwości. Jeszcze bardziej kontrowersyjne jest uznanie zaliczenia tylko 1 sprawdzianu w roku jako regularność wątpliwą (= 1 pkt.), a dopiero nie zaliczenie żadnego sprawdzianu (dla włączonego do programu składnika!) oceniane jest jednoznacznie negatywnie (= 0 pkt.). Średnia ocena punktowa pojedynczego laboratorium (z ocen poszczególnych składników) wydaje się mało miarodajna, zależąc od liczby i profilu poddanych ocenie składników. Należy jednak podkreślić, że występuje bardzo wyraźna korelacja między liczbą oznaczanych składników, a punktową oceną regularności laboratorium. W 2010r. 33 laboratoria o najwęższym profilu usług (do 3 składników) poddało ocenie w sumie 55 oznaczeń (przede wszystkim glukozy i cholesterolu) uzyskując średnią ocenę regularności zaledwie 2,98 pkt., podczas gdy 5 laboratoriów spośród 6 oznaczających systematycznie wszystkie składniki uzyskało średnio 4,95 pkt. (!), w tym 2 laboratoria – 5,00 pkt. czyli dla wszystkich 25 składników nadesłały komplet (25 x 8 = 200) wyników poprawnych. W tabeli III w kolumnach b podano dla kolejnych lat – ogółem i dla 4 wybranych składników – ocenę regularności oznaczeń, podając zarówno odsetek zestawów wyników ocenionych jako bardzo dobre (wartość górna) bądź złe (wartość dolna), jak i średni punktowy wskaźnik regularności (suma punktów dla ocenianych zestawów podzielona przez liczbę zestawów). Zmiany są naprawdę przekonywujące, znacznie wyraźniejsze niż przy prostym porównaniu odsetka wyników ocenionych jako poprawne, zwłaszcza przyjmując jako wartości umownie należne średnie metodyczne. Oczywiście im lepiej sprecyzowane warunki prowadzenia oznaczeń kontrolnych (metoda, aparat, odczynniki), tym korzystniejsza ocena uzyskanych wyników, ale jednocześnie więcej wyników zostaje z oceny wyłączonych (brak możliwości stworzenia grupy homogennej o minimalnej liczebności 6). Zestawiając wyniki z ostatnich 3 lat, wg średnich ogólnych mogą zostać ocenione wszystkie wyniki, a wg średnich metodycznych – niemal wszystkie (99,86%). W warunkach przeprowadzania powszechnego programu chemicznego wg średnich metodyczno-aparaturowych można ocenić niemal 90% nadesłanych wyników, a wg średnich metodyczno-aparaturowo-odczynnikowych – zaledwie ok. 75%. Co czwarty nadesłany wynik nie może być oceniony w stosunku do tej najkorzystniejszej wartości umownie należnej na skutek nadmiernego rozdrobnienia (zwłaszcza w małych placówkach) wykorzystywanej aparatury i odczynników. Wydaje się jednak, że sytuacja będzie ulegała korzystnym zmianom. Jednocześnie średnio w ciągu ostatnich trzech lat odsetek wyników poprawnych względem średnich ogólnych wyniósł 78,7%, względem średnich metodycznych – 83,1% (+4,4%), względem średnich metodyczno-aparaturowych – 87,2% (+8,5%), a względem średnich metodyczno-aparaturowo-odczynnikowych – niemal 90% (+10,5%). Około 15% uczestników powszechnego programu sprawdzianów chemicznych jest równolegle użytkownikami tzw. programu centralnego, poddającego ocenie te same 25 składników również w 2 surowicach kontrolnych równolegle. 24 Podstawowe różnice między programem powszechnym a centralnym to liczba i dobór uczestników („wszystkie” medyczne laboratoria diagnostyczne, aktualnie ok.1700 placówek – 250 dużych laboratoriów „wiodących”), częstotliwość przeprowadzanych sprawdzianów (1 x w kwartale – 1 x w miesiącu) i wykorzystywany system jednostek miary („tradycyjny” wagowo-objętościowy – SI). W rzeczywistości obecny program centralny zapoczątkował cały program sprawdzianów międzylaboratoryjnych w Polsce. W 1975r. kierownicy 40 dużych zakładów diagnostyki laboratoryjnej (WSZ i CSK) przyjęli propozycję Zakładu Diagnostyki Laboratoryjnej AM w Łodzi zorganizowania wspólnego międzylaboratoryjnego programu sprawdzianów chemicznych. Zaplanowano sprawdziany regularnie raz w miesiącu, obejmując nimi oznaczenia 12 podstawowych składników chemicznych równolegle w dwóch surowicach kontrolnych. Zabezpieczenie obsługi techniczno-organizacyjnej podjął się społecznie projektodawca, surowice były darami poszczególnych firm (przede wszystkim Zjednoczenia Biomed, producenta Serostandardów), a ograniczone koszty porta pocztowego pokrywał ZG PTDL. Mimo tak kruchych podstaw program nie tylko przetrwał, ale zyskiwał nowych uczestników i rozwinął się do obecnie prowadzonego. Może być podstawą do dumy, że mimo różnych trudności i zawirowań (m.in. stan wojenny i transformacja ustrojowa) sprawdziany programu centralnego bez żadnych przerw czy zakłóceń przeprowadzane są co miesiąc od ponad 35 lat (!), a w grudniu 2010 r. wykorzystano materiały kontrolne o kolejnych numerach 847 i 848. Oczywiście program ulegał modyfikacjom (liczba uczestników i ocenianych składników, forma zindywidualizowanej oceny liczbowo-graficznej), ale najistotniejsza była systematyczna poprawa wiarygodności nadsyłanych wyników oznaczeń kontrolnych, szczególnie błyskotliwa w pierwszych kilku latach. Wydaje się, że właśnie te znaczące efekty prowadzonych sprawdzianów (mimo ich ograniczonego zakresu) wraz z opracowaniem przez Nadzór Specjalistyczny „Wytycznych w sprawie organizacji i zasad działania w dziedzinie diagnostyki laboratoryjnej i mikrobiologicznej” (PZWL, 1978), w których sprecyzowano konieczność prowadzenia stałej wewnątrzlaboratoryjnej kontroli jakości oraz celowość uczestnictwa w programach międzylaboratoryjnych przyczyniły się do powołania w 1978 r. przy Dep. Opieki Zdrowotnej i Rehabilitacji MZiOS odrębnej Komisji ds. Standaryzacji i Kontroli Jakości Badań Laboratoryjnych i Mikrobiologicznych. Powiązanie personalne Komisji z prowadzącym sprawdziany Zakładem Diagnostyki Laboratoryjnej AM w Łodzi spowodowało, że Komisja zaczęła firmować prowadzone sprawdziany, a jednocześnie umożliwiła pozyskanie z MZiOS ograniczonego finansowania, pozwalającego na zakup materiałów kontrolnych oraz pokrycie kosztów druków, obliczeń i porta pocztowego. Obsługę organizacyjno-techniczną (dobór uczestników, dobór, zakup i rozsyłanie materiałów kontrolnych, przygotowanie protokołu sprawdzianów i druków odpowiedziowych, zbieranie i opracowanie wyników oznaczeń kontrolnych, rozsyła- A.M. Brzeziński i B. Przybył-Hac nie uczestnikom ocen nadesłanych wyników) w dalszym ciągu prowadził społecznie Zakład Diagnostyki Laboratoryjnej AM w Łodzi (aż do powołania w 1997 r. Centralnego Ośrodka Badań Jakości w Diagnostyce Laboratoryjnej z siedzibą w Łodzi). Pozyskanie funduszy z MZiOS umożliwiło przeprowadzenie w 1981 r. pilotażowego sprawdzianu powszechnego, w którym oceniono oznaczanie 10 podstawowych składników chemicznych w 2 materiałach przez 1200 uczestniczących laboratoriów. Mimo wykorzystania do oceny bardzo liberalnego kryterium Tonksa, ponad 40% nadesłanych wyników zostało zdyskwalifikowanych jako obarczone zbyt dużym błędem w stosunku do przyjętych wartości umownie należnych. Oczywiście należy pamiętać, że warunki pracy w laboratoriach były wówczas zupełnie inne. Podstawowym aparatem pomiarowym był wszechobecny Specol prod. NRD, powszechne było też posługiwanie się „własnymi” odczynnikami i kalibratorami – 64% nadesłanych wyników kontrolnych wyznaczono posługując się odczynnikami przygotowanymi w danym laboratorium. Do tych możliwości aparaturowo-odczynnikowych dostosowane były wykorzystywane, obecnie w większości zapomniane metody. Ponad 98% nadesłanych w tym sprawdzianie wyników oznaczeń sodu i potasu wyznaczono met. fotometrii płomieniowej (w r.2010 – 3,2% !), najczęściej (85% wyników) wykorzystując archaiczne fotometry płomieniowe f-my Zeiss mod. III prod. NRD. Chlorki oznaczano głównie całkowicie już zapomnianymi metodami miareczkowymi (52% - merkurometrycznie, 26% - argentometrycznie), mocznik równie zapomnianą metodą z dwuacetylomonooksymem (69% nadesłanych wyników), lub bardzo wówczas promowaną metodą z ureazą i reakcją Berthelota (r.2010 - <2,0%), glukozę met. Hultmana z o-toluidyną (> 90% wyników), cholesterol niemal wyłącznie met. Liebermana-Burcharda ze stęż. H2SO4. Przypuszczalnie znaczna część obecnych pracowników diagnostyki laboratoryjnej albo nigdy nie słyszała o takich metodach, albo zdążyła już o nich zapomnieć. Jednak sprawdzian ten umożliwił podjęcie w r.1982 systematycznie prowadzonego powszechnego programu sprawdzianów chemicznych, obejmując nim ok. 1900 zidentyfikowanych laboratoriów, wykonujących choćby pojedyncze oznaczenia chemiczne. Sprawdziany obejmujące 10 podstawowych składników chemicznych surowicy były organizowane tylko 2 razy w roku, ale z wykorzystaniem aż 5 materiałów kontrolnych równolegle. Informacyjno-szko-leniowy charakter tego programu umożliwił propagowanie określonych rozwiązań i nowoczesnych metod enzymatycznych o wyższej czułości i swoistości, przede wszystkim dla oznaczeń najbardziej podstawowych – glukozy (1982 r. – 3,4%, 1998 r. – 95,4% nadesłanych wyników), mocznika (met. ureaza-GLDH, 1982 r. – 1,0%, 1998 r. – 62,1% nadesłanych wyników) i cholesterolu (met. z esterazą i oksydazą cholesterolową, 1982 r. – 0,8%, 1998 r. – 96,4% nadesłanych wyników). Podobnie jak w centralnym programie sprawdzianów także w programie powszechnym obserwowano wyraźną poprawę wiarygodności ocenianych wyników kontrolnych – w r.1982 jako poprawne vs xmet uznano 59,3%, w 1987 r. – 73,0%, a w 1992 r. – 75,5% nadesłanych wartości, przy niemal trzykrotnym wzroście liczby ocenianych wyników. W 1992 r. poszerzono wachlarz ocenianych składników do 21, w tym akt. 6 enzymów, oznaczanych wówczas również archaicznymi metodami (ponad 2/3 nadesłanych wyników kontrolnych aminotransferaz wyznaczono met.Reitmana-Frankela, z jak najgorszymi skutkami, a ponad 500 pracowni zgłosiło oznaczanie amylazy najstarszą chyba ze spotykanych metod metodą Wohlgemuta (!). Jednak i dla tych dodatkowych składników obserwowano równie dużą poprawę, jak poprzednio dla 10 składników podstawowych, a odsetek wyników ocenionych jako poprawne vs średnie metodyczne wynosił w 1993 r. – 59,2%, w 1995 r. – 68,9%, a w 1998 r. – 78,2%, przy systematycznie rosnącej liczbie ocenianych wyników. Te korzystne zmiany stworzyły podstawę do wprowadzenia w 2001 r. kolejnej modyfikacji programu powszechnych sprawdzianów chemicznych do formy, opisanej we wstępie i wykorzystywanej już od 10 lat, a efekty tych zmian są przedmiotem tego opracowania. Należy przypomnieć o już podkreślanej zbieżności programu powszechnego z „wyjściowym” programem centralnym. Nasuwa się pytanie, czy przy niemal bliźniaczym charakterze sensowne jest utrzymywanie ekskluzywnego programu centralnego, obejmującego zaledwie 250 laboratoriów. Aczkolwiek pierwotne założenia w ciągu minionych 35 lat zostały z różnych przyczyn nieco zakłócone, to uczestnicy programu centralnego to przede wszystkim duże, na ogół dobrze zorganizowane i wyposażone placówki o szerokim zakresie usług, a starania o włączenie do fakultatywnego programu świadczą o ich dużym zainteresowaniu problemem jakości. Laboratoria te wyróżniają się wyższą od pozostałych uczestników programu powszechnego poprawnością nadsyłanych wyników kontrolnych. Aby to udowodnić, 1696 laboratoriów uczestniczących w powszechnym programie sprawdzianów chemicznych Tabela IV. Porównanie wyników powszechnego programu sprawdzianów chemicznych w r.2010 uzyskanych przez ogół uczestników (1696 laboratoriów) wraz z podziałem na A - 1450 laboratoriów nie uczestniczących i B - 250 laboratoriów uczestniczących w programie centralnym. Podano n ocenianych wyników oraz n i % wyników uznanych za poprawne vs kolejne wartości umownie należne. 25 Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010 w 2010 r. podzielono na 2 podgrupy – 1450 laboratoriów nie uczestniczących (podgrupa A) i 250 laboratoriów uczestniczących w programie centralnym (podgrupa B). Wyniki zestawiono w tab. IV i na ryc. 3. W tabeli podano – ogółem i dla obydwu podgrup – odsetek wyników uznanych za poprawne vs średnie ogólne, średnie metodyczne i średnie metodyczno-aparaturowe. Zbyt mała liczba uczestników programu centralnego uniemożliwia wdrożenie w tym programie najkorzystniejszych wartości umownie należnych, tj. średnich matodyczno-aparaturowo-odczynnikowych. Coraz częściej jednak wykorzystywany aparat jest ściśle powiązany z określonymi odczynnikami, a średnie metodyczno-aparaturowe stają się automatycznie średnimi metodyczno-aparaturowo-odczynnikowymi. Jak wynika z tab. IV, wyniki uzyskiwane przez laboratoria uczestniczące w programie centralnym są wyraźnie korzystniejsze niż pozostałych laboratoriów – i to niezależnie od przyjętych wartości umownie należnych. Różnice o 5-8% są znacznie większe niż się pozornie wydaje. Przyjmując ocenę vs średnie metodycznoaparaturowe, odsetek wyników uznanych za poprawne wynosi odpowiednio 87,9% (podgrupa A) i 95,7% (podgrupa B). Nie jest obojętne, czy jako błędny oceniony zostanie co 8. czy co 20. nadesłany wynik. Różnice między grupą A i B zobrazowano też na ryc. 3. Odsetek zestawów z regularnością bardzo dobrą był w podgrupie B znacząco wyższy (o 23%) niż w podgrupie A – odpowiednio 85,7% i 62,5%, a średni współczynnik regularności był także wyraźnie wyższy – 4,80 pkt. (grupa B) i 4,23 pkt. (grupa A). Oczywiście te istotne różnice można powiązać z lepszym na ogół od przeciętnego wyposażeniem dużych, laboratoriów uczestniczących w programie centralnym. 250 użytkowników tego programu eksploatuje 289 z 1233 zgłoszonych analizatorów, w tym po ponad 30% zgłoszonych analizatorów Architect, Advia, Dimension, Integra czy Olympus, a nawet ponad 60% aparatów Cobas c501 (platforma Cobas 6000), przy mniejszej od spodziewanych 15% liczbie analizatorów Flexor, Express, Presige 24i, Accent czy Cobas Mira. Najbardziej drastycznym przykładem są analizatory A15, A25 rozprowadzane przez f-mę BioSystems – z ponad 150 sztuk zgłoszo- Rycina 3. Porównanie regularności oznaczeń w powszechnym programie chemicznym w r.2010, uzyskanych przez: A-1450 laboratoriów nie uczestniczących i B-250 laboratoriów uczestniczących w programie centralnym. Zestawienie ocen ogółem przez wszystkich uczestników danej grupy i przez użytkowników 3 wybranych analizatorów: Cobas Integra, Olympus, i Vitros. 26 nych w 2010 r. zaledwie 1 egzemplarz jest wykorzystywany przez użytkownika programu centralnego. Także proste spektrofotometry są raczej sporadycznie wykorzystywane przez laboratoria grupy B, np. tylko 5 egz. z ponad 160 zgłoszonych w 2010 r. spektrofotometrów Epoll. Powstaje oczywiste pytanie, czy korzystniejsze wyniki w powszechnym programie sprawdzianów chemicznych laboratoriów uczestniczących w programie centralnym nie wynikają z ich lepszego wyposażenia. Częściowo niewątpliwie tak – jakość wyników bezspornie zależy od warunków ich uzyskiwania, a więc m.in. wykorzystywanych metod, aparatury, odczynników czy kalibratorów. Wydaje się jednak, że sama aparatura, będąc warunkiem niezbędnym (a co najmniej wysoce pożądanym), nie jest warunkiem wystarczającym. Przy ocenie regularności wyodrębniono wyniki uzyskane trzema popularnymi, dobrymi analizatorami – Cobas Integra, Olympus, Vitros. W grupie B (użytkowników programu centralnego) korzystano ze 138 szt. tych analizatorów, a w grupie A – pozostałych laboratoriów – 291 szt. Wyniki przedstawiono na ryc. 3, podpisane „3 analizatory”. Aczkolwiek zarówno w podgrupie A jak i B nastąpiła znaczna poprawa ocenianych wskaźników, to była ona wyraźniejsza w podgrupie A – laboratoriów nie uczestniczących w programie centralnym. Odsetek zestawów z bardzo dobrą oceną regularności wzrósł w tej podgrupie z 62,5% do 76,6% (+ 14,1%), a wśród użytkowników programu centralnego (podgrupa B) zaledwie 3,3% (85,7% → 89,1%). Podobnie średni punktowy wskaźnik regularności w podgrupie A podniósł się z 4,23 do 4,60 pkt. (+0,37 pkt.), a w podgrupie B z 4,80 do 4,87 pkt., więc tylko o 0,07 pkt. Korzystne zmiany ocenianych wyników wyznaczonych 3 popularnymi, dobrymi systemami analitycznymi w stosunku do ogółu wyników potwierdza dość oczywiste znaczenie wykorzystywanego wyposażenia na wiarygodność uzyskiwanych wartości. Jednak utrzymujące się różnice między podgrupami A i B zarówno w odsetku zestawów z bardzo dobrą oceną regularności (76,6% - 89,0%) jak i wartości średniego współczynnika regularności (4,60 – 4,87 pkt.) świadczą o tym, że sama aparatura, mając znaczący wpływ na jakość uzyskiwanych wyników, nie jest warunkiem wystarczającym – nawet korzystając z takich samych systemów analitycznych (metoda-aparat-odczynniki-kalibratory) można uzyskać wyraźnie różne wyniki. Jest to kwestia kompetencji, zaangażowania, organizacji i szeregu innych czynników. Dlatego mimo że program centralny jest tak podobny do powszechnego, utrzymywany jest nie tylko przez sentyment (najstarszy program, 35 lat!), ale ponieważ użytkownicy tego programu stanowią dobrą grupę referencyjną dla ogółu laboratoriów polskich, wskazując na spodziewane kierunki rozwoju, zmian wyposażenia czy możliwości poprawy wiarygodności uzyskiwanych wyników. Oczywiście ew. uczestnictwo w programie centralnym nie jest jedynym wyznacznikiem różnic wśród laboratoriów użytkowników powszechnego programu sprawdzianów chemicznych. Ze względów praktycznych już od początku prowadze- A.M. Brzeziński i B. Przybył-Hac Tabela V. Ocena laboratoriów uczestniczących w programie powszechnym w latach 2001-2010 zależnie od wielkości (strona lewa tabeli) i powiązań organizacyjnych (strona prawa tabeli). W każdym roku podano: w wierszu górym liczby laboratoriów danej klasy i przeciętną ocenę punktową regularności, a poniżej odsetek ocen regularności bardzo dobrych (strona lewa) i złych (strona prawa). nia sprawdzianów wdrożono podział laboratoriów na 4 klasy wielkości oraz na 5 grup powiązań organizacyjnych – od akademickich poprzez laboratoria szpitali publicznych, ambulatoryjne, przemysłowe i „inne”. Na początku lat 90. grupa „inne” została przekształcona w grupę „otwartych” laboratoriów niepublicznych, których liczba szybko rosła – jeżeli w 1994 r. stanowiły 5,6% uczestników programu powszechnego, to w 2000 r. – 21%, a w 2010 r. – już 55% (!). Zmiany organizacyjno-własnościowe skrótowo omówiono w podrozdziale „Uczestnicy”. Głównym celem tabeli V nie jest jednak przedstawianie zmian organizacyjno-własnościowych wśród użytkowników programu powszechnego i podkreślenie za- równo szybkiej prywatyzacji diagnostyki laboratoryjnej, jak i np. niemal całkowitego zniknięcia laboratoriów przemysłowej służby zdrowia, ale zmiany jakości / regularności oznaczeń, obserwowane w różnych grupach laboratoriów w ciągu minionych 10 lat. W każdym polu w lewym górnym rogu podano liczbę laboratoriów danej podgrupy, w lewym dolnym rogu odsetek zestawów wyników o regularności bardzo dobrej, a w prawym dolnym rogu – o regularności złej, natomiast w prawym górnym rogu podany jest średni punktowy wskaźnik regularności dla danej grupy. Zwraca uwagę zależność uzyskiwanych ocen zarówno od średniej wielkości placówek danej grupy jak i powiązań organizacyj- Rycina 4. Ocena wyników laboratoriów w latach 2001-2010 zależnie od: A-wielkości – zestawiono wyniki wszystkich laboratoriów (krzywe środkowe) oraz laboratoriów bardzo małych (krzywe dolne) i bardzo dużych (krzywe górne): a) odsetek bardzo dobrych ocen regularności; b) ocena punktowa; B-powiązań organizacyjnych – zestawiono wyniki wszystkich laboratoriów (krzywe środkowe) oraz dwóch grup skrajnych – laboratoriów publicznych szpitalnych (krzywe górne) i niepublicznych otwartych (krzywe dolne): c) odsetek bardzo dobrych ocen regularności; d) ocena punktowa 27 Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010 nych, choć te ostatnie zależności mogą być mylące. Mało korzystne wyniki przedstawione w tabeli dla grupy laboratoriów niepublicznych otwartych mogą wynikać z faktu, że w znacznym stopniu są to placówki bardzo małe, zatrudniające od 1 do 3 pracowników fachowych, o na ogół wąskim zakresie świadczonych usług, dysponujące bardzo skromnym, czasem nawet archaicznym (coraz rzadziej) wyposażeniem i dążące do maksymalnej redukcji kosztów – bardzo często z jak najgorszymi skutkami. Zarówno odsetek zestawów o regularności ocenionej jako bardzo dobra czy zła, jak i średni punktowy wskaźnik regularności w grupie laboratoriów najmniejszych są najniższe, znacząco niższe niż w grupach laboratoriów większych. Oczywiście w ciągu omawianych 10 lat we wszystkich grupach niezależnie od wielkości laboratorium nastąpił wyraźny wzrost zarówno odsetka ocen bardzo dobrych regularności, jak i średniego punktowego wskaźnika regularności – dla laboratoriów najmniejszych z 30,3% i 3,194 pkt. do 51,5% i 4,013 pkt., a dla największych odpowiednio z 62,8% i 4,318 pkt. do 85,0% i 4,739 pkt. (ryc. 4A). Oczywiście w grupie laboratoriów małych, o gorszych wynikach, zmiana jest wyraźniejsza niż w z założenia lepszych (lepiej zorganizowanych i wyposażonych) laboratoriach dużych. Średni punktowy wskaźnik regularności wzrósł w ciągu 10 lat w grupie laboratoriów najmniejszych o 0,82 pkt. (z 3,194 pkt. do 4,013 pkt.), a w grupie laboratoriów największych o połowę mniej – 0,42 pkt. (z 4,318 pkt. do 4,739 pkt.). Dane prawej części tabeli, czyli podziału uczestników programu zależnie od ich powiązań organizacyjnych mogą czasami prowadzić do mylnych wniosków. W tab. V występują wyraźne różnice w podanych wskaźnikach (odsetek ocen bardzo dobrych i złych, średni punktowy wskaźnik regularności) na korzyść placówek publicznych zarówno wśród laboratoriów stacjonarnej opieki zdrowotnej (szpitalnych), jak i opieki otwartej (ambulatoryjnej). Są to jednak częściowo różnice pozorne, wynikające nie z formy własności, lecz z przewagi wśród laboratoriów niepublicznych placówek małych. Dla laboratoriów szpitalnych placówki średnie i duże (> 10 prac. fach.) stanowią 68,9% w grupie placówek publicznych i 54,4% w grupie placówek niepublicznych, a placówki największe – odpowiednio 20,0% i 6,2%. Aczkolwiek przykładowo w r.2010 bardzo duże niepubliczne laboratoria szpitalne uzyskały nawet wyższy średni punktowy wskaźnik regularności niż laboratoria publiczne (4,838 pkt. vs 4,773 pkt.), to ich niższy udział w ocenianych grupach warunkuje, że całą grupa 460 laboratoriów szpitalnych publicznych ma wyższy średni wskaźnik regularności, niż 195 laboratoriów niepublicznych (4,628 pkt. vs 4,487 pkt.). Wśród laboratoriów otwartej opieki zdrowotnej zdecydowanie przeważają placówki niepubliczne nad publicznymi (747 vs 235), wyższy jest też odsetek laboratoriów małych, zatrudniających do 10 pracowników fachowych – odpowiednio 94% i 86%. W obydwu grupach występowała ta sama liczba placówek dużych (> 25 prac. fach.) – po 6, co stanowiło 0,8% i 2,6% odpowiednich grup. Wśród laboratoriów niepublicznych jedno duże laboratorium uzyskało wyraźnie 28 złe wyniki, czego wyrazem jest niespotykany wskaźnik regularności 0,65 pkt. (błędy kalibracji?). Jeżeli odrzucić wyniki tego laboratorium, to 6 dużych szpitalnych laboratoriów publicznych uzyskało średni wskaźnik regularności 4,800 pkt., a 5 niepublicznych – 4,896 pkt. Na ryc. 4B przedstawiono zmianę procentowego udziału ocen bardzo dobrych (c) oraz średniego punktowego wskaźnika regularności (d) dla dwóch „skrajnych” grup – niepublicznych laboratoriów otwartej opieki medycznej i publicznych opieki stacjonarnej. Różnice są znaczne, jednak zdecydowanie mniej wyraźne niż między laboratoriami najmniejszymi i największymi (ryc. 4A). Należy mieć nadzieję, że utrzymają się zarówno wysoce korzystne zmiany wyposażenia, jak i tendencja do eliminowania placówek najmniejszych – po błyskotliwym wzroście w latach 2001-2005 z 27,5% do 39,1% spadek do obecnych 31% uczestników programu powszechnego – co zaowocuje postępującą niwelacją różnic między laboratoriami różnych pionów organizacyjnych. Oczywiście im wyższy poziom wiarygodności, oceniany wykorzystywanymi wskaźnikami, tym trudniej uzyskać korzystne zmiany. Można to przedstawić na przykładzie różnic występujących między 16 ocenianymi województwami (o bardzo zróżnicowanej liczbie laboratoriów uczestniczących w programie w 2010 r. – od 42 placówek w woj. lubuskim po 248 w woj. śląskim). Województwo „najlepsze” zajmujące konsekwentnie 1. miejsce uzyskało korzystną zmianę oceny regularności punktowej z 4,20 pkt. w 2001 r. do 4,65 pkt. w 2010 r. (czyli + 0,45 pkt.), średnio w ciągu 10 lat x = 4,43 pkt., s = 0,1542, wz = 3,5%. Województwo zajmujące 16 (ostatnią) pozycję w ciągu 10 lat uzyskało zmianę z 3,30 pkt. do 4,20 pkt. (+ 0,90 pkt.), średnio 3,79 pkt., s = 0,2741, wz = 7,2%. Rozpatrując w ciągu 10 lat kolejne zbiory 16 wartości wojewódzkich, można zauważyć dwukierunkową poprawę – wzrost średniego punktowego wskaźnika regularności (2001 – 3,80 pkt., 2010 r. – 4,39 pkt.) przy jednoczesnym wyraźnie Rycina 5. Zmiany regularności oznaczeń w latach 2001-2010 – podano średnie ± SD zbiorów 16 wyników wojewódzkich. Linią ciągłą zaznaczono spadek współczynnika zmienności. A.M. Brzeziński i B. Przybył-Hac mniejszym rozproszeniu poszczególnych zbiorów – odchylenie standardowe zbiorów obniżyło się: w 2001 r. s = 0,2486, a w z 2010 r. s = 0,1176. Wystąpienie tych dwóch korzystnych, przeciwstawnie skierowanych zmian wyjątkowo spektakularnie wpłynęło na spadek współczynnika zmienności z 6,54% w 2001 r. do 2,68% w 2010 r. – ryc. 5. Różnice między województwami mają niewątpliwie zróżnicowane przyczyny (liczba laboratoriów i ich wielkość, powiązania organizacyjne, wyposażenie, kwalifikacje kadry), ale zmniejszanie się różnic we wiarygodności nadsyłanych wyników – czego wyrazem może być zarówno średni punktowy wskaźnik wiarygodności, jak i odsetek wyników uznanych za poprawne – jest wysoce korzystne i należy mieć nadzieję, że będzie konsekwentnie postępowało. Wnioski Przedstawione zmiany, zaobserwowane w minionej dekadzie wśród laboratoriów uczestniczących w powszechnym programie sprawdzianów chemicznych, są wręcz imponujące. Zachodząc systematycznie lecz powoli, w nawale codziennej pracy przechodzą niemal niezauważalnie. Dopiero okresowe podsumowanie pozwala wykazać, jak bardzo zmieniły się zarówno warunki pracy, jak i jakość / wiarygodność wyników kontrolnych w laboratoriach uczestniczących w programie. Następuje wysoce korzystna automatyzacja oznaczeń chemicznych, obejmująca nawet małe placówki. Udział wyników kontrolnych (nie rutynowych!) wyznaczonych metodami manualnymi zmniejszył się z ponad 50% w 2001 r. do 16% w 2010 r. Korzystnie, choć w dużej mierze wtórnie w stosunku do wyposażenia, zmieniają się stosowane metody analityczne, wykorzystywane odczynniki i kalibratory. Postępuje wzbudzająca znaczne emocje prywatyzacja laboratoriów – wśród uczestników ocenianego programu udział placówek niepublicznych wzrósł w ciągu 10 lat niemal dwukrotnie – z 28% do 55%. W ostatnich latach zmniejszyła się liczba laboratoriów (chyba nie tylko uczestników programu?) z 1816 placówek w 2007 r. do 1696 w 2010 r. (–6,6%), przede wszystkim kosztem placówek najmniejszych. Liczba tych ostatnich, po błyskotliwym wzroście na początku omawianej dekady (związanym z prywatyzacją), szczęśliwie zaczęła systematycznie spadać – 2001 r. -25,5%, 2006 r.-39,1%, 2010 r.-31% uczestników programu. Obserwowanym zmianom „materialnym” towarzyszy też korzystna zmiana wiarygodności nadsyłanych oznaczeń kontrolnych (należy mieć nadzieję, że także i rutynowych). Odsetek wyników kontrolnych ocenianych jako poprawne vs X metod.aparat. wzrósł z 82,6% w 2002 r. do 89,4% w 2010 r. (a do 91,0% vs średnie systemowe). Tym samym udział wyników zdyskwalifikowanych zmniejszył się o połowę, choć nadal jest bezwzględnie zbyt wysoki, w ogromnym stopniu zależąc od posiadanego wyposażenia i kompetencji wykonawców. Wysoce przydatna okazuje się ocena nowymi wskaźnikami jakości, wprowadzonymi po wdrożonych w 2001 r. modyfikacjach programu, a oceniającymi regularność uzyskiwania wyników poprawnych. Ocena dotyczy rocznych zbiorów 8 wyników wyznaczanych dla każdego ocenianego składnika w poszczególnych laboratoriach, w tym bardzo dobrych ocen regularności (komplet 8 wyników poprawnych!), których odsetek wzrósł w ciągu dekady o niemal 50% (z 45,3% do 66,9% ocenianych zestawów), bądź wprost przeciwnie, regularności złej (spadek 3,5-krotny – z 4,9% do 1,4% ocenianych zestawów). Można też wykorzystać zbiorczy średni punktowy wskaźnik regularności oceniający (dla laboratoriów, grupy laboratoriów, oznaczeń czy analizatorów) sumę punktów wszystkich ocen przez liczbę ocen. Również ten wskaźnik uległ wysoce znaczącej poprawie, dla ogółu uczestników programu z 3,781 pkt. w 2001 r. do 4,388 pkt. w 2010 r. (czyli aż o 0,6 pkt.!). Ogólnie można przyjąć, że w ciągu dekady nastąpiło wiele wysoce korzystnych zmian, które zaowocowały wyraźną, choć nie satysfakcjonującą poprawą wiarygodności wyników. Jak zawsze, o mocy łańcucha decyduje najsłabsze ogniwo. Nie dyskutuje się 20 laboratoriów pracujących dobrze (bo to przecież ich obowiązek!), lecz jedno złe, jakość pracy którego nastręcza uzasadnione zastrzeżenia. Szkopuł w tym, aby te nie spełniające oczekiwań laboratoria nie przesłoniły niewątpliwych osiągnięć pozostałych (co się niestety zdarza). Problemem pozostaje też kwestia ewent. promowania najlepszych czy eliminacji najgorszych laboratoriów. Jak wielokrotnie już podkreślano, jest to problem bardzo trudny, zarówno organizacyjnie czy kompetencyjnie, jak i – a raczej przede wszystkim – merytorycznie. Należy powtórzyć przedstawioną już propozycję, aby pod egidą Min. Zdrowia Krajowy Nadzór Specjalistyczny stworzył zespół, który przedstawi odpowiednie zalecenia / wymagania. Istotną trudnością będzie tak lekko w Polsce, wręcz niepoważnie traktowana legislacja zaproponowanych rozwiązań. Trudno przesądzić, jakie będą te propozycje, należy tylko zwrócić uwagę, że np. wprowadzenie licencjonowania działalności laboratoryjnej wymagało w RFN uchwał Bundestagu i Bundesratu, a w USA Kongresu – i ciągle wzbudza wiele zastrzeżeń i wątpliwości. Adres do korespondencji: Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej 90-613 Łódź, ul. Gdańska 80 Tel./Fax. (42) 230-25-78, 230-25-79 e-mail: [email protected] Zaakceptowano do publikacji: 26.03.2011 29