Powszechny Program Sprawdzianów Chemicznych w Polsce w

Transkrypt

Powszechny Program Sprawdzianów Chemicznych w Polsce w
diagnostyka laboratoryjna Journal of Laboratory Diagnostics
2011 • Volume 47 • Number 1 • 17-29
Kontrola jakości • Quality Control
Powszechny Program Sprawdzianów Chemicznych
w Polsce w latach 2001-2010
General programme of chemical surveys in Poland during
2001-2010 period
Andrzej M. Brzeziński, Barbara Przybył-Hac
Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej, Łódź
Streszczenie
Rozpoczęty w 1981r. powszechny program chemiczny, obejmujący „wszystkie” laboratoria kraju, został w r.2001 gruntownie
zmodyfikowany, z wprowadzeniem 4 sprawdzianów w roku i oznaczaniem 25 składników w dwóch materiałach kontrolnych
równolegle. Po 10 latach można podsumować efekty tych zmian. Podczas całej dekady następował bardzo efektywny proces
prywatyzacji laboratoriów – procent laboratoriów niepublicznych wzrósł z 25% uczestniczących laboratoriów w r.2001 do
55% w r.2010. Równolegle następowały bardzo znaczne zmiany wyposażenia laboratoriów. W r.2001 ponad 50% wyników
kontrolnych było wyznaczonych starymi metodami manualnymi, a po 10 latach dotyczyło to już tylko 16% wyników. Jednocześnie zachodziła bardzo intensywna wymiana używanych analizatorów z towarzyszącymi zmianami wykorzystywanych metod
i odczynników. Te wszystkie zmiany zdecydowanie dodatnio wpłynęły na jakość ocenianych wyników kontrolnych. Wysoce
użytecznym okazuje się wprowadzony nowy wskaźnik jakości – wskaźnik regularności oznaczeń, związany z liczbą zaliczonych w ciągu roku sprawdzianów. Średni wskaźnik regularności wzrósł w ciągu 10 lat z 3,78 do 4,39 pkt. Jakość wyników
kontrolnych jest silnie powiązana z wielkością laboratoriów – wskaźnik regularności wahał się od 4,01 pkt. w laboratoriach
najmniejszych do 4,74 pkt. w największych.
Summary
Initiated in 1981 general chemical programme for “all” polish laboratories has been completely rebuilt in 2001, with four surveys a year (25 constituents, 2 samples simultaneously). After ten years some effects of these changes can be summarised.
During whole period changes of public laboratories to non-public (private) were very effective – the per cent of non-public
laboratories increased from 25 per cent of all participants in 2001 to 55 per cent in 2010. In the same time modifications of
laboratory equipment were extremely effective. In 2001 over 50 per cent of control results were obtained with old manual
methods and after ten yours it was about 16 per cent only. Simultaneously striking changes of used analysers were observed
with parallel changes in methods and reagents. Obviously all these alterations very positively influenced the quality of control
results. Very useful seems to be a new quality index – regularity index, connected with number of surveys accepted during the
year. The means regularity index for all estimated constituents in all participating laboratories during ten years had increased
from 3,78 to 4,39 points. The quality of control results are strongly dependent on the size of laboratory – the regularity index
increase from about 4,01 points in the smallest to 4,74 points in the biggest laboratories.
Słowa kluczowe:aparatura laboratoryjna, metody oznaczeń, wartości umownie należne, wskaźnik regularności
Key words:laboratory equipment, methods of estimation, consensus values, regularity index
Wstęp
Zgodnie z wcześniejszymi postulatami, w 2001r. radykalnie
zmodyfikowano prowadzony regularnie od 1982r. tzw. powszechny program sprawdzianów chemicznych, obejmujący
oceną porównawczą oznaczenia podstawowych składników
chemicznych surowicy we „wszystkich” medycznych labora-
zlikwidowano podział składników na 10 „podstawowych”
i 11 „ponadpodstawowych”, poszerzając jednocześnie panel
ocenianych składników do 25, ujednolicono liczbę oznaczanych równolegle materiałów kontrolnych – zawsze 2. Istotny problem stanowi ocena poprawności / wiarygodności
wyznaczanych przez uczestników sprawdzianów wartości
toriach diagnostycznych kraju. Dwukrotnie zwiększono – z 2
do 4 – liczbę przeprowadzanych w ciągu roku sprawdzianów,
oznaczeń kontrolnych. W Polsce brak realnych możliwości
wyznaczenia odpowiednimi metodami tzw. wartości defini17
Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010
tywnych bądź wartości referencyjnych ocenianych składników, a możliwości nabycia materiałów kontrolnych z takimi
wartościami są bardzo ograniczone. Z konieczności wyniki
uzyskiwane przez uczestników sprawdzianów oceniane są
względem wartości umownie należnych, będących pochodnymi wyników użytkowników programu. Wykorzystywanych
jest kilka poziomów tych wartości – poza mało miarodajnymi średnimi ogólnymi (z wszystkich nadesłanych wyników)
zwykle próbuje się określić warunki uzyskania ocenianych
wyników, a więc stosowaną metodę analityczną (średnie
metodyczne), ewent. dodatkowo wykorzystywany do oznaczeń aparat pomiarowy (średnie metodyczno-aparaturowe),
a także odczynniki (średnie metodyczno-aparaturowo-odczynnikowe). Ponieważ wyniki uczestników oceniane są
jako odchylenie procentowe od formalnie punktowych wartości umownie należnych (w rzeczywistości są to wartości
przedziałowe, co należy uwzględnić przy przyjmowaniu
dopuszczalnych granic błędu), to mniej istotny jest sposób
oczyszczenia wyjściowego zbioru wyników od wartości,
których przynależność do ocenianego zbioru jest wątpliwa
(krańcowo – tzw. outliers). Wykorzystywana jest regułą 22S,
choć wartości bardzo zbliżone uzyskuje się stosując regułę
13S. Znacznie istotniejsza jest minimalna liczebność zbioru,
umożliwiającą wyliczenie odpowiedniej średniej. Przyjęto, że
warunkiem wyliczenia średniej jest co najmniej 6 homogennych wyników (zdecydowanie za mało!), co spowodowane
było dużym zróżnicowaniem wyposażenia i wykorzystywanych odczynników. Problem się dezaktualizuje, ponieważ
zanikają oferujące dużą dowolność doboru warunków oznaczenia metody manualne czy w pełni „otwarte” analizatory
(np. Cobas Mira, Express). Nowoczesne analizatory są na
ogół wyraźnie powiązane z wybranymi przez producenta
metodami oraz firmowymi odczynnikami, coraz bardziej stanowiąc de facto układy zamknięte. Nawet firmy pierwotnie
typowo „odczynnikowe” (np. Cormay) starają się związać
swoje produkty z rozprowadzanymi / promowanymi przez
siebie analizatorami, z dobrym na ogół rezultatem.
Będąca podstawą oceny wielkość dopuszczalnego błędu
(dopuszczalnego odchylenia procentowego od wartości na-
Uczestnicy program
Powszechny program sprawdzianów chemicznych z założenia miał być najbardziej podstawowym, obejmując
„wszystkie” medyczne laboratoria diagnostyczne wykonujące – choćby wybiórczo – objęte oceną oznaczenia podstawowych składników surowicy (początkowo 10, obecnie
25). Wobec braku wykazu działających w kraju laboratoriów
największą trudnością od początku było zidentyfikowanie
potencjalnych użytkowników programu. Należy podkreślić,
że zapraszane do uczestnictwa laboratoria na ogół chętnie
nawiązywały współpracę (uczestnictwo w programie nie było
obligatoryjne), choć później bywały trudności z wyegzekwowaniem terminowego odsyłania wyników kontrolnych. Formalnie sytuacja uległa radykalnej zmianie od 1.IV.2009r., kiedy to zgodnie z rozporządzeniem Ministra Zdrowia (z dn.23
marca 2006r., Dz.U. Nr 61 poz.435 i dn.21 stycznia 2009r.,
Dz.U. Nr 22 poz.128) zostały wdrożone obowiązujące w laboratoriach standardy, w tym m.in. obowiązek uczestnictwa
w podstawowych programach sprawdzianów organizowanych przez Centralny Ośrodek. Wbrew obawom obligatoryjność uczestnictwa w programach nie spowodowała napływu
nowych zgłoszeń od laboratoriów nie objętych programem.
Wydaje się, że nawet bez takiej klauzuli niemal wszystkie (?)
objęte programem (zakres wykonywanych badań!) laboratoria już wcześniej nawiązały współpracę z Centralnym Ośrodkiem. Oczywiście nie można określić, czy i ile placówek nie
podporządkowało się rozporządzeniu Ministra Zdrowia.
W ocenianym okresie największą liczbę uczestniczących
w programie laboratoriów (i automatycznie największą liczbę
ocenianych wyników kontrolnych) zaobserwowano w 2004r.,
później następował systematyczny choć powolny spadek
(r.2007 – 1816 lab., r.2008 – 1764 lab., r.2009 – 1729 lab.,
r.2010 – 1696 laboratoriów + około 60 aparatów dodatkowo
poddanych ocenie). Jednocześnie przez całą dekadę następowały wśród uczestników programu intensywne zmiany,
które częściowo można odczytać z tab. V. Aczkolwiek tabela
ta poświęcona jest ocenie poprawności (regularności) oznaczeń, uzyskiwanej w kolejnych latach przez różne grupy laboratoriów, to w każdym polu wynikowym w lewym górnym
leżnych) jest ustalana arbitralnie, różniąc się w rozmaitych
programach zależnie od sposobu wyznaczania wartości
należnych (wartości definitywnie czy umownie należne),
liczby równolegle ocenianych próbek czy celu prowadzonych sprawdzianów – szkoleniowy czy licencyjny. Ponieważ
w Polsce prowadzone programy sprawdzianów mają wyłącznie charakter informacyjno-szkoleniowy, nie powodując
dla uczestników żadnych negatywnych skutków administracyjnych, a wykorzystywanymi wartościami odniesienia są
najkorzystniejsze dla uczestników wartości umownie należne dostosowane do warunków prowadzenia oznaczeń
(a nie wartości definitywne), przyjmowane w Polsce granice
dopuszczalnego błędu mogą być bardziej rygorystyczne niż
np. w RFN. Zostały one zresztą w r.2002 dla 14 podstawowych składników zaostrzone (np. glukoza, cholesterol i moczany: ± 8% zamiast ± 10%).
rogu podana jest liczba laboratoriów danej klasy / podgrupy.
Najistotniejszą a jednocześnie najwyraźniejszą zmianą jest
wyraźna kontynuacja zapoczątkowanego w połowie lat 90.
procesu prywatyzacji laboratoriów. Jeżeli wg posiadanych
danych laboratoria niepubliczne stanowiły w r.1994 – 5,6%,
to w r.2001 ok. 25-30%, a w r.2010 – już ok. 55% objętych
programem placówek. Z dużym opóźnieniem w połowie
ostatniej dekady. wprowadzono nową, wcześniej nieznaną grupę laboratoriów – niepubliczne laboratoria szpitalne.
W tradycyjnie od 1981r. prowadzonej klasyfikacji laboratoria tej grupy zastąpiły laboratoria przemysłowe. Laboratoria
przemysłowej służby zdrowia, głownie małe, jeszcze na początku lat 90. stanowiły ponad 30% ogółu laboratoriów. Każdy zakład przemysłowy chciał mieć „własną” przychodnię –
i to wraz z laboratorium. Później, równolegle do postępującej
likwidacji przemysłowej służby zdrowia następował bardzo
18
A.M. Brzeziński i B. Przybył-Hac
szybki spadek liczby tych laboratoriów, a pozostałe zostały
w latach 2006/2007 dołączone do publicznych laboratoriów
„otwartych”. Prywatyzacja początkowo objęła laboratoria
otwartej opieki zdrowotnej i na początku dekady liczba laboratoriów tej grupy szybko rosła (r.2001 – 462 lab., r.2005
– 815 laboratoriów), by później ulegać powolnemu spadkowi – część uległa likwidacji, a część przeszła do utworzonej
grupy niepublicznych laboratoriów szpitalnych. Wśród laboratoriów niepublicznych początkowo zdecydowanie przeważały placówki bardzo małe, zatrudniające 1-3 pracowników
fachowych, o bardzo skromnym wyposażeniu i adekwatnym
poziomie usług. Jak już wielokrotnie podnoszono, wprowadzony w 1980r. podział laboratoriów na 4 klasy wielkości
zależnie od liczby zatrudnionych pracowników fachowych
jest przy postępującej automatyzacji oznaczeń niewątpliwym anachronizmem. Jest jednak wykorzystywany z braku
lepszych kryteriów. Zwraca uwagę bardzo znaczny udział
laboratoriów najmniejszych – w 2001 r. stanowiły blisko 30%
ogółu placówek, a następnie liczba ich wyraźnie rosła, głownie z powodu postępującej prywatyzacji – z 455 laboratoriów
w 2001 r. do 690 laboratoriów w 2005 r. Dopiero od połowy
dekady liczba ich zaczęła się zmniejszać – część placówek
nie zdołała się utrzymać i uległą likwidacji, a część „urosła”
do następnej klasy wielkości. Ogólnie laboratoria niepubliczne stanowiąc w 2010 r. ok. 55% ogółu uczestników programu przeważają w grupach laboratoriów bardzo małych i małych (≤ 10 prac. fach.), stanowiąc ok. 66-70% laboratoriów
tych grup. Wśród laboratoriów średnich laboratoria prywatne
są w mniejszości (ok. 33%), a wśród placówek dużych (≥ 25
prac. fach.) wyraźnie przeważają publiczne / akademickie
laboratoria szpitalne, natomiast placówki niepubliczne stanowią zaledwie 12,5% tej grupy.
Wyposażenie
Zaobserwowane w ciągu minionej dekady zmiany wyposażenia laboratoriów uczestniczących w programie są wręcz
nieprawdopodobne. Ze względów technicznych łatwiej jest
te zmiany obrazować liczbą ocenianych wyników kontrolnych (w tysiącach), wyznaczonych odpowiednią techniką
ną zestawiono w tab.I i na ryc.1. W górnej części tabeli I
i na ryc.1A zestawiono (w tysiącach) liczbę wyników kontrolnych, wyznaczanych w kolejnych latach różnymi technikami.
Przejście z metod manualnych (spekrofotometry) na zautomatyzowane następowało bardzo szybko, ulęgając dodatkowemu przyśpieszeniu w drugiej połowie minionej dekady.
Tylko w r.2007 w stosunku do roku poprzedniego liczba wyników uzyskanych techniką zautomatyzowaną zwiększyła
się o 11%, a techniką manualną – zmniejszyła się o 23%
(!). W ocenianym okresie nieznacznie zmniejszyła się liczba
analizatorów ISE – stały się one integralną składową większości nowoczesnych analizatorów biochemicznych. Na
ryc.1B przedstawiono zmiany liczby wyników kontrolnych
wyznaczonych dwoma flagowymi w tym okresie (sytuacja
będzie się niewątpliwie zmieniać!) aparatami – w latach
2001-2010 liczba wyników kontrolnych uzyskanych aparatami Cobas Integra wzrosła ponad 6-krotnie (z 6,4 do 41,4
tys.), natomiast panującymi w latach 90. spektrofotometrami
Epoll zmniejszyła się o blisko 70%, z 53 tys. do 17,4 tys./
rocznie. Na ryc.1C zestawiono kilka wybranych przykładowo
analizatorów o szybko rosnącej popularności. Szczególnie
widowiskowy jest przyrost wyników wyznaczanych analizatorami A15 i A25, rozprowadzanymi przez firmę BioSystems
– z 0,2 tys. w r.2004 do 17,6 tys. w r.2010. W ciągu kilku lat
liczba tych aparatów przekroczyła 150 szt., co jest wyrazem
zmian wyposażenia w małych placówkach (tylko 1 taki analizator jest wykorzystywany przez laboratoria uczestniczące
w programie centralnym). Na ryc.1D zestawiono przykładowo kilka analizatorów / spektrofotometrów wyraźnie wychodzących z użycia, m.in. tak popularne w latach 90. analizatory Cobas Mira i Express.
Odczynniki. Z wielu przyczyn – zarówno merytorycznych
jak i handlowych – podobnie jak na całym świecie zaopatrzenie odczynnikowe stało się wtórne względem wyposażenia
aparaturowego. Dobrym przykładem może być P.Z. Cormay.
W początkowym okresie transformacji firma znacząco przyczyniła się do modernizacji metodycznej polskich laboratoriów, wprowadzając na rynek pierwsze rodzime zestawy do
enzymatycznego oznaczania np. glukozy czy cholesterolu.
czy określonym typem aparatu, niż liczbą sztuk poszczególnych analizatorów. Naturalnie występuje ścisła korelacja
pomiędzy tymi dwoma szeregami wartości – liczba wyników
kontrolnych jest oczywiście funkcją wykorzystywanych aparatów. Istotnym ograniczeniem jest fakt, że w programach
kontrolnych każde laboratorium – niezależnie od wielkości
i obciążeń rutynowych – wykonuje dla każdego poddanego
ocenie składnika taką samą liczbę 8 oznaczeń w roku. Aczkolwiek w r.2001 wśród wyników oznaczeń kontrolnych nieznacznie przeważały wartości wyznaczone metodami manualnymi nad wyznaczonymi z wykorzystaniem analizatorów
(109 tys. vs 103,7 tys.), to nie należy wątpić, że ponieważ
analizatory były przede wszystkim w laboratoriach dużych,
to wśród wyników rutynowych dla pacjentów zdecydowana
większość została uzyskana techniką zautomatyzowaną.
Zmiany wyposażenia laboratoriów objętych regularną oce-
Później zaczęła tracić nieco swą pozycję, by ostatnio wrócić jako źródło zaopatrzenia w odczynniki na 3. miejsce –
w dużej mierze dzięki zabezpieczaniu odczynników do rozprowadzanych przez siebie analizatorów, początkowo dobrych Prestige 24, a obecnie dodatkowo Accent 200 i 300.
Duża popularność analizatorów Cobas Integra (a także innych analizatorów Roche) oraz analizatorów rkz i ISE byłej
firmy AVL oraz dzięki wykorzystywaniu wyłącznie „własnych”
odczynników firma Roche jest bezsprzecznym liderem –
w 2010 r. niemal co czwarty wynik kontrolny był wyznaczony odczynnikami f-my Roche (24,5%). Na drugim miejscu
(11,7%) znajdują się odczynniki f-my BioSystems (nie tylko
dzięki analizatorom A15 i A25), a następnie Cormay (8,9%),
BioMaxima (6,2%, analizatory Metrolab), α-Diagnostics
(5,6%), Olympus (5,2%). Jak wielokrotnie podkreślano, dane
te nie obrazują podziału rynku odczynnikowego w Polsce,
19
Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010
dotycząc wyłącznie oznaczeń kontrolnych, których liczba dla
każdego ocenianego składnika jest niezmiennie ta sama (8 /
rok), niezależnie od wielkości laboratorium i liczby oznaczeń
rutynowych. Przykładowo odczynnikami f-my Olympus jest
przypuszczalnie wyznaczanych wyraźnie więcej wyników
dla pacjentów, niż odczynnikami dystrybuowanymi przez
firmę α-Diagnostics, ponieważ analizatory Olympus eksploatowane są przede wszystkim w dużych laboratoriach,
o znacznej liczbie oznaczeń rutynowych. Popularne analiza-
tory Konelab wykorzystują odczynniki zarówno f-my Thermo
/ Kone, jak i f-my bioMerieux, z postępującą przewagą tych
pierwszych (aktualnie 2:1). Blisko 60 zgłoszonych analizatorów Vitros jest absolutnie uzależnionych od firmowych filmów wielowarstwowych („slajdów”), ale ponieważ nie mogą
być one wykorzystane z innymi analizatorami, to pozycja
„odczynników” Ortho Clinical Diagnostics jest adekwatna do
liczby / pozycji analizatorów Vitros (obecnie 9. pozycja, 3,6%
wyników kontrolnych). Należy żałować, że brak danych na te-
Tabela I.
Zmiany wyposażenia laboratoriów uczestniczących w powszechnym programie chemicznym w latach 2001-2010 - podano w postaci liczby
nadesłanych w ciągu roku wyników kontrolnych.
Rycina 1.
Zmiany wyposażenia laboratoriów uczestniczących w programie oceniane na podstawie warunków uzyskiwania wyników oznaczeń kontrolnych (w tys. wyników rocznie). A-wyniki uzyskane techniką a) manualną i b) zautomatyzowaną. B-wyniki uzyskane aparatami a) Cobas Integra
i b) Epoll. C i D-wyniki uzyskane kilku wybranymi analizatorami czy spektrofotometrami
20
A.M. Brzeziński i B. Przybył-Hac
mat rzeczywistego wykorzystywania w Polsce odczynników
różnych firm. W dalszym ciągu otrzymywane są informacje
o wyznaczaniu części oznaczeń kontrolnych odczynnikami
o znikomej popularności. W krańcowych przypadkach (0,01%
oznaczeń kontrolnych !) są to najprawdopodobniej pomyłki, choć nie zawsze sytuacja jest tak oczywista. Pozostaje
niewytłumaczalny problem ew. opłacalności tak znikomej
produkcji / importu. Ze zdumieniem znaleziono pojedyncze
małe laboratoria posługujące się „własnymi” odczynnikami,
przede wszystkim do oznaczeń białka całk., kreatyniny (met.
statyczne) czy nawet bilirubiny (met. Jendrassika).
Metody analityczne
W latach 80. i 90. ubiegłego wieku intensywnie propagowano wprowadzanie nowych metod o zwiększonej czułości
i swoistości, przede wszystkim enzymatycznych. Starano
się wyeliminować oznaczanie glukozy met. Hultmana, cholesterolu met. Libermanna-Burcharda, mocznika met. z dwuacetylem czy akt. aminotransferaz met. Reitmana-Frankela.
Ponieważ zdecydowanie przeważały wówczas met. manualne ewent. proste, w pełni „otwarte” analizatory, to dokonanie
zmian było autonomiczną decyzją każdego laboratorium,
a Centralny Ośrodek tylko promował określone rozwiązania.
Przykładowo jeżeli w 1984r. zaledwie 3,9% oznaczeń kontrolnych glukozy i 1% oznaczeń kontrolnych cholesterolu zo-
stało wyznaczonych nowoczesnymi metodami enzymatycznymi, to w 1994 r. – już po blisko 90% nadesłanych do oceny
wyników. Obecnie obserwowane zmiany metodyczne zwykle nie są aż tak radykalne, są jednak wyraźne choć przede
wszystkim determinowane wykorzystywanym przez laboratoria wyposażeniem. Niemal wszystkie nowoczesne analizatory systemami „otwartymi” są wyłącznie dla celów propagandowych. De facto są to najczęściej systemy zamknięte,
powiązane z zalecanymi / wybranymi przez producenta
metodami i firmowymi odczynnikami. Decyzja laboratoriów
o wyborze preferowanej metody analitycznej jest najczęściej
podejmowana wraz z decyzją o zakupie określonego analizatora – wszelkie późniejsze zmiany (metody, odczynników)
są bardzo kłopotliwe i trudne do przeprowadzenia, przy na
ogół biernym oporze producenta aparatu. Jednocześnie ta
pewna „sztywność” stosowanych rozwiązań bardzo korzystnie wpływa na jakość / poprawność wyznaczanych wartości,
a średnie metodyczno-aparaturowe stają się jednocześnie
średnimi metodyczno-aparaturowo-odczynnikowymi, zwiększając porównywalność warunków uzyskania ocenianych
wartości. Niezależnie od przyczyny, obserwowane zmiany
wykorzystywanych metod są znaczne, co dla 13 ocenianych składników (z 25) przedstawiono w tab. II, a dla ośmiu
dodatkowo na ryc. 2. Jak podano już wcześniej, absolutnie
panująca w latach 80. i 90. met. fotometrii płomieniowej jest
Tabela II.
Przykładowe zmiany metodyczne oznaczania wybranych składników powszechnego programu chemicznego w latach 2001-2010 - podano
odsetek wyników kontrolnych uzyskanych przedstawionymi metodami.
21
Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010
Rycina 2.
Zmiany metodyczne w latach 2001-2010 oznaczania wybranych składników: a) Sód/Potas, b) Magnez, c) Chlorki, d) CK, e) Mocznik, f) Kreatynina, g) Glukoza, h) AST/ALT. Oś rzędnych – % nadesłanych wyników, identyfikacja metod w tabeli II
w 2010 r. rzadko wykorzystywana (zaledwie 3,2% nadesłanych wyników kontrolnych), zastąpiona oznaczeniami potencjometrycznymi z wykorzystaniem elektrod jonoselektywnych, przede wszystkim w wersji pośredniej (r.2001 – 6%,
r.2010 – 35,4% nadesłanych wyników), częściowo wypierając wersję bezpośrednią (r.2005 – 76%, r.2010 – 58% nadesłanych wyników) – ryc. 2a. Jeszcze wyraźniej analogiczne
zmiany metodyczne dotyczą oznaczania chlorków (ryc. 2c) –
jeżeli met. ISE w wersji bezpośredniej utrzymuje się na stałym poziomie (r.2001 – 47%, r.2010 – 44% nadesłanych do
oceny wyników), to udział wyników uzyskanych pośrednią
metodą ISE wzrósł z 6% do 46% – niemal ośmiokrotnie (!),
przede wszystkim kosztem powściągliwie zalecanych metod
kolorymetrycznych (37,4% → 6% wyników), lecz także bardzo dobrej met. kulometrycznej. Dla oznaczania najpóźniej
włączonego do programu magnezu w ciągu ostatnich 10 lat
odsetek wyników wyznaczanych „klasyczną” dawniej metodą z Calmagitem zmniejszył się z 49% do 22%, na rzecz
metody również kolorymetrycznej, ale z chlorofosfonazo III
(2,3% → 23,2% - ryc. 2b). Przy oznaczaniu żelaza zwraca
uwagę dwukrotny wzrost popularności metody z ferenem
S przy zniknięciu zalecanej dawnej metody z batofenantroliną. Dla oznaczeń mocznika metoda z ureazą i GLDH jest
niewątpliwie najpopularniejszą (r.1990 – 5%, r.2001 – 75%,
r.2010 – 93% nadesłanych wyników kontrolnych), eliminując
zarówno metodę z ureazą i salicylanami, jak i rekomendowaną dawniej met. z ureazą i reakcją Berthelota (ryc. 2e).
Statyczne metody oznaczania kreatyniny (w wersji zarówno
z odbiałczaniem jak i bez odbiałczania próbki) stają się historią na rzecz metod monitorowania przyrostu absorbancji
w reakcji z alkalicznym pikrynianem (tzw. metody kinetyczne). Przede wszystkim dzięki dużej popularności analizatorów f-my Roche w ostatnich latach bardzo wzrosło wykorzystanie opracowanej przez tą firmę metody kinetycznej
22
oznaczania kreatyniny z kompensacją (ryc. 2f, met.3), choć
chwilowo uzyskiwane wyniki są poniżej oczekiwań (ale w sumie odsetek oznaczeń kontrolnych uznanych za poprawne
vs xmet. zwiększył się z 62,4% w r.2001 do 79-80% na koniec
minionej dekady). Idealnym przykładem wpływu wybranego
wyposażenia na wykorzystywaną metodykę jest oznaczanie glukozy – oczywiście wszystkie metody tzw. chemiczne
uległy już zapomnieniu, ale wśród metod enzymatycznych
bardzo wyraźnie zyskuje referencyjna metoda z heksokinazą (ryc. 2g, met.2), zastępując met. z oksydazą glukozową (zmiany 2001-2010 odpowiednio 10,3% → 29,3% oraz
86,6% → 66,7% nadesłanych wyników). Wynika to z faktu,
że met. heksokinazowa została wybrana jako standardowa
zarówno przez f-mę Roche, jak i firmę Olympus, a analizatory tych dwóch firm należą do najpopularniejszych. Nieco
zaskakuje mała popularność klasycznego wyznaczania akt.
kinazy kreatynowej z wykorzystaniem NAC jako aktywatora
(zaledwie 70% nadesłanych wartości – ryc. 2d). Mniej zaskakujące jest wykorzystywanie do oznaczania gammaglutamylotransferazy substratu karboksylowanego, o znacznie lepszej rozpuszczalności (obecnie niemal 1:4 – 20,1% wyników
kontrolnych vs 76%). Omówienie wszystkich zachodzących
zmian metodycznych przekracza ramy tego opracowania
– korzystniejszy wydawał się subiektywny dobór prezentowanych składników, dla których zmiany metodyczne były
istotne, obrazując ciągle zachodzące burzliwe przemiany
polskiej diagnostyki laboratoryjnej.
Wyniki
Zaobserwowane w ciągu ostatniej dekady zmiany organizacyjne, wyposażeniowe czy metodyczne wśród laboratoriów
uczestniczących w powszechnym programie chemicznym
powinny korzystnie wpłynąć na jakość uzyskiwanych wyników – nie tylko kontrolnych, ale i rutynowych. W tab. III
A.M. Brzeziński i B. Przybył-Hac
Tabela III.
Zbiorcze zestawienie wyników ogółem i dla czterech popularnych składników (mocznika, glukozy, cholesterolu i amylazy) w programie powszechnym w latach 2001-2010. Podano: kolumny a - n ocenianych wyników oraz n i % wyników uznanych za poprawne vs X met., kolumny
b - ocena regularności: odsetek ocen bardzo dobrych (wiersz górny) i negatywnych (wiersz dolny) oraz średni wskaźnik regularności.
dla dekady 2001-2010 zestawiono w kolumnie 1a liczbę
ocenianych w kolejnych latach wyników ogółem oraz liczbę
i odsetek wyników uznanych za poprawne względem średnich metodycznych (xmet ± dopuszczalny błąd). Zwraca
uwagę wyraźny (o blisko 4%) spadek odsetka wyników poprawnych w 2002 r. Było to spowodowane wprowadzeniem
w tym roku zaostrzonych kryteriów oceny tj. węższych granic
dopuszczalnego błędu dla 14 spośród 25 ocenianych składników: sodu (4% → 3%), potasu (6% → 4,5%), fosforanów,
moczanów, glukozy, cholesterolu (10% → 8%) oraz bilirubiny, cholesterolu frakcji HDL a także aktywności 6 enzymów
– AST, ALT, ALP, CK, GT, LD (20% → 15%). Dopiero pod koniec ocenianej dekady przekroczono poprawność z 2001 r. –
jednak już przy węższych granicach dopuszczalnego błędu!
W kolejnych kolumnach tab. III przedstawiono te same informacje (a – liczba wyników i % poprawnych) dla 4 wybranych,
bardzo podstawowych oznaczeń – mocznika, glukozy, cholesterolu i akt. amylazy. Przy ocenie oznaczeń kontrolnych
glukozy i cholesterolu zawężenie granic dopuszczalnego
błędu o 1/5 (z 10% do 8%) spowodowało obniżenie odsetka wyników uznanych za poprawne, odpowiednio o 6,1%
(91,6% → 85,5%) i 4,9% (92,4% → 87,5%), a wyrównanie
tego spadku zajęło 10 lat – dopiero w 2010 r. osiągnięto poprawność z r.2001. Dla dwóch pozostałych prezentowanych
oznaczeń – mocznika i akt. amylazy – nie zmieniano kryteriów oceny, co zaowocowało w miarę regularnym przyrostem odsetka wyników ocenionych jako poprawne, w ciągu
dekady o niemal 6,0% dla oznaczeń mocznika i aż 13% dla
oznaczeń aktywności amylazy (z 82,7% do 95,7%).
Zmieniona w 2001 r. organizacja powszechnego programu
chemicznego – zawsze 4 sprawdziany w roku, z 2 materiałami kontrolnymi równolegle – umożliwiła wprowadzenie dodatkowej, bardzo cennej miary jakości – regularności uzyskiwania poprawnych ocen dla poszczególnych oznaczanych
składników (co może być miarą stałego poziomu świadczonych usług – stable performance). Przyjęto, że dla zaliczenia oznaczenia określonego składnika w pojedynczym
sprawdzianie niezbędne jest nadesłanie dwóch wyników
uznanych za poprawne (tj. w obydwu wykorzystywanych
materiałach kontrolnych). Nie spełnienie tego warunku powoduje zawsze ocenę negatywną – nie ma znaczenia, czy
błędny był tylko jeden czy obydwa nadesłane wyniki bądź
wyników nie nadesłano. Ocena wyłącznie informacji pozytywnych jest kontestowana przez część laboratoriów, jest
to jednak jedyna możliwość dyscyplinowania uczestników
i wymuszenia terminowego odsyłania wyników dla wszystkich włączonych do programu składników. Jeżeli laboratorium: „zaliczy” oznaczenia określonego składnika we wszystkich 4 sprawdzianach w ciągu roku (czyli nadeśle komplet
8 wyników uznanych za poprawne), to regularność oznaczania tego składnika w danym laboratorium należy uznać
za bardzo dobrą (= 5 pkt.). Zaliczenie tylko 3 sprawdzianów
w roku oceniane jest jako dobre (= 4 pkt.), a dwóch – jako
zadowalające (= 3 pkt.), choć ta ostatnia ocena może już
23
Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010
wzbudzać wątpliwości. Jeszcze bardziej kontrowersyjne jest
uznanie zaliczenia tylko 1 sprawdzianu w roku jako regularność wątpliwą (= 1 pkt.), a dopiero nie zaliczenie żadnego
sprawdzianu (dla włączonego do programu składnika!) oceniane jest jednoznacznie negatywnie (= 0 pkt.). Średnia ocena punktowa pojedynczego laboratorium (z ocen poszczególnych składników) wydaje się mało miarodajna, zależąc od
liczby i profilu poddanych ocenie składników. Należy jednak
podkreślić, że występuje bardzo wyraźna korelacja między
liczbą oznaczanych składników, a punktową oceną regularności laboratorium. W 2010r. 33 laboratoria o najwęższym
profilu usług (do 3 składników) poddało ocenie w sumie 55
oznaczeń (przede wszystkim glukozy i cholesterolu) uzyskując średnią ocenę regularności zaledwie 2,98 pkt., podczas
gdy 5 laboratoriów spośród 6 oznaczających systematycznie wszystkie składniki uzyskało średnio 4,95 pkt. (!), w tym
2 laboratoria – 5,00 pkt. czyli dla wszystkich 25 składników
nadesłały komplet (25 x 8 = 200) wyników poprawnych.
W tabeli III w kolumnach b podano dla kolejnych lat – ogółem
i dla 4 wybranych składników – ocenę regularności oznaczeń, podając zarówno odsetek zestawów wyników ocenionych jako bardzo dobre (wartość górna) bądź złe (wartość
dolna), jak i średni punktowy wskaźnik regularności (suma
punktów dla ocenianych zestawów podzielona przez liczbę
zestawów). Zmiany są naprawdę przekonywujące, znacznie
wyraźniejsze niż przy prostym porównaniu odsetka wyników
ocenionych jako poprawne, zwłaszcza przyjmując jako wartości umownie należne średnie metodyczne. Oczywiście im
lepiej sprecyzowane warunki prowadzenia oznaczeń kontrolnych (metoda, aparat, odczynniki), tym korzystniejsza ocena uzyskanych wyników, ale jednocześnie więcej wyników
zostaje z oceny wyłączonych (brak możliwości stworzenia
grupy homogennej o minimalnej liczebności 6). Zestawiając
wyniki z ostatnich 3 lat, wg średnich ogólnych mogą zostać
ocenione wszystkie wyniki, a wg średnich metodycznych –
niemal wszystkie (99,86%). W warunkach przeprowadzania
powszechnego programu chemicznego wg średnich metodyczno-aparaturowych można ocenić niemal 90% nadesłanych wyników, a wg średnich metodyczno-aparaturowo-odczynnikowych – zaledwie ok. 75%. Co czwarty nadesłany
wynik nie może być oceniony w stosunku do tej najkorzystniejszej wartości umownie należnej na skutek nadmiernego
rozdrobnienia (zwłaszcza w małych placówkach) wykorzystywanej aparatury i odczynników. Wydaje się jednak, że
sytuacja będzie ulegała korzystnym zmianom. Jednocześnie średnio w ciągu ostatnich trzech lat odsetek wyników
poprawnych względem średnich ogólnych wyniósł 78,7%,
względem średnich metodycznych – 83,1% (+4,4%), względem średnich metodyczno-aparaturowych – 87,2% (+8,5%),
a względem średnich metodyczno-aparaturowo-odczynnikowych – niemal 90% (+10,5%).
Około 15% uczestników powszechnego programu sprawdzianów chemicznych jest równolegle użytkownikami tzw.
programu centralnego, poddającego ocenie te same 25
składników również w 2 surowicach kontrolnych równolegle.
24
Podstawowe różnice między programem powszechnym
a centralnym to liczba i dobór uczestników („wszystkie” medyczne laboratoria diagnostyczne, aktualnie ok.1700 placówek – 250 dużych laboratoriów „wiodących”), częstotliwość
przeprowadzanych sprawdzianów (1 x w kwartale –
1 x w miesiącu) i wykorzystywany system jednostek miary
(„tradycyjny” wagowo-objętościowy – SI). W rzeczywistości
obecny program centralny zapoczątkował cały program
sprawdzianów międzylaboratoryjnych w Polsce. W 1975r.
kierownicy 40 dużych zakładów diagnostyki laboratoryjnej
(WSZ i CSK) przyjęli propozycję Zakładu Diagnostyki Laboratoryjnej AM w Łodzi zorganizowania wspólnego międzylaboratoryjnego programu sprawdzianów chemicznych. Zaplanowano sprawdziany regularnie raz w miesiącu,
obejmując nimi oznaczenia 12 podstawowych składników
chemicznych równolegle w dwóch surowicach kontrolnych.
Zabezpieczenie obsługi techniczno-organizacyjnej podjął
się społecznie projektodawca, surowice były darami poszczególnych firm (przede wszystkim Zjednoczenia Biomed,
producenta Serostandardów), a ograniczone koszty porta
pocztowego pokrywał ZG PTDL. Mimo tak kruchych podstaw program nie tylko przetrwał, ale zyskiwał nowych
uczestników i rozwinął się do obecnie prowadzonego. Może
być podstawą do dumy, że mimo różnych trudności i zawirowań (m.in. stan wojenny i transformacja ustrojowa) sprawdziany programu centralnego bez żadnych przerw czy zakłóceń przeprowadzane są co miesiąc od ponad 35 lat (!),
a w grudniu 2010 r. wykorzystano materiały kontrolne o kolejnych numerach 847 i 848. Oczywiście program ulegał modyfikacjom (liczba uczestników i ocenianych składników,
forma zindywidualizowanej oceny liczbowo-graficznej), ale
najistotniejsza była systematyczna poprawa wiarygodności
nadsyłanych wyników oznaczeń kontrolnych, szczególnie
błyskotliwa w pierwszych kilku latach. Wydaje się, że właśnie te znaczące efekty prowadzonych sprawdzianów (mimo
ich ograniczonego zakresu) wraz z opracowaniem przez
Nadzór Specjalistyczny „Wytycznych w sprawie organizacji
i zasad działania w dziedzinie diagnostyki laboratoryjnej
i mikrobiologicznej” (PZWL, 1978), w których sprecyzowano
konieczność prowadzenia stałej wewnątrzlaboratoryjnej
kontroli jakości oraz celowość uczestnictwa w programach
międzylaboratoryjnych przyczyniły się do powołania
w 1978 r. przy Dep. Opieki Zdrowotnej i Rehabilitacji MZiOS
odrębnej Komisji ds. Standaryzacji i Kontroli Jakości Badań
Laboratoryjnych i Mikrobiologicznych. Powiązanie personalne Komisji z prowadzącym sprawdziany Zakładem Diagnostyki Laboratoryjnej AM w Łodzi spowodowało, że Komisja
zaczęła firmować prowadzone sprawdziany, a jednocześnie
umożliwiła pozyskanie z MZiOS ograniczonego finansowania, pozwalającego na zakup materiałów kontrolnych oraz
pokrycie kosztów druków, obliczeń i porta pocztowego. Obsługę organizacyjno-techniczną (dobór uczestników, dobór,
zakup i rozsyłanie materiałów kontrolnych, przygotowanie
protokołu sprawdzianów i druków odpowiedziowych, zbieranie i opracowanie wyników oznaczeń kontrolnych, rozsyła-
A.M. Brzeziński i B. Przybył-Hac
nie uczestnikom ocen nadesłanych wyników) w dalszym
ciągu prowadził społecznie Zakład Diagnostyki Laboratoryjnej AM w Łodzi (aż do powołania w 1997 r. Centralnego
Ośrodka Badań Jakości w Diagnostyce Laboratoryjnej z siedzibą w Łodzi). Pozyskanie funduszy z MZiOS umożliwiło
przeprowadzenie w 1981 r. pilotażowego sprawdzianu powszechnego, w którym oceniono oznaczanie 10 podstawowych składników chemicznych w 2 materiałach przez 1200
uczestniczących laboratoriów. Mimo wykorzystania do oceny bardzo liberalnego kryterium Tonksa, ponad 40% nadesłanych wyników zostało zdyskwalifikowanych jako obarczone zbyt dużym błędem w stosunku do przyjętych wartości
umownie należnych. Oczywiście należy pamiętać, że warunki pracy w laboratoriach były wówczas zupełnie inne. Podstawowym aparatem pomiarowym był wszechobecny Specol prod. NRD, powszechne było też posługiwanie się
„własnymi” odczynnikami i kalibratorami – 64% nadesłanych
wyników kontrolnych wyznaczono posługując się odczynnikami przygotowanymi w danym laboratorium. Do tych możliwości aparaturowo-odczynnikowych dostosowane były wykorzystywane, obecnie w większości zapomniane metody.
Ponad 98% nadesłanych w tym sprawdzianie wyników oznaczeń sodu i potasu wyznaczono met. fotometrii płomieniowej
(w r.2010 – 3,2% !), najczęściej (85% wyników) wykorzystując archaiczne fotometry płomieniowe f-my Zeiss mod. III
prod. NRD. Chlorki oznaczano głównie całkowicie już zapomnianymi metodami miareczkowymi (52% - merkurometrycznie, 26% - argentometrycznie), mocznik równie zapomnianą metodą z dwuacetylomonooksymem (69%
nadesłanych wyników), lub bardzo wówczas promowaną
metodą z ureazą i reakcją Berthelota (r.2010 - <2,0%), glukozę met. Hultmana z o-toluidyną (> 90% wyników), cholesterol niemal wyłącznie met. Liebermana-Burcharda ze stęż.
H2SO4. Przypuszczalnie znaczna część obecnych pracowników diagnostyki laboratoryjnej albo nigdy nie słyszała
o takich metodach, albo zdążyła już o nich zapomnieć. Jednak sprawdzian ten umożliwił podjęcie w r.1982 systematycznie prowadzonego powszechnego programu sprawdzianów chemicznych, obejmując nim ok. 1900 zidentyfikowanych
laboratoriów, wykonujących choćby pojedyncze oznaczenia
chemiczne. Sprawdziany obejmujące 10 podstawowych
składników chemicznych surowicy były organizowane tylko
2 razy w roku, ale z wykorzystaniem aż 5 materiałów kontrolnych równolegle. Informacyjno-szko-leniowy charakter tego
programu umożliwił propagowanie określonych rozwiązań
i nowoczesnych metod enzymatycznych o wyższej czułości
i swoistości, przede wszystkim dla oznaczeń najbardziej
podstawowych – glukozy (1982 r. – 3,4%, 1998 r. – 95,4%
nadesłanych wyników), mocznika (met. ureaza-GLDH, 1982
r. – 1,0%, 1998 r. – 62,1% nadesłanych wyników) i cholesterolu (met. z esterazą i oksydazą cholesterolową, 1982 r. –
0,8%, 1998 r. – 96,4% nadesłanych wyników). Podobnie jak
w centralnym programie sprawdzianów także w programie
powszechnym obserwowano wyraźną poprawę wiarygodności ocenianych wyników kontrolnych – w r.1982 jako poprawne vs xmet uznano 59,3%, w 1987 r. – 73,0%, a w 1992 r. –
75,5% nadesłanych wartości, przy niemal trzykrotnym
wzroście liczby ocenianych wyników. W 1992 r. poszerzono
wachlarz ocenianych składników do 21, w tym akt. 6 enzymów, oznaczanych wówczas również archaicznymi metodami (ponad 2/3 nadesłanych wyników kontrolnych aminotransferaz wyznaczono met.Reitmana-Frankela, z jak
najgorszymi skutkami, a ponad 500 pracowni zgłosiło oznaczanie amylazy najstarszą chyba ze spotykanych metod metodą Wohlgemuta (!). Jednak i dla tych dodatkowych składników obserwowano równie dużą poprawę, jak poprzednio
dla 10 składników podstawowych, a odsetek wyników ocenionych jako poprawne vs średnie metodyczne wynosił
w 1993 r. – 59,2%, w 1995 r. – 68,9%, a w 1998 r. – 78,2%,
przy systematycznie rosnącej liczbie ocenianych wyników.
Te korzystne zmiany stworzyły podstawę do wprowadzenia
w 2001 r. kolejnej modyfikacji programu powszechnych
sprawdzianów chemicznych do formy, opisanej we wstępie
i wykorzystywanej już od 10 lat, a efekty tych zmian są
przedmiotem tego opracowania. Należy przypomnieć o już
podkreślanej zbieżności programu powszechnego z „wyjściowym” programem centralnym. Nasuwa się pytanie, czy
przy niemal bliźniaczym charakterze sensowne jest utrzymywanie ekskluzywnego programu centralnego, obejmującego
zaledwie 250 laboratoriów. Aczkolwiek pierwotne założenia
w ciągu minionych 35 lat zostały z różnych przyczyn nieco
zakłócone, to uczestnicy programu centralnego to przede
wszystkim duże, na ogół dobrze zorganizowane i wyposażone placówki o szerokim zakresie usług, a starania o włączenie do fakultatywnego programu świadczą o ich dużym zainteresowaniu problemem jakości. Laboratoria te wyróżniają
się wyższą od pozostałych uczestników programu powszechnego poprawnością nadsyłanych wyników kontrolnych. Aby to udowodnić, 1696 laboratoriów uczestniczących
w powszechnym programie sprawdzianów chemicznych
Tabela IV.
Porównanie wyników powszechnego programu sprawdzianów chemicznych w r.2010 uzyskanych przez ogół uczestników (1696 laboratoriów)
wraz z podziałem na A - 1450 laboratoriów nie uczestniczących i B - 250 laboratoriów uczestniczących w programie centralnym. Podano n
ocenianych wyników oraz n i % wyników uznanych za poprawne vs kolejne wartości umownie należne.
25
Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010
w 2010 r. podzielono na 2 podgrupy – 1450 laboratoriów nie
uczestniczących (podgrupa A) i 250 laboratoriów uczestniczących w programie centralnym (podgrupa B). Wyniki zestawiono w tab. IV i na ryc. 3. W tabeli podano – ogółem i dla
obydwu podgrup – odsetek wyników uznanych za poprawne
vs średnie ogólne, średnie metodyczne i średnie metodyczno-aparaturowe. Zbyt mała liczba uczestników programu
centralnego uniemożliwia wdrożenie w tym programie najkorzystniejszych wartości umownie należnych, tj. średnich matodyczno-aparaturowo-odczynnikowych. Coraz częściej jednak wykorzystywany aparat jest ściśle powiązany
z określonymi odczynnikami, a średnie metodyczno-aparaturowe stają się automatycznie średnimi metodyczno-aparaturowo-odczynnikowymi. Jak wynika z tab. IV, wyniki uzyskiwane przez laboratoria uczestniczące w programie
centralnym są wyraźnie korzystniejsze niż pozostałych laboratoriów – i to niezależnie od przyjętych wartości umownie
należnych. Różnice o 5-8% są znacznie większe niż się pozornie wydaje. Przyjmując ocenę vs średnie metodycznoaparaturowe, odsetek wyników uznanych za poprawne wynosi odpowiednio 87,9% (podgrupa A) i 95,7% (podgrupa
B). Nie jest obojętne, czy jako błędny oceniony zostanie co
8. czy co 20. nadesłany wynik. Różnice między grupą A i B
zobrazowano też na ryc. 3. Odsetek zestawów z regularnością bardzo dobrą był w podgrupie B znacząco wyższy
(o 23%) niż w podgrupie A – odpowiednio 85,7% i 62,5%,
a średni współczynnik regularności był także wyraźnie wyższy – 4,80 pkt. (grupa B) i 4,23 pkt. (grupa A). Oczywiście te
istotne różnice można powiązać z lepszym na ogół od przeciętnego wyposażeniem dużych, laboratoriów uczestniczących w programie centralnym. 250 użytkowników tego programu eksploatuje 289 z 1233 zgłoszonych analizatorów,
w tym po ponad 30% zgłoszonych analizatorów Architect,
Advia, Dimension, Integra czy Olympus, a nawet ponad 60%
aparatów Cobas c501 (platforma Cobas 6000), przy mniejszej od spodziewanych 15% liczbie analizatorów Flexor,
Express, Presige 24i, Accent czy Cobas Mira. Najbardziej
drastycznym przykładem są analizatory A15, A25 rozprowadzane przez f-mę BioSystems – z ponad 150 sztuk zgłoszo-
Rycina 3.
Porównanie regularności oznaczeń w powszechnym programie
chemicznym w r.2010, uzyskanych przez: A-1450 laboratoriów nie
uczestniczących i B-250 laboratoriów uczestniczących w programie
centralnym. Zestawienie ocen ogółem przez wszystkich uczestników danej grupy i przez użytkowników 3 wybranych analizatorów:
Cobas Integra, Olympus, i Vitros.
26
nych w 2010 r. zaledwie 1 egzemplarz jest wykorzystywany
przez użytkownika programu centralnego. Także proste
spektrofotometry są raczej sporadycznie wykorzystywane
przez laboratoria grupy B, np. tylko 5 egz. z ponad 160 zgłoszonych w 2010 r. spektrofotometrów Epoll.
Powstaje oczywiste pytanie, czy korzystniejsze wyniki
w powszechnym programie sprawdzianów chemicznych laboratoriów uczestniczących w programie centralnym nie wynikają z ich lepszego wyposażenia. Częściowo niewątpliwie
tak – jakość wyników bezspornie zależy od warunków ich
uzyskiwania, a więc m.in. wykorzystywanych metod, aparatury, odczynników czy kalibratorów. Wydaje się jednak, że
sama aparatura, będąc warunkiem niezbędnym (a co najmniej wysoce pożądanym), nie jest warunkiem wystarczającym. Przy ocenie regularności wyodrębniono wyniki uzyskane trzema popularnymi, dobrymi analizatorami – Cobas
Integra, Olympus, Vitros. W grupie B (użytkowników programu centralnego) korzystano ze 138 szt. tych analizatorów,
a w grupie A – pozostałych laboratoriów – 291 szt. Wyniki
przedstawiono na ryc. 3, podpisane „3 analizatory”. Aczkolwiek zarówno w podgrupie A jak i B nastąpiła znaczna
poprawa ocenianych wskaźników, to była ona wyraźniejsza
w podgrupie A – laboratoriów nie uczestniczących w programie centralnym. Odsetek zestawów z bardzo dobrą oceną regularności wzrósł w tej podgrupie z 62,5% do 76,6%
(+ 14,1%), a wśród użytkowników programu centralnego
(podgrupa B) zaledwie 3,3% (85,7% → 89,1%). Podobnie średni punktowy wskaźnik regularności w podgrupie
A podniósł się z 4,23 do 4,60 pkt. (+0,37 pkt.), a w podgrupie B z 4,80 do 4,87 pkt., więc tylko o 0,07 pkt. Korzystne zmiany ocenianych wyników wyznaczonych 3 popularnymi, dobrymi systemami analitycznymi w stosunku
do ogółu wyników potwierdza dość oczywiste znaczenie
wykorzystywanego wyposażenia na wiarygodność uzyskiwanych wartości. Jednak utrzymujące się różnice
między podgrupami A i B zarówno w odsetku zestawów
z bardzo dobrą oceną regularności (76,6% - 89,0%) jak
i wartości średniego współczynnika regularności (4,60 – 4,87
pkt.) świadczą o tym, że sama aparatura, mając znaczący
wpływ na jakość uzyskiwanych wyników, nie jest warunkiem
wystarczającym – nawet korzystając z takich samych systemów analitycznych (metoda-aparat-odczynniki-kalibratory)
można uzyskać wyraźnie różne wyniki. Jest to kwestia
kompetencji, zaangażowania, organizacji i szeregu innych
czynników. Dlatego mimo że program centralny jest tak podobny do powszechnego, utrzymywany jest nie tylko przez
sentyment (najstarszy program, 35 lat!), ale ponieważ użytkownicy tego programu stanowią dobrą grupę referencyjną
dla ogółu laboratoriów polskich, wskazując na spodziewane
kierunki rozwoju, zmian wyposażenia czy możliwości poprawy wiarygodności uzyskiwanych wyników.
Oczywiście ew. uczestnictwo w programie centralnym nie
jest jedynym wyznacznikiem różnic wśród laboratoriów użytkowników powszechnego programu sprawdzianów chemicznych. Ze względów praktycznych już od początku prowadze-
A.M. Brzeziński i B. Przybył-Hac
Tabela V.
Ocena laboratoriów uczestniczących w programie powszechnym w latach 2001-2010 zależnie od wielkości (strona lewa tabeli) i powiązań
organizacyjnych (strona prawa tabeli). W każdym roku podano: w wierszu górym liczby laboratoriów danej klasy i przeciętną ocenę punktową
regularności, a poniżej odsetek ocen regularności bardzo dobrych (strona lewa) i złych (strona prawa).
nia sprawdzianów wdrożono podział laboratoriów na 4 klasy
wielkości oraz na 5 grup powiązań organizacyjnych – od
akademickich poprzez laboratoria szpitali publicznych, ambulatoryjne, przemysłowe i „inne”. Na początku lat 90. grupa
„inne” została przekształcona w grupę „otwartych” laboratoriów niepublicznych, których liczba szybko rosła – jeżeli
w 1994 r. stanowiły 5,6% uczestników programu powszechnego, to w 2000 r. – 21%, a w 2010 r. – już 55% (!). Zmiany
organizacyjno-własnościowe skrótowo omówiono w podrozdziale „Uczestnicy”. Głównym celem tabeli V nie jest jednak
przedstawianie zmian organizacyjno-własnościowych wśród
użytkowników programu powszechnego i podkreślenie za-
równo szybkiej prywatyzacji diagnostyki laboratoryjnej, jak
i np. niemal całkowitego zniknięcia laboratoriów przemysłowej służby zdrowia, ale zmiany jakości / regularności
oznaczeń, obserwowane w różnych grupach laboratoriów
w ciągu minionych 10 lat. W każdym polu w lewym górnym
rogu podano liczbę laboratoriów danej podgrupy, w lewym
dolnym rogu odsetek zestawów wyników o regularności
bardzo dobrej, a w prawym dolnym rogu – o regularności
złej, natomiast w prawym górnym rogu podany jest średni
punktowy wskaźnik regularności dla danej grupy. Zwraca
uwagę zależność uzyskiwanych ocen zarówno od średniej
wielkości placówek danej grupy jak i powiązań organizacyj-
Rycina 4.
Ocena wyników laboratoriów w latach 2001-2010 zależnie od: A-wielkości – zestawiono wyniki wszystkich laboratoriów (krzywe środkowe)
oraz laboratoriów bardzo małych (krzywe dolne) i bardzo dużych (krzywe górne): a) odsetek bardzo dobrych ocen regularności; b) ocena
punktowa; B-powiązań organizacyjnych – zestawiono wyniki wszystkich laboratoriów (krzywe środkowe) oraz dwóch grup skrajnych – laboratoriów publicznych szpitalnych (krzywe górne) i niepublicznych otwartych (krzywe dolne): c) odsetek bardzo dobrych ocen regularności; d)
ocena punktowa
27
Powszechny Program Sprawdzianów Chemicznych w Polsce w latach 2001-2010
nych, choć te ostatnie zależności mogą być mylące. Mało
korzystne wyniki przedstawione w tabeli dla grupy laboratoriów niepublicznych otwartych mogą wynikać z faktu, że
w znacznym stopniu są to placówki bardzo małe, zatrudniające od 1 do 3 pracowników fachowych, o na ogół wąskim
zakresie świadczonych usług, dysponujące bardzo skromnym, czasem nawet archaicznym (coraz rzadziej) wyposażeniem i dążące do maksymalnej redukcji kosztów – bardzo
często z jak najgorszymi skutkami. Zarówno odsetek zestawów o regularności ocenionej jako bardzo dobra czy zła, jak
i średni punktowy wskaźnik regularności w grupie laboratoriów najmniejszych są najniższe, znacząco niższe niż w grupach laboratoriów większych. Oczywiście w ciągu omawianych 10 lat we wszystkich grupach niezależnie od wielkości
laboratorium nastąpił wyraźny wzrost zarówno odsetka ocen
bardzo dobrych regularności, jak i średniego punktowego
wskaźnika regularności – dla laboratoriów najmniejszych
z 30,3% i 3,194 pkt. do 51,5% i 4,013 pkt., a dla największych odpowiednio z 62,8% i 4,318 pkt. do 85,0% i 4,739
pkt. (ryc. 4A). Oczywiście w grupie laboratoriów małych,
o gorszych wynikach, zmiana jest wyraźniejsza niż w z założenia lepszych (lepiej zorganizowanych i wyposażonych) laboratoriach dużych. Średni punktowy wskaźnik regularności
wzrósł w ciągu 10 lat w grupie laboratoriów najmniejszych
o 0,82 pkt. (z 3,194 pkt. do 4,013 pkt.), a w grupie laboratoriów największych o połowę mniej – 0,42 pkt. (z 4,318
pkt. do 4,739 pkt.). Dane prawej części tabeli, czyli podziału
uczestników programu zależnie od ich powiązań organizacyjnych mogą czasami prowadzić do mylnych wniosków.
W tab. V występują wyraźne różnice w podanych wskaźnikach (odsetek ocen bardzo dobrych i złych, średni punktowy
wskaźnik regularności) na korzyść placówek publicznych
zarówno wśród laboratoriów stacjonarnej opieki zdrowotnej (szpitalnych), jak i opieki otwartej (ambulatoryjnej). Są
to jednak częściowo różnice pozorne, wynikające nie z formy własności, lecz z przewagi wśród laboratoriów niepublicznych placówek małych. Dla laboratoriów szpitalnych
placówki średnie i duże (> 10 prac. fach.) stanowią 68,9%
w grupie placówek publicznych i 54,4% w grupie placówek
niepublicznych, a placówki największe – odpowiednio 20,0%
i 6,2%. Aczkolwiek przykładowo w r.2010 bardzo duże niepubliczne laboratoria szpitalne uzyskały nawet wyższy średni punktowy wskaźnik regularności niż laboratoria publiczne
(4,838 pkt. vs 4,773 pkt.), to ich niższy udział w ocenianych
grupach warunkuje, że całą grupa 460 laboratoriów szpitalnych publicznych ma wyższy średni wskaźnik regularności,
niż 195 laboratoriów niepublicznych (4,628 pkt. vs 4,487
pkt.). Wśród laboratoriów otwartej opieki zdrowotnej zdecydowanie przeważają placówki niepubliczne nad publicznymi
(747 vs 235), wyższy jest też odsetek laboratoriów małych,
zatrudniających do 10 pracowników fachowych – odpowiednio 94% i 86%. W obydwu grupach występowała ta sama
liczba placówek dużych (> 25 prac. fach.) – po 6, co stanowiło 0,8% i 2,6% odpowiednich grup. Wśród laboratoriów
niepublicznych jedno duże laboratorium uzyskało wyraźnie
28
złe wyniki, czego wyrazem jest niespotykany wskaźnik regularności 0,65 pkt. (błędy kalibracji?). Jeżeli odrzucić wyniki tego laboratorium, to 6 dużych szpitalnych laboratoriów
publicznych uzyskało średni wskaźnik regularności 4,800
pkt., a 5 niepublicznych – 4,896 pkt. Na ryc. 4B przedstawiono zmianę procentowego udziału ocen bardzo dobrych
(c) oraz średniego punktowego wskaźnika regularności (d)
dla dwóch „skrajnych” grup – niepublicznych laboratoriów
otwartej opieki medycznej i publicznych opieki stacjonarnej.
Różnice są znaczne, jednak zdecydowanie mniej wyraźne
niż między laboratoriami najmniejszymi i największymi (ryc.
4A). Należy mieć nadzieję, że utrzymają się zarówno wysoce
korzystne zmiany wyposażenia, jak i tendencja do eliminowania placówek najmniejszych – po błyskotliwym wzroście
w latach 2001-2005 z 27,5% do 39,1% spadek do obecnych
31% uczestników programu powszechnego – co zaowocuje
postępującą niwelacją różnic między laboratoriami różnych
pionów organizacyjnych.
Oczywiście im wyższy poziom wiarygodności, oceniany
wykorzystywanymi wskaźnikami, tym trudniej uzyskać korzystne zmiany. Można to przedstawić na przykładzie różnic występujących między 16 ocenianymi województwami
(o bardzo zróżnicowanej liczbie laboratoriów uczestniczących w programie w 2010 r. – od 42 placówek w woj. lubuskim
po 248 w woj. śląskim). Województwo „najlepsze” zajmujące
konsekwentnie 1. miejsce uzyskało korzystną zmianę oceny
regularności punktowej z 4,20 pkt. w 2001 r. do 4,65 pkt.
w 2010 r. (czyli + 0,45 pkt.), średnio w ciągu 10 lat x = 4,43
pkt., s = 0,1542, wz = 3,5%. Województwo zajmujące 16
(ostatnią) pozycję w ciągu 10 lat uzyskało zmianę z 3,30 pkt.
do 4,20 pkt. (+ 0,90 pkt.), średnio 3,79 pkt., s = 0,2741, wz =
7,2%. Rozpatrując w ciągu 10 lat kolejne zbiory 16 wartości
wojewódzkich, można zauważyć dwukierunkową poprawę –
wzrost średniego punktowego wskaźnika regularności (2001
– 3,80 pkt., 2010 r. – 4,39 pkt.) przy jednoczesnym wyraźnie
Rycina 5.
Zmiany regularności oznaczeń w latach 2001-2010 – podano średnie ± SD zbiorów 16 wyników wojewódzkich. Linią ciągłą zaznaczono spadek współczynnika zmienności.
A.M. Brzeziński i B. Przybył-Hac
mniejszym rozproszeniu poszczególnych zbiorów – odchylenie standardowe zbiorów obniżyło się: w 2001 r. s = 0,2486,
a w z 2010 r. s = 0,1176. Wystąpienie tych dwóch korzystnych, przeciwstawnie skierowanych zmian wyjątkowo spektakularnie wpłynęło na spadek współczynnika zmienności
z 6,54% w 2001 r. do 2,68% w 2010 r. – ryc. 5. Różnice między województwami mają niewątpliwie zróżnicowane przyczyny (liczba laboratoriów i ich wielkość, powiązania organizacyjne, wyposażenie, kwalifikacje kadry), ale zmniejszanie
się różnic we wiarygodności nadsyłanych wyników – czego
wyrazem może być zarówno średni punktowy wskaźnik wiarygodności, jak i odsetek wyników uznanych za poprawne
– jest wysoce korzystne i należy mieć nadzieję, że będzie
konsekwentnie postępowało.
Wnioski
Przedstawione zmiany, zaobserwowane w minionej dekadzie wśród laboratoriów uczestniczących w powszechnym
programie sprawdzianów chemicznych, są wręcz imponujące. Zachodząc systematycznie lecz powoli, w nawale codziennej pracy przechodzą niemal niezauważalnie. Dopiero okresowe podsumowanie pozwala wykazać, jak bardzo
zmieniły się zarówno warunki pracy, jak i jakość / wiarygodność wyników kontrolnych w laboratoriach uczestniczących
w programie. Następuje wysoce korzystna automatyzacja
oznaczeń chemicznych, obejmująca nawet małe placówki.
Udział wyników kontrolnych (nie rutynowych!) wyznaczonych metodami manualnymi zmniejszył się z ponad 50%
w 2001 r. do 16% w 2010 r. Korzystnie, choć w dużej mierze
wtórnie w stosunku do wyposażenia, zmieniają się stosowane metody analityczne, wykorzystywane odczynniki i kalibratory. Postępuje wzbudzająca znaczne emocje prywatyzacja
laboratoriów – wśród uczestników ocenianego programu
udział placówek niepublicznych wzrósł w ciągu 10 lat niemal
dwukrotnie – z 28% do 55%. W ostatnich latach zmniejszyła
się liczba laboratoriów (chyba nie tylko uczestników programu?) z 1816 placówek w 2007 r. do 1696 w 2010 r. (–6,6%),
przede wszystkim kosztem placówek najmniejszych. Liczba
tych ostatnich, po błyskotliwym wzroście na początku omawianej dekady (związanym z prywatyzacją), szczęśliwie
zaczęła systematycznie spadać – 2001 r. -25,5%, 2006
r.-39,1%, 2010 r.-31% uczestników programu. Obserwowanym zmianom „materialnym” towarzyszy też korzystna
zmiana wiarygodności nadsyłanych oznaczeń kontrolnych
(należy mieć nadzieję, że także i rutynowych). Odsetek wyników kontrolnych ocenianych jako poprawne vs X metod.aparat. wzrósł z 82,6% w 2002 r. do 89,4% w 2010 r. (a do
91,0% vs średnie systemowe). Tym samym udział wyników
zdyskwalifikowanych zmniejszył się o połowę, choć nadal
jest bezwzględnie zbyt wysoki, w ogromnym stopniu zależąc
od posiadanego wyposażenia i kompetencji wykonawców.
Wysoce przydatna okazuje się ocena nowymi wskaźnikami
jakości, wprowadzonymi po wdrożonych w 2001 r. modyfikacjach programu, a oceniającymi regularność uzyskiwania
wyników poprawnych. Ocena dotyczy rocznych zbiorów
8 wyników wyznaczanych dla każdego ocenianego składnika w poszczególnych laboratoriach, w tym bardzo dobrych
ocen regularności (komplet 8 wyników poprawnych!), których odsetek wzrósł w ciągu dekady o niemal 50% (z 45,3%
do 66,9% ocenianych zestawów), bądź wprost przeciwnie, regularności złej (spadek 3,5-krotny – z 4,9% do 1,4%
ocenianych zestawów). Można też wykorzystać zbiorczy
średni punktowy wskaźnik regularności oceniający (dla laboratoriów, grupy laboratoriów, oznaczeń czy analizatorów)
sumę punktów wszystkich ocen przez liczbę ocen. Również
ten wskaźnik uległ wysoce znaczącej poprawie, dla ogółu
uczestników programu z 3,781 pkt. w 2001 r. do 4,388 pkt.
w 2010 r. (czyli aż o 0,6 pkt.!). Ogólnie można przyjąć, że
w ciągu dekady nastąpiło wiele wysoce korzystnych zmian,
które zaowocowały wyraźną, choć nie satysfakcjonującą poprawą wiarygodności wyników. Jak zawsze, o mocy łańcucha decyduje najsłabsze ogniwo. Nie dyskutuje się 20 laboratoriów pracujących dobrze (bo to przecież ich obowiązek!),
lecz jedno złe, jakość pracy którego nastręcza uzasadnione
zastrzeżenia. Szkopuł w tym, aby te nie spełniające oczekiwań laboratoria nie przesłoniły niewątpliwych osiągnięć
pozostałych (co się niestety zdarza). Problemem pozostaje
też kwestia ewent. promowania najlepszych czy eliminacji
najgorszych laboratoriów. Jak wielokrotnie już podkreślano,
jest to problem bardzo trudny, zarówno organizacyjnie czy
kompetencyjnie, jak i – a raczej przede wszystkim – merytorycznie. Należy powtórzyć przedstawioną już propozycję,
aby pod egidą Min. Zdrowia Krajowy Nadzór Specjalistyczny
stworzył zespół, który przedstawi odpowiednie zalecenia /
wymagania. Istotną trudnością będzie tak lekko w Polsce,
wręcz niepoważnie traktowana legislacja zaproponowanych
rozwiązań. Trudno przesądzić, jakie będą te propozycje, należy tylko zwrócić uwagę, że np. wprowadzenie licencjonowania działalności laboratoryjnej wymagało w RFN uchwał
Bundestagu i Bundesratu, a w USA Kongresu – i ciągle
wzbudza wiele zastrzeżeń i wątpliwości.
Adres do korespondencji:
Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej
90-613 Łódź, ul. Gdańska 80
Tel./Fax. (42) 230-25-78, 230-25-79
e-mail: [email protected]
Zaakceptowano do publikacji: 26.03.2011
29