Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez

Transkrypt

Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez
diagnostyka laboratoryjna Journal of Laboratory Diagnostics
2012 • Volume 48 • Number 2 • 127-152
Kontrola jakości • Quality Control
Sprawdziany międzylaboratoryjne prowadzone w roku
2011 przez Centralny Ośrodek Badań Jakości
w Diagnostyce Laboratoryjnej
Interlaboratory EQA programmes realised in 2011 by Centre for
Quality Assessment in Laboratory Medicine
Andrzej M. Brzeziński, Barbara Przybył-Hac
Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej, Łódź
Streszczenie
Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej prowadził w 2011r. osiem programów międzylaboratoryjnych
i zorganizował 28 różnych sprawdzianów dla 250-1700 uczestników. W ciągu roku opracowano ponad 800 tys. wyników
kontrolnych, wśród nich ponad 250 tys. wyników powszechnego programu chemicznego i ponad 300 tys. wyników programu hematologicznego. Ponieważ każdy wynik kontrolny powiązany jest z dodatkowymi co najmniej 10 informacjami, tworzy
to ogromną bazę 8-10 milionów danych rocznie, zarządzanie i archiwizacja której stwarza poważne problemy logistyczne
i techniczne. Bardzo efektywnie następuje modernizacja wykorzystywanego wyposażenia, głównie analizatorów chemicznych
i immunochemicznych analizatorami firm Roche i Siemens oraz analizatorów hematologicznych aparatami firm Sysmex i ABX
Horiba. Równolegle poprawia się jakość oznaczeń kontrolnych – ponieważ przyjęte dopuszczalne granice błędu są rygorystycznie wąskie, osiągana jest poprawność tylko 92-95% ocenianych wyników. Niewątpliwe trudności powoduje występująca
czasem bimodalność ocenianych zbiorów, spotykana w wypadku kilku odczynników tego samego producenta dla określonych
oznaczeń, zmianą producenta odczynników dla określonego analizatora albo wprowadzane udoskonalenia metod czy aparatury nie wykorzystywane przez użytkowników programów. Niestety uległ zahamowaniu proces elektronicznego przekazu
danych między uczestnikami, a organizatorami sprawdzianów z powodu wprowadzonej blokady etatów, uniemożliwiającej
zatrudnienie drugiego informatyka. W programach w których taka forma łączności została wprowadzona, czas między wykonaniem oznaczeń kontrolnych a otrzymaniem ocen uzyskanych wyników uległ kilkukrotnemu skróceniu.
Summary
Polish Centre for Quality Assessment in Laboratory Medicine realised during year 2012 eight various EQA programmes and
organised 28 different surveys for 250-1700 users. During the year more than 800 000 control results were evaluated, among
them over 250 thousands results in general chemistry programme (27 constituents, our surveys a year with two different samples each) and over 300 thousands for basic haematological programme. As each control result is connected with at least 8-10
additional information, it creates a countless number of 8-10 millions of datas per year – the management and archiving of
such huge amount of information creates a serious logistic and technical question. Very impressive is efficient modernisation,
mainly chemical and immunochemical analysers from Roche and Siemens as well as haematological analysers from Sysmex
and Horiba. The quality of control results increase too – as the allowable error limits are rather narrow, the percentage of acceptable control results only 92-95 per cent are archived. Besides technical also essential progress is observed – N-terminal
atrial natriuretic peptide is very spectacular example (2008 – 32, 2009 – 60, 2010 – 97, 2011 – 109 labs). Some problems are
created with bimodal distribution of results, connected from time to time with different reagents for the same method and analyser, with change the producer of reagents, with introducing new improvement of method or equipment or contrary to the producers rules of exploitation of analysers. Unfortunately extremely useful process of electronic connection between programme
users and organisers has stopped, as the Centre cannot obtain the possibility to employ an additional professional worker. For
programmes in which such improvement has been realised the time between estimation of control samples and obtainment of
results appreciation has been shortened several times.
127
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
Słowa kluczowe:sprawdziany międzylaboratoryjne, ocena wyników kontrolnych, rozkład wyników kontrolnych, elektroniczny
przekaz danych
Key words:interlaboratory surveys, evaluation of control results, distribution of control results, electronic data transfer
Wstęp
Niepostrzeżenie minął jubileusz 30 lat realizacji sztandarowego (ale nie najstarszego!) programu sprawdzianów międzylaboratoryjnych – powszechnego programu chemicznego (1981-2011). W pierwszym sprawdzianie, obejmującym
tylko 10 podstawowych składników chemicznych, uczestniczyło blisko 1200 laboratoriów, nadsyłając dla dwóch wykorzystanych materiałów niemal 15,5 tys. wyników oznaczeń
kontrolnych, z których jako poprawne oceniono zaledwie
59,7% (dla wapnia – 42,9%). Była to zupełnie inna epoka,
dla większości obecnych pracowników diagnostyki laboratoryjnej czasy antyczne. Gros stosowanych wówczas metod
i niemal cała aparatura pomiarowa zostały odesłane do lamusa, a duża część uległa całkowitemu zapomnieniu, np.
oznaczanie cholesterolu reakcją Liebermanna i Burcharda
z bezwodnikiem kwasu octowego i stęż. kwasem siarkowym
(w r. 1981 niemal 100% uczestników), miareczkowe oznaczanie chlorków (78% uczestników) czy refraktometryczne
oznaczanie białka (31% uczestników). Aż 64% nadesłanych
wyników kontrolnych zostało wyznaczonych „własnymi” odczynnikami przygotowanymi w laboratorium wykonawcy (!),
a ponad 50% - wykorzystując „własne” wzorce i kalibratory.
Paradoksalnie ocena wyników kontrolnych była wówczas
znacznie łatwiejsza. Sprzyjała temu duża unifikacja metod
i aparatury pomiarowej – 93% wyników 5 podstawowych
składników chemicznych oznaczanych kolorymetrycznie
wyznaczonych zostało spektrofotometrami Spekol (NRD).
Dodatkowo proste metody manualne są znacznie mniej
wrażliwe na efekt podłoża, niż nowoczesne, wysoce skomplikowane analizatory, wykorzystujące bardzo uproszczone
metody (najchętniej jednoodczynnikowe) o wysokiej czułości. Jeszcze w r. 2011 wśród 12874 wartości kontrolnych wyznaczonych manualnie ap. Epoll jako poprawne vs Xog. oceniono 78,2% nadesłanych wyników, a vs średnie systemowe
– 82,1% (Δ = 3,9%), a dla 2139 wyników wyznaczonych ap.
Pointe 180 – zaledwie Δ = 2,0%! Z nowoczesnymi, w pełni
zautomatyzowanymi analizatorami sytuacja jest odmienna.
Poza formalnie łatwym do wytłumaczenia przykładem ap.
Vitros (Δ = 38,1%), różnica w odsetku wyników poprawnych
vs średnie ogólne, a średnie systemowe wynosiła w r. 2011
dla ap. Dimension – 18,6%, dla ap. AU Beckman Coulter
(d. Olympus) – 15,7%. a dla ap. Architect – 13,6% (tab. III).
Nie ułatwia to oceny porównawczej wyników kontrolnych.
Zgodnie ze standardami wdrożonymi rozporządzeniem
Ministra Zdrowia z dn. 23 marca 2006 r. (Dz.U. Nr 61
poz.435) wraz z modyfikacjami z dn. 29 stycznia 2009r.
(Dz.U. Nr 22 poz. 128), w organizowanych przez Centralny
Ośrodek programach sprawdzianów powinny uczestniczyć
wszystkie działające w kraju medyczne laboratoria diagnostyczne (MLD). Aczkolwiek nie podano, kto i jak weryfikuje praktyczne wdrażanie tych standardów oraz czy
128
grożą jakiekolwiek sankcje za niepodporządkowanie się
rozporządzeniom, wydaje się, że ogromna większość laboratoriów (wszystkie?) już wcześniej nawiązała współpracę
z Centralnym Ośrodkiem. Było to tym łatwiejsze, że choć
formalnie laboratoria powinny włączyć do oceny wszystkie
oznaczenia objęte programami Centralnego Ośrodka, to
w praktyce jest to nie do wyegzekwowania – laboratoria
same decydują, czy i jakie składniki poddają ocenie. Dodatkową zachętą może być fakt, że błędne wyniki oznaczeń kontrolnych nie grożą żadnymi konsekwencjami
– zgodnie ze standardem istotne jest samo uczestnictwo
czyli odesłanie wyników. Brak zresztą sankcji także za nieodesłanie wyników, a więc zmarnowanie częstokroć kosztownych materiałów kontrolnych, dostarczanych nieodpłatnie przez Centralny Ośrodek (z budżetu Ministerstwa
Zdrowia). Sporadycznie, najczęściej w sprawdzianach
hematologicznych, po ewent. monitach o fakcie nieodesłania wyników informowani są specjaliści wojewódzcy ds.
diagnostyki laboratoryjnej, ale ich obowiązki są odmienne,
a możliwości reakcji także bardzo ograniczone.
W r. 2011 w ramach prowadzonych przez Centralny Ośrodek działań realizowano 8 różnych programów międzylaboratoryjnej oceny wyników, organizując 28 sprawdzianów dla
251-1676 uczestników i oceniając ponad 800 tys. nadesłanych wyników oznaczeń kontrolnych (tab.I). Ponieważ każdy
wynik kontrolny związany jest z co najmniej 10 informacjami
dodatkowymi, tworzy to co roku ogromną bazę 8-10 milionów danych. Sprawne zarządzanie tą bazą stwarza bardzo
poważny problem logistyczny, a nawet techniczny.
Uczestnicy programów
Zestawienie laboratoriów współpracujących z Centralnym
Ośrodkiem w ramach podstawowego powszechnego programu chemicznego podano w tab. II. Wielokroć już podkreślano, że wdrożona w 1976 r. kategoryzacja laboratoriów
na 5 pionów organizacyjnych (nawet z wprowadzonymi modyfikacjami), a zwłaszcza na 4 klasy wielkości zależnie od
liczebności zatrudnionego personelu fachowego jest anachronizmem, całkowicie nieadekwatnym do aktualnych standardów organizacji i pracy – brak jednak innego podziału.
W tabeli podano liczebność 20 podgrup laboratoriów. W wierszu górnym każdego pola po stronie prawej podano przeciętną liczbę badań (z ocenianych 27) oznaczanych przez
laboratoria danej podgrupy, a w wierszu dolnym – średnią
punktową ocenę regularności nadesłanych oznaczeń kontrolnych, uzależnioną od liczby „zaliczonych” w ciągu roku
sprawdzianów dla poszczególnych oznaczeń. Skala ocen
– od 5 pkt. (dla ocenianego składnika „zaliczone” wszystkie 4 sprawdziany czyli nadesłano komplet 8 wyników uznanych za poprawne) do 0 pkt. (oceniany składnik w żadnym
z 4 sprawdzianów nie został „zaliczony”). W tabeli podano
Tabela I
Realizowane w r. 2011 programy sprawdzianów. Podano nazwę programu, liczbę sprawdzianów w ciągu roku, liczbę wykorzystywanych równolegle materiałów kontrolnych, liczbę ocenianych składników, liczbę uczestników programu i liczbę uzyskanych w 2011 r. wyników.
Nazwa Programu
sprawdz w roku
n mat. kontr.
n ocen. składn.
n uczest.
n wyników w roku
Powszechny Chemiczny
4
2
27
1678
252353
Centralny Chemiczny
12
2
27
251
147522
Podstawowy Immunochemiczny
2
2
6
875
12249
Poszerzony Immunochemiczny
2
2
32
603
32807
Markery kardiologiczne
2
2
9
451
5461
RKZ
2
3
9
824
22756
Hematologia
2
2
15
1660
311043
Koagulologia
2
2
5
1338
19066
Suma
803257
Tabela II
A - Charakterystyka laboratoriów uczestniczących w powszechnym programie chemicznym w r. 2011. W każdym polu podano: w wierszu
górnym – liczby laboratoriów danej grupy i przeciętną liczbę wykonywanych badań (z ocenianych 27), w wierszu dolnym – przeciętną punktową ocenę regularności oraz literowy symbol grupy. B - Charakterystyka wielkości merytorycznej laboratoriów. Podano: liczbę oznaczanych
składników, liczbę laboratoriów i przeciętną ocenę punktową regularności.
A
rodzaj
laboratoriów
akademickie
publiczne
leczn.zamkn.
publiczne
leczn.otwarte
niepubliczne
leczn.zamkn.
niepubliczne
leczn.otwarte
razem
b.małe
1-3
prac.fach.
3
±15,3
A
3,935
30
±15,2
E
4,409
108 ±13,0
I
3,891
10
±12,7
M
3,906
360 ±15,3
R
4,002
511 ±14,8
4,003
średnie
duże
b.duże
4-10 prac.fach.
11-24 prac.fach.
≥ 25 prac.fach.
8
±19,6
B
4,529
106 ±20,0
F
4,284
79
±16,9
J
4,402
85
±20,3
N
4,385
334 ±18,7
S
4,279
612 ±18,9
4,313
21
±21,8
C
4,581
220 ±22,8
G
4,612
26
±19,2
K
4,647
102 ±22,6
O
4,612
45
±22,8
T
4,648
414 ±22,5
4,616
24
±24,1
D
4,654
88
±24,1
H
4,650
6
±13,8
L
4,675
17
±24,4
P
4,708
6
±24,7
U
4,730
141 ±23,7
4,662
dodatkowe
aparaty X, Y
średnie oceny punktowe regularności oznaczeń (przyjęte za
miarę jakości) zbiorczo dla wszystkich 27 składników oznaczonych przez laboratoria odpowiedniej podgrupy, pionu czy
klasy wielkości. Jak wynika z tabeli, punktowa ocena regularności zależy przede wszystkim od wielkości ocenianych
laboratoriów – od średnio 4,003 pkt. dla grupy 511 laboratoriów małych, zatrudniających do 3 pracowników fachowych
aż po 4,662 pkt. dla stosunkowo mało licznych (141 = 8,4%
ogółu) placówek bardzo dużych (≥ 25 prac. fach.). Nawet
pozornie oczywista wyższa regularność oznaczeń uzyskana przez 56 laboratoriów akademickich w stosunku do 745
niepublicznych laboratoriów ambulatoryjnych (odpowiednio
4,584 pkt. i 4,195 pkt.) może częściowo wynikać z faktu, że
wśród placówek akademickich ponad 80% stanowią placówki duże i bardzo duże, a wśród niepublicznych laboratoriów
otwartej opieki zdrowotnej aż 93% to placówki małe lub co
najwyżej średnie (4-10 prac. fach.). Jeszcze wyraźniej zależność ta zaznacza się przy merytorycznej ocenie wielko-
B
n
n
razem
ozn.
lab.
±22,1
4,584
444 ±21,9
4,539
219 ±15,2
4,229
214 ±21,4
4,516
745 ±17,4
4,195
1678 ±19,0
4,365
79
±17,1
3,644
1757 ±18,9
4,336
1-3
4-6
7-9
10-12
13-15
16-18
19-20
21
22
23
24
25
26
27
24
29
60
163
166
211
217
177
140
174
216
136
41
3
±
pkt./
ozn.
2,830
3,253
3,844
4,008
4,101
4,162
4,250
4,363
4,340
4,438
4,524
4,591
4,521
4,728
Σ
1757
4,336
56
ści laboratoriów, tj. zależnie od liczby ocenianych oznaczeń
(z możliwych 27) – część B tab.II. Współczynnik regularności waha się od średnio 2,83 pkt. dla grupy 24 laboratoriów
oznaczających zaledwie 1-3 składniki aż po średnio 4,73 pkt.
dla pojedynczych (zaledwie 3) laboratoriów oznaczających
wszystkie 27 składniki. Różnica jest ewidentna i znacząca
– współczynnik korelacji między liczbą ocenianych składników, a punktową oceną regularności r = 0,9415. Oczywiście
wielkość laboratoriów wpływa na poprawność wyznaczanych
wartości kontrolnych pośrednio – poprzez odmienną organizację pracy, stosowane metody, zróżnicowanie kwalifikacji
zatrudnionego personelu, a przede wszystkim poprzez wykorzystywane wyposażenie.
Przyjęcie za syntetyczną miarę jakości oznaczeń kontrolnych współczynnika regularności jest zdecydowanie kontestowane przez część uczestników programu powszechnego. Kwestionowane jest ocenianie wyłącznie informacji
pozytywnych – nie nadesłanie wyników, a nawet wycofanie
129
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
przez organizatorów części oznaczeń automatycznie potencjalnie obniża możliwą do uzyskania ocenę. Pewnym
usprawiedliwieniem organizatorów jest fakt, że stwarza to
szansę wymuszania od uczestników terminowego odsyłania wyników oznaczeń kontrolnych. Dodatkowo opracowywane na koniec każdego roku „cenzurki” – informacje
z oceną wszystkich oznaczeń objętych przez poszczególnych uczestników powszechnym programem chemicznym
nie mają żadnego znaczenia prawnego (administracyjnego), a wyłącznie względy ambicjonalne (niewątpliwie bardzo istotne!). Należy żałować, że podobnych systemów
ocen zbiorczych nie opracowano dla innych programów
sprawdzianów realizowanych przez Centralny Ośrodek.
Wynika to zarówno z braku powszechnie uzgodnionych dopuszczalnych granic błędów, jak i zbyt małej liczby sprawdzianów/oznaczeń kontrolnych w ciągu roku.
Od wprowadzenia w powszechnym programie chemicznym
wskaźnika regularności wyników ulega on systematycznej
poprawie – od 3,791 pkt. w r. 2001 do 4,365 pkt. w r. 2011.
Zmiana jest niewątpliwie znacząca, choć trudno ocenić,
w jakiej części spowodowana jest prowadzonymi programami sprawdzianów, a w jakiej – bardzo istotnymi zmianami
organizacji, a zwłaszcza wyposażenia laboratoriów.
W ciągu ostatniej dekady liczba uczestników powszechnego programu chemicznego (obejmującego „wszystkie” MLD)
początkowo rosła, osiągając w r. 2007 liczbę 1816 placówek,
a obecnie ulega powolnemu spadkowi. W stosunku do roku
poprzedniego w r. 2011 liczba uczestników zmniejszyła się
o 18 placówek (z 1696 do 1678, tj. -1,1%), kosztem przede
wszystkim placówek małych (-15 placówek) i średnich
(-7 placówek). Jest to zjawisko korzystne. Aczkolwiek teoretycznie może to ograniczać dostępność badań, chyba
celowa byłaby likwidacja wielu małych placówek, wyraźnie
niedoinwestowanych, o ograniczonym profilu badań i wysoce dyskusyjnej jakości świadczonych usług. Po okresie bardzo burzliwej prywatyzacji (r.1995 – 5,6%, r. 2000 – 21%,
r. 2010 – 55% uczestników programu to placówki niepubliczne) obecnie zmiany są już nieznaczne. W ciągu ostatniego roku udział laboratoriów niepublicznych wzrósł zaledwie
o 1,6%, do 57% ogółu MLD.
Zakres ocenianych badań
Ograniczenia finansowe uniemożliwiły wysoce celowe poszerzenie wachlarza ocenianych składników. Dotyczy to
nawet postulowanej także przez Polskie Towarzystwo Diabetologiczne oceny oznaczeń hemoglobiny glikowanej, tak
istotnej w kontroli przebiegu cukrzycy. Jedyną możliwością
rozwoju było poszerzenie profilu oznaczeń ocenianych
w obecnie wykorzystywanych materiałach kontrolnych,
a więc bez dodatkowych nakładów. W r. 2011 programy chemiczne poszerzono o ocenę stężenia albumin oraz aktywności lipazy, z czego wyjściowo skorzystało odpowiednio 675
i 228 laboratoriów. W programie immunochemii poszerzonej
zwiększono liczbę uczestników z 500 do 600 laboratoriów,
jednocześnie obejmując oceną oznaczenia parathormonu
130
(PTH) – 140 uczestników oraz insuliny – 96 uczestników.
Niestety wymusiło to zmniejszenie liczby równolegle ocenianych materiałów kontrolnych z 3 do 2.
Zakupione w drodze przetargu materiały kontrolne do
sprawdzianu hematologicznego Jesień 2011 ze szwedzkiej
firmy Boule Medical AB umożliwiały ocenę różnicową krwinek białych met. 3 diff. Stwarzając istotne kłopoty organizatorom, mimo stosownej informacji część laboratoriów
przesłało wyniki posługując się aparatami 5 diff, oczywiście
błędne. Dodatkowo okazało się, że niektórymi aparatami
5 diff (Cell Dyn Ruby i Advia 120, 2120) w materiałach tych
występują istotne trudności z oznaczaniem krwinek płytkowych i krwinek białych, co spowodowało wyeliminowanie
tych oznaczeń przy ocenie ww aparatów. Jest to przykład
niekorzystnych skutków wymuszonego, choć pozornie celowego i uzasadnionego podporządkowania się ustawie
o zamówieniach publicznych.
Aparatura pomiarowa
Ocena wykorzystywanej aparatury pomiarowej jest bardzo
utrudniona przez jej ogromne zróżnicowanie. W przygotowanym przez Centralny Ośrodek „Przewodniku ...” przewidziano aż 70 grup/modeli analizatorów biochemicznych,
35 – fotometrów/spektrofotometrów, 45 – analizatorów ISE
i rkz, 40 – koagulometrów czy ponad 60 – liczników i analizatorów hematologicznych. Powoduje to ogromne rozproszenie nadsyłanych wyników kontrolnych na nadmierną liczbę
odrębnych podgrup, co bardzo utrudnia ocenę i porównania.
Trudno też ocenić, czy podziały te są w pełni uzasadnione.
Wymagałoby to dogłębnej znajomości każdego modelu, co
przy co najmniej powściągliwej pomocy ze strony producentów/dostawców nie jest możliwe. Niewiele pomaga doświadczenie – brak różnic między analizatorami w wyznaczanych
wartościach nawet w kilku stabilizowanych materiałach kontrolnych nie gwarantuje, czy nie wystąpią one w kolejnym,
o odpowiednio ukształtowanym efekcie podłoża. Wszelkie
uwagi i pomoc – zarówno producentów/dystrybutorów aparatury jak i użytkowników – są dla organizatorów sprawdzianów wyjątkowo cenne.
Kontynuowana jest intensywna wymiana wykorzystywanej
aparatury. Znajduje to odzwierciedlenie w liczbie oznaczeń
kontrolnych, uzyskiwanych poszczególnymi systemami analitycznymi. Tylko w stosunku do ubiegłego roku w powszechnym programie chemicznym wzrosła liczba wyników kontrolnych wyznaczonych aparatami Cobas c501 (platforma
Cobas 6000) o 26,4% (z 8730 do 11033), ap. Cobas Integra
o 18% (z 41109 do 48428), a przeznaczonymi do mniejszych
pracowni analizatorami Mindray BS nawet o 82% (z 4029 do
7315 wyników), oczywiście kosztem innych, wycofywanych
już aparatów. Na ryc. 1 zestawiono liczebność wybranych
popularnych aparatów, wykorzystywanych przez uczestników powszechnego programu chemicznego w r. 2006
i 2011. W ciągu 5 lat liczba wykorzystywanych analizatorów
biochemicznych wzrosłą o 28% (z 1103 szt. do 1413 szt.),
natomiast bardzo radykalnie zmniejszyła się liczba prostych
Rycina 1
Zmiany aparatury w laboratoriach uczestniczących w powszechnym programie chemicznym – dla 26 aparatów graficznie i liczbowo przedstawiono dane z r.2006 i 2011.
fotometrów/spektrofotometrów wykorzystywanych przy posługiwaniu się techniką manualną, z 1124 szt. do zaledwie
266 szt. (-76%). Wyraźne zmiany dotyczą dużych analizatorów (porównano lata 2006 i 2011), np. Cobas Integra
(134 → 299 szt.) czy nowy Cobas c501 wykorzystywany
w platformie Cobas 6000 (0 → 62 szt.). Jeszcze wyraźniejsze są zmiany analizatorów mniejszych, o ograniczonym
profilu i liczbie wykonywanych oznaczeń. Dobrym przykładem mogą być aparaty A15/A25 f-my BioSystems (22 →
143 szt., wzrost 6,5-krotny), Mindray (6 → 61 szt.), Metrolab
(0 → 53 szt.) czy Pentra 400 (14 → 58 szt.). Jednocześnie
efektywnie wycofywane są małe, proste analizatory sprzed
15-20 laty, pracujące w systemie otwartym, jak np. Express
(83 → 7 szt.), Alcyon (48 → 3 szt.) czy Cobas Mira (107
→ 34 szt.). Jeszcze wyraźniejsze spadki dotyczą prostych
spektrofotometrów, np. aparatów Epoll (497 →110 szt.) czy
aparatów firmy Marcel (174 →53 szt.).
Dla analizatorów immunochemicznych trudniej jest wykazać
zmiany, ponieważ w r. 2011 zwiększono liczbę użytkowników programu z 500 do 600 laboratoriów, jednak wyraźnie
zmniejsza się liczba eksploatowanych analizatorów AxSym,
Access czy Immulite. Rośnie liczba nowych analizatorów, jak
Architect f-my Abbott (19 → 62 szt.), Centaur f-my Siemens
(23 → 39 szt.), a przede wszystkim ap. Cobas e601 (0 → 63
szt.) czy Elecsys wraz z Cobasem e411 (137 → 219 szt.).
Wśród analizatorów hematologicznych zwraca uwagę zamiana analizatorów 3 diff. na 5 diff. – np. wśród najpopularniejszych chyba analizatorów f-my Sysmex w ciągu 5 lat
odpowiednio 513 → 435 ap. i 146 → 374 ap. Pojawiły się
nowe analizatory, jak Cell Dyn Ruby, Cell Dyn Emerald czy
rozprowadzane przez kilka firm ap. Mindray, przede wszystkim 3 diff.
Zmiany częściowo są kamuflowane ubytkami dotychczasowej aparatury. Przykładowo w ciągu 5 lat liczba wykorzystywanych analizatorów ISE/rkz f-my Roche zwiększyła się zaledwie o 10% (z 268 do 294 szt.), ale nowego
analizatora rkz Cobas b121, b221 aż 7-krotnie (z 35 do
243 szt.!).
Odczynniki
Równie duże jak aparatury jest w Polsce zróżnicowanie
wykorzystywanych odczynników. W podstawowym powszechnym programie chemicznym Jesienią 2011 uczestnicy wykorzystywali odczynniki dostarczone przez 58 firm
producentów/dystrybutorów. Być może część zgłoszeń jest
efektem częstych pomyłek – odczynnikami aż 18 firm wykonano poniżej 0,05% oznaczeń kontrolnych, a dalszych
6 firm – poniżej 0,1%. Najczęściej wykorzystywanych dostawców zestawiono w tab.III część A. Należy przypomnieć,
że wszystkie podawane informacje dotyczą wyłącznie oznaczeń kontrolnych, wykonywanych w bardzo zbliżonej liczbie
przez wszystkich użytkowników poszczególnych programów
niezależnie od wielkości laboratorium (i automatycznie liczby
oznaczeń rutynowych, decydujących o pozycji firmy na rynku). Duże zróżnicowanie dostawców jest być może korzystne ze względów handlowo-ekonomiczno-przetargowych, ale
zdecydowanie utrudnia ocenę wyników.
Ocena wyników
Nie dysponując materiałami kontrolnymi z wyznaczonymi
a priori wartościami definitywnymi/referencyjnymi, z konieczności do oceny wykorzystuje się wartości umownie należne, będące pochodnymi (średnimi korygowanymi) wyników
uczestników poszczególnych sprawdzianów. Wiarygodność
tych wartości zależy od zbieżności warunków wyznaczania
wyników kontrolnych, prowadząc do kilku stopni wiarygodności – średnie ogólne (z wszystkich nadesłanych wyników,
najmniej wiarygodne), średnie metodyczne, średnie metodyczno-aparaturowe i średnie metodyczno-aparaturowo-odczynnikowe (systemowe). Równie istotna jest dyspersja oraz
liczebność wyników będących podstawą oceny zbioru. Nadmierną dyspersję ogranicza się eliminując tzw. „outliers” (wyniki najbardziej odstające) – na drodze oceny wizualnej zbiorów oraz reguły 22s, natomiast minimalną liczebność zbiorów
ustalono arbitralnie na n ≥ 6. Jest to zdecydowanie za mało,
ale jest kompromisem między potrzebami, a możliwościami.
Bardzo duże zróżnicowanie wykorzystywanych aparatów
131
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
Tabela III
Sprawdzian powszechny Jesień 2011, sur. 6 - liczba i procent oznaczeń oraz % oznaczeń homogennych w seriach n ≥ 6 (klasyfikowanych vs
Xsystemowego). A - wg producentów/dystrybutorów odczynników, B - wg wybranych aparatów.
A
Odczynnik
n oznaczeń
% oznaczeń
% klasyfikowanych
n>=6
B
Aparat
n oznaczeń
% oznaczeń
% klasyfiAparat
kowac.d.
nych
n>=6
99,9 Accent
n oznaczeń
% oznaczeń
% klasyfikowanych
n>=6
91,6
Ogółem
31426
100%
83,2
Vitros
996
3,2%
1384
4,4%
Roche
8797
27,99%
97,6
C.Integra
6211
19,8%
99,9
MetroLab
826
2,6%
90,0
BioSystems
3406
10,84%
83,8
C.c501
1431
4,6%
99,7
Epoll
1549
4,9%
79,0
Cormay
2588
8,24%
89,1
Olympus
1659
5,3%
98,2
Airone
200
0,6%
77,5
BioMaxima
1750
5,57%
66,0
Pentra
1113
3,5%
98,1
Mindray
1019
3,2%
74,4
Olympus
1633
5,20%
99,8
Architect
754
2,4%
96,3
Hitachi
479
1,5%
65,1
AlphaDiagnostics
1605
5,11%
76,6
WienerLab
316
1,0%
96,2
Lumen
259
0,8%
60,6
Thermo/Kone
1557
4,95%
97,9
BioSystems
2163
6,9%
95,8
Pointe
318
1,0%
59,7
Emapol
1103
3,51%
32,8
Konelab
2038
6,5%
93,1
BTS
178
0,6%
51,1
abxHoriba
1093
3,48%
99,9
Prestige
540
1,7%
93,0
Flexor
732
2,3%
48,1
OrthoClin.Diag.
1088
3,46%
91,5
Erba XL
412
1,3%
92,7
Marcel
680
2,2%
35,9
Siemens
834
2,65%
88,6
Dimension
828
2,6%
92,0
C.Mira
541
1,7%
31,8
Siemens/Dade
767
2,44%
99,3
Advia
567
1,8%
91,9
StatFax
146
0,5%
0,0
i odczynników warunkuje, że zwłaszcza wykorzystując mniej
popularne analizatory możliwości stworzenia homogennych,
najkorzystniejszych grup tj. metodyczno-aparaturowo-odczynnikowych są bardzo ograniczone. Obecnie z możliwości
takiej oceny wyeliminowanych jest około 20% (a więc co piąty!) nadsyłany wynik kontrolny. Gdyby minimalną liczebność
homogennego zbioru zwiększyć do uzasadnionego n ≥ 20,
to z oceny wyeliminowany byłby co trzeci nadsyłany wynik
kontrolny. Oczywiście pozostaje ocena względem średnich
metodyczno-aparaturowych, a w przypadku mało popularnych aparatów – średnich metodycznych, ale oceny te są
coraz mniej korzystne. W tab.III zestawiono na podstawie
wyników jednej surowicy w sprawdzianie Jesień 2011 liczby
oznaczeń odczynnikami 12 najczęściej wykorzystywanych
firm producentów/dystrybutorów (część A) oraz wykonane
26 modelami skrajnie różnych w ocenie aparatów (część B).
Podano liczbę nadesłanych wartości i ich procentowy udział
wśród wszystkich ocenianych wyników (31 426) oraz odsetek wyników, które mogły zostać ocenione vs średnie systemowe przy n ≥ 6. Ryc.2 przedstawia te same dane w formie
graficznej. Część firm zabezpiecza odczynniki praktycznie
tylko do „swoich” aparatów (Roche, Beckman Coulter, abx
Horiba, Siemens i oczywiście Ortho Clinical Diagnostics), natomiast kilka (α-Diagnostics, Emapol, BioMaxima) dostarcza
odczynniki wykorzystywane z wielu różnymi, mniej popularnymi aparatami. Automatycznie rozproszenie wyznaczanych
wartości jest bardzo duże, a możliwości współtworzenia
średnich metodyczno-aparaturowo-odczynnikowych bardzo ograniczone. Przykładowo wartości glukozy wyznaczano odczynnikami f-my Emapol 75 aparatami 28 modeli
Rycina 2
Graficzna ilustracja tab.III. Dla najczęściej wykorzystywanych odczynników i wybranych aparatów przedstawiono odsetek wyników, które
mogą być ocenione vs średnie systemowe przy n ≥ 6.
132
(z tego tylko 37 wyników przy n ≥ 6), odczynnikami f-my
α-Diagnostics – 92 aparatami 15 modeli (75 wyników przy
n ≥ 6), a odczynnikami f-my BioMaxima – 109 aparatami 24
modeli (z tego 70,6% wyników przy n ≥ 6). Łatwo wyliczyć,
że pozostałe wyniki wyznaczono pojedynczymi często egzemplarzami szerokiego spektrum aparatów.
O możliwościach oceny vs średnie systemowe decyduje
liczba oznaczeń i zróżnicowanie odczynników. W analizowanym sprawdzianie Jesień 2011 trzema modelami aparatów
uzyskano zbliżoną liczbę wyników kontrolnych – 76 ap. AU
Beckman Coulter d. Olympus (1659 wyników), 110 ap. Epoll
(1549 wyników) i 62 ap. Cobas c501 (1431 wyników). Z aparatami Cobas c501 wykorzystywano wyłącznie odczynniki
firmy Roche, a więc wszystkie wyniki (99,7% - sporadycznie
nie podano pochodzenia odczynników) mogły być ocenione względem średnich systemowych zarówno przy n ≥ 6,
jak i n ≥ 20. Zbliżona jest możliwość oceny oznaczeń ap.AU
Beckman Coulter d. Olympus, również w zasadzie wykorzystujących firmowe odczynniki (choć jedno z 76 laboratoriów
konsekwentnie wykorzystuje odczynniki f-my α-Diagnostics,
co eliminuje te wyniki z oceny względem średnie systemowe, a w efekcie objęcie tą oceną „tylko” 98,2% nadesłanych
– także przy n ≥ 6, jak i n ≥ 20). Użytkownicy ap. Epoll zgłaszają korzystanie z odczynników aż 15 dostawców (choć
produktami 4 firm wyznaczono 79,7% ocenianych wartości),
co spowodowało, że homogennymi zbiorami systemowymi
o liczebności ≥ 6 można było objąć 79% wyników (a przy
ewent. liczebności ≥20 – tylko 32% wyników). Jeszcze mniej
korzystna jest ocena wyników wyznaczonych 34 ap. Cobas Mira – znacznie mniejsza liczba wyników kontrolnych
(w ocenianej surowicy tylko 541) przy wykorzystywaniu odczynników od 12 dostawców warunkuje, że zbiory systemowe o n ≥ 6 objęły tylko co trzeci nadesłany wynik (31,8%),
bez możliwości stworzenia choćby pojedynczego zbioru
o n ≥ 20. Dane te stanowią uzasadnienie minimalizacji wymagań. Pocieszająca jest postępująca korzystna eliminacja
najmniej popularnych firm. Jeżeli w stosunku do średnich
systemowych przy n ≥ 6 można było objąć oceną w r.2005
tylko 67,8% nadesłanych wyników kontrolnych, to w r.2007
– 71,3%, w r.2009 – 74%, a w r.2011 – już 80%.
Jak istotne znaczenie dla wyznaczonych wartości kontrolnych mogą mieć poza metodą i ewent. aparatem także
odczynniki, obrazuje kilka przykładów przedstawionych na
ryc. 3. Oczywiście zaobserwowane różnice dotyczą tylko części materiałów kontrolnych (nie do wcześniejszego
przewidzenia) i najczęściej nie dotyczą pozbawionych efektu podłoża świeżych próbek rutynowych (choć Centralny
Ośrodek nie może tego zweryfikować). Warunkiem poprawnej oceny nadsyłanych wyników jest unimodalność i symetryczność zbiorów będących podstawą oceny, stąd starania
o łączenie wyników wyznaczonych w maksymalnie zbliżonych warunkach – metoda, aparat, odczynniki. Na ryc. 3A
przedstawiono wyniki oznaczeń żelaza met. 2 z ferenemS
29 aparatami Architect. W przedstawianej surowicy nr 3
(a także nr 4) uzyskano zbiory o bardzo dużej dyspersji.
Współczynnik zmienności rzędu 36% był dla dobrego, nowoczesnego analizatora absolutnie nie do przyjęcia, powodował zresztą znikomą poprawność wyników. Wykazano
bimodalność zbiorów, z firmy uzyskano informację o wprowadzaniu nowego odczynnika od innego producenta (bez
zmiany metody). Przedstawicielstwo firmy Abbott ustaliło,
który odczynnik wykorzystywali poszczególni użytkownicy
ap. Architect. W efekcie wyznaczono dwie subpopulacje
wyników istotnie różniących się ocenianymi wartościami,
a uwzględnienie tych różnic zdecydowanie poprawiło ocenę
poprawności tego składnika. Warto podkreślić zaangażowanie firmy w wyjaśnienie przyczyn złej oceny wyników wyznaczonych „ich” aparatami – co niestety nie jest regułą. Zbliżoną sytuację zauważono dla oznaczeń bilirubiny aparatami
Dimension (ryc. 3B). Aczkolwiek w sprawdzianie Jesień 2011
wystąpiły kłopoty ogółu laboratoriów posługujących się met.
Jendrassika z kofeiną, to wśród użytkowników ap. Dimension (i firmowych odczynników) trudności były szczególnie
nasilone. W surowicy nr 8 część użytkowników wyznaczyła
dla bilirubiny wartości zerowe bądź bardzo niskie, a część –
ponad 3 mg/dl. Udało się ustalić, że różnice te są związane
z wykorzystywanymi odczynnikami – odczynnikiem nr kat.
DF67A oznaczeń praktycznie nie można było wykonać (dlaczego?), natomiast odczynnikiem nr kat. DF167 wyznaczono skupiony zbiór wartości zbliżonych do uzyskanych innymi metodami. W sprawdzianie immunochemii poszerzonej
oznaczając estradiol ap. Advia Centaur uzyskano zależnie
od wykorzystanych odczynników zdecydowanie różne wartości (ryc. 3C). W programie kardiologicznym przy oznaczaniu Troponiny I ap. Dimension wykorzystywane są aż trzy
różne odczynniki, które dla wszystkich czterech surowic wykorzystanych w r. 2011 dały zróżnicowane wyniki – jednym
odczynnikiem (nr kat. RF621) wyznaczano wartości 3-4 razy
wyższe, niż pozostałymi dwoma (RF421 i RF521) – niestety
zbyt mała liczba oznaczeń wykonanych dwoma odczynnikami (po 3) uniemożliwiła wydzielenie odrębnych podgrup,
co bardzo niekorzystnie odbiło się na ocenie wszystkich
wyników względem średniej systemowej. Nie zawsze udaje
się ustalić przyczynę występujących trudności. Na ryc.3 E
przedstawiono wyniki oznaczania żelaza (sprawdzian Wiosna 2011 mat.2) aparatami BioSystems A15/A25 i firmowymi odczynnikami. Wysoce niekorzystna ocena uzyskanych
wyników wymusiła dalszą ich analizę. Okazało się, że firma
BioSystems rozprowadza 3 różne zestawy do oznaczania
żelaza met. z ferrozyną (met.1) – nr kat. 11509 (104 użytkowników), 14509 (2 użytkowników) i 12509 (13 użytkowników). Dwa pierwsze zestawy są zbliżone, do redukcji żelaza
wykorzystując (jak wielu innych producentów) hydroksylaminę, w trzecim zestawie wykorzystywany jest kwas askorbinowy. Do wartości wyznaczonych tym trzecim zestawem
nie można mieć zastrzeżeń – są zbieżne (wsp. zmienności
<6%) i zgodne z wyznaczonymi met. 1 innymi aparatami
i odczynnikami. Natomiast rozkład wartości wyznaczonych
ap. BioSystems zestawem nr kat. 11509 jest wyraźnie bimodalny – poniżej połowy stanowią wartości „prawidłowe”,
133
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
Rycina 3
Przykłady zróżnicowania wyników zależnie od wykorzystanego odczynnika.
Zestawienie parametrów i wyniki testu Scheffe’go – * różnice istotne (p < 0,05).
A Wiosna 2011 ŻELAZO mat.1 Aparaty Architect – oznaczenia odcz. nr kat.7D68 i 6K95.
B Jesień 2011 BILIRUBINA mat.2 Aparaty Dimension – oznaczenia odcz. nr kat. DF67A i DF167.
C Lato 2011 ESTRADIOL mat.3 Aparaty Advia – oznaczenia odczynnikami (E2-6III) Revised nr 10490889 oraz Enhanced (eE2) nr
01488773.
D 2011r. TROPONINA I ap.Dimension Zima i Lato mat.1 i 2 oznaczenia trzema odczynnikami.
E Wiosna 2011 ŻELAZO mat.2 Aparaty Biosystem i Erba Diagnostics – używające odczynnika 15 o różnych numerach serii.
zbliżone do wyznaczanych innymi odczynnikami metodą
z ferrozyną i hydroksylaminą (np. α-Diagnostics – n=21,
x̄ =135,1; Cormay – n=67, x̄ =139,4; Pointe Scient. – n=19,
x̄ =145,6; Roche – n=262, x̄ =149,9 (s=7,35); BioMaxima
134
– n=35, x̄ =156), lecz 54% wyników była o ponad połowę
niższa, ok. 65,5 μg/dl. Mimo współpracy firmy nie udało się
ustalić przyczyny takiego „zaniżenia” wyników przez znaczną część laboratoriów (niedostateczna redukcja jonów że-
lazowych do żelazawych? dlaczego?) w inkryminowanych
materiałach. Jedynym sensownym rozwiązaniem wydawało się wycofanie z oceny wartości żelaza, wyznaczonych
w tych materiałach aparatami BioSystems (i bliźniaczymi
f-my Erba). Wpłynęło to negatywnie na umowną ocenę roczną (potencjalnie ją obniżając) i wywołało zdecydowany protest części użytkowników.
Część uczestników prowadzonych programów dość beztrosko traktuje warunki wyznaczania wartości kontrolnych,
bezkrytycznie przepisując je w kolejnych miesiącach i powielając błędne informacje o np. stosowanej metodzie czy
wykorzystywanym aparacie (pomylone numery kodowe?).
Wymagania odnośnie pochodzenia, a nawet numeru katalogowego wykorzystywanych odczynników traktowane są
często jak niepotrzebne, nadmierne wymagania Ośrodka.
Przedstawione, może zbyt wyeksponowane przykłady mają
zobrazować wagę tych informacji i przekonać wszystkich
użytkowników do bezwzględnego, bardzo starannego ich
podawania.
Powszechny program chemiczny
W r. 2011 w ramach czterech sprawdzianów powszechnych
wykorzystano 8 surowic kontrolnych, uzyskując dla 27 składników ponad ćwierć miliona oznaczeń kontrolnych (tab. IV).
Jest to nieznacznie więcej niż w r. 2010, ponieważ wykorzystując możliwości zakupionych materiałów kontrolnych
poszerzono wachlarz ocenianych składników o akt. lipazy
i stęż. albumin. Chwilowo liczba laboratoriów oceniających
te oznaczenia jest ograniczona (odpowiednio 200 i 620), ale
z czasem powinna się zwiększyć. W stosunku do średnich
ogólnych (z wszystkich wyników niezależnie od metody), nadesłanych dla poszczególnych składników) jako poprawne
zakwalifikowano 80% nadesłanych wartości – najwięcej dla
akt. AST (91,8%) oraz stęż. cholesterolu (91,3%) i glukozy
(91,1%), najmniej dla akt. LDH (zaledwie 1,8%, co oczywiste) i ACP (52%) oraz stęż. magnezu (55,3%). W zasadzie
ocena vs średnie ogólne nie jest wykorzystywana, informuje
jedynie o ewent. zróżnicowaniu wartości zależnie od stosowanych metod oraz wykorzystywanych aparatów i odczynników. Przy a priori przyjętych sztywnych dopuszczalnych granicach błędów (dgb) ocena zależy od dyspersji, a właściwie
skupienia wyznaczanych wartości, co w sprawozdaniach dla
uczestników przedstawiane jest graficznie – wynik adresata
przedstawiony jest na tle zakresu x̄ ± 2s oraz x̄ ± dgb, z zasady węższego. Różnicę między średnimi ogólnymi, a średnimi
metodycznymi można przedstawić na przykładzie oznaczeń
cholesterolu i glukozy, dwóch podstawowych oznaczeń, dla
których różnice te są znikome (odpowiednio 91,3% i 91,6%
poprawnych, Δ = 0,3% i 91,1% i 91,9%, Δ = 0,8%) lecz
z odmiennych przyczyn. Cholesterol oznaczany jest praktycznie jedną metodą z esterazą i oksydazą cholesterolową
(97% oznaczeń; 3% oznaczeń met. suchej fazy). O wartości średnich ogólnych decydują wyniki wyznaczone met. 1,
a więc x̄og = x̄met. Do oznaczania glukozy wykorzystuje się trzy
metody – z oksydazą glukozową (63,3% wyników), z hekso-
kinazą (33% wyników) i met. suchej fazy (ok. 3% wyników).
Aczkolwiek najczęściej statystycznie można wykazać różnice między wynikami wyznaczonymi tymi trzema metodami,
to wynika to przede wszystkim z dużej liczebności zbiorów
(1050, 550, 50 wyników) oraz dobrego ich skupienia (małej
dyspersji) – dla wszystkich metod współczynniki zmienności
są z zasady < 4%. Bezwzględne różnice między wartościami
wyznaczonymi różnymi metodami są najczęściej umiarkowane – w r. 2011 dla 8 wykorzystanych surowic met. z oksydazą glukozy wyznaczono wartości średnio o 2,4% wyższe,
niż met. z heksokinazą. Te małe różnice między wartościami
wyznaczonymi istotnie różnymi metodami przełożyły się na
ich zbliżoną ocenę, a w efekcie – małą różnicę przy ocenie vs x̄ og i x̄ met. Dla niektórych oznaczeń różnice te mogą
być zdecydowanie większe, co wynika ze zróżnicowania
metodycznego, prowadzącego do wyznaczania wyraźnie
różnych wartości. Oczywistym przykładem jest oznaczanie
akt. LDH – zależnie od kierunku reakcji wyznaczone wartości mogą się różnić nawet dwukrotnie, a nieliczne wyniki
„poprawne” są to w rzeczywistości wyniki błędnie usytuowane między dwoma podzbiorami. Znaczne różnice w średnich
metodycznych występują przy oznaczaniu akt. lipazy (met.
z 1,2-dwuglicerydem prowadzi do o ± 30% wyższych wartości niż met. z estrem kwasu glutarowego), oznaczaniu
HDL-Ch czy nawet oznaczaniu sodu. W części materiałów
kontrolnych met.1 (ISE bezpośrednie) wyznacza się wartości sodu średnio o 4-8% wyższe niż met.2 – ISE pośrednie
(a także nielicznymi już – ok. 2% – oznaczeniami met. fotometrii płomieniowej). Aczkolwiek różnica ta jest logiczna,
wynikającą z zawady przestrzennej, to trudno uzasadnić,
dlaczego dotyczy tylko części surowic kontrolnych – efektem jest jednak wyraźnie różna ocena vs x̄ og i x̄ met. (w r.2011
średnia Δ = 17,4% popr. – ± 68,7% popr. vs x̄ og, a 86,1% vs
x̄ met., z tego 84,4% dla met. 1, 88,3% dla met. 2 i 93,6% dla
met. suchej fazy). Dla niektórych oznaczeń szczególnie duże
znaczenie mają wynikające chyba z efektu podłoża (matrix
effect) różnice między średnimi metodycznymi a metodyczno-aparaturowymi. Jak wspomniano, dla oznaczeń glukozy,
cholesterolu czy amylazy są one niewielkie (< 2,0%), ale
dla lipazy (Δ = 14,2%), akt. CK (Δ = 13,6%) czy chlorków
(Δ = 13,0%) są znaczące. W przypadku chlorków różnica
między ISE bezpośrednim, a ISE pośrednim (± 3%) wynika
chyba też z zawady przestrzennej, a przy wąskich dla chlorków dopuszczalnych granicach błędu może mieć znaczące
konsekwencje. W sumie dla wszystkich objętych sprawdzianami oznaczeń w stosunku do najkorzystniejszych średnich
systemowych najlepiej oceniono wyniki oznaczeń amylazy
(97,1% popr.), lipazy (97,0% popr.), AST (96,4% popr.), LDH
(96,1% popr.) i GGT (95,6% popr.), a więc 5 enzymów –
najprawdopodobniej przy korzystnych zmianach aparatury
pomiarowej należy wyraźnie zawęzić granice dopuszczalnego błędu. Najgorzej oceniane są oznaczenia magnezu
(zaledwie 69,5% popr. – zbyt rygorystyczne granice błędu?)
czy chlorków (77,3% popr.). Z satysfakcją należy podkreślić,
że dla podstawowych oznaczeń diagnostycznych – gluko135
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
Tabela IV
Zestawienie ocen wyników oznaczeń kontrolnych w powszechnym programie sprawdzianów chemicznych w r.2011 zależnie od przyjętych
wartości umownie należnych.
n
n ocenianych wyników i %% poprawnych
oceniany
ocen.
składnik
aparat.
n wyn.
%popr.
n wyn.
%popr.
n wyn.
%popr.
n wyn.
%popr.
bdb+db
nzd+zła
± pkt.
sód
1324
10067
68,7%
10039
86,1%
9255
89,2%
8657
89,5%
78,4%
9,1%
4,100
potas
1328
10100
84,2%
10100
88,4%
9244
92,1%
8644
92,5%
82,9%
6,8%
4,271
wapń
1287
9805
81,3%
9737
83,7%
8593
87,5%
7518
88,9%
84,8%
5,4%
4,367
magnez
1237
9358
55,3%
9334
60,9%
8100
67,2%
7098
69,5%
62,0%
18,8%
3,557
żelazo
1480
11287
83,0%
11267
84,1%
9985
88,5%
8615
90,1%
86,4%
5,0%
4,434
chlorki
828
6152
61,7%
6126
64,2%
5303
77,2%
5036
77,3%
58,0%
18,5%
3,425
fosforany
1002
7606
84,3%
7606
85,2%
6572
89,1%
5731
91,0%
85,9%
6,1%
4,368
vs Xog.
vs Xmet.
vs Xmet-ap.
Ocena regularności
vs Xsystem.
% ocen
60
424
83,7%
424
83,7%
418
83,7%
386
84,2%
70,0%
11,7%
3,933
białko
1433
10920
79,4%
10916
80,8%
9812
86,1%
8390
88,6%
83,3%
7,4%
4,301
mocznik
1662
12723
86,8%
12711
88,9%
11679
91,2%
10241
92,2%
86,5%
5,4%
4,437
kreatynina
1717
13167
76,7%
13149
79,5%
11813
86,0%
10143
88,0%
90,5%
3,9%
4,589
moczany
1626
12480
86,5%
12470
87,1%
11624
89,9%
10102
91,5%
85,1%
5,6%
4,418
glukoza
1733
13292
91,1%
13258
91,9%
12390
93,3%
10804
94,3%
86,4%
5,4%
4,406
bilirubina
1646
12030
80,3%
12012
81,7%
10463
87,7%
9113
89,3%
72,5%
10,6%
3,972
cholesterol
1691
12976
91,3%
12970
91,6%
12322
93,4%
10770
94,3%
85,7%
5,5%
4,419
HDL-Ch
1509
11517
67,6%
11515
83,7%
9632
87,6%
8587
89,9%
82,0%
8,7%
4,262
triglicerydy
1664
12775
86,8%
12765
89,3%
12071
92,3%
10581
93,5%
88,2%
4,6%
4,505
AST
1700
13047
91,8%
13047
92,5%
11953
95,4%
10435
96,4%
91,9%
3,1%
4,653
ALT
1707
13087
89,6%
13087
91,0%
11969
93,4%
10429
94,7%
90,6%
3,6%
4,593
ALP
1332
10141
71,2%
10107
75,4%
9081
87,5%
7780
90,0%
84,8%
5,9%
4,390
AMY
1444
11074
88,4%
11046
94,4%
9738
96,2%
8553
97,1%
89,8%
3,5%
4,572
AcP
53
300
52,0%
292
53,4%
51
80,4%
51
80,4%
17,0%
54,7%
1,906
CK
900
6799
74,8%
6799
76,9%
5901
90,3%
5180
93,7%
82,1%
8,4%
4,303
GGT
1350
10312
89,8%
10304
91,6%
9279
94,1%
7728
95,7%
91,2%
4,4%
4,610
LD
554
4130
1,8%
4130
92,0%
3534
95,6%
3230
96,1%
86,8%
8,1%
4,430
lipaza
228
1653
64,7%
1629
81,0%
1323
95,2%
1221
97,0%
75,4%
15,4%
3,952
albuminy
675
4918
77,9%
4906
79,1%
4416
86,2%
3928
88,4%
76,5%
11,3%
4,084
osmolalność
252140
80,0%
251746
85,0%
226521
89,5%
198951
91,0%
83,7%
6,9%
4,336
r. 2010
razem r. 2011
243574
79,3%
243193
84,9%
216499
89,4%
185944
91,0%
84,8%
6,6%
4,367
r. 2009
242936
81,0%
242596
84,9%
215945
88,3%
181226
90,1%
83,1%
7,6%
4,296
za (cukrzyca), cholesterol (miażdżyca z powikłaniami), AST
(uszkodzenie wątroby) nie tylko osiąga się stosunkowo
dobrą poprawność vs x̄ syst. (odpowiednio – 94,3%, 94,3%,
96,4%), ale niewielkie różnice vs x̄ og świadczą, że wpływ
na te oznaczenia stosowanych metod czy wykorzystywanej
aparatury i odczynników jest umiarkowany, a uzyskane wyniki powinny być w pełni porównywalne niezależnie od doboru warunków (co jest warunkiem użyteczności sztywnych
kryteriów diagnostycznym).
Wielokrotnie podkreślano, że Centralny Ośrodek nie prowadzi rankingu metod, aparatury czy odczynników, ponieważ
oceniane wyniki wyznaczane są w różnych laboratoriach,
w odmiennych warunkach wykonywania oznaczeń (lokalizacja, profesjonalizm, metody, zróżnicowanie odczynników).
136
Jednak duża liczba wyników, zwłaszcza dla liczniejszych
aparatów, pozwala na sprecyzowanie orientacyjnych opinii,
których domagają się uczestnicy programów – tab.V. Poza
oceną uzyskanych poszczególnymi aparatami wyników
względem czterech układów odniesienia (wartości umownie
należnych) podano dodatkową ocenę regularności oznaczeń. Podano odsetek zbiorów wszystkich użytkowników
dla oznaczanych składników ocenionych jako bardzo dobre
i dobre oraz niezadowalające i złe, a także średnią punktową
ocenę regularności. Interpretując przedstawione dane, należy zwrócić uwagę na informację z tab. III – odsetka wyników
uzyskanych poszczególnymi aparatami/analizatorami, dla
których można było przeprowadzić ocenę vs x̄syst. przy n ≥ 6.
Dla niektórych aparatów, a raczej aparatów określonych pro-
Tabela V
Ocena porównawcza wyników kontrolnych programu powszechnego w r. 2011 zależnie od wykorzystywanej aparatury.
Liczebność
%% poprawnych
Ocena regularności
Aparat
apar.
ozn.
ocenian.
skład.
wyników
Xog.
Xmet.
Xmet-ap
X syst.
bdb+db
nzd+zła
± pkt.
Cobas Integra
299
26
48428
87,9
93,6
95,2
95,2
91,2
2,4
4,641
BioSystems A25/15
145
22
17250
81,7
83,4
86,3
86,7
83,9
6,2
4,301
Konelab
96
26
15764
81,4
85,7
90,1
91,6
88,2
5,4
4,492
Accent 200,300
85
21
10699
83,5
84,9
87,4
87,8
85,0
7,3
4,378
Olympus AU
76
25
12924
80,2
86,8
95,8
95,9
89,3
4,1
4,586
Cobas c501
62
25
11033
85,7
93,2
95,9
95,9
97,0
0,8
4,811
Mindray BS
60
20
7315
79,2
81,0
83,2
87,1
82,4
6,4
4,263
Pentra 400
58
25
8398
82,8
86,1
92,1
92,2
87,3
4,3
4,517
Metrolab
57
20
6343
80,2
80,6
82,3
81,9
72,4
12,9
3,939
Vitros
45
25
8095
55,1
93,2
93,2
93,2
91,7
2,4
4,633
Flexor
43
21
5496
75,9
80,4
84,5
91,3
85,6
6,1
4,380
Dimension
41
25
6407
74,5
81,2
92,8
93,1
90,0
3,0
4,547
Architect
34
25
5702
80,9
87,3
93,4
94,5
92,1
3,0
4,657
Cobas Mira
33
21
3986
82,1
82,3
83,6
88,6
75,0
12,9
3,972
Prestige 24,24i
32
21
4231
84,3
85,6
88,5
88,5
80,0
11,2
4,158
Advia 1650,1200
26
25
3676
81,4
84,8
92,1
92,3
84,3
8,2
4,278
Hitachi 9..
26
25
3617
83,4
86,6
90,1
91,2
89,0
4,9
4,522
Erba XL
22
20
2788
81,3
82,8
86,4
87,2
83,5
7,4
4,278
Lumen, Livia
21
15
1820
84,6
85,3
87,5
89,6
84,6
6,2
4,396
Wiener Lab CB
19
17
1915
77,0
82,4
90,2
90,4
76,1
12,1
4,101
Airone 200
14
15
1272
78,7
79,2
83,1
83,9
66,4
14,9
3,770
Daytona
11
14
944
88,1
87,9
91,0
92,2
86,8
6,2
4,340
Max-Mat PL
10
11
798
80,6
80,9
83,2
83,3
76,0
11,4
3,981
Cobas c311
9
19
660
88,3
93,2
95,9
95,9
84,7
7,1
4,295
Modular P
8
20
960
88,5
91,7
98,4
98,2
97,2
1,4
4,738
Express
6
11
410
80,7
80,9
86,6
-
72,2
10,0
4,078
Epoll
108
22
12874
78,2
79,6
80,5
82,1
71,2
14,5
3,860
Marcel
52
18
4914
75,0
75,5
77,3
83,5
66,3
15,0
3,694
Pointe 180 ...
27
18
2139
70,6
70,6
73,6
72,6
59,9
19,5
3,527
BTS-330,370
12
18
1112
77,9
77,4
81,7
84,6
75,7
11,9
4,034
Start Dust MC
15
14
1100
86,6
86,4
90,0
91,5
83,4
6,7
4,352
Stat-fax 1904
10
14
968
71,4
72,1
72,7
-
64,3
12,1
3,758
AVL seria 9000,900
187
3
3282
73,9
79,6
85,6
85,8
76,3
10,3
4,005
Easy Lyte
184
3
3278
78,2
83,8
87,0
86,9
72,2
14,5
3,822
Rapidchem serii 700
61
3
1341
73,1
80,4
84,3
84,2
72,5
7,1
4,033
Cobas b121,b221
24
3
530
77,6
87,2
87,4
87,4
81,3
4,0
4,187
BM-ISE,BM-ISEnew
26
3
488
70,3
75,0
77,2
77,2
53,3
25,3
3,213
252353
80,1
85,1
89,6
91,1
83,7
6,9
4,336
Razem
vs
% ocen
137
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
ducentów wymuszających stosowanie odczynników firmowych było to praktycznie 100% wyników (f-my Ortho Clinical
Diagnostics, Roche, Beckman Coulter d. Olympus, abx Horiba), ale dla niektórych, a zwłaszcza prostych spektrofotometrów wykorzystujących do metod manualnych odczynniki
bardzo zróżnicowane, ocena obejmowała tylko ograniczoną
część wyników. Dotyczy to także aparatu Cobas Mira, o którym firma Roche całkowicie zapomniała – przy ograniczonej liczbie oznaczeń i bardzo zróżnicowanych odczynnikach
oceniony względem średnich systemowych może być zaledwie co trzeci wynik. Na ogół z oceną poprawności vs x̄ syst.
skorelowana jest ocena regularności oznaczeń – zarówno
odsetek ocen bardzo dobrych i dobrych, jak i średni punktowy wskaźnik regularności. Nielicznymi aparatami Modular P
wyznaczono zaledwie poniżej 1000 wyników, ale wykorzystując wyłącznie odczynniki fabryczne f-my Roche wszystkie mogły być ocenione, a poprawność vs x̄ syst. wynosiła
w r. 2011 – 98,2% przy 97,2% ocen bardzo dobrych i dobrych regularności i punktowego współczynnika regularności
4,738. Niemal równie korzystne wyniki uzyskano wykorzystywanym głównie w dużych laboratoriach ap. Cobas c501.
Wyniki zbiorcze dla poszczególnych województw powszechnego programu chemicznego są co roku przesyłane
w postaci dwóch arkuszy ocen właściwym specjalistom wojewódzkim ds. diagnostyki laboratoryjnej. Arkusz A zawiera ocenę poprawności wyników nadesłanych w ciągu roku
przez wszystkie laboratoria danego województwa, podając
dla każdego składnika i zbiorczo liczbę wyników, liczbę i %
wyników ocenionych jako poprawne oraz miejsce uzyskane
w rankingu wszystkich województw. Dla ułatwienia oceny
obok przedstawione są oceny najlepsze oraz średnie krajowe. Arkusz B to ocena regularności oznaczeń – dla każdego
składnika i zbiorczo podaje liczbę ocenianych podzbiorów,
liczbę i % podzbiorów dla każdej z 5 klas oceny (od bardzo
dobrej do złej), podając następnie średni punktowy wskaźnik
regularności oraz miejsce zajęte wśród 16 województw. Dla
porównania obok w analogicznej formie przedstawione są
średnie dane ogólnopolskie. Wyniki arkusza B przedstawiono na ryc. 4, obrazującej graficznie odsetek ocen regularności bardzo dobrej i dobrej oraz niezadowalających i złych.
Odsetek ocen bardzo dobrych i dobrych wyraźnie rośnie,
od 69,1% w r. 2001 do 84,0% w r. 2011. Jest to oczywiście
zjawisko wysoce korzystne, ale jeszcze korzystniejszy jest
wyraźny spadek współczynników zmienności (a więc dys-
Rycina 4
Graficzne przedstawienie zmian ocen regularności dla zbiorów 16
województw; linia ciągła przedstawia średnią ocenę punktową (skala na prawej osi).
persji) kolejnych zbiorów rocznych wyników 16 województw
– z 9,9% w r. 2001 do 2,3% w r. 2011 – i to mimo rosnących
wartości średnich. Świadczy to o wyrównywaniu się poziomu świadczonych usług między województwami, a więc
o zanikaniu różnic między tzw. Polską A I B (klasyczny podział
w danym wypadku nie ma sensu, bo najlepsze od szeregu
lat jest położone na ścianie wschodniej województwo podlaskie). Oczywiście analogicznie obniża się odsetek ocen regularności niezadowalającej i złej (z 16,3% do 6,9%), jednak
spadek współczynników zmienności zbiorów rocznych jest
mniej przekonywujący. Po prawej stronie tabeli przedstawiono zmiany w kolejnych latach średniej oceny punktowej dla
zbiorów 16 ocen wojewódzkich. Ponownie niemal ważniejsze od zmian średniej oceny punktowej (r. 2001 – 3,76 pkt.,
r. 2011 – 4,35 pkt.) jest znaczące zmniejszanie się współczynników zmienności dla ocenianych zbiorów 16 średnich
wojewódzkich – z 6,5% w r. 2001 do 1,5%(!) w r. 2011. Dane
tab. VI zostały przedstawione graficznie na ryc. 4. Postępująca harmonizacja wyników laboratoryjnych w Polsce, wywołana w znacznej mierze zarówno prowadzonymi programami, jak i korzystną – jakościowo i ilościowo – unifikację
wyposażenia jest niewątpliwym osiągnięciem.
Centralny program chemiczny.
W r. 2011 przeprowadzono 36 cykl roczny centralnego programu chemicznego. Spektakularna poprawa wiarygodności
wyników kontrolnych, zaobserwowana w okresie początko-
Tabela VI
Odsetki oraz współczynniki zmienności ogółu ocen regularności uzyskanych dla zbiorów wyników 16 województw.
rok
138
Ocen bdb+db
Ocen niezad+złe
Średnia ocena punktowa
% ogółu
wsp. zmienności
% ogółu
wsp. zmienności
Liczba punktów
wsp. zmienności
r.2001
69,1
9,9
16,3
28,4
3,76
6,5
r.2003
75,2
7,4
11,6
32,5
4,00
4,9
r.2005
76,7
6,4
11,1
29,1
4,05
4,5
r.2007
80,7
5,7
9,1
34,0
4,21
4,0
r.2009
83,1
4,2
7,6
30,8
4,30
3,1
r.2011
84,0
2,3
6,88
15,7
4,35
1,5
wym tego programu (1976-1977) spowodowała, że w 1978r.
Minister Zdrowia powołał Komisję ds. Standaryzacji i Kontroli Jakości Badań Laboratoryjnych. Ministerstwo przejęło też
finansowanie kosztów materiałowych prowadzonych społecznie sprawdzianów, co umożliwiło podjęcie powszechnego programu chemicznego, a potem dalszych programów.
Centralny i powszechny programy chemiczne są w zasadzie
identyczne różniąc się liczbą uczestników (250 – „wszystkie” laboratoria), liczbą sprawdzianów w ciągu roku (raz
w miesiącu – raz w kwartale) i wykorzystywanym systemem
jednostek (SI – wagowo-objętościowy). Znaczna liczba wykorzystywanych w ciągu roku materiałów kontrolnych, a więc
i wyników kontrolnych nadsyłanych dla oznaczanych składników przez poszczególnych uczestników programu centralnego umożliwiła inny, bardziej informatywny sposób oceny
rocznej, oceniając na podstawie rozkładu nadesłanych 24
wyników wielkość błędów przypadkowych (ocena precyzji)
i błędów całkowitych (ocena ogólnej wiarygodności), obciążających poszczególne oznaczane przez laboratorium
składniki. Elitarność programu centralnego, a więc ograniczenie liczby uczestników do 250 na ogół dużych laboratoriów, głównie lecznictwa zamkniętego spowodowała, że
teoretycznie z powodu zbyt małej liczby wyników nie można
wykorzystywać najkorzystniejszych wartości umownie należnych, a więc średnich systemowych (metodyczno-aparaturowo-odczynnikowych). Jest to jednak tylko częściowo
prawdziwe. Uczestnicy programu centralnego wykorzystują
dość ujednoliconą aparaturę pomiarową – w części dolnej
tab.VII scharakteryzowano 266 analizatorów 10 firm, którymi
wykonano ponad 88% nadesłanych oznaczeń kontrolnych.
Aczkolwiek uczestnicy programu centralnego stanowią nieco poniżej 15% ogółu laboratoriów, to dysponują 64,5%
eksploatowanych analizatorów Cobas c501, po ponad 30%
dalszych 5 dużych, nowoczesnych analizatorów (AU Beckman Coulter d. Olympus – 39,5%, Cobas Integra – 36%,
Dimension – 31,7%, Architect – 32,4%, Advia – 34,6%) i po
ponad 20% pozostałych 4 wymienionych analizatorów. Są
to w zasadzie analizatory wykorzystujące niemal wyłącznie
odczynniki firmowe (analizatory Accent – dystrybuującej firmy Cormay), a więc średnie metodyczno-aparaturowe są de
facto także średnimi metodyczno-aparaturowo-odczynnikowymi. W efekcie o ponad 10% więcej nadsyłanych wyników
może zostać ocenionych wg najkorzystniejszych wartości
umownie należnych. Jest to częściowe – ale tylko częściowe – wytłumaczenie wyraźnie korzystniejszej oceny wyników programu centralnego w stosunku do powszechnego.
Różnica może się wydawać nieznaczna (96,4% vs 91,0%
poprawnych), ale na tym poziomie wiarygodności jest już
wysoce istotna – jako błędny jest oceniany co jedenasty lub
co dwudziesty siódmy nadsyłany wynik. Zbiorcze zestawienie wyników programu centralnego przedstawiono w tab.VII.
W ostatnich latach zmiany są już znikome – minimalny spadek odsetka wyników poprawnych vs x̄ og, a wzrost vs x̄ met–ap.
W tab. VIII zestawiono odsetkowy udział każdej z pięciu klas
poprawności przy ocenie zarówno precyzji, jak i ogólnej wia-
rygodności zbiorów rocznych poszczególnych ocenianych
w laboratoriach składników oraz ogółem. Warunkiem klasyfikacji jest nadesłanie przez laboratorium wyników oznaczeń
ocenianego składnika w co najmniej 18 materiałach kontrolnych (z wykorzystywanych 24). I w tym systemie oceny
poprawa jest nieznaczna, ale istotna. Wydaje się, że dla wykorzystywanego wyposażenia i organizacji został osiągnięty pewien pułap wiarygodności, a dalsza poprawa wymaga
wyraźnego zakłócenia powstałego stanu równowagi.
Sprawdziany immunochemiczne.
Rosnąca liczba laboratoriów oznaczających hormony, markery nowotworowe i specyficzne białka zmusiła organizatorów do zwiększenia liczby użytkowników programu tzw.
immunochemii poszerzonej z 500 do 600 uczestników.
Równolegle zwiększono liczbę ocenianych składników
o dwa dalsze – parathormon (wyjściowo 140 laboratoriów)
i insulinę (wyjściowo 96 laboratoriów). Niestety ze względu
na ograniczenia finansowe zmniejszono liczbę równolegle
oznaczanych materiałów z 3 do 2, utrzymując 2 sprawdziany w ciągu roku (a więc 4 surowice). Ponieważ częstotliwość sprawdzianów 2 razy w roku nie jest wystarczająca,
zachowano wprowadzony przed laty program immunochemii podstawowej, wykorzystujący surowice kontrolne z powszechnego programu chemicznego. Oczywiście surowice
te nie mają wyznaczonych wartości należnych ocenianych
składników, a w niektórych materiałach bardzo niskie stężenia utrudniają, a sporadycznie wręcz uniemożliwiają ocenę,
jest to jednak kompensowane brakiem konieczności zakupu
kosztownych materiałów. Ograniczono oznaczenia w tych
materiałach do najczęściej wykorzystywanych – hormonów
tarczycy i PSA, które w tych warunkach mogą być poddane ocenie przez wszystkich chętnych. Brak wyznaczonych
wartości należnych wydaje się nie stanowić zasadniczego
problemu wobec wykazanej w programie immunochemii
poszerzonej dużej na ogół zgodności ocen wg średnich
systemowych wyznaczonych przez uczestników i wg systemowych wartości należnych podanych przez producenta
materiałów kontrolnych. Dla dwóch składników – estradiolu
i TSH – zobrazowano to na ryc. 5. Zarówno równania regresji prostoliniowej jak i współczynniki korelacji są niemal
idealne. Nie dla wszystkich ocenianych składników jest tak
dobrze (tab. X – GH, β-2-microglobulina, digoksyna), ale
liczba ocenianych oznaczeń jest mała. W tych warunkach
sprawdziany najbardziej podstawowych oznaczeń – hormonów tarczycy i PSA odbywają się 4 razy w roku z wykorzystaniem 8 materiałów kontrolnych – 4 specjalnych mianowanych surowic do sprawdzianów immunochemicznych
i 4 surowic wykorzystywanych w powszechnym programie
chemicznym. Przykładowo hormon TSH w sprawdzianie
immunochemicznym podstawowym oznacza ok. 850 laboratoriów, FT4 – 780 laboratoriów, a PSA – 750 laboratoriów,
podczas gdy w programie specjalistycznym oznaczenia te
są wykonywane odpowiednio przez 596 (z 600!), 583 i 551
uczestników. Wyniki zbiorcze dwóch sprawdzianów immu139
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
Tabela VII
Zestawienie ocen wyników oznaczeń kontrolnych programu centralnego w r. 2011 zależnie od przyjętych wartości umownie należnych.
n
oceniany
ocenian.
składnik
aparat.
n wyn.
%popr.
n wyn.
%popr.
n wyn.
%popr.
n wyn.
%popr.
precyzji
og.wiar.
268
268
259
242
254
225
242
35
265
272
270
262
273
269
265
253
264
270
269
252
261
14
228
253
179
53
138
6307
6310
6096
5712
5972
5291
5681
800
6230
6402
6351
6161
6419
6321
6236
5948
6206
6339
6327
5936
6129
334
5339
5941
4180
954
2484
85,0%
92,1%
89,6%
76,2%
89,0%
85,0%
93,6%
88,4%
86,9%
93,3%
83,2%
95,1%
96,6%
84,6%
95,8%
77,0%
93,4%
93,9%
95,5%
82,7%
90,6%
82,3%
91,0%
92,8%
0,6%
83,2%
79,8%
6283
6286
6019
5712
5972
5281
5673
800
6230
6378
6309
6083
6371
6321
6236
5928
6158
6337
6327
5936
6092
334
5287
5941
4180
930
2484
93,7%
95,6%
92,1%
84,4%
91,2%
86,7%
94,8%
88,4%
90,1%
96,0%
90,4%
96,1%
97,3%
89,0%
96,3%
91,4%
96,4%
97,4%
97,6%
84,0%
98,0%
82,3%
92,5%
96,3%
97,4%
88,5%
86,1%
5904
5905
5397
5151
5249
7906
5238
778
5399
5763
5464
5508
5634
5418
5661
5151
5607
5684
5718
5353
5394
142
4842
5148
3795
740
2144
94,7%
96,8%
94,7%
88,3%
95,2%
94,2%
96,9%
88,4%
95,0%
97,1%
95,7%
98,4%
98,0%
96,1%
98,2%
94,2%
98,3%
99,0%
98,6%
95,1%
99,5%
89,4%
97,3%
98,7%
98,6%
96,5%
94,1%
5997
6000
5591
5371
5645
4917
5427
754
5764
5156
5809
5871
6060
5775
6038
5397
5913
5977
6019
5480
5587
192
4911
5527
3801
798
2242
94,2%
96,7%
94,2%
87,1%
95,2%
91,4%
96,4%
88,7%
93,6%
97,0%
94,3%
97,9%
98,1%
95,7%
98,2%
94,6%
98,2%
98,8%
98,5%
95,4%
99,5%
89,6%
97,0%
98,3%
98,9%
96,5%
91,7%
4,03
4,31
4,02
3,26
4,07
3,90
4,34
3,26
3,87
4,32
4,01
4,50
4,52
4,31
4,56
3,90
4,65
4,75
4,71
4,26
4,80
3,14
4,45
4,65
4,78
3,68
3,84
3,60
3,90
3,56
2,53
3,54
3,31
3,80
2,69
3,40
3,99
3,63
4,16
4,08
3,77
4,23
3,38
4,23
4,41
4,36
3,93
4,64
2,36
3,92
4,46
4,47
3,13
3,32
cykl 36
142406
86,5%
141888
93,1%
126893
96,4%
133019
96,0%
4,28
3,85
r. 2010 -
cykl 35
138143
86,9%
137721
92,9%
123060
95,9%
129430
95,6%
4,27
3,81
r. 2009 -
cykl 34
128114
87,4%
127583
93,2%
112086
96,1%
118589
95,9%
4,29
3,92
sód
potas
wapń
magnez
żelazo
chlorki
fosforany
osmolalność
białko
mocznik
kreatynina
moczany
glukoza
bilirubina
cholesterol
HDL-Ch
triglicerydy
AST
ALT
ALP
AMY
AcP
CK
GGT
LD
lipaza
albuminy
razem r. 2011 -
vs Xog.
vs Xmet.
vs Xmet-ap.
ocena
vs Xmet-odcz.
punktowa
r. 2008 -
cykl 33
131007
87,2%
130329
92,9%
114872
95,6%
119863
95,5%
4,22
3,77
r. 2007 -
cykl 32
128049
87,5%
127383
93,0%
113061
95,5%
116320
95,3%
4,20
3,77
107
50511
93,0%
50473
96,4%
50127
97,0%
50311
96,8%
4,44
4,04
40
20971
90,8%
20963
96,0%
20342
97,5%
20845
96,2%
4,50
4,12
30
14482
83,5%
14440
91,3%
14194
96,9%
14038
96,6%
4,46
4,09
21
10486
86,0%
10480
89,6%
10020
95,4%
9332
95,9%
4,22
3,86
13
6648
76,4%
6632
87,2%
6418
95,3%
6394
95,3%
4,32
3,85
12
4529
85,3%
4505
90,4%
4147
94,5%
4121
94,6%
3,96
3,49
12
3388
85,7%
3382
88,2%
2898
91,9%
2922
91,5%
3,81
3,26
11
5725
56,9%
5709
95,1%
5683
95,4%
5703
95,1%
4,26
3,76
11
5489
85,4%
5469
93,1%
5161
97,2%
5143
97,4%
4,44
4,05
9
3506
84,2%
3418
90,1%
2932
95,6%
2902
95,0%
4,10
3,34
266
125735
87,4%
125471
93,9%
121922
96,6%
121711
96,2%
4,37
3,96
01-44-04
Cobas Integra
01-44-08
Cobas c501
01-78-01
Olympus
01-13-02
Konelab
01-19-01
Dimension
01-50-01
ABX Pentra
01-18-04
Accent
01-35-01
Vitros
01-01-03
Architect
01-08-03
Advia
razem 10 ap.
140
n ocenianych wyników i %% poprawnych
Tabela VIII
Ocena precyzji i ogólnej wiarygodności wyników oznaczanych składników w poszczególnych laboratoriach, uzyskanych przez uczestników
programu centralnego w 2011 r.
oceniany
n aparatów
składnik
%% ocena precyzji
%% ocena ogólnej wiarygodności
oznacz.
sklas.
bdb
db
wątpl.
niezad
zła
bdb
db
wątpl.
niezad
zła
sód
287
268
19,0
69,0
10,1
1,5
0,4
9,3
61,6
20,9
4,1
4,1
potas
287
268
40,7
54,5
2,6
2,2
0,0
22,4
61,9
9,0
3,4
3,4
wapń
277
259
29,0
52,9
14,7
1,9
1,5
19,7
47,1
20,8
6,2
6,2
magnez
264
242
7,8
50,8
25,2
8,3
7,8
2,9
31,8
32,2
14,5
18,6
żelazo
278
254
38,6
47,2
7,9
1,2
5,1
21,6
50,4
12,6
6,3
9,1
chlorki
253
225
20,9
62,2
10,7
4,4
1,8
9,3
47,6
29,3
6,2
7,6
fosforany
262
242
48,8
43,0
5,8
1,2
1,2
31,4
47,5
9,9
3,3
7,8
osmolalność
42
35
2,9
71,4
5,7
8,6
11,4
2,9
42,9
25,7
5,7
22,9
białko
284
265
21,1
59,2
14,0
2,3
3,4
8,7
55,1
23,8
5,3
7,2
mocznik
292
272
42,6
50,7
4,8
1,5
0,4
26,1
59,2
9,9
2,2
2,6
kreatynina
290
270
24,8
60,4
10,4
4,1
0,4
11,5
51,1
18,9
4,4
4,1
moczany
286
262
58,8
35,9
3,8
1,2
0,4
39,3
49,6
5,7
3,4
1,9
glukoza
294
273
36,8
40,3
2,2
0,7
0,0
37,4
50,2
5,5
4,0
2,9
bilirubina
291
269
44,6
46,1
7,4
1,5
0,4
25,6
46,8
18,6
5,6
3,4
cholesterol
287
265
60,4
35,5
4,2
0,0
0,0
44,2
45,7
5,7
2,6
1,9
HDL-Ch
277
253
23,7
56,9
13,4
3,6
2,4
11,5
54,9
18,2
6,3
9,1
triglicerydy
286
264
68,2
28,4
3,4
0,0
0,0
50,0
37,1
7,2
3,0
2,6
AST
291
270
81,8
14,8
1,5
1,8
0,0
61,8
27,4
7,0
1,5
2,2
ALT
291
269
74,7
22,7
2,2
0,4
0,0
53,2
36,8
7,1
1,9
1,1
ALP
276
252
49,2
35,3
11,9
3,2
0,4
34,1
40,9
18,2
4,0
2,8
AMY
278
261
85,8
11,1
1,5
1,5
0,0
76,2
17,6
3,4
1,9
0,8
AcP
19
14
7,1
50,0
21,4
14,3
7,1
0,0
35,7
28,6
7,1
28,6
CK
246
228
56,6
36,4
5,3
0,9
0,9
29,8
50,4
12,7
3,1
4,0
GGT
276
253
72,3
24,1
2,0
1,2
0,4
62,8
29,6
3,6
2,4
1,6
LD
197
179
80,4
17,3
2,2
0,0
0,0
64,2
27,4
5,0
1,7
1,7
lipaza
96
53
45,3
28,3
7,6
5,7
13,2
28,3
37,7
5,7
3,8
24,5
albuminy
211
138
10,1
71,7
14,5
2,9
0,7
3,6
59,4
23,2
6,5
7,2
46,7
42,5
7,4
2,0
1,3
31,6
45,6
13,5
4,3
5,0
r. 2010 - cykl 35 45,5
42,8
8,8
2,0
0,9
30,1
46,0
14,1
4,7
5,1
r. 2009 - cykl 34 45,6
44,0
7,6
1,8
1,0
30,6
48,3
14,0
3,7
3,4
r. 2008 - cykl 33 42,4
45,1
9,1
2,2
1,2
26,8
48,1
15,1
5,1
4,8
r. 2007 - cykl 32 41,2
46,2
9,0
2,2
1,3
25,8
49,5
14,8
5,1
4,8
razem r. 2011- cykl 36 nochemii poszerzonej, przeprowadzonych w 2011r. przedstawiono w tab. IX (składniki) i tab. X (oceniane systemy
immunochemiczne). W ciągu roku dla 32 ocenianych składników nadesłano 32765 wyników (najwięcej oczywiście dla
TSH), posługując się 11 różnymi systemami analitycznymi.
W tab. IX zwraca uwagę różna liczba wyników ocenianych
vs średnie ogólne w kolumnie A i B. W kolumnie A oceniono
wszystkie nadesłane wyniki, a w kolumnie B tylko wyniki
sklasyfikowane względem wartości systemowych (minimum 6 homogennych wartości). W następnej kolumnie podano ocenę tych wyników względem korygowanych śred-
nich systemowych (uzyskanych takim samym aparatem),
a w ostatniej – względem wyznaczonych przez producenta systemowych wartości należnych. Ponieważ producent
niektórych wartości nie oznaczył, można było ocenić wg
wartości należnych około 90% nadesłanych wyników. Duża
różnica przy ocenie poprawności względem średnich ogólnych a korygowanych średnich systemowych świadczy
o znacznym zróżnicowaniu wartości oznaczanego składnika, wyznaczanych poszczególnymi systemami immunochemicznymi – i vice versa. Znaczne różnice w ocenie
względem średnich systemowych i systemowych wartości
141
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
Rycina 5
ZIMA 2011 (4 sprawdziany) Wartości należne vs wartości uzyskane.
należnych sugeruje wadliwą kalibrację. Wg danych opracowanych dla 11 wykorzystywanych systemów, zbiorcza
różnica oceny względem systemowych wartości średnich
i systemowych wartości należnych jest znikoma (92,78%
i 92,04% poprawnych, różnica 0,74%), choć dla poszczególnych systemów różnice są większe (tab. X). Dla dwóch
systemów nadesłano mało wyników, a dodatkowo producent
często pominął wyznaczenie wartości należnych – ap. Roche Modular E170 – tylko 60% wartości nominalnych, a ap.
Tosoh rozprowadzanymi przez abx Horiba – zaledwie 30%.
Pomijając te dwa mało popularne systemy, najwięcej różnic
obserwuje się dla wartości wyznaczonych ap. Immulite, co
może świadczyć o wadliwej kalibracji (kalibratorach?) bądź
o pomyłkach w wyznaczonych przez producenta wartościach należnych. Sporadycznie zdarzają się sytuacje nieco
paradoksalne, np. dla 210 analizatorów Elecsys f-my Roche
poprawność względem wartościom nominalnym jest nieco
wyższa niż względem średnich systemowych. Różnice są
jednak niewielkie (0,5% nadesłanych wartości) i mogą wynikać z dyspersji wyników. Podane informacje można poprzeć
konkretnymi przykładami. Oznaczenia TSH charakteryzują
się zbliżoną, wysoką poprawnością przy ocenie względem
średnich ogólnych (92,1%), średnich systemowych (96,1%)
i systemowych wartości należnych (93,2% poprawnych).
Stosunkowo małe różnice przy ocenie vs średnie ogólne
i średnie systemowe sugerują dużą zbieżność wartości wyznaczonych różnymi systemami. Rzeczywiście, np. w surowicy 2 sprawdzianu Lato 11 średnie systemowe wahają się
od 18,87 mIU/l (14 ap. Access) do 22,94 mIU/l (9 ap. Tosoh),
przy średniej dla 11 systemów 20,97 mIU/l i współczynniku
zmienności zaledwie 5,7% (średni współczynnik zmienności dla 4 surowic – 6,2%). Średnia wartości nominalnych
podanych przez producenta dla tych samych 11 systemów
wynosi 21,51 mIU/L przy współczynniku zmienności 9,3%.
Przy zbieżności wartości należnych także i ocena nadesłanych wyników musi być zbieżna. Odmienną sytuację można
zaobserwować oznaczając estradiol tymi samymi 11 sys142
temami immunochemicznymi. Dla poszczególnych surowic
obserwuje się bardzo duże zróżnicowanie poszczególnych
średnich systemowych – średni współczynnik zmienności
dla 4 surowic wynosi 37%. W wybranej przykładowo surowicy 2 sprawdzianu Zima 11 średnie wartości systemowe
wahały się od 207,7 pg/ml (22 ap. AxSym) do 884,4 pg/ml
(8 ap. Toshiba), przy średniej dla 11 systemów 520,5 pg/ml
i współczynniku zmienności 44,5%. Nie dziwi więc różnica
poprawności przy ocenie vs średnie ogólne i średnie systemowe (53,4% vs 94,6% poprawnych, Δ = 41,2%!). Producent nie podał wartości należnych dla ap. Toshiba, ale
dla pozostałych 10 systemów rozproszenie wartości należnych jest także bardzo znaczne (współczynnik zmienności
= 39%), ale zgodne z systemowymi wartościami średnimi,
więc poprawność względem wartości średnich systemowych i systemowych wartości należnych jest zbliżona (94,6
i 92,1% poprawnych). Podane przykłady nie wyczerpują
wszystkich możliwości interpretacji wyników.
Program markerów kardiologicznych.
Efektowny i efektywny rozwój polskiej kardiologii sprowokował rozpoczęcie w r. 2008 programu oceny markerów kardiologicznych. Do udziału w programie zaproszono 450 laboratoriów, oznaczających którąś z troponin – troponinę T (40%)
lub troponinę I (60% uczestników). Poza troponinami ocena
obejmuje oznaczanie akt. CK (363 lab.), akt. CK-MB (250
lab.), stęż. CK-MB mass. (125 lab.), stęż. mioglobiny (29
lab.) i homocysteiny (27 lab.) oraz przedsionkowego peptydu
natriuretycznego typu B (38 lab.) oraz jego NT-końcowego
propeptydu – pro-BNP (obecnie 109 lab.). Tylko te dwa
ostatnie oznaczenia, a zwłaszcza pro-BNP wykazują wyraźną tendencję wzrostową (ryc.6) – jeżeli w r. 2008 wartości
tego ważnego markera niewydolności krążenia nadesłały 32
lab., to w r. 2009 – 60 lab., w r. 2010 – 97 lab., a w r. 2011 –
109 laboratoriów. Wzrost liczby laboratoriów oznaczających
BNP jest znacznie mniejszy (23 → 38 lab.). Ponieważ liczba
oznaczeń pro-BNP wykonywana ap. Immulite spadła poniżej
Tabela IX
Wyniki sprawdzianu immunochemii poszerzonej w r. 2011 - 2 sprawdziany, 2 materiały kontrolne. Zestawiono ocenę wszystkich nadesłanych
w obydwu sprawdzianach wyników (A) oraz wyników sklasyfikowanych (B); a - liczba ocenianych wyników, b - % wyników ocenionych jako
poprawne.
n
A
B
oceniany
wykorzystanych
wszystkie wyniki
ocena wyników sklasyfikowanych
składnik
syst.
apar.
ocena vs Xog.
vs Xog.
vs Xsyst.
vs nominał
a
b
a
b
a
b
a
b
estradiol
11
415
1647
52,52%
1589
53,43%
1589
94,59%
1559
92,50%
FSH
11
407
1623
76,70%
1569
77,18%
1569
94,52%
1543
93,52%
TSH
11
596
2363
91,37%
2291
92,06%
2291
96,07%
2255
93,22%
FT3
11
551
2187
74,16%
2135
75,27%
2135
92,46%
2096
91,41%
T3
4
54
214
79,91%
142
86,62%
142
94,37%
142
90,14%
FT4
11
583
2311
64,47%
2253
65,07%
2253
93,70%
2221
92,21%
T4
4
54
214
79,44%
138
89,13%
138
93,48%
138
90,58%
LH
10
356
1404
89,10%
1342
90,46%
1342
97,76%
1330
97,37%
GH
2
35
139
66,91%
98
75,51%
98
84,69%
98
29,59%
HCG
10
425
1682
68,37%
1628
69,23%
1628
96,31%
1616
96,22%
kortyzol
8
159
631
83,84%
538
84,57%
538
94,24%
504
92,46%
progesteron
11
365
1450
77,59%
1396
77,86%
1396
94,98%
1363
92,81%
prolaktyna
11
467
1864
80,69%
1800
81,39%
1800
94,61%
1766
93,77%
testosteron
10
349
1372
72,81%
1316
74,09%
1316
95,74%
1304
90,95%
insulina
4
96
369
81,84%
268
94,78%
268
95,90%
244
95,49%
PTH
6
140
555
28,47%
490
27,96%
490
78,78%
378
82,01%
AFP
8
241
959
88,74%
879
89,99%
879
93,52%
879
91,92%
CEA
10
408
1602
75,40%
1520
77,24%
1520
87,63%
791
89,12%
CA-125
10
423
1661
69,03%
1605
70,47%
1605
90,47%
813
95,45%
CA 15.3
8
188
750
78,13%
696
81,03%
696
91,24%
341
93,84%
CA 19.9
9
261
1028
61,86%
956
61,72%
956
86,09%
484
89,46%
t PSA
11
551
2182
79,01%
2112
80,07%
2112
95,55%
2094
92,65%
f PSA
7
134
525
81,90%
450
83,56%
450
94,44%
402
92,29%
digoksyna
5
66
256
60,55%
178
61,80%
178
86,52%
157
73,25%
fenytoina
2
10
38
100,00%
karbamazep.
2
52
202
83,17%
110
87,27%
110
92,73%
110
90,00%
kw.foliowy
5
96
367
73,30%
311
77,49%
311
90,35%
311
83,92%
kw.walproin.
3
57
226
88,50%
144
93,75%
144
94,44%
132
95,45%
wit. B12
7
194
746
82,84%
698
83,81%
698
89,11%
692
87,57%
ferrytyna
9
250
972
75,20%
860
76,28%
860
87,91%
780
87,95%
IgE
9
277
1100
80,73%
1014
81,46%
1014
92,31%
941
91,28%
β-2-microglob.
3
34
126
76,19%
78
79,49%
78
75,64%
16
43,75%
razem r. 2011
32765
75,01%
30604
76,15%
30604
93,09%
27500
92,04%
r. 2010
35013
73,83%
32567
74,96%
32567
92,66%
32036
91,23%
r. 2008
39147
68,08%
36484
68,86%
36484
89,44%
31357
86,65%
6, obecnie oceniane są wyniki wyznaczone aparatami tylko
2 firm – Roche (Elecsys – 41% laboratoriów oznaczających,
Cobas e601 – 16,5%) oraz bioMerieux (Vidas – 32% oznaczających laboratoriów). W stosunku do wartości systemo-
wych tych trzech aparatów jako poprawne oceniono 96,6%
nadesłanych wartości. Bardzo duże różnice między zbliżonymi do siebie wartościami wyznaczonymi aparatami Elecsys
i Cobas e601 a wyznaczonymi aparatami Vidas – najczę143
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
Tabela X
Ocena wyników uzyskanych poszczególnymi systemami analitycznymi w sprawdzianach immunochemii poszerzonej w r. 2011. Podano liczbę
składników oznaczanych poszczególnymi systemami, liczbę wykorzystanych aparatów w sprawdzianach Zima 2011 i Lato 2011 oraz liczby
ocenianych wyników oraz liczbę i procent wyników uznanych za poprawne w różnych układach odniesienia.
system
n ozn.
n aparatów
n ocen.
n i % poprawnych
analityczny
skł.
Zima11
Lato11
wyników
Abbott-AxSym
25
33
32
1697
1022
60,22%
1484
Abbott-Architect
27
61
62
3532
2448
69,31%
Bayer-Advia Centaur
26
31
39
2075
1291
Beckman-Access
20
17
15
827
bioMerieux-Vidas
22
100
95
Siemens- BN
1
6
Roche-Elecsys
27
Roche-ModularE170
n wyn.
n popr.
% popr.
87,45%
1575
1369
86,92%
3234
91,56%
3115
2790
89,56%
62,22%
1840
88,67%
1896
1678
88,50%
510
61,07%
766
92,62%
695
615
88,49%
4648
2713
58,37%
4333
93,22%
4230
3901
92,22%
6
24
19
79,17%
22
91,67%
-
-
-
210
219
11239
10026
89,23%
10458
93,91%
10224
9655
94,43%
14
8
9
326
311
95,40%
319
97,05%
194
193
99,48%
Roche- Cobas e601
27
61
63
3914
3610
92,23%
3783
96,65%
3541
3372
95,23%
Siemens-Immulite1000
17
25
23
976
542
55,53%
900
92,21%
919
766
83,35%
Siemens-Immulite2000
23
16
19
992
518
52,22%
931
93,85%
924
808
87,44%
Horiba ABX-AIA
9
10
9
219
90
41,10%
197
89,95%
64
50
78,13%
razem r. 2011
578
591
30466
23100
75,82%
28267
92,78%
27377
25197
92,04%
r. 2010
491
474
32577
24423
75,00%
30176
92,60%
32036
29227
91,23%
r. 2009
451
478
36998
26348
71,21%
33569
90,73%
28405
24606
86,62%
ściej 3-5 krotne (tab.XI) – powoduje, że zupełnie nie uzyskano wyników ocenionych jako poprawne vs x̄ og z wszystkich
nadesłanych wartości. Nieco mniej zróżnicowane są wartości troponiny I, oznaczanej wszystkimi pozostałymi systemami poza systemami firmy Roche (ryc. 7), jednak z powodu
tego zróżnicowania poprawność vs x̄ og wynosi 22,9% (dla
surowicy 2 w sprawdzianie Lato 2011 – 8,1%). Poprawność
vs x̄syst wynosi 88% poprawnych pomimo, że z powodu wykorzystywania trzech różnych odczynników (ryc.3d), aparatami
Dimension uzyskano zaledwie 51,7% wyników poprawnych.
Ponieważ wartości troponiny T wyznaczone dwoma aparatami f-,y Roche – Elecsys i Cobas e601 – nie różnią się istotnie, to ocena vs x̄ og jest wysoka, ok. 73% wyników uznano
jako poprawne. Niestety niewiele korzystniejsza jest ocena
Rycina 6
Wzrost liczby laboratoriów oznaczających PBNP.
144
vs Xog.
ocena vs wart.nominalne
vs Xsyst.
vs x̄ syst (73,8% poprawnych) z powodu zróżnicowania wykorzystywanych odczynników, co szczegółowo omówiono
w roku ubiegłym. Sytuacja będzie ulegała poprawie, ponieważ firma Roche wycofuje odczynniki do met. 1 (nr
kat. 044918151 i 046603071 Stat) na korzyść odczynników do metody wysokiej czułości (2hs) – nr kat. 05092744
i 05092728 Stat.
Oznaczenia akt. CK są wykonywane ok. 30 modelami różnych aparatów, z których wartości wyznaczone zaledwie
13 analizatorami mogły zostać sklasyfikowane i ocenione
– stanowiły jednak aż 90% nadesłanych wyników akt. CK,
z których 86,9% uznano za poprawne vs x̄ og, a 92,4% vs x̄syst . Jest to wynik nieznacznie gorszy od uzyskanego tymi
samymi aparatami w programie chemicznym. Tę niewielką,
ale niekorzystną różnicę można wytłumaczyć – w programie
kardiologicznym wykorzystywano surowice o znacznie niższej aktywności CK niż w programie powszechnym, nawet
19,4 i 25,7 IU/L. Zbliżona była wiarygodność oznaczeń akt.
CK-MB (73,4% vs x̄og, 90,4% – vs x̄syst) oraz CK-MB mass (tylko 26,9% poprawnych vs x̄og, ale aż 96,1% vs x̄syst ). Oznaczenia mioglobiny i homocysteiny są bardzo trudne do oceny
z powodu zbyt małej liczby oznaczających laboratoriów –
w r.2011 oznaczenia mioglobiny sklasyfikowano tylko dla
8 laboratoriów posługujących się analizatorami Vidas (niewiele ponad 80% wyników poprawnych vs x̄ syst). Niewiele
lepsza jest sytuacja z oznaczeniami homocysteiny – z 27
Rycina 7
Zima 2011Troponina I materiał 1 – Analiza wariancji * oznacza różnice istotne testem post hoc Scheffe’go
oznaczających laboratoriów sklasyfikowano wyniki tylko 20,
posługujących się aparatami f-my Abbott – 6 ap. AxSym
i 14 ap. Architect, uzyskując średnio 69,7% poprawnych vs
x̄ og i 81,6% – vs x̄ syst. Ogółem w r. 2011 dla 9 składników
ocenianych w programie markerów kardiologicznych nadesłano 5461 wyników (poprawne vs x̄ og – 36,5%), z których
sklasyfikowano 4890 (89,5%), oceniając jako poprawne
vs x̄ og 55,5%, a vs x̄ syst – 88,5% (najwięcej dla oznaczeń
PBNP – 96,6% i CK-MB mass – 96,1%).
Sprawdziany parametrów rkz.
Parametry równowagi kwasowo-zasadowej oceniono
w 2011r. w dwóch sprawdzianach, w każdym wykorzystując
trzy wodne roztwory kontrolne – acidosis, normal i alkalosis. Poza typowymi oznaczeniami rkz (pH, PCO2, PO2) dla
analizatorów, którymi można oznaczać podstawowe elektrolity (sód, potas, chlorki, wapń) ocenie poddano również i te
oznaczenia. W sumie dla 6 wykorzystanych w ciągu roku
materiałów kontrolnych nadesłano do oceny 21744 wyniki,
z których aż 94,4% wyznaczono aparatami trzech firm – Roche (43,7% wyników), Siemens (38,0% wyników) i Radiometer (12,7% wyników). Jako poprawne vs x̄apar oceniono 19059
wyników tj. 87,5% nadesłanych, najwięcej dla oznaczeń
PCO2 (96,9%), najmniej dla oznaczeń chlorków (69,6%) -
tab. XII. Z trzech materiałów kontrolnych najlepiej oznaczany był materiał acidosis (92,7% wyników poprawnych),
a najgorzej materiał alkalosis (80,8% wyników poprawnych).
Z trzech głównych producentów procentowo najwięcej wyników poprawnych uzyskano aparatami f-my Radiometer
(91,8%), a kolejno aparatami f-my Siemens (87,9%) i f-my
Roche (85,5%). Wyniki f-my Roche zaskakują, są jednak
efektem wprowadzonego przez firmę usprawnienia. Wykorzystywane materiały kontrolne, będąc buforowanymi
roztworami wodnymi, są zasadniczo różne od naturalnych
materiałów biologicznych, zawierających białka, a szczególnie hemoglobinę. Producenci aparatów godzili się z faktem
pomiaru wodnego materiału kontrolnego analogicznie jak
próbek rutynowych, przyjmując dla niego eksperymentalnie
wyznaczone wartości należne. Firma Roche postanowiła
uwzględnić różnice w mierzonych próbkach i w swoich nowych analizatorach rkz Cobas b121, b221 wprowadziła dwa
tory pomiarowe – tor biologiczny (próbki rutynowe) i tor wodny (wodne roztwory m.in. płyny dializacyjne czy próbki kontrolne – sprawdziany zewnętrzne). Wybór właściwego toru
pomiarowego należy dokonać manualnie w laboratorium.
Mimo, że producent analizatorów opisał zalecone postępowanie w instrukcji obsługi, a także zwracali na to uwagę organizatorzy sprawdzianów, znaczna część (w r. 2007 – ok.
Tabela XI
Wartości pro-BNP wyznaczane aparatami Elecsys, Cobas e601 i Vidas w 14 kolejnych sprawdzianach kontrolnych. Wartości wyznaczane
aparatami Elecsys i Cobas e601 statystycznie nie różnią się, wartości wyznaczane aparatami Vidas są istotnie wyższe.
Sprawdzian
Z08 mat 1
Z08 mat 2
L08 mat 1
L08 mat 2
Z09 mat 1
Z09 mat 2
Z10 mat 1
Z10 mat 2
L10 mat 1
L10 mat 2
Z11 mat 1
Z11 mat 2
L11 mat 1
L11 mat 2
N
17
17
17
17
20
20
30
30
42
42
45
45
45
45
Elecsys
X
62,6
965,3
102,1
204,6
16,0
509,2
12,2
231,5
180,0
739,7
297,2
911,0
254,8
730,9
S
12,0
234,8
34,2
61,9
8,3
129,7
4,8
29,7
13,2
60,7
30,6
93,9
33,8
80,9
N
6
6
8
8
12
12
15
15
16
16
16
16
18
18
Cobas e601
X
55,9
972,0
96,1
214,5
10,9
479,8
11,4
193,9
173,7
722,5
290,8
888,3
244,6
679,7
S
7,5
215,8
30,0
76,6
4,6
58,3
3,5
37,5
11,8
47,1
21,3
63,6
14,1
104,1
N
0
0
9
9
17
17
26
25
25
25
31
31
35
35
Vidas
X
249,6
401,8
20,0
1524,4
20,3
826,3
787,3
3223,3
1416,7
4384,3
1164,6
3274,1
S
64,1
92,1
0,6
320,3
1,6
86,9
80,5
309,6
89,6
277,6
78,5
304,1
145
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
90%) użytkowników tych analizatorów takiego wyboru nie
dokonywała. Dopóki liczba eksploatowanych analizatorów
Cobas b121, b221 była nieznaczna, problem pozostawał
nierozpoznawalny. Jednak liczba tych analizatorów szybko rosła (r. 2007 – 35 szt., r. 2008 – 95 szt., r. 2009 – 133
szt., r. 2010 – 200 szt., r. 2011 – 243 szt.) – ryc. 8, a wraz
z tym narastały problemy – wykorzystując wodne materiały
kontrolne, szereg oznaczanych wartości zależy od wybranego toru pomiarowego. Oczywiście dla wodnych próbek
kontrolnych właściwy jest tor wodny, jednak bardzo znaczna
część użytkowników na skutek nieuwagi, niechęci do czytania instrukcji, a czasem może i niekompetencji stosownego
przestawienia toru pomiarowego nie dokonywała – Latem
2007r. z 49 użytkowników analizatorów rkz Cobas zrobiono
to w 5 laboratoriach (10,2%!), zaś Zimą 2010, mimo ponawianych informacji organizatorów sprawdzianów – zaledwie
38 ze 185 użytkowników (20%) – ryc.8. Zwracano się o pomoc do firmy, która także przesłała wszystkim użytkownikom
stosowne instrukcje oraz wprowadziła ten temat podczas
spotkań z użytkownikami. Mimo to jeszcze Zimą 2011 poprawne postępowanie przeprowadziło 79 z 225 użytkowników (35%) i dopiero Latem 2011 sytuacja uległa wyraźnej
poprawie – właściwy tor pomiarowy wykorzystało 70% z 243
użytkowników analizatorów Cobas (ale aż 75 laboratoriów
konsekwentnie nie dostosowało się do zaleceń producenta oraz organizatorów sprawdzianów). Różnice wynikające
Tabela XII
Zbiorcze wyniki oznaczeń w r. 2011 (2 sprawdziany) parametrów równowagi kwasowo-zasadowej oraz elektrolitów wyznaczone analizatorami
rkz najczęściej wykorzystywanych firm (zsumowane oceny poszczególnych modeli) dla materiałów acidosis, normal i alkalosis oraz razem.
Podano liczbę ocenianych wyników oraz odsetek wyników ocenionych jako poprawne vs Xap.
grupa
materiał
aparatów
Siemens Radiometer
Roche
wszystkie
aparaty
146
pH
N og./
PCO2
N og./
PO2
N og./
sód
N og./
potas
N og./
chlorki
N og./
wapń
N og./
razem
N og./
N
%
N
%
N
%
N
%
N
%
N
%
N
%
N
%
popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr.
acidosis
509
476
normal
509
427
alkalosis
509
462
razem
1527
1365
acidosis
170
169
normal
169
165
alkalosis
170
167
razem
509
501
acidosis
587
571
normal
585
563
alkalosis
585
572
razem
1757
1706
acidosis
1341
1288
normal
1339
1220
alkalosis
1338
1270
razem
4018
3778
93,52
83,89
90,77
89,39
99,41
97,63
98,24
98,43
97,27
96,24
97,78
97,10
96,05
91,11
94,92
94,03
509
500
509
497
509
460
1527
1457
170
169
169
169
170
165
509
503
585
574
583
576
583
564
1751
1714
1334
1313
1332
1308
1333
1255
3999
3876
98,23
97,64
90,37
95,42
99,41
100,00
97,06
98,82
98,12
98,80
96,50
97,89
98,42
98,20
94,15
96,92
509
489
509
478
509
378
1527
1345
170
165
169
151
170
139
509
455
585
559
583
356
582
130
1750
1045
1334
1281
1332
1051
1330
704
3996
3036
96,07
93,91
74,26
88,08
97,06
89,35
81,76
89,39
95,56
61,06
22,34
59,71
96,03
78,90
52,93
75,98
247
224
248
214
247
203
742
641
107
103
107
105
106
104
320
312
501
461
499
480
501
481
1501
1422
1086
992
1085
998
1083
989
3254
2979
90,69
86,29
82,19
86,39
96,26
98,13
98,11
97,50
92,02
96,19
96,01
94,74
91,34
91,98
91,32
91,55
247
219
248
223
247
186
742
628
107
104
107
104
106
101
320
309
509
488
507
488
509
387
1525
1363
1094
1035
1093
1033
1092
879
3279
2947
88,66
89,92
75,30
84,64
97,20
97,20
95,28
96,56
95,87
96,25
76,03
89,38
94,61
94,51
80,49
89,87
119
91
120
83
119
96
358
270
97
62
97
65
96
74
290
201
268
175
267
148
268
204
803
527
529
368
529
322
528
413
1586
1103
76,47
69,17
80,67
75,42
63,92
67,01
77,08
69,31
65,30
55,42
76,12
65,63
69,57
60,87
78,22
69,55
113
92
113
79
113
64
339
235
100
89
100
90
99
69
299
248
292
248
291
257
292
240
875
745
548
467
547
462
547
411
1642
1340
81,42
69,91
56,64
69,32
89,00
90,00
69,70
82,94
84,93
88,32
82,19
85,14
85,22
84,46
75,14
81,61
2253
2091
2256
2001
2253
1849
6762
5941
921
861
918
849
917
819
2756
2529
3327
3076
3315
2868
3320
2578
9962
8522
7266
6744
7257
6394
7251
5921
21774
19059
92,81
88,70
82,07
87,86
93,48
92,48
89,31
91,76
92,46
86,52
77,65
85,54
92,82
88,11
81,66
87,53
z pomiaru torem biologicznym i torem wodnym opisano
szczegółowo w ubiegłym roku. Skrótowo można stwierdzić,
że w r.2011 wśród 42 oznaczeń 7 parametrów w 6 materiałach kontrolnych statystycznie istotne różnice między wartościami wyznaczonymi odmiennymi torami pomiarowymi
wykazano 28 razy (66,7%), najrzadziej dla pomiarów pH
i PCO2 (po 1 razie), najczęściej dla sodu i potasu (po 6 razy)
czy chlorków i PO2 (po 5 razy). Często różnice mimo, że
istotne były w rzeczywistości niewielkie (np. potas – 4,46
i 4,31 lub 6,84 i 6,70 mmol/l, chlorki – 119,1 i 118 mmol/l czy
wapń – 1,15 i 1,12 mmol/l), ale przy wąskich na ogół dopuszczalnych granicach błędu wyraźnie wpłynęły na ocenę (np.
oznaczenie wapnia Latem 2011 w mat. alkalosis – poprawne
vs x̄apar 95,3% nadesłanych wartości, ale 97,3% dla pomiarów
w torze wodnym i 90,3% w torze pomiarowym biologicznym.
Największe różnice w wyznaczanych wartościach zaobserwowano dla pomiarów PO2, zwłaszcza w materiałach alkalosis (Zimą 2011 – 34,7 i 73,8 mmHg, Latem 2011 – 21,7 i 67
mmHg). Podział na wyniki uzyskane przy wykorzystaniu toru
pomiarowego wodnego lub biologicznego dokonano na podstawie oceny wyników PO2 w mat. alkalosis i nie zostały one
potwierdzone przez wykonawców. W tab. XIII przedstawiono
zbiorczo (z rozbiciem na parametry rkz i elektrolity) dane za
r.2010 i 2011. Podano liczbę nadesłanych w każdym sprawdzianie wyników oraz dokonany przez organizatora podział
na grupy A (tor wodny) i B (tor biologiczny) oraz ocenę tych
wyników vs korygowane średnie ogólne oraz korygowane
średnie grupowe. Różnice w ocenie mogą być znaczne –
w r. 2011 różnica w odsetku wyników poprawnych dla 3 parametrów rkz w 6 materiałach kontrolnych wynosiła 11,6%
(Zima) i 10,7% (Lato). Przedstawione dane są klasycznym
przykładem, jak błędne wyniki części uczestników sprawdzianów mogą wysoce niekorzystnie wpłynąć na ocenę
uczestników, którzy oznaczenia wykonali prawidłowo i uzyskali wyniki poprawne (błędnie zdyskwalifikowane!). Pozostaje problem podstawowy – jak w takiej sytuacji powinien
postąpić organizator sprawdzianów. Standardowym postępowaniem jest ocena względem korygowanej średniej aparaturowej z całego zbioru wyników, mając świadomość, że
jest to wartość pośrednia pomiędzy dwoma odrębnymi podzbiorami, a jej wykorzystanie powoduje zarówno ewent. pozytywną ocenę części wyników błędnych, jak i dyskwalifikację części wyników poprawnych. Oczywiście organizatorzy
mogą arbitralnie dokonać podziału na dwie grupy wynikowe
(przy małych różnicach może to być nierealne) i ocenić każdą z tych grup osobno (jak w tab. XIII). Jest to jednak niedopuszczalna manipulacja wynikami, a jednocześnie usankcjonowanie nieprawidłowego postępowania (przyjęcie wartości
wyznaczonych dla próbek wodnych torem biologicznym –
postępowanie przyjęte obecnie przez wszystkich producentów poza f-mą Roche). Można oczywiście równie arbitralnie
przyjąć, że poprawne są tylko wyniki uzyskane z wykorzystaniem prawidłowego toru pomiarowego i wszystkie pozostałe
zdyskwalifikować, co przy dużej przewadze pomiarów przeprowadzonych niepoprawnie spowodowałoby fatalne skutki.
Każde wyjście jest niewłaściwe, a jedynym poprawnym jest
promowanie poprawnego postępowania (wyegzekwowanie
tego nie jest łatwe!). Problem dotyczy oczywiście nie tylko
oznaczeń parametrów rkz analizatorami Cobas lecz wszystkich oznaczeń, dla których rozkład wyznaczonych wartości
jest bimodalny (polimodalny?). Organizatorzy sprawdzianów
Rycina 8
Wzrost liczby analizatorów rkz Cobas b121 i b221 firmy Roche w
latach 2007-2011. Podział na użytkowników toru wodnego i toru biologicznego oparto o wartości wyznaczone dla PO2 alkalosis. Na prawej osi przedstawiono wzrost procentowy z zaznaczeniem minimum
i maximum użytkowników toru wodnego.
Tabela XIII
Wyniki uzyskane analizatorami Cobas b121 i b221 w latach 2010-2011. Podano - dla parametrów rkz (pH, PCO2 i PO2) oraz elektrolitów (sód,
potas, chlorki, wapń) liczbę ocenionych wyników i odsetek wyników uznanych za poprawne vs Xog. (z wszystkich nadesłanych wyników) oraz
z rozbiciem na użytkowników toru wodnego (A), toru biologicznego (B) i razem dla obu tych grup (A + B).
parametry rkz
sprawdzian
n wyników
elektrolity
% wyników poprawnych vs
n wyników
% wyników poprawnych vs
ogółem
A
B
Xog.
A vs XA
B vs XB
A+B
ogółem
A
B
Xog.
A vs XA
B vs XB
A+B
Zima 2010
1680
342
1338
89,9
97,1
93,8
94,5
1111
285
826
85,7
95,1
91,3
92,3
Lato 2010
1818
386
1432
88,7
95,3
92,7
93,2
1095
258
837
84,9
94,6
90,6
91,5
Zima 2011
2034
711
1323
83,7
97,5
94,2
95,3
1320
498
822
82,4
95,0
92,0
93,1
Lato 2011
2184
1509
675
84,6
95,5
95,0
95,3
1385
974
411
87,2
92,1
82,7
89,3
147
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
stosują różne rozwiązania. Czasami fakt bimodalności rozkładu po prostu ignorują lub przeoczą. Czasami, zwłaszcza
gdy znana jest przyczyna niejednorodności zbioru (np. różne odczynniki – oznaczenia żelaza ap. Architect – ryc. 3A)
i została ona w pełni potwierdzona przez każdego uczestnika, stosuje się przyjęcie więcej niż jednej wartości należnej.
Czasem przyjmuje się jeden zakres za prawidłowy, dyskwalifikując pozostałe wyniki. Kiedy nie można wyraźnie określić
przyczyny polimodalności i dokonać uzasadnionego, jednoznacznego podziału na stosowne podzbiory, oznaczenie takie są „unieważniane” a wyznaczone wartości wycofuje się
z oceny – co spotyka się ze sprzeciwem wykonawców („przecież dokonałem pomiaru”) zwłaszcza, gdy może to ewent.
wpłynąć na ocenę okresową. Problem jest trudny i złożony
i niewątpliwie zasługuje na bardziej szczegółowe opracowanie i podjęcie stosownych rozwiązań.
Sprawdziany oznaczeń koagulologicznych.
Ze względów finansowych utrzymano minimalny, ograniczony do 5 podstawowych parametrów, program sprawdzianów koagulologicznych, przeprowadzanych dwa razy
w roku, każdorazowo z wykorzystaniem dwóch różnych
materiałów kontrolnych – prawidłowego i patologicznego.
W sprawdzianach uczestniczyło około 1350 laboratoriów,
z których praktycznie wszystkie wykonywały oznaczenie
czasu protrombinowego (wskaźnik i INR), a zaledwie poniżej
90 laboratoriów – oznaczanie czasu trombinowego. Zbiorczą ocenę nadesłanych w r. 2011 wyników przedstawiono
w tab. XIV. Podobnie jak w innych programach, także
i w programie koagulologicznym bardzo utrudnia ocenę
duże zróżnicowanie aparatury, a zwłaszcza wykorzystywanych odczynników, poważnie ograniczając odsetek wyni-
ków, które mogą zostać ocenione wg „własnej” korygowanej
średniej aparaturowo-odczynnikowej. W wierszu górnym tabeli przedstawiono ocenę wszystkich wyników, a w dolnym
– tylko wyników sklasyfikowanych dla których można było
stworzyć homogenne zbiory o n ≥ 6. Oczywiście im bardziej
szczegółowo zostały sprecyzowane warunki wyznaczenia
wartości kontrolnych, tym ocena poprawności tych oznaczeń była wyższa. W tabeli XV oceniono wyniki poszczególnych parametrów (i ogółem), wyznaczone najczęściej wykorzystywanymi koagulometrami, uporządkowanymi wg liczby
nadesłanych wyników (liczba aparatów była ± 4 razy mniejsza). Oczywiście najpopularniejsze pozostały koagulometry
polskiej produkcji firm BioKsel i Eliza bis Kselmed, jednak
wyniki uzyskane tyki aparatami nie były najkorzystniejsze.
Wydaje się, że w przeważającej mierze było to spowodowane faktem bardzo dużego zróżnicowania wykorzystywanych
odczynników wielu producentów/dostawców. Jak wynika
z tab. XIV, wpływ wykorzystywanych odczynników na poprawność ocenianych wartości jest nawet większy, niż wpływ
aparatury – jako poprawne oceniono 73,2% vs x̄odczyn. i 68,9%
vs x̄apar. Także związane z aparatem i odczynnikami pozostaje
duże zróżnicowanie oceny wyników wyznaczanych w materiale prawidłowym i patologicznym. Dla niektórych aparatów,
np. nielicznych (15 szt.) aparatów BioMar Coatron M1, M2
poprawność oznaczeń w obu materiałach została oceniona
jako niska (63,2% i 47,4% poprawnych) przy bardzo dużej
różnicy oceny dla materiału prawidłowego i patologicznego
(Δ = 15,8%!). Dla wartości wyznaczonych 55 koagulometrami STA Compact firmy Roche poprawność nadesłanych
wyników względem własnych średnich aparaturowo-odczynnikowych oceniono wysoce korzystnie, co świadczy o dobrym skupieniu nadesłanych wartości – 90,6% poprawnych
Tabela XIV
Zbiorcza ocena sprawdzianów koagulologicznych w r.2011 zależnie od przyjętych wartości odniesienia. a-wszystkie zgłoszone pozycje aparaturowo-odczynnikowe (51% to wyniki pojedyncze!); b-tylko pozycje o n ≥ 6.
n pozycji
n ocen.
apar-odcz
wyn.
a
127
5345
3795
71,0%
4046
75,7%
4269
79,9%
4068
76,1%
4463
83,5%
b
27
4678
3372
72,1%
3766
80,5%
3829
81,8%
3717
79,5%
3858
82,5%
a
127
5345
3545
66,3%
3872
72,4%
4080
76,3%
3840
79,8%
4284
80,2%
b
27
4678
3144
67,2%
3600
77,0%
3665
78,3%
3519
75,2%
3688
78,8%
a
130
4959
2364
47,7%
3123
63,0%
3284
66,2%
3056
61,6%
3559
71,8%
b
25
4322
2071
47,9%
2913
67,4%
2986
69,1%
2838
65,7%
3021
69,9%
a
20
345
187
54,2%
225
65,2%
233
67,5%
182
52,8%
270
78,3%
b
5
225
137
60,9%
169
75,1%
170
75,6%
175
77,8%
175
77,8%
a
86
3021
1472
48,7%
1936
64,1%
2056
68,1%
1954
64,7%
2229
73,8%
b
23
2615
1272
48,6%
1795
68,6%
1853
70,9%
1850
69,2%
1919
73,4%
a
490
19016
11363
59,8%
13202
69,4%
13922
73,2%
13100
68,9%
14805
77,9%
b
107
16518
9996
60,5%
12243
74,1%
12503
75,7%
12059
73,0%
12660
76,6%
PT-wsk.
PT-INR
APTT wsk.
TT wsk.
Fibrynogen
Razem
=86.9%
148
n i % poprawnych vs
X og.
X firma odcz.
X odcz.
X aparat.
X apar.-odcz.
149
07-41-01
-27-01
-40-01
-19-01
-44-01
-41-03
-41-02
-44-03
-26-04
-19-04
-44-02
-13-01
-26-05
-26-02
-26-01
-96-01
-13-02
Ogółem
Wiosna+Jesień
aparat
Bio-Ksel
Chrom 7,CC 3003
Eliza bis Kselmed
K3002 wszystkie
Siemens
CA serii 5..
Siemens
BCS
Roche
STA Compact
Bio-Ksel
6000
Bio-Ksel
C 3002
Roche
Coasys Plus C
IL
ACL Elite Pro
Siemens
Fibrintimer II
Roche
Start wszystkie
bio-Merieux
Option wszystkie
IL
ACL TOP CTS 500
IL
ACL 8000-10000
IL
ACL 100-7000
Bio-Mar Diagnost.
Coatron M1,M2
bio-Merieux
Thrombolyzer
PTmat.N
n
a/b
76,6
2601
83,0
77,0
769
81,9
75,5
608
75,2
73,8
206
86,4
64,3
140
88,6
97,2
109
98,2
78,8
99
86,9
64,9
97
74,2
96,2
80
96,2
61,8
76
88,2
72,2
72
83,3
87,9
66
89,4
83,6
61
90,2
85,7
49
93,9
68,8
48
87,5
75,9
29
75,9
58,6
29
69,0
84,2
19
94,7
wsk.
mat.P
n
a/b
66,1
2599
73,7
74,2
770
74,5
51,7
605
58,7
53,4
206
83,5
63,6
140
89,3
92,7
109
92,7
85,0
99
82,8
53,6
97
58,8
93,8
80
95,0
71,1
76
84,2
59,7
72
72,2
86,4
66
87,9
50,8
61
62,3
75,5
49
87,8
70,8
48
72,9
62,1
29
62,1
41,4
29
51,7
57,9
19
68,4
PTmat.N
n
a/b
73,0
2601
79,5
73,6
769
79,2
69,9
608
69,4
72,3
206
85,4
58,6
140
87,8
96,3
109
95,4
77,8
99
82,8
58,8
97
67,0
93,8
80
93,8
65,8
76
89,5
72,2
72
81,9
81,8
66
84,8
78,7
61
82,0
91,8
49
98,0
68,8
48
87,5
72,4
29
72,4
55,2
29
62,1
78,9
19
89,5
INR
mat.P
n
a/b
60,2
2599
68,3
67,7
770
68,2
49,2
605
51,2
79,6
206
85,0
84,3
140
82,1
34,9
109
85,3
80,8
99
80,8
47,4
97
43,3
15,0
80
88,8
51,3
76
82,9
69,4
72
70,8
25,8
66
80,3
50,8
61
63,9
87,8
49
83,7
64,6
48
66,7
76,0
29
72,4
41,4
29
44,8
78,9
19
84,2
APTT
mat.N
mat.P
n
a/b
n
a/b
53,9
42,0
2410
2408
66,6
60,6
54,0
38,9
704
705
67,2
60,6
36,2
26,1
538
537
48,1
37,4
52,7
21,8
203
202
74,9
68,3
42,1
18,6
140
140
74,3
72,8
81,6
78,0
109
109
80,7
78,0
65,6
67,7
99
99
80,8
82,8
55,3
49,4
85
85
50,6
49,4
77,5
81,2
80
80
86,2
82,5
75,6
83,3
78
78
89,7
92,3
42,0
23,2
69
69
58,0
42,0
64,4
62,7
59
59
66,1
67,8
49,1
40,0
55
55
49,1
45,4
81,6
75,5
49
49
91,8
91,8
79,2
77,1
48
48
89,6
83,3
72,4
69,0
29
29
79,3
72,4
55,6
44,4
18
18
55,6
44,4
63,2
78,9
19
19
78,9
68,4
mat.N
n
a/b
84,5
129
72,9
16,7
12
25,0
44,4
18
66,7
65,8
38
68,4
87,5
32
93,8
64,3
14
71,4
85,7
7
85,7
66,7
6
83,3
TT
6
7
14,3
85,7
33,3
83,3
mat.P
n
a/b
57,8
128
71,9
31,2
16
25,0
66,7
18
72,2
68,4
38
76,3
40,6
32
90,6
53,8
13
84,6
Fibrynogen
mat.N
mat.P
n
a/b
n
a/b
55,2
43,7
1463
1463
71,0
63,2
44,4
35,9
426
443
70,6
68,2
44,9
34,9
185
186
50,3
46,2
49,4
54,4
158
158
62,0
55,7
45,5
44,0
134
134
87,3
74,6
76,4
79,4
107
107
86,9
86,0
43,7
21,8
87
87
64,6
46,0
58,5
47,0
34
34
55,9
61,8
80,6
65,7
67
67
82,1
74,6
50,0
78,4
74
74
75,7
78,4
52,4
33,3
21
21
66,7
61,9
55,9
67,6
34
34
70,6
61,8
50,0
33,3
12
12
41,7
25,0
59,2
44,9
49
49
71,4
73,5
50,0
52,1
42
42
73,8
52,1
50,0
55,6
18
18
44,4
61,1
Razem
mat.N
mat.P
n
a/b
n
a/b
66,3
54,4
9204
9197
75,6
67,0
64,5
56,6
2680
2704
75,2
67,8
59,9
42,2
1939
1933
63,5
49,2
62,4
52,6
791
790
77,9
74,2
53,5
53,7
592
592
83,4
79,6
87,8
69,1
466
466
90,6
85,8
67,2
65,1
384
384
79,2
74,0
59,7
49,8
313
313
63,6
51,8
87,3
63,8
307
307
89,9
85,7
63,5
70,3
318
317
85,2
84,5
61,5
49,6
234
234
73,9
62,0
75,1
59,6
225
225
79,1
76,4
69,8
46,6
189
189
72,5
55,6
79,8
69,0
203
203
88,7
84,2
67,2
67,2
192
192
84,9
71,4
69,5
63,5
105
105
70,5
67,6
56,6
42,1
76
76
63,2
47,4
71,9
75,4
57
57
87,7
73,7
Tabela XV
Sprawdziany koagulologiczne w r.2011 - 2 sprawdziany (wiosna, jesień), każdorazowo 2 materiały kontrolne. Dla 5 parametrów oznaczanych najczęściej wykorzystywanymi koagulometrami podano: n-liczbę ocenianych wyników i odsetek wyników uznanych za poprawne w stosunku do wartości średnich ogólnych (a-wiersz górny) a poniżej w stosunku do średnich aparaturowych (b-wiersz dolny) – z rozbiciem na mat.N,
mat.P.
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
w materiale prawidłowym i 85,8% poprawnych w materiale
patologicznym, a więc różnica oceny między tymi materiałami była stosunkowo nieznaczna (Δ = 4,8%). Tylko nieznacznie gorzej oceniono wyniki uzyskane 40 aparatami Coasys
Plus f-my Roche (89,9 i 85,7% poprawnych, Δ = 4,2%), 38
aparatami ACL Elite Pro firmy IL (85,2 i 84,5% poprawnych,
Δ = 0,78%!) czy 70 koagulometrami BCS firmy Siemens
(83,4 i 79,6% poprawnych, Δ = 3,8%). Wydaje się prawdopodobne, że korzystna ocena wyznaczanych tymi aparatami
wartości w znacznej mierze jest zasługą nie aparatów (choć
są to aparaty niewątpliwie bardzo dobre), co wymuszonego
korzystania z ujednoliconych, firmowych odczynników.
Obecnie największym problemem jest ewent. poszerzenie panelu objętych sprawdzianami składników – choć warunkiem
niezbędnym jest odpowiednia liczebność wykonujących dane
oznaczenie laboratoriów – oraz promowanie (jak??) ujednolicenia wykorzystywanych z poszczególnymi koagulometrami odczynników. Uzyskiwana w programach sprawdzianów
poprawność wykonywanych oznaczeń jest zdecydowanie
poniżej oczekiwań i potrzeb klinicznych dla tych tak ważnych
obecnie oznaczeń. Oczywiście ocena zależy od przyjętych
granic dopuszczalnego błędu i na podstawie uzyskiwanych
wyników wydaje się, że wykorzystywane kryteria są zbyt rygorystyczne. Być może tak, ale uzyskane niektórymi koagulometrami wyniki – i to zarówno w materiale prawidłowym jak
i patologicznym – aczkolwiek ciągle niezadowalające, wskazują na potencjalne możliwości i ewent. zmiany czynią mniej
pilnymi, wymagającymi dalszej dyskusji.
Program sprawdzianów hematologicznych.
W ramach programu przeprowadzono dwa sprawdziany,
w których uczestniczyło 1611 laboratoriów, poddając ocenie
1984 aparaty. W sumie uczestnicy nadesłali w 2 sprawdzianach 257349 wyników dla dotychczas oznaczanych składników i dodatkowe 45,6 tys. wyników dla oceny krwinek białych, rozdzielonych na grupy w systemie 3 diff – wartości
bezwzględne i odsetkowe. W stosunku do średnich ogólnych
z wszystkich wyników oceniono jako poprawne (bez rozdziału krwinek białych) 89,19% wyników (89,04% w sprawdzianie wiosennym i 89,35% w sprawdzianie jesiennym). 27
modeli aparatów było wykorzystywanych przez co najmniej
6 laboratoriów i przy nieuwzględnianiu różnic odczynnikowych tworzyło podstawę do klasyfikacji nadesłanych 251915
wyników (97,9% wszystkich), z których jako poprawne oceniono 89,37% vs x̄og, 94,97% vs x̄apar i 85,54% vs wartości nominalne podane przez producenta nie dla wszystkich aparatów i parametrów. Najczęściej wykorzystywanymi są aparaty
firmy Sysmex – 800 szt. (40,3% wszystkich analizatorów hematologicznych), podzielone na dwie grupy – 440 aparatów
3 diff i 360 – 5 diff. Są to jednocześnie aparaty, na których
użytkownicy uzyskują najkorzystniejsze oceny. Odsetek wyników uznanych za poprawne vs x̄og, x̄apar i wartości nominalne wynosiły odpowiednio dla aparatów 3 diff 95,3%, 97,7%
i 86,4%, natomiast dla aparatów 5 diff – 96,9%, 98,9% i brak
danych przy braku wyznaczonych wartości nominalnych.
150
O ile bardzo wysoki odsetek wyników uznanych za poprawne
vs średnia ogólna mógłby wynikać z dużej liczby tych analizatorów, a więc uzyskane nimi wyniki mają znaczny wpływ
na średnie ogólne, to bardzo wysokie oceny vs średnie systemowe (aparaturowe) wynikają z dobrego skupienia zbiorów nadesłanych wartości. Średni współczynnik zmienności
dla 16 oznaczanych parametrów (2 x 8) wyniósł w wypadku
ap. Sysmex 3 diff – 2,28%, a dla ap. Sysmex 5 diff – 1,80%
(!). Oczywiście przy tak znacznym skupieniu wyznaczanych
wartości ich ocena – przy sztywnych granicach dgb – musi
być wysoce korzystna. Jeszcze 3 dalsze modele aparatów
występowały w ponad 100 egzemplarzach – Micros 60 f-my
abx Horiba (347 szt., a po ewent. dołączeniu aparatów Micros 45 i Micros CRP – 396 szt., czyli 20% wszystkich ocenianych analizatorów hematologicznych), Cell Dyn 1600, 1700,
1800 – 114 szt. i Pentra także f-my abx Horiba – 103 szt.
Tym ostatnim analizatorem także uzyskano korzystne wyniki
– 96,0% poprawnych vs x̄ og, 96,6% - vs x̄ apar i 92,0% vs podane wartości nominalne. Niemal zgodna poprawność vs x̄og
i x̄apar świadczy o niemal identycznych wyznaczonych średnich,
a niewielka różnica vs wartości nominalne wyznaczone przez
producenta wykorzystanych materiałów potwierdza poprawną kalibrację. Ogólnie należy stwierdzić dobre z zasady skupienie wartości, wyznaczanych poszczególnymi modelami
analizatorów. Dla 15 modeli występujących w liczbie ≥ 25
szt., średni współczynnik zmienności wynosił dla hematokrytu 3,7%, dla hemoglobiny – 2,8%, dla krwinek czerwonych – 2,7%. Większe było rozproszenie wartości w zbiorach krwinek białych oraz płytek – średnio po 6,4%. Ujemną
stroną tego dobrego skupienia zbiorów dla poszczególnych
składników i aparatów przy dużych na ogół liczebnościach
tych zbiorów jest istotność małych nawet różnic, występujących dla poszczególnych składników między aparatami.
Na ryc. 9 przedstawiono równanie regresji dla trzech składników, oceniając korelacje między wynikami wyznaczonymi
poszczególnymi aparatami w dwóch materiałach kontrolnych dla danych surowych i po odrzuceniu wyników na podstawie ocen wizualnych zbiorów, których przynależność do
tych zbiorów wydaje się wątpliwa. Wszystkie trzy oceniane
korelacje są istotne, co w przypadku krwinek białych wynika
z liczby 8 tys. wyników. Jednocześnie na rycinie zaznaczono
3 typowe rodzaje popełnianych błędów – A -zła kalibracja
(obydwa wyniki wysoce niższe od pozostałych), B -zamiana wykorzystywanych materiałów o wartościach wysokich
i niskich, C -znaczny błąd przypadkowy dotyczący jednego
tylko materiału. Oczywiście analogiczną analizę – choć bez
opracowania graficznego – powinien wykonać każdy uczestnik po uzyskaniu wyników sprawdzianu. Należy podkreślić,
że dzięki bardzo korzystnym zmianom wyposażenia ocena
sprawdzianów hematologicznych uległa zdecydowanej poprawie.
Podsumowanie.
Kolejny rok realizacji zewnątrzlaboratoryjnej oceny wyników
kontrolnych przebiegł w zasadzie bezawaryjnie. Częściej niż
Rycina 9
Równanie regresji i współczynnik korelacji przykładowo wyznaczone dla trzech składników w programie hematologicznym Wiosna 2011.
Dodatkowo na rycinie zaznaczono przykłady typowych błędów.
dotychczas wynikały kłopoty z pojawieniem się bimodalności
ocenianych zbiorów, co bardzo utrudniało a czasem wręcz
uniemożliwiało ocenę wyników. Trudno jednocześnie orzec,
czy wynikało to z niewłaściwego doboru materiałów kontrolnych, co zarzucają Centralnemu Ośrodkowi „poszkodowani”
uczestnicy programów, z „usprawnień” (oszczędności) wprowadzanych przez księgowych producentów, czy z bardziej
wnikliwej oceny zbiorów, wyznaczanych dla poszczególnych
materiałów kontrolnych różnymi metodami czy aparatami
i wychwytywanie różnic, które wcześniej były przeoczane.
W części wypadków wykazano wyraźnie zróżnicowanie wyników, gdy firma produkuje więcej niż 1 zestaw dla tej samej
metody – dlatego coraz częściej Centralny Ośrodek domaga
się nie tylko kodu firmy producenta, ale i numeru katalogowego wykorzystywanych odczynników – co poza obciążeniem
uczestników bardzo utrudnia ocenę wyników w Centralnym
Ośrodku. Niestety jest to także związane z ogromną pracą
wstępną – uporządkowaniem bazy danych od „wszystkich”
producentów/dystrybutorów. Można wówczas wykazać, że
ten sam odczynnik rozprowadzany jest przez kilku dystrybutorów (często pod „własną” nazwą firmy) a dokonanie
stosownych połączeń bardzo poprawia możliwość oceny.
Przykładowo dla oznaczeń PT najpierw odczynniki od 36
dystrybutorów sprowadzano do 18 producentów. Niestety
okazało się, że część producentów produkuje równolegle
kilka odczynników do tego samego oznaczenia, ci zdecydowanie pogarsza możliwość oceny i poszerza zakres wy-
maganych informacji. Należy podkreślić, że sugerowany staranniejszy dobór wykorzystywanych materiałów kontrolnych
jest praktycznie niemożliwy – niezależnie od obowiązującej
Centralny Ośrodek ustawy o zamówieniach publicznych nigdy nie można a priori przewidzieć, czy ze względu na unikalny efekt podłoża nie wystąpią kłopoty z wykonywaniem
oznaczeń poszczególnych składników przy wykorzystaniu
określonych metod analitycznych, określonych aparatów
czy nawet odczynników – liczba różnych możliwości jest tak
zawrotna, że jakakolwiek wstępna weryfikacja jest absolutnie niemożliwa.
Zahamowaniu uległo sztandarowe działanie Centralnego
Ośrodka w ostatnich latach. Zarówno ze względu na wygodę użytkowników poszczególnych programów, eliminację potencjalnych błędów przy manualnym wprowadzaniu
w Centralnym Ośrodku wyników do systemu obliczeniowego, a przede wszystkim ogromną oszczędność czasu
wdrożenie dwustronnej łączności elektronicznej między
Centralnym Ośrodkiem a uczestnikami programów wydawało się wyjątkowo cenne. Niestety nie doceniono wszystkich
trudności. Ze względu na ograniczenie finansowe nie można
było zamówić i zaabonować obsługę stosownego programu
w jakiejś firmie zewnętrznej. Jedynym realnym rozwiązaniem
było przygotowanie programu własnymi siłami i stworzony
przez informatyka Centralnego Ośrodka program zyskał pozytywną opinię zdecydowanej większości użytkowników. Pochopnie jednak wdrożono ten program bez zabezpieczenia
151
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ...
niezbędnych warunków minimalnych – obsługa programu
i część kontaktów z użytkownikami bezwzględnie wymaga
odpowiedniego przygotowania profesjonalnego, przekraczając możliwości nawet sprawnego ale bez odpowiedniego przygotowania informatycznego użytkownika komputera
i internetu. Dotychczasowe doświadczenie potwierdza, że
program w pełni spełnia oczekiwania. Opracowane wyniki
centralnego programu chemicznego zainteresowani mogą
odebrać na stronach portalu ESPD (Elektroniczny System
Przekazu Danych) po tygodniu, a nie po miesiącu, co ułatwia, a czasem po prostu umożliwia ewent. podjęcia stosownych działań naprawczych. Oczywistą niedogodność stwarza fakt, że część użytkowników nie ma możliwości (brak
sprzętu, dostępu do Internetu, przygotowania) włączyć się
w system elektronicznego przekazu danych. Z tego powodu wszystkie programy sprawdzianów, w których wdrożono
ESPD, muszą być realizowane dwutorowo – rosnąca część
użytkowników przekazuje wyniki (i otrzymuje opracowania)
poprzez Internet, a część utrzymuje dotychczasowy przekaz
papierowy, z koniecznością manualnego wprowadzenia do
systemu nadesłanych wyników, co bardzo utrudnia i opóźnia opracowania. Program do tej pory został wdrożony poza
centralnym programem chemicznym (wszyscy użytkownicy!)
w programie hematologicznym (Jesień 2011 – z przekazanych 1984 arkuszy odpowiedziowych 1335 = 67,3% - przekaz elektroniczny – PE), programie immunochemii poszerzonej (511 laboratoriów wśród 585 uczestników – 87,6%)
i programie immunochemii podstawowej – z tajemniczych
przyczyn tylko poniżej 50% odpowiedzi zostało przekazanych elektronicznie, znacznie mniej niż w innych włączonych
do programu sprawdzianach. Ale podstawową przyczyną zahamowania całego procesu, a nawet obawy o realizację już
podjętych działań jest brak w Centralnym Ośrodku drugiego
informatyka. Niezależnie od obciążenia pracą, nie można jakiejkolwiek poważnej działalności opierać się na jednej tylko
osobie. Nawet najlepiej przygotowanej i zaangażowanej, odpowiedzialnej osobie może się zdarzyć awaria, a jak wspomniano, do realizacji programu obecność profesjonalisty jest
bezwzględnie niezbędna. Od trzech lat Centralny Ośrodek
konsekwentnie występuje do Ministerstwa Zdrowia o drugi
etat informatyka, tłumacząc odnoszone korzyści (przede
wszystkim czas!) i istniejące zagrożenia – i mimo poparcia
Departamentu Organizacji Ochrony Zdrowia i Specjalisty
Krajowego konsekwentnie uzyskuje informację o zarządzonej przez Premiera blokadzie etatów, co czyni starania bezprzedmiotowymi. Oczywiście nie stanowi argumentu zagrożenie realizacji programu. Bezwzględnie należy podtrzymać
wniosek Centralnego Ośrodka powołania przy Ministerstwie
Zdrowia Komisji z udziałem wszystkich zainteresowanych,
która przedyskutuje problemy jakości w diagnostyce laboratoryjnej i przyszłość w Polsce programów EQA oraz przyjmie
odpowiednie ustalenia.
152
Adres do korespondencji:
Mgr Barbara Przybył-Hac
Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej
90-613 Łódź, ul.Gdańska 80
tel./fax 42 2302578, 42 2302579
e-mail: www.cobjwdl.lodz.pl
Zaakceptowano do publikacji: 10.06.2012

Podobne dokumenty