Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez
Transkrypt
Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez
diagnostyka laboratoryjna Journal of Laboratory Diagnostics 2012 • Volume 48 • Number 2 • 127-152 Kontrola jakości • Quality Control Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej Interlaboratory EQA programmes realised in 2011 by Centre for Quality Assessment in Laboratory Medicine Andrzej M. Brzeziński, Barbara Przybył-Hac Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej, Łódź Streszczenie Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej prowadził w 2011r. osiem programów międzylaboratoryjnych i zorganizował 28 różnych sprawdzianów dla 250-1700 uczestników. W ciągu roku opracowano ponad 800 tys. wyników kontrolnych, wśród nich ponad 250 tys. wyników powszechnego programu chemicznego i ponad 300 tys. wyników programu hematologicznego. Ponieważ każdy wynik kontrolny powiązany jest z dodatkowymi co najmniej 10 informacjami, tworzy to ogromną bazę 8-10 milionów danych rocznie, zarządzanie i archiwizacja której stwarza poważne problemy logistyczne i techniczne. Bardzo efektywnie następuje modernizacja wykorzystywanego wyposażenia, głównie analizatorów chemicznych i immunochemicznych analizatorami firm Roche i Siemens oraz analizatorów hematologicznych aparatami firm Sysmex i ABX Horiba. Równolegle poprawia się jakość oznaczeń kontrolnych – ponieważ przyjęte dopuszczalne granice błędu są rygorystycznie wąskie, osiągana jest poprawność tylko 92-95% ocenianych wyników. Niewątpliwe trudności powoduje występująca czasem bimodalność ocenianych zbiorów, spotykana w wypadku kilku odczynników tego samego producenta dla określonych oznaczeń, zmianą producenta odczynników dla określonego analizatora albo wprowadzane udoskonalenia metod czy aparatury nie wykorzystywane przez użytkowników programów. Niestety uległ zahamowaniu proces elektronicznego przekazu danych między uczestnikami, a organizatorami sprawdzianów z powodu wprowadzonej blokady etatów, uniemożliwiającej zatrudnienie drugiego informatyka. W programach w których taka forma łączności została wprowadzona, czas między wykonaniem oznaczeń kontrolnych a otrzymaniem ocen uzyskanych wyników uległ kilkukrotnemu skróceniu. Summary Polish Centre for Quality Assessment in Laboratory Medicine realised during year 2012 eight various EQA programmes and organised 28 different surveys for 250-1700 users. During the year more than 800 000 control results were evaluated, among them over 250 thousands results in general chemistry programme (27 constituents, our surveys a year with two different samples each) and over 300 thousands for basic haematological programme. As each control result is connected with at least 8-10 additional information, it creates a countless number of 8-10 millions of datas per year – the management and archiving of such huge amount of information creates a serious logistic and technical question. Very impressive is efficient modernisation, mainly chemical and immunochemical analysers from Roche and Siemens as well as haematological analysers from Sysmex and Horiba. The quality of control results increase too – as the allowable error limits are rather narrow, the percentage of acceptable control results only 92-95 per cent are archived. Besides technical also essential progress is observed – N-terminal atrial natriuretic peptide is very spectacular example (2008 – 32, 2009 – 60, 2010 – 97, 2011 – 109 labs). Some problems are created with bimodal distribution of results, connected from time to time with different reagents for the same method and analyser, with change the producer of reagents, with introducing new improvement of method or equipment or contrary to the producers rules of exploitation of analysers. Unfortunately extremely useful process of electronic connection between programme users and organisers has stopped, as the Centre cannot obtain the possibility to employ an additional professional worker. For programmes in which such improvement has been realised the time between estimation of control samples and obtainment of results appreciation has been shortened several times. 127 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... Słowa kluczowe:sprawdziany międzylaboratoryjne, ocena wyników kontrolnych, rozkład wyników kontrolnych, elektroniczny przekaz danych Key words:interlaboratory surveys, evaluation of control results, distribution of control results, electronic data transfer Wstęp Niepostrzeżenie minął jubileusz 30 lat realizacji sztandarowego (ale nie najstarszego!) programu sprawdzianów międzylaboratoryjnych – powszechnego programu chemicznego (1981-2011). W pierwszym sprawdzianie, obejmującym tylko 10 podstawowych składników chemicznych, uczestniczyło blisko 1200 laboratoriów, nadsyłając dla dwóch wykorzystanych materiałów niemal 15,5 tys. wyników oznaczeń kontrolnych, z których jako poprawne oceniono zaledwie 59,7% (dla wapnia – 42,9%). Była to zupełnie inna epoka, dla większości obecnych pracowników diagnostyki laboratoryjnej czasy antyczne. Gros stosowanych wówczas metod i niemal cała aparatura pomiarowa zostały odesłane do lamusa, a duża część uległa całkowitemu zapomnieniu, np. oznaczanie cholesterolu reakcją Liebermanna i Burcharda z bezwodnikiem kwasu octowego i stęż. kwasem siarkowym (w r. 1981 niemal 100% uczestników), miareczkowe oznaczanie chlorków (78% uczestników) czy refraktometryczne oznaczanie białka (31% uczestników). Aż 64% nadesłanych wyników kontrolnych zostało wyznaczonych „własnymi” odczynnikami przygotowanymi w laboratorium wykonawcy (!), a ponad 50% - wykorzystując „własne” wzorce i kalibratory. Paradoksalnie ocena wyników kontrolnych była wówczas znacznie łatwiejsza. Sprzyjała temu duża unifikacja metod i aparatury pomiarowej – 93% wyników 5 podstawowych składników chemicznych oznaczanych kolorymetrycznie wyznaczonych zostało spektrofotometrami Spekol (NRD). Dodatkowo proste metody manualne są znacznie mniej wrażliwe na efekt podłoża, niż nowoczesne, wysoce skomplikowane analizatory, wykorzystujące bardzo uproszczone metody (najchętniej jednoodczynnikowe) o wysokiej czułości. Jeszcze w r. 2011 wśród 12874 wartości kontrolnych wyznaczonych manualnie ap. Epoll jako poprawne vs Xog. oceniono 78,2% nadesłanych wyników, a vs średnie systemowe – 82,1% (Δ = 3,9%), a dla 2139 wyników wyznaczonych ap. Pointe 180 – zaledwie Δ = 2,0%! Z nowoczesnymi, w pełni zautomatyzowanymi analizatorami sytuacja jest odmienna. Poza formalnie łatwym do wytłumaczenia przykładem ap. Vitros (Δ = 38,1%), różnica w odsetku wyników poprawnych vs średnie ogólne, a średnie systemowe wynosiła w r. 2011 dla ap. Dimension – 18,6%, dla ap. AU Beckman Coulter (d. Olympus) – 15,7%. a dla ap. Architect – 13,6% (tab. III). Nie ułatwia to oceny porównawczej wyników kontrolnych. Zgodnie ze standardami wdrożonymi rozporządzeniem Ministra Zdrowia z dn. 23 marca 2006 r. (Dz.U. Nr 61 poz.435) wraz z modyfikacjami z dn. 29 stycznia 2009r. (Dz.U. Nr 22 poz. 128), w organizowanych przez Centralny Ośrodek programach sprawdzianów powinny uczestniczyć wszystkie działające w kraju medyczne laboratoria diagnostyczne (MLD). Aczkolwiek nie podano, kto i jak weryfikuje praktyczne wdrażanie tych standardów oraz czy 128 grożą jakiekolwiek sankcje za niepodporządkowanie się rozporządzeniom, wydaje się, że ogromna większość laboratoriów (wszystkie?) już wcześniej nawiązała współpracę z Centralnym Ośrodkiem. Było to tym łatwiejsze, że choć formalnie laboratoria powinny włączyć do oceny wszystkie oznaczenia objęte programami Centralnego Ośrodka, to w praktyce jest to nie do wyegzekwowania – laboratoria same decydują, czy i jakie składniki poddają ocenie. Dodatkową zachętą może być fakt, że błędne wyniki oznaczeń kontrolnych nie grożą żadnymi konsekwencjami – zgodnie ze standardem istotne jest samo uczestnictwo czyli odesłanie wyników. Brak zresztą sankcji także za nieodesłanie wyników, a więc zmarnowanie częstokroć kosztownych materiałów kontrolnych, dostarczanych nieodpłatnie przez Centralny Ośrodek (z budżetu Ministerstwa Zdrowia). Sporadycznie, najczęściej w sprawdzianach hematologicznych, po ewent. monitach o fakcie nieodesłania wyników informowani są specjaliści wojewódzcy ds. diagnostyki laboratoryjnej, ale ich obowiązki są odmienne, a możliwości reakcji także bardzo ograniczone. W r. 2011 w ramach prowadzonych przez Centralny Ośrodek działań realizowano 8 różnych programów międzylaboratoryjnej oceny wyników, organizując 28 sprawdzianów dla 251-1676 uczestników i oceniając ponad 800 tys. nadesłanych wyników oznaczeń kontrolnych (tab.I). Ponieważ każdy wynik kontrolny związany jest z co najmniej 10 informacjami dodatkowymi, tworzy to co roku ogromną bazę 8-10 milionów danych. Sprawne zarządzanie tą bazą stwarza bardzo poważny problem logistyczny, a nawet techniczny. Uczestnicy programów Zestawienie laboratoriów współpracujących z Centralnym Ośrodkiem w ramach podstawowego powszechnego programu chemicznego podano w tab. II. Wielokroć już podkreślano, że wdrożona w 1976 r. kategoryzacja laboratoriów na 5 pionów organizacyjnych (nawet z wprowadzonymi modyfikacjami), a zwłaszcza na 4 klasy wielkości zależnie od liczebności zatrudnionego personelu fachowego jest anachronizmem, całkowicie nieadekwatnym do aktualnych standardów organizacji i pracy – brak jednak innego podziału. W tabeli podano liczebność 20 podgrup laboratoriów. W wierszu górnym każdego pola po stronie prawej podano przeciętną liczbę badań (z ocenianych 27) oznaczanych przez laboratoria danej podgrupy, a w wierszu dolnym – średnią punktową ocenę regularności nadesłanych oznaczeń kontrolnych, uzależnioną od liczby „zaliczonych” w ciągu roku sprawdzianów dla poszczególnych oznaczeń. Skala ocen – od 5 pkt. (dla ocenianego składnika „zaliczone” wszystkie 4 sprawdziany czyli nadesłano komplet 8 wyników uznanych za poprawne) do 0 pkt. (oceniany składnik w żadnym z 4 sprawdzianów nie został „zaliczony”). W tabeli podano Tabela I Realizowane w r. 2011 programy sprawdzianów. Podano nazwę programu, liczbę sprawdzianów w ciągu roku, liczbę wykorzystywanych równolegle materiałów kontrolnych, liczbę ocenianych składników, liczbę uczestników programu i liczbę uzyskanych w 2011 r. wyników. Nazwa Programu sprawdz w roku n mat. kontr. n ocen. składn. n uczest. n wyników w roku Powszechny Chemiczny 4 2 27 1678 252353 Centralny Chemiczny 12 2 27 251 147522 Podstawowy Immunochemiczny 2 2 6 875 12249 Poszerzony Immunochemiczny 2 2 32 603 32807 Markery kardiologiczne 2 2 9 451 5461 RKZ 2 3 9 824 22756 Hematologia 2 2 15 1660 311043 Koagulologia 2 2 5 1338 19066 Suma 803257 Tabela II A - Charakterystyka laboratoriów uczestniczących w powszechnym programie chemicznym w r. 2011. W każdym polu podano: w wierszu górnym – liczby laboratoriów danej grupy i przeciętną liczbę wykonywanych badań (z ocenianych 27), w wierszu dolnym – przeciętną punktową ocenę regularności oraz literowy symbol grupy. B - Charakterystyka wielkości merytorycznej laboratoriów. Podano: liczbę oznaczanych składników, liczbę laboratoriów i przeciętną ocenę punktową regularności. A rodzaj laboratoriów akademickie publiczne leczn.zamkn. publiczne leczn.otwarte niepubliczne leczn.zamkn. niepubliczne leczn.otwarte razem b.małe 1-3 prac.fach. 3 ±15,3 A 3,935 30 ±15,2 E 4,409 108 ±13,0 I 3,891 10 ±12,7 M 3,906 360 ±15,3 R 4,002 511 ±14,8 4,003 średnie duże b.duże 4-10 prac.fach. 11-24 prac.fach. ≥ 25 prac.fach. 8 ±19,6 B 4,529 106 ±20,0 F 4,284 79 ±16,9 J 4,402 85 ±20,3 N 4,385 334 ±18,7 S 4,279 612 ±18,9 4,313 21 ±21,8 C 4,581 220 ±22,8 G 4,612 26 ±19,2 K 4,647 102 ±22,6 O 4,612 45 ±22,8 T 4,648 414 ±22,5 4,616 24 ±24,1 D 4,654 88 ±24,1 H 4,650 6 ±13,8 L 4,675 17 ±24,4 P 4,708 6 ±24,7 U 4,730 141 ±23,7 4,662 dodatkowe aparaty X, Y średnie oceny punktowe regularności oznaczeń (przyjęte za miarę jakości) zbiorczo dla wszystkich 27 składników oznaczonych przez laboratoria odpowiedniej podgrupy, pionu czy klasy wielkości. Jak wynika z tabeli, punktowa ocena regularności zależy przede wszystkim od wielkości ocenianych laboratoriów – od średnio 4,003 pkt. dla grupy 511 laboratoriów małych, zatrudniających do 3 pracowników fachowych aż po 4,662 pkt. dla stosunkowo mało licznych (141 = 8,4% ogółu) placówek bardzo dużych (≥ 25 prac. fach.). Nawet pozornie oczywista wyższa regularność oznaczeń uzyskana przez 56 laboratoriów akademickich w stosunku do 745 niepublicznych laboratoriów ambulatoryjnych (odpowiednio 4,584 pkt. i 4,195 pkt.) może częściowo wynikać z faktu, że wśród placówek akademickich ponad 80% stanowią placówki duże i bardzo duże, a wśród niepublicznych laboratoriów otwartej opieki zdrowotnej aż 93% to placówki małe lub co najwyżej średnie (4-10 prac. fach.). Jeszcze wyraźniej zależność ta zaznacza się przy merytorycznej ocenie wielko- B n n razem ozn. lab. ±22,1 4,584 444 ±21,9 4,539 219 ±15,2 4,229 214 ±21,4 4,516 745 ±17,4 4,195 1678 ±19,0 4,365 79 ±17,1 3,644 1757 ±18,9 4,336 1-3 4-6 7-9 10-12 13-15 16-18 19-20 21 22 23 24 25 26 27 24 29 60 163 166 211 217 177 140 174 216 136 41 3 ± pkt./ ozn. 2,830 3,253 3,844 4,008 4,101 4,162 4,250 4,363 4,340 4,438 4,524 4,591 4,521 4,728 Σ 1757 4,336 56 ści laboratoriów, tj. zależnie od liczby ocenianych oznaczeń (z możliwych 27) – część B tab.II. Współczynnik regularności waha się od średnio 2,83 pkt. dla grupy 24 laboratoriów oznaczających zaledwie 1-3 składniki aż po średnio 4,73 pkt. dla pojedynczych (zaledwie 3) laboratoriów oznaczających wszystkie 27 składniki. Różnica jest ewidentna i znacząca – współczynnik korelacji między liczbą ocenianych składników, a punktową oceną regularności r = 0,9415. Oczywiście wielkość laboratoriów wpływa na poprawność wyznaczanych wartości kontrolnych pośrednio – poprzez odmienną organizację pracy, stosowane metody, zróżnicowanie kwalifikacji zatrudnionego personelu, a przede wszystkim poprzez wykorzystywane wyposażenie. Przyjęcie za syntetyczną miarę jakości oznaczeń kontrolnych współczynnika regularności jest zdecydowanie kontestowane przez część uczestników programu powszechnego. Kwestionowane jest ocenianie wyłącznie informacji pozytywnych – nie nadesłanie wyników, a nawet wycofanie 129 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... przez organizatorów części oznaczeń automatycznie potencjalnie obniża możliwą do uzyskania ocenę. Pewnym usprawiedliwieniem organizatorów jest fakt, że stwarza to szansę wymuszania od uczestników terminowego odsyłania wyników oznaczeń kontrolnych. Dodatkowo opracowywane na koniec każdego roku „cenzurki” – informacje z oceną wszystkich oznaczeń objętych przez poszczególnych uczestników powszechnym programem chemicznym nie mają żadnego znaczenia prawnego (administracyjnego), a wyłącznie względy ambicjonalne (niewątpliwie bardzo istotne!). Należy żałować, że podobnych systemów ocen zbiorczych nie opracowano dla innych programów sprawdzianów realizowanych przez Centralny Ośrodek. Wynika to zarówno z braku powszechnie uzgodnionych dopuszczalnych granic błędów, jak i zbyt małej liczby sprawdzianów/oznaczeń kontrolnych w ciągu roku. Od wprowadzenia w powszechnym programie chemicznym wskaźnika regularności wyników ulega on systematycznej poprawie – od 3,791 pkt. w r. 2001 do 4,365 pkt. w r. 2011. Zmiana jest niewątpliwie znacząca, choć trudno ocenić, w jakiej części spowodowana jest prowadzonymi programami sprawdzianów, a w jakiej – bardzo istotnymi zmianami organizacji, a zwłaszcza wyposażenia laboratoriów. W ciągu ostatniej dekady liczba uczestników powszechnego programu chemicznego (obejmującego „wszystkie” MLD) początkowo rosła, osiągając w r. 2007 liczbę 1816 placówek, a obecnie ulega powolnemu spadkowi. W stosunku do roku poprzedniego w r. 2011 liczba uczestników zmniejszyła się o 18 placówek (z 1696 do 1678, tj. -1,1%), kosztem przede wszystkim placówek małych (-15 placówek) i średnich (-7 placówek). Jest to zjawisko korzystne. Aczkolwiek teoretycznie może to ograniczać dostępność badań, chyba celowa byłaby likwidacja wielu małych placówek, wyraźnie niedoinwestowanych, o ograniczonym profilu badań i wysoce dyskusyjnej jakości świadczonych usług. Po okresie bardzo burzliwej prywatyzacji (r.1995 – 5,6%, r. 2000 – 21%, r. 2010 – 55% uczestników programu to placówki niepubliczne) obecnie zmiany są już nieznaczne. W ciągu ostatniego roku udział laboratoriów niepublicznych wzrósł zaledwie o 1,6%, do 57% ogółu MLD. Zakres ocenianych badań Ograniczenia finansowe uniemożliwiły wysoce celowe poszerzenie wachlarza ocenianych składników. Dotyczy to nawet postulowanej także przez Polskie Towarzystwo Diabetologiczne oceny oznaczeń hemoglobiny glikowanej, tak istotnej w kontroli przebiegu cukrzycy. Jedyną możliwością rozwoju było poszerzenie profilu oznaczeń ocenianych w obecnie wykorzystywanych materiałach kontrolnych, a więc bez dodatkowych nakładów. W r. 2011 programy chemiczne poszerzono o ocenę stężenia albumin oraz aktywności lipazy, z czego wyjściowo skorzystało odpowiednio 675 i 228 laboratoriów. W programie immunochemii poszerzonej zwiększono liczbę uczestników z 500 do 600 laboratoriów, jednocześnie obejmując oceną oznaczenia parathormonu 130 (PTH) – 140 uczestników oraz insuliny – 96 uczestników. Niestety wymusiło to zmniejszenie liczby równolegle ocenianych materiałów kontrolnych z 3 do 2. Zakupione w drodze przetargu materiały kontrolne do sprawdzianu hematologicznego Jesień 2011 ze szwedzkiej firmy Boule Medical AB umożliwiały ocenę różnicową krwinek białych met. 3 diff. Stwarzając istotne kłopoty organizatorom, mimo stosownej informacji część laboratoriów przesłało wyniki posługując się aparatami 5 diff, oczywiście błędne. Dodatkowo okazało się, że niektórymi aparatami 5 diff (Cell Dyn Ruby i Advia 120, 2120) w materiałach tych występują istotne trudności z oznaczaniem krwinek płytkowych i krwinek białych, co spowodowało wyeliminowanie tych oznaczeń przy ocenie ww aparatów. Jest to przykład niekorzystnych skutków wymuszonego, choć pozornie celowego i uzasadnionego podporządkowania się ustawie o zamówieniach publicznych. Aparatura pomiarowa Ocena wykorzystywanej aparatury pomiarowej jest bardzo utrudniona przez jej ogromne zróżnicowanie. W przygotowanym przez Centralny Ośrodek „Przewodniku ...” przewidziano aż 70 grup/modeli analizatorów biochemicznych, 35 – fotometrów/spektrofotometrów, 45 – analizatorów ISE i rkz, 40 – koagulometrów czy ponad 60 – liczników i analizatorów hematologicznych. Powoduje to ogromne rozproszenie nadsyłanych wyników kontrolnych na nadmierną liczbę odrębnych podgrup, co bardzo utrudnia ocenę i porównania. Trudno też ocenić, czy podziały te są w pełni uzasadnione. Wymagałoby to dogłębnej znajomości każdego modelu, co przy co najmniej powściągliwej pomocy ze strony producentów/dostawców nie jest możliwe. Niewiele pomaga doświadczenie – brak różnic między analizatorami w wyznaczanych wartościach nawet w kilku stabilizowanych materiałach kontrolnych nie gwarantuje, czy nie wystąpią one w kolejnym, o odpowiednio ukształtowanym efekcie podłoża. Wszelkie uwagi i pomoc – zarówno producentów/dystrybutorów aparatury jak i użytkowników – są dla organizatorów sprawdzianów wyjątkowo cenne. Kontynuowana jest intensywna wymiana wykorzystywanej aparatury. Znajduje to odzwierciedlenie w liczbie oznaczeń kontrolnych, uzyskiwanych poszczególnymi systemami analitycznymi. Tylko w stosunku do ubiegłego roku w powszechnym programie chemicznym wzrosła liczba wyników kontrolnych wyznaczonych aparatami Cobas c501 (platforma Cobas 6000) o 26,4% (z 8730 do 11033), ap. Cobas Integra o 18% (z 41109 do 48428), a przeznaczonymi do mniejszych pracowni analizatorami Mindray BS nawet o 82% (z 4029 do 7315 wyników), oczywiście kosztem innych, wycofywanych już aparatów. Na ryc. 1 zestawiono liczebność wybranych popularnych aparatów, wykorzystywanych przez uczestników powszechnego programu chemicznego w r. 2006 i 2011. W ciągu 5 lat liczba wykorzystywanych analizatorów biochemicznych wzrosłą o 28% (z 1103 szt. do 1413 szt.), natomiast bardzo radykalnie zmniejszyła się liczba prostych Rycina 1 Zmiany aparatury w laboratoriach uczestniczących w powszechnym programie chemicznym – dla 26 aparatów graficznie i liczbowo przedstawiono dane z r.2006 i 2011. fotometrów/spektrofotometrów wykorzystywanych przy posługiwaniu się techniką manualną, z 1124 szt. do zaledwie 266 szt. (-76%). Wyraźne zmiany dotyczą dużych analizatorów (porównano lata 2006 i 2011), np. Cobas Integra (134 → 299 szt.) czy nowy Cobas c501 wykorzystywany w platformie Cobas 6000 (0 → 62 szt.). Jeszcze wyraźniejsze są zmiany analizatorów mniejszych, o ograniczonym profilu i liczbie wykonywanych oznaczeń. Dobrym przykładem mogą być aparaty A15/A25 f-my BioSystems (22 → 143 szt., wzrost 6,5-krotny), Mindray (6 → 61 szt.), Metrolab (0 → 53 szt.) czy Pentra 400 (14 → 58 szt.). Jednocześnie efektywnie wycofywane są małe, proste analizatory sprzed 15-20 laty, pracujące w systemie otwartym, jak np. Express (83 → 7 szt.), Alcyon (48 → 3 szt.) czy Cobas Mira (107 → 34 szt.). Jeszcze wyraźniejsze spadki dotyczą prostych spektrofotometrów, np. aparatów Epoll (497 →110 szt.) czy aparatów firmy Marcel (174 →53 szt.). Dla analizatorów immunochemicznych trudniej jest wykazać zmiany, ponieważ w r. 2011 zwiększono liczbę użytkowników programu z 500 do 600 laboratoriów, jednak wyraźnie zmniejsza się liczba eksploatowanych analizatorów AxSym, Access czy Immulite. Rośnie liczba nowych analizatorów, jak Architect f-my Abbott (19 → 62 szt.), Centaur f-my Siemens (23 → 39 szt.), a przede wszystkim ap. Cobas e601 (0 → 63 szt.) czy Elecsys wraz z Cobasem e411 (137 → 219 szt.). Wśród analizatorów hematologicznych zwraca uwagę zamiana analizatorów 3 diff. na 5 diff. – np. wśród najpopularniejszych chyba analizatorów f-my Sysmex w ciągu 5 lat odpowiednio 513 → 435 ap. i 146 → 374 ap. Pojawiły się nowe analizatory, jak Cell Dyn Ruby, Cell Dyn Emerald czy rozprowadzane przez kilka firm ap. Mindray, przede wszystkim 3 diff. Zmiany częściowo są kamuflowane ubytkami dotychczasowej aparatury. Przykładowo w ciągu 5 lat liczba wykorzystywanych analizatorów ISE/rkz f-my Roche zwiększyła się zaledwie o 10% (z 268 do 294 szt.), ale nowego analizatora rkz Cobas b121, b221 aż 7-krotnie (z 35 do 243 szt.!). Odczynniki Równie duże jak aparatury jest w Polsce zróżnicowanie wykorzystywanych odczynników. W podstawowym powszechnym programie chemicznym Jesienią 2011 uczestnicy wykorzystywali odczynniki dostarczone przez 58 firm producentów/dystrybutorów. Być może część zgłoszeń jest efektem częstych pomyłek – odczynnikami aż 18 firm wykonano poniżej 0,05% oznaczeń kontrolnych, a dalszych 6 firm – poniżej 0,1%. Najczęściej wykorzystywanych dostawców zestawiono w tab.III część A. Należy przypomnieć, że wszystkie podawane informacje dotyczą wyłącznie oznaczeń kontrolnych, wykonywanych w bardzo zbliżonej liczbie przez wszystkich użytkowników poszczególnych programów niezależnie od wielkości laboratorium (i automatycznie liczby oznaczeń rutynowych, decydujących o pozycji firmy na rynku). Duże zróżnicowanie dostawców jest być może korzystne ze względów handlowo-ekonomiczno-przetargowych, ale zdecydowanie utrudnia ocenę wyników. Ocena wyników Nie dysponując materiałami kontrolnymi z wyznaczonymi a priori wartościami definitywnymi/referencyjnymi, z konieczności do oceny wykorzystuje się wartości umownie należne, będące pochodnymi (średnimi korygowanymi) wyników uczestników poszczególnych sprawdzianów. Wiarygodność tych wartości zależy od zbieżności warunków wyznaczania wyników kontrolnych, prowadząc do kilku stopni wiarygodności – średnie ogólne (z wszystkich nadesłanych wyników, najmniej wiarygodne), średnie metodyczne, średnie metodyczno-aparaturowe i średnie metodyczno-aparaturowo-odczynnikowe (systemowe). Równie istotna jest dyspersja oraz liczebność wyników będących podstawą oceny zbioru. Nadmierną dyspersję ogranicza się eliminując tzw. „outliers” (wyniki najbardziej odstające) – na drodze oceny wizualnej zbiorów oraz reguły 22s, natomiast minimalną liczebność zbiorów ustalono arbitralnie na n ≥ 6. Jest to zdecydowanie za mało, ale jest kompromisem między potrzebami, a możliwościami. Bardzo duże zróżnicowanie wykorzystywanych aparatów 131 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... Tabela III Sprawdzian powszechny Jesień 2011, sur. 6 - liczba i procent oznaczeń oraz % oznaczeń homogennych w seriach n ≥ 6 (klasyfikowanych vs Xsystemowego). A - wg producentów/dystrybutorów odczynników, B - wg wybranych aparatów. A Odczynnik n oznaczeń % oznaczeń % klasyfikowanych n>=6 B Aparat n oznaczeń % oznaczeń % klasyfiAparat kowac.d. nych n>=6 99,9 Accent n oznaczeń % oznaczeń % klasyfikowanych n>=6 91,6 Ogółem 31426 100% 83,2 Vitros 996 3,2% 1384 4,4% Roche 8797 27,99% 97,6 C.Integra 6211 19,8% 99,9 MetroLab 826 2,6% 90,0 BioSystems 3406 10,84% 83,8 C.c501 1431 4,6% 99,7 Epoll 1549 4,9% 79,0 Cormay 2588 8,24% 89,1 Olympus 1659 5,3% 98,2 Airone 200 0,6% 77,5 BioMaxima 1750 5,57% 66,0 Pentra 1113 3,5% 98,1 Mindray 1019 3,2% 74,4 Olympus 1633 5,20% 99,8 Architect 754 2,4% 96,3 Hitachi 479 1,5% 65,1 AlphaDiagnostics 1605 5,11% 76,6 WienerLab 316 1,0% 96,2 Lumen 259 0,8% 60,6 Thermo/Kone 1557 4,95% 97,9 BioSystems 2163 6,9% 95,8 Pointe 318 1,0% 59,7 Emapol 1103 3,51% 32,8 Konelab 2038 6,5% 93,1 BTS 178 0,6% 51,1 abxHoriba 1093 3,48% 99,9 Prestige 540 1,7% 93,0 Flexor 732 2,3% 48,1 OrthoClin.Diag. 1088 3,46% 91,5 Erba XL 412 1,3% 92,7 Marcel 680 2,2% 35,9 Siemens 834 2,65% 88,6 Dimension 828 2,6% 92,0 C.Mira 541 1,7% 31,8 Siemens/Dade 767 2,44% 99,3 Advia 567 1,8% 91,9 StatFax 146 0,5% 0,0 i odczynników warunkuje, że zwłaszcza wykorzystując mniej popularne analizatory możliwości stworzenia homogennych, najkorzystniejszych grup tj. metodyczno-aparaturowo-odczynnikowych są bardzo ograniczone. Obecnie z możliwości takiej oceny wyeliminowanych jest około 20% (a więc co piąty!) nadsyłany wynik kontrolny. Gdyby minimalną liczebność homogennego zbioru zwiększyć do uzasadnionego n ≥ 20, to z oceny wyeliminowany byłby co trzeci nadsyłany wynik kontrolny. Oczywiście pozostaje ocena względem średnich metodyczno-aparaturowych, a w przypadku mało popularnych aparatów – średnich metodycznych, ale oceny te są coraz mniej korzystne. W tab.III zestawiono na podstawie wyników jednej surowicy w sprawdzianie Jesień 2011 liczby oznaczeń odczynnikami 12 najczęściej wykorzystywanych firm producentów/dystrybutorów (część A) oraz wykonane 26 modelami skrajnie różnych w ocenie aparatów (część B). Podano liczbę nadesłanych wartości i ich procentowy udział wśród wszystkich ocenianych wyników (31 426) oraz odsetek wyników, które mogły zostać ocenione vs średnie systemowe przy n ≥ 6. Ryc.2 przedstawia te same dane w formie graficznej. Część firm zabezpiecza odczynniki praktycznie tylko do „swoich” aparatów (Roche, Beckman Coulter, abx Horiba, Siemens i oczywiście Ortho Clinical Diagnostics), natomiast kilka (α-Diagnostics, Emapol, BioMaxima) dostarcza odczynniki wykorzystywane z wielu różnymi, mniej popularnymi aparatami. Automatycznie rozproszenie wyznaczanych wartości jest bardzo duże, a możliwości współtworzenia średnich metodyczno-aparaturowo-odczynnikowych bardzo ograniczone. Przykładowo wartości glukozy wyznaczano odczynnikami f-my Emapol 75 aparatami 28 modeli Rycina 2 Graficzna ilustracja tab.III. Dla najczęściej wykorzystywanych odczynników i wybranych aparatów przedstawiono odsetek wyników, które mogą być ocenione vs średnie systemowe przy n ≥ 6. 132 (z tego tylko 37 wyników przy n ≥ 6), odczynnikami f-my α-Diagnostics – 92 aparatami 15 modeli (75 wyników przy n ≥ 6), a odczynnikami f-my BioMaxima – 109 aparatami 24 modeli (z tego 70,6% wyników przy n ≥ 6). Łatwo wyliczyć, że pozostałe wyniki wyznaczono pojedynczymi często egzemplarzami szerokiego spektrum aparatów. O możliwościach oceny vs średnie systemowe decyduje liczba oznaczeń i zróżnicowanie odczynników. W analizowanym sprawdzianie Jesień 2011 trzema modelami aparatów uzyskano zbliżoną liczbę wyników kontrolnych – 76 ap. AU Beckman Coulter d. Olympus (1659 wyników), 110 ap. Epoll (1549 wyników) i 62 ap. Cobas c501 (1431 wyników). Z aparatami Cobas c501 wykorzystywano wyłącznie odczynniki firmy Roche, a więc wszystkie wyniki (99,7% - sporadycznie nie podano pochodzenia odczynników) mogły być ocenione względem średnich systemowych zarówno przy n ≥ 6, jak i n ≥ 20. Zbliżona jest możliwość oceny oznaczeń ap.AU Beckman Coulter d. Olympus, również w zasadzie wykorzystujących firmowe odczynniki (choć jedno z 76 laboratoriów konsekwentnie wykorzystuje odczynniki f-my α-Diagnostics, co eliminuje te wyniki z oceny względem średnie systemowe, a w efekcie objęcie tą oceną „tylko” 98,2% nadesłanych – także przy n ≥ 6, jak i n ≥ 20). Użytkownicy ap. Epoll zgłaszają korzystanie z odczynników aż 15 dostawców (choć produktami 4 firm wyznaczono 79,7% ocenianych wartości), co spowodowało, że homogennymi zbiorami systemowymi o liczebności ≥ 6 można było objąć 79% wyników (a przy ewent. liczebności ≥20 – tylko 32% wyników). Jeszcze mniej korzystna jest ocena wyników wyznaczonych 34 ap. Cobas Mira – znacznie mniejsza liczba wyników kontrolnych (w ocenianej surowicy tylko 541) przy wykorzystywaniu odczynników od 12 dostawców warunkuje, że zbiory systemowe o n ≥ 6 objęły tylko co trzeci nadesłany wynik (31,8%), bez możliwości stworzenia choćby pojedynczego zbioru o n ≥ 20. Dane te stanowią uzasadnienie minimalizacji wymagań. Pocieszająca jest postępująca korzystna eliminacja najmniej popularnych firm. Jeżeli w stosunku do średnich systemowych przy n ≥ 6 można było objąć oceną w r.2005 tylko 67,8% nadesłanych wyników kontrolnych, to w r.2007 – 71,3%, w r.2009 – 74%, a w r.2011 – już 80%. Jak istotne znaczenie dla wyznaczonych wartości kontrolnych mogą mieć poza metodą i ewent. aparatem także odczynniki, obrazuje kilka przykładów przedstawionych na ryc. 3. Oczywiście zaobserwowane różnice dotyczą tylko części materiałów kontrolnych (nie do wcześniejszego przewidzenia) i najczęściej nie dotyczą pozbawionych efektu podłoża świeżych próbek rutynowych (choć Centralny Ośrodek nie może tego zweryfikować). Warunkiem poprawnej oceny nadsyłanych wyników jest unimodalność i symetryczność zbiorów będących podstawą oceny, stąd starania o łączenie wyników wyznaczonych w maksymalnie zbliżonych warunkach – metoda, aparat, odczynniki. Na ryc. 3A przedstawiono wyniki oznaczeń żelaza met. 2 z ferenemS 29 aparatami Architect. W przedstawianej surowicy nr 3 (a także nr 4) uzyskano zbiory o bardzo dużej dyspersji. Współczynnik zmienności rzędu 36% był dla dobrego, nowoczesnego analizatora absolutnie nie do przyjęcia, powodował zresztą znikomą poprawność wyników. Wykazano bimodalność zbiorów, z firmy uzyskano informację o wprowadzaniu nowego odczynnika od innego producenta (bez zmiany metody). Przedstawicielstwo firmy Abbott ustaliło, który odczynnik wykorzystywali poszczególni użytkownicy ap. Architect. W efekcie wyznaczono dwie subpopulacje wyników istotnie różniących się ocenianymi wartościami, a uwzględnienie tych różnic zdecydowanie poprawiło ocenę poprawności tego składnika. Warto podkreślić zaangażowanie firmy w wyjaśnienie przyczyn złej oceny wyników wyznaczonych „ich” aparatami – co niestety nie jest regułą. Zbliżoną sytuację zauważono dla oznaczeń bilirubiny aparatami Dimension (ryc. 3B). Aczkolwiek w sprawdzianie Jesień 2011 wystąpiły kłopoty ogółu laboratoriów posługujących się met. Jendrassika z kofeiną, to wśród użytkowników ap. Dimension (i firmowych odczynników) trudności były szczególnie nasilone. W surowicy nr 8 część użytkowników wyznaczyła dla bilirubiny wartości zerowe bądź bardzo niskie, a część – ponad 3 mg/dl. Udało się ustalić, że różnice te są związane z wykorzystywanymi odczynnikami – odczynnikiem nr kat. DF67A oznaczeń praktycznie nie można było wykonać (dlaczego?), natomiast odczynnikiem nr kat. DF167 wyznaczono skupiony zbiór wartości zbliżonych do uzyskanych innymi metodami. W sprawdzianie immunochemii poszerzonej oznaczając estradiol ap. Advia Centaur uzyskano zależnie od wykorzystanych odczynników zdecydowanie różne wartości (ryc. 3C). W programie kardiologicznym przy oznaczaniu Troponiny I ap. Dimension wykorzystywane są aż trzy różne odczynniki, które dla wszystkich czterech surowic wykorzystanych w r. 2011 dały zróżnicowane wyniki – jednym odczynnikiem (nr kat. RF621) wyznaczano wartości 3-4 razy wyższe, niż pozostałymi dwoma (RF421 i RF521) – niestety zbyt mała liczba oznaczeń wykonanych dwoma odczynnikami (po 3) uniemożliwiła wydzielenie odrębnych podgrup, co bardzo niekorzystnie odbiło się na ocenie wszystkich wyników względem średniej systemowej. Nie zawsze udaje się ustalić przyczynę występujących trudności. Na ryc.3 E przedstawiono wyniki oznaczania żelaza (sprawdzian Wiosna 2011 mat.2) aparatami BioSystems A15/A25 i firmowymi odczynnikami. Wysoce niekorzystna ocena uzyskanych wyników wymusiła dalszą ich analizę. Okazało się, że firma BioSystems rozprowadza 3 różne zestawy do oznaczania żelaza met. z ferrozyną (met.1) – nr kat. 11509 (104 użytkowników), 14509 (2 użytkowników) i 12509 (13 użytkowników). Dwa pierwsze zestawy są zbliżone, do redukcji żelaza wykorzystując (jak wielu innych producentów) hydroksylaminę, w trzecim zestawie wykorzystywany jest kwas askorbinowy. Do wartości wyznaczonych tym trzecim zestawem nie można mieć zastrzeżeń – są zbieżne (wsp. zmienności <6%) i zgodne z wyznaczonymi met. 1 innymi aparatami i odczynnikami. Natomiast rozkład wartości wyznaczonych ap. BioSystems zestawem nr kat. 11509 jest wyraźnie bimodalny – poniżej połowy stanowią wartości „prawidłowe”, 133 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... Rycina 3 Przykłady zróżnicowania wyników zależnie od wykorzystanego odczynnika. Zestawienie parametrów i wyniki testu Scheffe’go – * różnice istotne (p < 0,05). A Wiosna 2011 ŻELAZO mat.1 Aparaty Architect – oznaczenia odcz. nr kat.7D68 i 6K95. B Jesień 2011 BILIRUBINA mat.2 Aparaty Dimension – oznaczenia odcz. nr kat. DF67A i DF167. C Lato 2011 ESTRADIOL mat.3 Aparaty Advia – oznaczenia odczynnikami (E2-6III) Revised nr 10490889 oraz Enhanced (eE2) nr 01488773. D 2011r. TROPONINA I ap.Dimension Zima i Lato mat.1 i 2 oznaczenia trzema odczynnikami. E Wiosna 2011 ŻELAZO mat.2 Aparaty Biosystem i Erba Diagnostics – używające odczynnika 15 o różnych numerach serii. zbliżone do wyznaczanych innymi odczynnikami metodą z ferrozyną i hydroksylaminą (np. α-Diagnostics – n=21, x̄ =135,1; Cormay – n=67, x̄ =139,4; Pointe Scient. – n=19, x̄ =145,6; Roche – n=262, x̄ =149,9 (s=7,35); BioMaxima 134 – n=35, x̄ =156), lecz 54% wyników była o ponad połowę niższa, ok. 65,5 μg/dl. Mimo współpracy firmy nie udało się ustalić przyczyny takiego „zaniżenia” wyników przez znaczną część laboratoriów (niedostateczna redukcja jonów że- lazowych do żelazawych? dlaczego?) w inkryminowanych materiałach. Jedynym sensownym rozwiązaniem wydawało się wycofanie z oceny wartości żelaza, wyznaczonych w tych materiałach aparatami BioSystems (i bliźniaczymi f-my Erba). Wpłynęło to negatywnie na umowną ocenę roczną (potencjalnie ją obniżając) i wywołało zdecydowany protest części użytkowników. Część uczestników prowadzonych programów dość beztrosko traktuje warunki wyznaczania wartości kontrolnych, bezkrytycznie przepisując je w kolejnych miesiącach i powielając błędne informacje o np. stosowanej metodzie czy wykorzystywanym aparacie (pomylone numery kodowe?). Wymagania odnośnie pochodzenia, a nawet numeru katalogowego wykorzystywanych odczynników traktowane są często jak niepotrzebne, nadmierne wymagania Ośrodka. Przedstawione, może zbyt wyeksponowane przykłady mają zobrazować wagę tych informacji i przekonać wszystkich użytkowników do bezwzględnego, bardzo starannego ich podawania. Powszechny program chemiczny W r. 2011 w ramach czterech sprawdzianów powszechnych wykorzystano 8 surowic kontrolnych, uzyskując dla 27 składników ponad ćwierć miliona oznaczeń kontrolnych (tab. IV). Jest to nieznacznie więcej niż w r. 2010, ponieważ wykorzystując możliwości zakupionych materiałów kontrolnych poszerzono wachlarz ocenianych składników o akt. lipazy i stęż. albumin. Chwilowo liczba laboratoriów oceniających te oznaczenia jest ograniczona (odpowiednio 200 i 620), ale z czasem powinna się zwiększyć. W stosunku do średnich ogólnych (z wszystkich wyników niezależnie od metody), nadesłanych dla poszczególnych składników) jako poprawne zakwalifikowano 80% nadesłanych wartości – najwięcej dla akt. AST (91,8%) oraz stęż. cholesterolu (91,3%) i glukozy (91,1%), najmniej dla akt. LDH (zaledwie 1,8%, co oczywiste) i ACP (52%) oraz stęż. magnezu (55,3%). W zasadzie ocena vs średnie ogólne nie jest wykorzystywana, informuje jedynie o ewent. zróżnicowaniu wartości zależnie od stosowanych metod oraz wykorzystywanych aparatów i odczynników. Przy a priori przyjętych sztywnych dopuszczalnych granicach błędów (dgb) ocena zależy od dyspersji, a właściwie skupienia wyznaczanych wartości, co w sprawozdaniach dla uczestników przedstawiane jest graficznie – wynik adresata przedstawiony jest na tle zakresu x̄ ± 2s oraz x̄ ± dgb, z zasady węższego. Różnicę między średnimi ogólnymi, a średnimi metodycznymi można przedstawić na przykładzie oznaczeń cholesterolu i glukozy, dwóch podstawowych oznaczeń, dla których różnice te są znikome (odpowiednio 91,3% i 91,6% poprawnych, Δ = 0,3% i 91,1% i 91,9%, Δ = 0,8%) lecz z odmiennych przyczyn. Cholesterol oznaczany jest praktycznie jedną metodą z esterazą i oksydazą cholesterolową (97% oznaczeń; 3% oznaczeń met. suchej fazy). O wartości średnich ogólnych decydują wyniki wyznaczone met. 1, a więc x̄og = x̄met. Do oznaczania glukozy wykorzystuje się trzy metody – z oksydazą glukozową (63,3% wyników), z hekso- kinazą (33% wyników) i met. suchej fazy (ok. 3% wyników). Aczkolwiek najczęściej statystycznie można wykazać różnice między wynikami wyznaczonymi tymi trzema metodami, to wynika to przede wszystkim z dużej liczebności zbiorów (1050, 550, 50 wyników) oraz dobrego ich skupienia (małej dyspersji) – dla wszystkich metod współczynniki zmienności są z zasady < 4%. Bezwzględne różnice między wartościami wyznaczonymi różnymi metodami są najczęściej umiarkowane – w r. 2011 dla 8 wykorzystanych surowic met. z oksydazą glukozy wyznaczono wartości średnio o 2,4% wyższe, niż met. z heksokinazą. Te małe różnice między wartościami wyznaczonymi istotnie różnymi metodami przełożyły się na ich zbliżoną ocenę, a w efekcie – małą różnicę przy ocenie vs x̄ og i x̄ met. Dla niektórych oznaczeń różnice te mogą być zdecydowanie większe, co wynika ze zróżnicowania metodycznego, prowadzącego do wyznaczania wyraźnie różnych wartości. Oczywistym przykładem jest oznaczanie akt. LDH – zależnie od kierunku reakcji wyznaczone wartości mogą się różnić nawet dwukrotnie, a nieliczne wyniki „poprawne” są to w rzeczywistości wyniki błędnie usytuowane między dwoma podzbiorami. Znaczne różnice w średnich metodycznych występują przy oznaczaniu akt. lipazy (met. z 1,2-dwuglicerydem prowadzi do o ± 30% wyższych wartości niż met. z estrem kwasu glutarowego), oznaczaniu HDL-Ch czy nawet oznaczaniu sodu. W części materiałów kontrolnych met.1 (ISE bezpośrednie) wyznacza się wartości sodu średnio o 4-8% wyższe niż met.2 – ISE pośrednie (a także nielicznymi już – ok. 2% – oznaczeniami met. fotometrii płomieniowej). Aczkolwiek różnica ta jest logiczna, wynikającą z zawady przestrzennej, to trudno uzasadnić, dlaczego dotyczy tylko części surowic kontrolnych – efektem jest jednak wyraźnie różna ocena vs x̄ og i x̄ met. (w r.2011 średnia Δ = 17,4% popr. – ± 68,7% popr. vs x̄ og, a 86,1% vs x̄ met., z tego 84,4% dla met. 1, 88,3% dla met. 2 i 93,6% dla met. suchej fazy). Dla niektórych oznaczeń szczególnie duże znaczenie mają wynikające chyba z efektu podłoża (matrix effect) różnice między średnimi metodycznymi a metodyczno-aparaturowymi. Jak wspomniano, dla oznaczeń glukozy, cholesterolu czy amylazy są one niewielkie (< 2,0%), ale dla lipazy (Δ = 14,2%), akt. CK (Δ = 13,6%) czy chlorków (Δ = 13,0%) są znaczące. W przypadku chlorków różnica między ISE bezpośrednim, a ISE pośrednim (± 3%) wynika chyba też z zawady przestrzennej, a przy wąskich dla chlorków dopuszczalnych granicach błędu może mieć znaczące konsekwencje. W sumie dla wszystkich objętych sprawdzianami oznaczeń w stosunku do najkorzystniejszych średnich systemowych najlepiej oceniono wyniki oznaczeń amylazy (97,1% popr.), lipazy (97,0% popr.), AST (96,4% popr.), LDH (96,1% popr.) i GGT (95,6% popr.), a więc 5 enzymów – najprawdopodobniej przy korzystnych zmianach aparatury pomiarowej należy wyraźnie zawęzić granice dopuszczalnego błędu. Najgorzej oceniane są oznaczenia magnezu (zaledwie 69,5% popr. – zbyt rygorystyczne granice błędu?) czy chlorków (77,3% popr.). Z satysfakcją należy podkreślić, że dla podstawowych oznaczeń diagnostycznych – gluko135 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... Tabela IV Zestawienie ocen wyników oznaczeń kontrolnych w powszechnym programie sprawdzianów chemicznych w r.2011 zależnie od przyjętych wartości umownie należnych. n n ocenianych wyników i %% poprawnych oceniany ocen. składnik aparat. n wyn. %popr. n wyn. %popr. n wyn. %popr. n wyn. %popr. bdb+db nzd+zła ± pkt. sód 1324 10067 68,7% 10039 86,1% 9255 89,2% 8657 89,5% 78,4% 9,1% 4,100 potas 1328 10100 84,2% 10100 88,4% 9244 92,1% 8644 92,5% 82,9% 6,8% 4,271 wapń 1287 9805 81,3% 9737 83,7% 8593 87,5% 7518 88,9% 84,8% 5,4% 4,367 magnez 1237 9358 55,3% 9334 60,9% 8100 67,2% 7098 69,5% 62,0% 18,8% 3,557 żelazo 1480 11287 83,0% 11267 84,1% 9985 88,5% 8615 90,1% 86,4% 5,0% 4,434 chlorki 828 6152 61,7% 6126 64,2% 5303 77,2% 5036 77,3% 58,0% 18,5% 3,425 fosforany 1002 7606 84,3% 7606 85,2% 6572 89,1% 5731 91,0% 85,9% 6,1% 4,368 vs Xog. vs Xmet. vs Xmet-ap. Ocena regularności vs Xsystem. % ocen 60 424 83,7% 424 83,7% 418 83,7% 386 84,2% 70,0% 11,7% 3,933 białko 1433 10920 79,4% 10916 80,8% 9812 86,1% 8390 88,6% 83,3% 7,4% 4,301 mocznik 1662 12723 86,8% 12711 88,9% 11679 91,2% 10241 92,2% 86,5% 5,4% 4,437 kreatynina 1717 13167 76,7% 13149 79,5% 11813 86,0% 10143 88,0% 90,5% 3,9% 4,589 moczany 1626 12480 86,5% 12470 87,1% 11624 89,9% 10102 91,5% 85,1% 5,6% 4,418 glukoza 1733 13292 91,1% 13258 91,9% 12390 93,3% 10804 94,3% 86,4% 5,4% 4,406 bilirubina 1646 12030 80,3% 12012 81,7% 10463 87,7% 9113 89,3% 72,5% 10,6% 3,972 cholesterol 1691 12976 91,3% 12970 91,6% 12322 93,4% 10770 94,3% 85,7% 5,5% 4,419 HDL-Ch 1509 11517 67,6% 11515 83,7% 9632 87,6% 8587 89,9% 82,0% 8,7% 4,262 triglicerydy 1664 12775 86,8% 12765 89,3% 12071 92,3% 10581 93,5% 88,2% 4,6% 4,505 AST 1700 13047 91,8% 13047 92,5% 11953 95,4% 10435 96,4% 91,9% 3,1% 4,653 ALT 1707 13087 89,6% 13087 91,0% 11969 93,4% 10429 94,7% 90,6% 3,6% 4,593 ALP 1332 10141 71,2% 10107 75,4% 9081 87,5% 7780 90,0% 84,8% 5,9% 4,390 AMY 1444 11074 88,4% 11046 94,4% 9738 96,2% 8553 97,1% 89,8% 3,5% 4,572 AcP 53 300 52,0% 292 53,4% 51 80,4% 51 80,4% 17,0% 54,7% 1,906 CK 900 6799 74,8% 6799 76,9% 5901 90,3% 5180 93,7% 82,1% 8,4% 4,303 GGT 1350 10312 89,8% 10304 91,6% 9279 94,1% 7728 95,7% 91,2% 4,4% 4,610 LD 554 4130 1,8% 4130 92,0% 3534 95,6% 3230 96,1% 86,8% 8,1% 4,430 lipaza 228 1653 64,7% 1629 81,0% 1323 95,2% 1221 97,0% 75,4% 15,4% 3,952 albuminy 675 4918 77,9% 4906 79,1% 4416 86,2% 3928 88,4% 76,5% 11,3% 4,084 osmolalność 252140 80,0% 251746 85,0% 226521 89,5% 198951 91,0% 83,7% 6,9% 4,336 r. 2010 razem r. 2011 243574 79,3% 243193 84,9% 216499 89,4% 185944 91,0% 84,8% 6,6% 4,367 r. 2009 242936 81,0% 242596 84,9% 215945 88,3% 181226 90,1% 83,1% 7,6% 4,296 za (cukrzyca), cholesterol (miażdżyca z powikłaniami), AST (uszkodzenie wątroby) nie tylko osiąga się stosunkowo dobrą poprawność vs x̄ syst. (odpowiednio – 94,3%, 94,3%, 96,4%), ale niewielkie różnice vs x̄ og świadczą, że wpływ na te oznaczenia stosowanych metod czy wykorzystywanej aparatury i odczynników jest umiarkowany, a uzyskane wyniki powinny być w pełni porównywalne niezależnie od doboru warunków (co jest warunkiem użyteczności sztywnych kryteriów diagnostycznym). Wielokrotnie podkreślano, że Centralny Ośrodek nie prowadzi rankingu metod, aparatury czy odczynników, ponieważ oceniane wyniki wyznaczane są w różnych laboratoriach, w odmiennych warunkach wykonywania oznaczeń (lokalizacja, profesjonalizm, metody, zróżnicowanie odczynników). 136 Jednak duża liczba wyników, zwłaszcza dla liczniejszych aparatów, pozwala na sprecyzowanie orientacyjnych opinii, których domagają się uczestnicy programów – tab.V. Poza oceną uzyskanych poszczególnymi aparatami wyników względem czterech układów odniesienia (wartości umownie należnych) podano dodatkową ocenę regularności oznaczeń. Podano odsetek zbiorów wszystkich użytkowników dla oznaczanych składników ocenionych jako bardzo dobre i dobre oraz niezadowalające i złe, a także średnią punktową ocenę regularności. Interpretując przedstawione dane, należy zwrócić uwagę na informację z tab. III – odsetka wyników uzyskanych poszczególnymi aparatami/analizatorami, dla których można było przeprowadzić ocenę vs x̄syst. przy n ≥ 6. Dla niektórych aparatów, a raczej aparatów określonych pro- Tabela V Ocena porównawcza wyników kontrolnych programu powszechnego w r. 2011 zależnie od wykorzystywanej aparatury. Liczebność %% poprawnych Ocena regularności Aparat apar. ozn. ocenian. skład. wyników Xog. Xmet. Xmet-ap X syst. bdb+db nzd+zła ± pkt. Cobas Integra 299 26 48428 87,9 93,6 95,2 95,2 91,2 2,4 4,641 BioSystems A25/15 145 22 17250 81,7 83,4 86,3 86,7 83,9 6,2 4,301 Konelab 96 26 15764 81,4 85,7 90,1 91,6 88,2 5,4 4,492 Accent 200,300 85 21 10699 83,5 84,9 87,4 87,8 85,0 7,3 4,378 Olympus AU 76 25 12924 80,2 86,8 95,8 95,9 89,3 4,1 4,586 Cobas c501 62 25 11033 85,7 93,2 95,9 95,9 97,0 0,8 4,811 Mindray BS 60 20 7315 79,2 81,0 83,2 87,1 82,4 6,4 4,263 Pentra 400 58 25 8398 82,8 86,1 92,1 92,2 87,3 4,3 4,517 Metrolab 57 20 6343 80,2 80,6 82,3 81,9 72,4 12,9 3,939 Vitros 45 25 8095 55,1 93,2 93,2 93,2 91,7 2,4 4,633 Flexor 43 21 5496 75,9 80,4 84,5 91,3 85,6 6,1 4,380 Dimension 41 25 6407 74,5 81,2 92,8 93,1 90,0 3,0 4,547 Architect 34 25 5702 80,9 87,3 93,4 94,5 92,1 3,0 4,657 Cobas Mira 33 21 3986 82,1 82,3 83,6 88,6 75,0 12,9 3,972 Prestige 24,24i 32 21 4231 84,3 85,6 88,5 88,5 80,0 11,2 4,158 Advia 1650,1200 26 25 3676 81,4 84,8 92,1 92,3 84,3 8,2 4,278 Hitachi 9.. 26 25 3617 83,4 86,6 90,1 91,2 89,0 4,9 4,522 Erba XL 22 20 2788 81,3 82,8 86,4 87,2 83,5 7,4 4,278 Lumen, Livia 21 15 1820 84,6 85,3 87,5 89,6 84,6 6,2 4,396 Wiener Lab CB 19 17 1915 77,0 82,4 90,2 90,4 76,1 12,1 4,101 Airone 200 14 15 1272 78,7 79,2 83,1 83,9 66,4 14,9 3,770 Daytona 11 14 944 88,1 87,9 91,0 92,2 86,8 6,2 4,340 Max-Mat PL 10 11 798 80,6 80,9 83,2 83,3 76,0 11,4 3,981 Cobas c311 9 19 660 88,3 93,2 95,9 95,9 84,7 7,1 4,295 Modular P 8 20 960 88,5 91,7 98,4 98,2 97,2 1,4 4,738 Express 6 11 410 80,7 80,9 86,6 - 72,2 10,0 4,078 Epoll 108 22 12874 78,2 79,6 80,5 82,1 71,2 14,5 3,860 Marcel 52 18 4914 75,0 75,5 77,3 83,5 66,3 15,0 3,694 Pointe 180 ... 27 18 2139 70,6 70,6 73,6 72,6 59,9 19,5 3,527 BTS-330,370 12 18 1112 77,9 77,4 81,7 84,6 75,7 11,9 4,034 Start Dust MC 15 14 1100 86,6 86,4 90,0 91,5 83,4 6,7 4,352 Stat-fax 1904 10 14 968 71,4 72,1 72,7 - 64,3 12,1 3,758 AVL seria 9000,900 187 3 3282 73,9 79,6 85,6 85,8 76,3 10,3 4,005 Easy Lyte 184 3 3278 78,2 83,8 87,0 86,9 72,2 14,5 3,822 Rapidchem serii 700 61 3 1341 73,1 80,4 84,3 84,2 72,5 7,1 4,033 Cobas b121,b221 24 3 530 77,6 87,2 87,4 87,4 81,3 4,0 4,187 BM-ISE,BM-ISEnew 26 3 488 70,3 75,0 77,2 77,2 53,3 25,3 3,213 252353 80,1 85,1 89,6 91,1 83,7 6,9 4,336 Razem vs % ocen 137 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... ducentów wymuszających stosowanie odczynników firmowych było to praktycznie 100% wyników (f-my Ortho Clinical Diagnostics, Roche, Beckman Coulter d. Olympus, abx Horiba), ale dla niektórych, a zwłaszcza prostych spektrofotometrów wykorzystujących do metod manualnych odczynniki bardzo zróżnicowane, ocena obejmowała tylko ograniczoną część wyników. Dotyczy to także aparatu Cobas Mira, o którym firma Roche całkowicie zapomniała – przy ograniczonej liczbie oznaczeń i bardzo zróżnicowanych odczynnikach oceniony względem średnich systemowych może być zaledwie co trzeci wynik. Na ogół z oceną poprawności vs x̄ syst. skorelowana jest ocena regularności oznaczeń – zarówno odsetek ocen bardzo dobrych i dobrych, jak i średni punktowy wskaźnik regularności. Nielicznymi aparatami Modular P wyznaczono zaledwie poniżej 1000 wyników, ale wykorzystując wyłącznie odczynniki fabryczne f-my Roche wszystkie mogły być ocenione, a poprawność vs x̄ syst. wynosiła w r. 2011 – 98,2% przy 97,2% ocen bardzo dobrych i dobrych regularności i punktowego współczynnika regularności 4,738. Niemal równie korzystne wyniki uzyskano wykorzystywanym głównie w dużych laboratoriach ap. Cobas c501. Wyniki zbiorcze dla poszczególnych województw powszechnego programu chemicznego są co roku przesyłane w postaci dwóch arkuszy ocen właściwym specjalistom wojewódzkim ds. diagnostyki laboratoryjnej. Arkusz A zawiera ocenę poprawności wyników nadesłanych w ciągu roku przez wszystkie laboratoria danego województwa, podając dla każdego składnika i zbiorczo liczbę wyników, liczbę i % wyników ocenionych jako poprawne oraz miejsce uzyskane w rankingu wszystkich województw. Dla ułatwienia oceny obok przedstawione są oceny najlepsze oraz średnie krajowe. Arkusz B to ocena regularności oznaczeń – dla każdego składnika i zbiorczo podaje liczbę ocenianych podzbiorów, liczbę i % podzbiorów dla każdej z 5 klas oceny (od bardzo dobrej do złej), podając następnie średni punktowy wskaźnik regularności oraz miejsce zajęte wśród 16 województw. Dla porównania obok w analogicznej formie przedstawione są średnie dane ogólnopolskie. Wyniki arkusza B przedstawiono na ryc. 4, obrazującej graficznie odsetek ocen regularności bardzo dobrej i dobrej oraz niezadowalających i złych. Odsetek ocen bardzo dobrych i dobrych wyraźnie rośnie, od 69,1% w r. 2001 do 84,0% w r. 2011. Jest to oczywiście zjawisko wysoce korzystne, ale jeszcze korzystniejszy jest wyraźny spadek współczynników zmienności (a więc dys- Rycina 4 Graficzne przedstawienie zmian ocen regularności dla zbiorów 16 województw; linia ciągła przedstawia średnią ocenę punktową (skala na prawej osi). persji) kolejnych zbiorów rocznych wyników 16 województw – z 9,9% w r. 2001 do 2,3% w r. 2011 – i to mimo rosnących wartości średnich. Świadczy to o wyrównywaniu się poziomu świadczonych usług między województwami, a więc o zanikaniu różnic między tzw. Polską A I B (klasyczny podział w danym wypadku nie ma sensu, bo najlepsze od szeregu lat jest położone na ścianie wschodniej województwo podlaskie). Oczywiście analogicznie obniża się odsetek ocen regularności niezadowalającej i złej (z 16,3% do 6,9%), jednak spadek współczynników zmienności zbiorów rocznych jest mniej przekonywujący. Po prawej stronie tabeli przedstawiono zmiany w kolejnych latach średniej oceny punktowej dla zbiorów 16 ocen wojewódzkich. Ponownie niemal ważniejsze od zmian średniej oceny punktowej (r. 2001 – 3,76 pkt., r. 2011 – 4,35 pkt.) jest znaczące zmniejszanie się współczynników zmienności dla ocenianych zbiorów 16 średnich wojewódzkich – z 6,5% w r. 2001 do 1,5%(!) w r. 2011. Dane tab. VI zostały przedstawione graficznie na ryc. 4. Postępująca harmonizacja wyników laboratoryjnych w Polsce, wywołana w znacznej mierze zarówno prowadzonymi programami, jak i korzystną – jakościowo i ilościowo – unifikację wyposażenia jest niewątpliwym osiągnięciem. Centralny program chemiczny. W r. 2011 przeprowadzono 36 cykl roczny centralnego programu chemicznego. Spektakularna poprawa wiarygodności wyników kontrolnych, zaobserwowana w okresie początko- Tabela VI Odsetki oraz współczynniki zmienności ogółu ocen regularności uzyskanych dla zbiorów wyników 16 województw. rok 138 Ocen bdb+db Ocen niezad+złe Średnia ocena punktowa % ogółu wsp. zmienności % ogółu wsp. zmienności Liczba punktów wsp. zmienności r.2001 69,1 9,9 16,3 28,4 3,76 6,5 r.2003 75,2 7,4 11,6 32,5 4,00 4,9 r.2005 76,7 6,4 11,1 29,1 4,05 4,5 r.2007 80,7 5,7 9,1 34,0 4,21 4,0 r.2009 83,1 4,2 7,6 30,8 4,30 3,1 r.2011 84,0 2,3 6,88 15,7 4,35 1,5 wym tego programu (1976-1977) spowodowała, że w 1978r. Minister Zdrowia powołał Komisję ds. Standaryzacji i Kontroli Jakości Badań Laboratoryjnych. Ministerstwo przejęło też finansowanie kosztów materiałowych prowadzonych społecznie sprawdzianów, co umożliwiło podjęcie powszechnego programu chemicznego, a potem dalszych programów. Centralny i powszechny programy chemiczne są w zasadzie identyczne różniąc się liczbą uczestników (250 – „wszystkie” laboratoria), liczbą sprawdzianów w ciągu roku (raz w miesiącu – raz w kwartale) i wykorzystywanym systemem jednostek (SI – wagowo-objętościowy). Znaczna liczba wykorzystywanych w ciągu roku materiałów kontrolnych, a więc i wyników kontrolnych nadsyłanych dla oznaczanych składników przez poszczególnych uczestników programu centralnego umożliwiła inny, bardziej informatywny sposób oceny rocznej, oceniając na podstawie rozkładu nadesłanych 24 wyników wielkość błędów przypadkowych (ocena precyzji) i błędów całkowitych (ocena ogólnej wiarygodności), obciążających poszczególne oznaczane przez laboratorium składniki. Elitarność programu centralnego, a więc ograniczenie liczby uczestników do 250 na ogół dużych laboratoriów, głównie lecznictwa zamkniętego spowodowała, że teoretycznie z powodu zbyt małej liczby wyników nie można wykorzystywać najkorzystniejszych wartości umownie należnych, a więc średnich systemowych (metodyczno-aparaturowo-odczynnikowych). Jest to jednak tylko częściowo prawdziwe. Uczestnicy programu centralnego wykorzystują dość ujednoliconą aparaturę pomiarową – w części dolnej tab.VII scharakteryzowano 266 analizatorów 10 firm, którymi wykonano ponad 88% nadesłanych oznaczeń kontrolnych. Aczkolwiek uczestnicy programu centralnego stanowią nieco poniżej 15% ogółu laboratoriów, to dysponują 64,5% eksploatowanych analizatorów Cobas c501, po ponad 30% dalszych 5 dużych, nowoczesnych analizatorów (AU Beckman Coulter d. Olympus – 39,5%, Cobas Integra – 36%, Dimension – 31,7%, Architect – 32,4%, Advia – 34,6%) i po ponad 20% pozostałych 4 wymienionych analizatorów. Są to w zasadzie analizatory wykorzystujące niemal wyłącznie odczynniki firmowe (analizatory Accent – dystrybuującej firmy Cormay), a więc średnie metodyczno-aparaturowe są de facto także średnimi metodyczno-aparaturowo-odczynnikowymi. W efekcie o ponad 10% więcej nadsyłanych wyników może zostać ocenionych wg najkorzystniejszych wartości umownie należnych. Jest to częściowe – ale tylko częściowe – wytłumaczenie wyraźnie korzystniejszej oceny wyników programu centralnego w stosunku do powszechnego. Różnica może się wydawać nieznaczna (96,4% vs 91,0% poprawnych), ale na tym poziomie wiarygodności jest już wysoce istotna – jako błędny jest oceniany co jedenasty lub co dwudziesty siódmy nadsyłany wynik. Zbiorcze zestawienie wyników programu centralnego przedstawiono w tab.VII. W ostatnich latach zmiany są już znikome – minimalny spadek odsetka wyników poprawnych vs x̄ og, a wzrost vs x̄ met–ap. W tab. VIII zestawiono odsetkowy udział każdej z pięciu klas poprawności przy ocenie zarówno precyzji, jak i ogólnej wia- rygodności zbiorów rocznych poszczególnych ocenianych w laboratoriach składników oraz ogółem. Warunkiem klasyfikacji jest nadesłanie przez laboratorium wyników oznaczeń ocenianego składnika w co najmniej 18 materiałach kontrolnych (z wykorzystywanych 24). I w tym systemie oceny poprawa jest nieznaczna, ale istotna. Wydaje się, że dla wykorzystywanego wyposażenia i organizacji został osiągnięty pewien pułap wiarygodności, a dalsza poprawa wymaga wyraźnego zakłócenia powstałego stanu równowagi. Sprawdziany immunochemiczne. Rosnąca liczba laboratoriów oznaczających hormony, markery nowotworowe i specyficzne białka zmusiła organizatorów do zwiększenia liczby użytkowników programu tzw. immunochemii poszerzonej z 500 do 600 uczestników. Równolegle zwiększono liczbę ocenianych składników o dwa dalsze – parathormon (wyjściowo 140 laboratoriów) i insulinę (wyjściowo 96 laboratoriów). Niestety ze względu na ograniczenia finansowe zmniejszono liczbę równolegle oznaczanych materiałów z 3 do 2, utrzymując 2 sprawdziany w ciągu roku (a więc 4 surowice). Ponieważ częstotliwość sprawdzianów 2 razy w roku nie jest wystarczająca, zachowano wprowadzony przed laty program immunochemii podstawowej, wykorzystujący surowice kontrolne z powszechnego programu chemicznego. Oczywiście surowice te nie mają wyznaczonych wartości należnych ocenianych składników, a w niektórych materiałach bardzo niskie stężenia utrudniają, a sporadycznie wręcz uniemożliwiają ocenę, jest to jednak kompensowane brakiem konieczności zakupu kosztownych materiałów. Ograniczono oznaczenia w tych materiałach do najczęściej wykorzystywanych – hormonów tarczycy i PSA, które w tych warunkach mogą być poddane ocenie przez wszystkich chętnych. Brak wyznaczonych wartości należnych wydaje się nie stanowić zasadniczego problemu wobec wykazanej w programie immunochemii poszerzonej dużej na ogół zgodności ocen wg średnich systemowych wyznaczonych przez uczestników i wg systemowych wartości należnych podanych przez producenta materiałów kontrolnych. Dla dwóch składników – estradiolu i TSH – zobrazowano to na ryc. 5. Zarówno równania regresji prostoliniowej jak i współczynniki korelacji są niemal idealne. Nie dla wszystkich ocenianych składników jest tak dobrze (tab. X – GH, β-2-microglobulina, digoksyna), ale liczba ocenianych oznaczeń jest mała. W tych warunkach sprawdziany najbardziej podstawowych oznaczeń – hormonów tarczycy i PSA odbywają się 4 razy w roku z wykorzystaniem 8 materiałów kontrolnych – 4 specjalnych mianowanych surowic do sprawdzianów immunochemicznych i 4 surowic wykorzystywanych w powszechnym programie chemicznym. Przykładowo hormon TSH w sprawdzianie immunochemicznym podstawowym oznacza ok. 850 laboratoriów, FT4 – 780 laboratoriów, a PSA – 750 laboratoriów, podczas gdy w programie specjalistycznym oznaczenia te są wykonywane odpowiednio przez 596 (z 600!), 583 i 551 uczestników. Wyniki zbiorcze dwóch sprawdzianów immu139 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... Tabela VII Zestawienie ocen wyników oznaczeń kontrolnych programu centralnego w r. 2011 zależnie od przyjętych wartości umownie należnych. n oceniany ocenian. składnik aparat. n wyn. %popr. n wyn. %popr. n wyn. %popr. n wyn. %popr. precyzji og.wiar. 268 268 259 242 254 225 242 35 265 272 270 262 273 269 265 253 264 270 269 252 261 14 228 253 179 53 138 6307 6310 6096 5712 5972 5291 5681 800 6230 6402 6351 6161 6419 6321 6236 5948 6206 6339 6327 5936 6129 334 5339 5941 4180 954 2484 85,0% 92,1% 89,6% 76,2% 89,0% 85,0% 93,6% 88,4% 86,9% 93,3% 83,2% 95,1% 96,6% 84,6% 95,8% 77,0% 93,4% 93,9% 95,5% 82,7% 90,6% 82,3% 91,0% 92,8% 0,6% 83,2% 79,8% 6283 6286 6019 5712 5972 5281 5673 800 6230 6378 6309 6083 6371 6321 6236 5928 6158 6337 6327 5936 6092 334 5287 5941 4180 930 2484 93,7% 95,6% 92,1% 84,4% 91,2% 86,7% 94,8% 88,4% 90,1% 96,0% 90,4% 96,1% 97,3% 89,0% 96,3% 91,4% 96,4% 97,4% 97,6% 84,0% 98,0% 82,3% 92,5% 96,3% 97,4% 88,5% 86,1% 5904 5905 5397 5151 5249 7906 5238 778 5399 5763 5464 5508 5634 5418 5661 5151 5607 5684 5718 5353 5394 142 4842 5148 3795 740 2144 94,7% 96,8% 94,7% 88,3% 95,2% 94,2% 96,9% 88,4% 95,0% 97,1% 95,7% 98,4% 98,0% 96,1% 98,2% 94,2% 98,3% 99,0% 98,6% 95,1% 99,5% 89,4% 97,3% 98,7% 98,6% 96,5% 94,1% 5997 6000 5591 5371 5645 4917 5427 754 5764 5156 5809 5871 6060 5775 6038 5397 5913 5977 6019 5480 5587 192 4911 5527 3801 798 2242 94,2% 96,7% 94,2% 87,1% 95,2% 91,4% 96,4% 88,7% 93,6% 97,0% 94,3% 97,9% 98,1% 95,7% 98,2% 94,6% 98,2% 98,8% 98,5% 95,4% 99,5% 89,6% 97,0% 98,3% 98,9% 96,5% 91,7% 4,03 4,31 4,02 3,26 4,07 3,90 4,34 3,26 3,87 4,32 4,01 4,50 4,52 4,31 4,56 3,90 4,65 4,75 4,71 4,26 4,80 3,14 4,45 4,65 4,78 3,68 3,84 3,60 3,90 3,56 2,53 3,54 3,31 3,80 2,69 3,40 3,99 3,63 4,16 4,08 3,77 4,23 3,38 4,23 4,41 4,36 3,93 4,64 2,36 3,92 4,46 4,47 3,13 3,32 cykl 36 142406 86,5% 141888 93,1% 126893 96,4% 133019 96,0% 4,28 3,85 r. 2010 - cykl 35 138143 86,9% 137721 92,9% 123060 95,9% 129430 95,6% 4,27 3,81 r. 2009 - cykl 34 128114 87,4% 127583 93,2% 112086 96,1% 118589 95,9% 4,29 3,92 sód potas wapń magnez żelazo chlorki fosforany osmolalność białko mocznik kreatynina moczany glukoza bilirubina cholesterol HDL-Ch triglicerydy AST ALT ALP AMY AcP CK GGT LD lipaza albuminy razem r. 2011 - vs Xog. vs Xmet. vs Xmet-ap. ocena vs Xmet-odcz. punktowa r. 2008 - cykl 33 131007 87,2% 130329 92,9% 114872 95,6% 119863 95,5% 4,22 3,77 r. 2007 - cykl 32 128049 87,5% 127383 93,0% 113061 95,5% 116320 95,3% 4,20 3,77 107 50511 93,0% 50473 96,4% 50127 97,0% 50311 96,8% 4,44 4,04 40 20971 90,8% 20963 96,0% 20342 97,5% 20845 96,2% 4,50 4,12 30 14482 83,5% 14440 91,3% 14194 96,9% 14038 96,6% 4,46 4,09 21 10486 86,0% 10480 89,6% 10020 95,4% 9332 95,9% 4,22 3,86 13 6648 76,4% 6632 87,2% 6418 95,3% 6394 95,3% 4,32 3,85 12 4529 85,3% 4505 90,4% 4147 94,5% 4121 94,6% 3,96 3,49 12 3388 85,7% 3382 88,2% 2898 91,9% 2922 91,5% 3,81 3,26 11 5725 56,9% 5709 95,1% 5683 95,4% 5703 95,1% 4,26 3,76 11 5489 85,4% 5469 93,1% 5161 97,2% 5143 97,4% 4,44 4,05 9 3506 84,2% 3418 90,1% 2932 95,6% 2902 95,0% 4,10 3,34 266 125735 87,4% 125471 93,9% 121922 96,6% 121711 96,2% 4,37 3,96 01-44-04 Cobas Integra 01-44-08 Cobas c501 01-78-01 Olympus 01-13-02 Konelab 01-19-01 Dimension 01-50-01 ABX Pentra 01-18-04 Accent 01-35-01 Vitros 01-01-03 Architect 01-08-03 Advia razem 10 ap. 140 n ocenianych wyników i %% poprawnych Tabela VIII Ocena precyzji i ogólnej wiarygodności wyników oznaczanych składników w poszczególnych laboratoriach, uzyskanych przez uczestników programu centralnego w 2011 r. oceniany n aparatów składnik %% ocena precyzji %% ocena ogólnej wiarygodności oznacz. sklas. bdb db wątpl. niezad zła bdb db wątpl. niezad zła sód 287 268 19,0 69,0 10,1 1,5 0,4 9,3 61,6 20,9 4,1 4,1 potas 287 268 40,7 54,5 2,6 2,2 0,0 22,4 61,9 9,0 3,4 3,4 wapń 277 259 29,0 52,9 14,7 1,9 1,5 19,7 47,1 20,8 6,2 6,2 magnez 264 242 7,8 50,8 25,2 8,3 7,8 2,9 31,8 32,2 14,5 18,6 żelazo 278 254 38,6 47,2 7,9 1,2 5,1 21,6 50,4 12,6 6,3 9,1 chlorki 253 225 20,9 62,2 10,7 4,4 1,8 9,3 47,6 29,3 6,2 7,6 fosforany 262 242 48,8 43,0 5,8 1,2 1,2 31,4 47,5 9,9 3,3 7,8 osmolalność 42 35 2,9 71,4 5,7 8,6 11,4 2,9 42,9 25,7 5,7 22,9 białko 284 265 21,1 59,2 14,0 2,3 3,4 8,7 55,1 23,8 5,3 7,2 mocznik 292 272 42,6 50,7 4,8 1,5 0,4 26,1 59,2 9,9 2,2 2,6 kreatynina 290 270 24,8 60,4 10,4 4,1 0,4 11,5 51,1 18,9 4,4 4,1 moczany 286 262 58,8 35,9 3,8 1,2 0,4 39,3 49,6 5,7 3,4 1,9 glukoza 294 273 36,8 40,3 2,2 0,7 0,0 37,4 50,2 5,5 4,0 2,9 bilirubina 291 269 44,6 46,1 7,4 1,5 0,4 25,6 46,8 18,6 5,6 3,4 cholesterol 287 265 60,4 35,5 4,2 0,0 0,0 44,2 45,7 5,7 2,6 1,9 HDL-Ch 277 253 23,7 56,9 13,4 3,6 2,4 11,5 54,9 18,2 6,3 9,1 triglicerydy 286 264 68,2 28,4 3,4 0,0 0,0 50,0 37,1 7,2 3,0 2,6 AST 291 270 81,8 14,8 1,5 1,8 0,0 61,8 27,4 7,0 1,5 2,2 ALT 291 269 74,7 22,7 2,2 0,4 0,0 53,2 36,8 7,1 1,9 1,1 ALP 276 252 49,2 35,3 11,9 3,2 0,4 34,1 40,9 18,2 4,0 2,8 AMY 278 261 85,8 11,1 1,5 1,5 0,0 76,2 17,6 3,4 1,9 0,8 AcP 19 14 7,1 50,0 21,4 14,3 7,1 0,0 35,7 28,6 7,1 28,6 CK 246 228 56,6 36,4 5,3 0,9 0,9 29,8 50,4 12,7 3,1 4,0 GGT 276 253 72,3 24,1 2,0 1,2 0,4 62,8 29,6 3,6 2,4 1,6 LD 197 179 80,4 17,3 2,2 0,0 0,0 64,2 27,4 5,0 1,7 1,7 lipaza 96 53 45,3 28,3 7,6 5,7 13,2 28,3 37,7 5,7 3,8 24,5 albuminy 211 138 10,1 71,7 14,5 2,9 0,7 3,6 59,4 23,2 6,5 7,2 46,7 42,5 7,4 2,0 1,3 31,6 45,6 13,5 4,3 5,0 r. 2010 - cykl 35 45,5 42,8 8,8 2,0 0,9 30,1 46,0 14,1 4,7 5,1 r. 2009 - cykl 34 45,6 44,0 7,6 1,8 1,0 30,6 48,3 14,0 3,7 3,4 r. 2008 - cykl 33 42,4 45,1 9,1 2,2 1,2 26,8 48,1 15,1 5,1 4,8 r. 2007 - cykl 32 41,2 46,2 9,0 2,2 1,3 25,8 49,5 14,8 5,1 4,8 razem r. 2011- cykl 36 nochemii poszerzonej, przeprowadzonych w 2011r. przedstawiono w tab. IX (składniki) i tab. X (oceniane systemy immunochemiczne). W ciągu roku dla 32 ocenianych składników nadesłano 32765 wyników (najwięcej oczywiście dla TSH), posługując się 11 różnymi systemami analitycznymi. W tab. IX zwraca uwagę różna liczba wyników ocenianych vs średnie ogólne w kolumnie A i B. W kolumnie A oceniono wszystkie nadesłane wyniki, a w kolumnie B tylko wyniki sklasyfikowane względem wartości systemowych (minimum 6 homogennych wartości). W następnej kolumnie podano ocenę tych wyników względem korygowanych śred- nich systemowych (uzyskanych takim samym aparatem), a w ostatniej – względem wyznaczonych przez producenta systemowych wartości należnych. Ponieważ producent niektórych wartości nie oznaczył, można było ocenić wg wartości należnych około 90% nadesłanych wyników. Duża różnica przy ocenie poprawności względem średnich ogólnych a korygowanych średnich systemowych świadczy o znacznym zróżnicowaniu wartości oznaczanego składnika, wyznaczanych poszczególnymi systemami immunochemicznymi – i vice versa. Znaczne różnice w ocenie względem średnich systemowych i systemowych wartości 141 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... Rycina 5 ZIMA 2011 (4 sprawdziany) Wartości należne vs wartości uzyskane. należnych sugeruje wadliwą kalibrację. Wg danych opracowanych dla 11 wykorzystywanych systemów, zbiorcza różnica oceny względem systemowych wartości średnich i systemowych wartości należnych jest znikoma (92,78% i 92,04% poprawnych, różnica 0,74%), choć dla poszczególnych systemów różnice są większe (tab. X). Dla dwóch systemów nadesłano mało wyników, a dodatkowo producent często pominął wyznaczenie wartości należnych – ap. Roche Modular E170 – tylko 60% wartości nominalnych, a ap. Tosoh rozprowadzanymi przez abx Horiba – zaledwie 30%. Pomijając te dwa mało popularne systemy, najwięcej różnic obserwuje się dla wartości wyznaczonych ap. Immulite, co może świadczyć o wadliwej kalibracji (kalibratorach?) bądź o pomyłkach w wyznaczonych przez producenta wartościach należnych. Sporadycznie zdarzają się sytuacje nieco paradoksalne, np. dla 210 analizatorów Elecsys f-my Roche poprawność względem wartościom nominalnym jest nieco wyższa niż względem średnich systemowych. Różnice są jednak niewielkie (0,5% nadesłanych wartości) i mogą wynikać z dyspersji wyników. Podane informacje można poprzeć konkretnymi przykładami. Oznaczenia TSH charakteryzują się zbliżoną, wysoką poprawnością przy ocenie względem średnich ogólnych (92,1%), średnich systemowych (96,1%) i systemowych wartości należnych (93,2% poprawnych). Stosunkowo małe różnice przy ocenie vs średnie ogólne i średnie systemowe sugerują dużą zbieżność wartości wyznaczonych różnymi systemami. Rzeczywiście, np. w surowicy 2 sprawdzianu Lato 11 średnie systemowe wahają się od 18,87 mIU/l (14 ap. Access) do 22,94 mIU/l (9 ap. Tosoh), przy średniej dla 11 systemów 20,97 mIU/l i współczynniku zmienności zaledwie 5,7% (średni współczynnik zmienności dla 4 surowic – 6,2%). Średnia wartości nominalnych podanych przez producenta dla tych samych 11 systemów wynosi 21,51 mIU/L przy współczynniku zmienności 9,3%. Przy zbieżności wartości należnych także i ocena nadesłanych wyników musi być zbieżna. Odmienną sytuację można zaobserwować oznaczając estradiol tymi samymi 11 sys142 temami immunochemicznymi. Dla poszczególnych surowic obserwuje się bardzo duże zróżnicowanie poszczególnych średnich systemowych – średni współczynnik zmienności dla 4 surowic wynosi 37%. W wybranej przykładowo surowicy 2 sprawdzianu Zima 11 średnie wartości systemowe wahały się od 207,7 pg/ml (22 ap. AxSym) do 884,4 pg/ml (8 ap. Toshiba), przy średniej dla 11 systemów 520,5 pg/ml i współczynniku zmienności 44,5%. Nie dziwi więc różnica poprawności przy ocenie vs średnie ogólne i średnie systemowe (53,4% vs 94,6% poprawnych, Δ = 41,2%!). Producent nie podał wartości należnych dla ap. Toshiba, ale dla pozostałych 10 systemów rozproszenie wartości należnych jest także bardzo znaczne (współczynnik zmienności = 39%), ale zgodne z systemowymi wartościami średnimi, więc poprawność względem wartości średnich systemowych i systemowych wartości należnych jest zbliżona (94,6 i 92,1% poprawnych). Podane przykłady nie wyczerpują wszystkich możliwości interpretacji wyników. Program markerów kardiologicznych. Efektowny i efektywny rozwój polskiej kardiologii sprowokował rozpoczęcie w r. 2008 programu oceny markerów kardiologicznych. Do udziału w programie zaproszono 450 laboratoriów, oznaczających którąś z troponin – troponinę T (40%) lub troponinę I (60% uczestników). Poza troponinami ocena obejmuje oznaczanie akt. CK (363 lab.), akt. CK-MB (250 lab.), stęż. CK-MB mass. (125 lab.), stęż. mioglobiny (29 lab.) i homocysteiny (27 lab.) oraz przedsionkowego peptydu natriuretycznego typu B (38 lab.) oraz jego NT-końcowego propeptydu – pro-BNP (obecnie 109 lab.). Tylko te dwa ostatnie oznaczenia, a zwłaszcza pro-BNP wykazują wyraźną tendencję wzrostową (ryc.6) – jeżeli w r. 2008 wartości tego ważnego markera niewydolności krążenia nadesłały 32 lab., to w r. 2009 – 60 lab., w r. 2010 – 97 lab., a w r. 2011 – 109 laboratoriów. Wzrost liczby laboratoriów oznaczających BNP jest znacznie mniejszy (23 → 38 lab.). Ponieważ liczba oznaczeń pro-BNP wykonywana ap. Immulite spadła poniżej Tabela IX Wyniki sprawdzianu immunochemii poszerzonej w r. 2011 - 2 sprawdziany, 2 materiały kontrolne. Zestawiono ocenę wszystkich nadesłanych w obydwu sprawdzianach wyników (A) oraz wyników sklasyfikowanych (B); a - liczba ocenianych wyników, b - % wyników ocenionych jako poprawne. n A B oceniany wykorzystanych wszystkie wyniki ocena wyników sklasyfikowanych składnik syst. apar. ocena vs Xog. vs Xog. vs Xsyst. vs nominał a b a b a b a b estradiol 11 415 1647 52,52% 1589 53,43% 1589 94,59% 1559 92,50% FSH 11 407 1623 76,70% 1569 77,18% 1569 94,52% 1543 93,52% TSH 11 596 2363 91,37% 2291 92,06% 2291 96,07% 2255 93,22% FT3 11 551 2187 74,16% 2135 75,27% 2135 92,46% 2096 91,41% T3 4 54 214 79,91% 142 86,62% 142 94,37% 142 90,14% FT4 11 583 2311 64,47% 2253 65,07% 2253 93,70% 2221 92,21% T4 4 54 214 79,44% 138 89,13% 138 93,48% 138 90,58% LH 10 356 1404 89,10% 1342 90,46% 1342 97,76% 1330 97,37% GH 2 35 139 66,91% 98 75,51% 98 84,69% 98 29,59% HCG 10 425 1682 68,37% 1628 69,23% 1628 96,31% 1616 96,22% kortyzol 8 159 631 83,84% 538 84,57% 538 94,24% 504 92,46% progesteron 11 365 1450 77,59% 1396 77,86% 1396 94,98% 1363 92,81% prolaktyna 11 467 1864 80,69% 1800 81,39% 1800 94,61% 1766 93,77% testosteron 10 349 1372 72,81% 1316 74,09% 1316 95,74% 1304 90,95% insulina 4 96 369 81,84% 268 94,78% 268 95,90% 244 95,49% PTH 6 140 555 28,47% 490 27,96% 490 78,78% 378 82,01% AFP 8 241 959 88,74% 879 89,99% 879 93,52% 879 91,92% CEA 10 408 1602 75,40% 1520 77,24% 1520 87,63% 791 89,12% CA-125 10 423 1661 69,03% 1605 70,47% 1605 90,47% 813 95,45% CA 15.3 8 188 750 78,13% 696 81,03% 696 91,24% 341 93,84% CA 19.9 9 261 1028 61,86% 956 61,72% 956 86,09% 484 89,46% t PSA 11 551 2182 79,01% 2112 80,07% 2112 95,55% 2094 92,65% f PSA 7 134 525 81,90% 450 83,56% 450 94,44% 402 92,29% digoksyna 5 66 256 60,55% 178 61,80% 178 86,52% 157 73,25% fenytoina 2 10 38 100,00% karbamazep. 2 52 202 83,17% 110 87,27% 110 92,73% 110 90,00% kw.foliowy 5 96 367 73,30% 311 77,49% 311 90,35% 311 83,92% kw.walproin. 3 57 226 88,50% 144 93,75% 144 94,44% 132 95,45% wit. B12 7 194 746 82,84% 698 83,81% 698 89,11% 692 87,57% ferrytyna 9 250 972 75,20% 860 76,28% 860 87,91% 780 87,95% IgE 9 277 1100 80,73% 1014 81,46% 1014 92,31% 941 91,28% β-2-microglob. 3 34 126 76,19% 78 79,49% 78 75,64% 16 43,75% razem r. 2011 32765 75,01% 30604 76,15% 30604 93,09% 27500 92,04% r. 2010 35013 73,83% 32567 74,96% 32567 92,66% 32036 91,23% r. 2008 39147 68,08% 36484 68,86% 36484 89,44% 31357 86,65% 6, obecnie oceniane są wyniki wyznaczone aparatami tylko 2 firm – Roche (Elecsys – 41% laboratoriów oznaczających, Cobas e601 – 16,5%) oraz bioMerieux (Vidas – 32% oznaczających laboratoriów). W stosunku do wartości systemo- wych tych trzech aparatów jako poprawne oceniono 96,6% nadesłanych wartości. Bardzo duże różnice między zbliżonymi do siebie wartościami wyznaczonymi aparatami Elecsys i Cobas e601 a wyznaczonymi aparatami Vidas – najczę143 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... Tabela X Ocena wyników uzyskanych poszczególnymi systemami analitycznymi w sprawdzianach immunochemii poszerzonej w r. 2011. Podano liczbę składników oznaczanych poszczególnymi systemami, liczbę wykorzystanych aparatów w sprawdzianach Zima 2011 i Lato 2011 oraz liczby ocenianych wyników oraz liczbę i procent wyników uznanych za poprawne w różnych układach odniesienia. system n ozn. n aparatów n ocen. n i % poprawnych analityczny skł. Zima11 Lato11 wyników Abbott-AxSym 25 33 32 1697 1022 60,22% 1484 Abbott-Architect 27 61 62 3532 2448 69,31% Bayer-Advia Centaur 26 31 39 2075 1291 Beckman-Access 20 17 15 827 bioMerieux-Vidas 22 100 95 Siemens- BN 1 6 Roche-Elecsys 27 Roche-ModularE170 n wyn. n popr. % popr. 87,45% 1575 1369 86,92% 3234 91,56% 3115 2790 89,56% 62,22% 1840 88,67% 1896 1678 88,50% 510 61,07% 766 92,62% 695 615 88,49% 4648 2713 58,37% 4333 93,22% 4230 3901 92,22% 6 24 19 79,17% 22 91,67% - - - 210 219 11239 10026 89,23% 10458 93,91% 10224 9655 94,43% 14 8 9 326 311 95,40% 319 97,05% 194 193 99,48% Roche- Cobas e601 27 61 63 3914 3610 92,23% 3783 96,65% 3541 3372 95,23% Siemens-Immulite1000 17 25 23 976 542 55,53% 900 92,21% 919 766 83,35% Siemens-Immulite2000 23 16 19 992 518 52,22% 931 93,85% 924 808 87,44% Horiba ABX-AIA 9 10 9 219 90 41,10% 197 89,95% 64 50 78,13% razem r. 2011 578 591 30466 23100 75,82% 28267 92,78% 27377 25197 92,04% r. 2010 491 474 32577 24423 75,00% 30176 92,60% 32036 29227 91,23% r. 2009 451 478 36998 26348 71,21% 33569 90,73% 28405 24606 86,62% ściej 3-5 krotne (tab.XI) – powoduje, że zupełnie nie uzyskano wyników ocenionych jako poprawne vs x̄ og z wszystkich nadesłanych wartości. Nieco mniej zróżnicowane są wartości troponiny I, oznaczanej wszystkimi pozostałymi systemami poza systemami firmy Roche (ryc. 7), jednak z powodu tego zróżnicowania poprawność vs x̄ og wynosi 22,9% (dla surowicy 2 w sprawdzianie Lato 2011 – 8,1%). Poprawność vs x̄syst wynosi 88% poprawnych pomimo, że z powodu wykorzystywania trzech różnych odczynników (ryc.3d), aparatami Dimension uzyskano zaledwie 51,7% wyników poprawnych. Ponieważ wartości troponiny T wyznaczone dwoma aparatami f-,y Roche – Elecsys i Cobas e601 – nie różnią się istotnie, to ocena vs x̄ og jest wysoka, ok. 73% wyników uznano jako poprawne. Niestety niewiele korzystniejsza jest ocena Rycina 6 Wzrost liczby laboratoriów oznaczających PBNP. 144 vs Xog. ocena vs wart.nominalne vs Xsyst. vs x̄ syst (73,8% poprawnych) z powodu zróżnicowania wykorzystywanych odczynników, co szczegółowo omówiono w roku ubiegłym. Sytuacja będzie ulegała poprawie, ponieważ firma Roche wycofuje odczynniki do met. 1 (nr kat. 044918151 i 046603071 Stat) na korzyść odczynników do metody wysokiej czułości (2hs) – nr kat. 05092744 i 05092728 Stat. Oznaczenia akt. CK są wykonywane ok. 30 modelami różnych aparatów, z których wartości wyznaczone zaledwie 13 analizatorami mogły zostać sklasyfikowane i ocenione – stanowiły jednak aż 90% nadesłanych wyników akt. CK, z których 86,9% uznano za poprawne vs x̄ og, a 92,4% vs x̄syst . Jest to wynik nieznacznie gorszy od uzyskanego tymi samymi aparatami w programie chemicznym. Tę niewielką, ale niekorzystną różnicę można wytłumaczyć – w programie kardiologicznym wykorzystywano surowice o znacznie niższej aktywności CK niż w programie powszechnym, nawet 19,4 i 25,7 IU/L. Zbliżona była wiarygodność oznaczeń akt. CK-MB (73,4% vs x̄og, 90,4% – vs x̄syst) oraz CK-MB mass (tylko 26,9% poprawnych vs x̄og, ale aż 96,1% vs x̄syst ). Oznaczenia mioglobiny i homocysteiny są bardzo trudne do oceny z powodu zbyt małej liczby oznaczających laboratoriów – w r.2011 oznaczenia mioglobiny sklasyfikowano tylko dla 8 laboratoriów posługujących się analizatorami Vidas (niewiele ponad 80% wyników poprawnych vs x̄ syst). Niewiele lepsza jest sytuacja z oznaczeniami homocysteiny – z 27 Rycina 7 Zima 2011Troponina I materiał 1 – Analiza wariancji * oznacza różnice istotne testem post hoc Scheffe’go oznaczających laboratoriów sklasyfikowano wyniki tylko 20, posługujących się aparatami f-my Abbott – 6 ap. AxSym i 14 ap. Architect, uzyskując średnio 69,7% poprawnych vs x̄ og i 81,6% – vs x̄ syst. Ogółem w r. 2011 dla 9 składników ocenianych w programie markerów kardiologicznych nadesłano 5461 wyników (poprawne vs x̄ og – 36,5%), z których sklasyfikowano 4890 (89,5%), oceniając jako poprawne vs x̄ og 55,5%, a vs x̄ syst – 88,5% (najwięcej dla oznaczeń PBNP – 96,6% i CK-MB mass – 96,1%). Sprawdziany parametrów rkz. Parametry równowagi kwasowo-zasadowej oceniono w 2011r. w dwóch sprawdzianach, w każdym wykorzystując trzy wodne roztwory kontrolne – acidosis, normal i alkalosis. Poza typowymi oznaczeniami rkz (pH, PCO2, PO2) dla analizatorów, którymi można oznaczać podstawowe elektrolity (sód, potas, chlorki, wapń) ocenie poddano również i te oznaczenia. W sumie dla 6 wykorzystanych w ciągu roku materiałów kontrolnych nadesłano do oceny 21744 wyniki, z których aż 94,4% wyznaczono aparatami trzech firm – Roche (43,7% wyników), Siemens (38,0% wyników) i Radiometer (12,7% wyników). Jako poprawne vs x̄apar oceniono 19059 wyników tj. 87,5% nadesłanych, najwięcej dla oznaczeń PCO2 (96,9%), najmniej dla oznaczeń chlorków (69,6%) - tab. XII. Z trzech materiałów kontrolnych najlepiej oznaczany był materiał acidosis (92,7% wyników poprawnych), a najgorzej materiał alkalosis (80,8% wyników poprawnych). Z trzech głównych producentów procentowo najwięcej wyników poprawnych uzyskano aparatami f-my Radiometer (91,8%), a kolejno aparatami f-my Siemens (87,9%) i f-my Roche (85,5%). Wyniki f-my Roche zaskakują, są jednak efektem wprowadzonego przez firmę usprawnienia. Wykorzystywane materiały kontrolne, będąc buforowanymi roztworami wodnymi, są zasadniczo różne od naturalnych materiałów biologicznych, zawierających białka, a szczególnie hemoglobinę. Producenci aparatów godzili się z faktem pomiaru wodnego materiału kontrolnego analogicznie jak próbek rutynowych, przyjmując dla niego eksperymentalnie wyznaczone wartości należne. Firma Roche postanowiła uwzględnić różnice w mierzonych próbkach i w swoich nowych analizatorach rkz Cobas b121, b221 wprowadziła dwa tory pomiarowe – tor biologiczny (próbki rutynowe) i tor wodny (wodne roztwory m.in. płyny dializacyjne czy próbki kontrolne – sprawdziany zewnętrzne). Wybór właściwego toru pomiarowego należy dokonać manualnie w laboratorium. Mimo, że producent analizatorów opisał zalecone postępowanie w instrukcji obsługi, a także zwracali na to uwagę organizatorzy sprawdzianów, znaczna część (w r. 2007 – ok. Tabela XI Wartości pro-BNP wyznaczane aparatami Elecsys, Cobas e601 i Vidas w 14 kolejnych sprawdzianach kontrolnych. Wartości wyznaczane aparatami Elecsys i Cobas e601 statystycznie nie różnią się, wartości wyznaczane aparatami Vidas są istotnie wyższe. Sprawdzian Z08 mat 1 Z08 mat 2 L08 mat 1 L08 mat 2 Z09 mat 1 Z09 mat 2 Z10 mat 1 Z10 mat 2 L10 mat 1 L10 mat 2 Z11 mat 1 Z11 mat 2 L11 mat 1 L11 mat 2 N 17 17 17 17 20 20 30 30 42 42 45 45 45 45 Elecsys X 62,6 965,3 102,1 204,6 16,0 509,2 12,2 231,5 180,0 739,7 297,2 911,0 254,8 730,9 S 12,0 234,8 34,2 61,9 8,3 129,7 4,8 29,7 13,2 60,7 30,6 93,9 33,8 80,9 N 6 6 8 8 12 12 15 15 16 16 16 16 18 18 Cobas e601 X 55,9 972,0 96,1 214,5 10,9 479,8 11,4 193,9 173,7 722,5 290,8 888,3 244,6 679,7 S 7,5 215,8 30,0 76,6 4,6 58,3 3,5 37,5 11,8 47,1 21,3 63,6 14,1 104,1 N 0 0 9 9 17 17 26 25 25 25 31 31 35 35 Vidas X 249,6 401,8 20,0 1524,4 20,3 826,3 787,3 3223,3 1416,7 4384,3 1164,6 3274,1 S 64,1 92,1 0,6 320,3 1,6 86,9 80,5 309,6 89,6 277,6 78,5 304,1 145 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... 90%) użytkowników tych analizatorów takiego wyboru nie dokonywała. Dopóki liczba eksploatowanych analizatorów Cobas b121, b221 była nieznaczna, problem pozostawał nierozpoznawalny. Jednak liczba tych analizatorów szybko rosła (r. 2007 – 35 szt., r. 2008 – 95 szt., r. 2009 – 133 szt., r. 2010 – 200 szt., r. 2011 – 243 szt.) – ryc. 8, a wraz z tym narastały problemy – wykorzystując wodne materiały kontrolne, szereg oznaczanych wartości zależy od wybranego toru pomiarowego. Oczywiście dla wodnych próbek kontrolnych właściwy jest tor wodny, jednak bardzo znaczna część użytkowników na skutek nieuwagi, niechęci do czytania instrukcji, a czasem może i niekompetencji stosownego przestawienia toru pomiarowego nie dokonywała – Latem 2007r. z 49 użytkowników analizatorów rkz Cobas zrobiono to w 5 laboratoriach (10,2%!), zaś Zimą 2010, mimo ponawianych informacji organizatorów sprawdzianów – zaledwie 38 ze 185 użytkowników (20%) – ryc.8. Zwracano się o pomoc do firmy, która także przesłała wszystkim użytkownikom stosowne instrukcje oraz wprowadziła ten temat podczas spotkań z użytkownikami. Mimo to jeszcze Zimą 2011 poprawne postępowanie przeprowadziło 79 z 225 użytkowników (35%) i dopiero Latem 2011 sytuacja uległa wyraźnej poprawie – właściwy tor pomiarowy wykorzystało 70% z 243 użytkowników analizatorów Cobas (ale aż 75 laboratoriów konsekwentnie nie dostosowało się do zaleceń producenta oraz organizatorów sprawdzianów). Różnice wynikające Tabela XII Zbiorcze wyniki oznaczeń w r. 2011 (2 sprawdziany) parametrów równowagi kwasowo-zasadowej oraz elektrolitów wyznaczone analizatorami rkz najczęściej wykorzystywanych firm (zsumowane oceny poszczególnych modeli) dla materiałów acidosis, normal i alkalosis oraz razem. Podano liczbę ocenianych wyników oraz odsetek wyników ocenionych jako poprawne vs Xap. grupa materiał aparatów Siemens Radiometer Roche wszystkie aparaty 146 pH N og./ PCO2 N og./ PO2 N og./ sód N og./ potas N og./ chlorki N og./ wapń N og./ razem N og./ N % N % N % N % N % N % N % N % popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. popr. acidosis 509 476 normal 509 427 alkalosis 509 462 razem 1527 1365 acidosis 170 169 normal 169 165 alkalosis 170 167 razem 509 501 acidosis 587 571 normal 585 563 alkalosis 585 572 razem 1757 1706 acidosis 1341 1288 normal 1339 1220 alkalosis 1338 1270 razem 4018 3778 93,52 83,89 90,77 89,39 99,41 97,63 98,24 98,43 97,27 96,24 97,78 97,10 96,05 91,11 94,92 94,03 509 500 509 497 509 460 1527 1457 170 169 169 169 170 165 509 503 585 574 583 576 583 564 1751 1714 1334 1313 1332 1308 1333 1255 3999 3876 98,23 97,64 90,37 95,42 99,41 100,00 97,06 98,82 98,12 98,80 96,50 97,89 98,42 98,20 94,15 96,92 509 489 509 478 509 378 1527 1345 170 165 169 151 170 139 509 455 585 559 583 356 582 130 1750 1045 1334 1281 1332 1051 1330 704 3996 3036 96,07 93,91 74,26 88,08 97,06 89,35 81,76 89,39 95,56 61,06 22,34 59,71 96,03 78,90 52,93 75,98 247 224 248 214 247 203 742 641 107 103 107 105 106 104 320 312 501 461 499 480 501 481 1501 1422 1086 992 1085 998 1083 989 3254 2979 90,69 86,29 82,19 86,39 96,26 98,13 98,11 97,50 92,02 96,19 96,01 94,74 91,34 91,98 91,32 91,55 247 219 248 223 247 186 742 628 107 104 107 104 106 101 320 309 509 488 507 488 509 387 1525 1363 1094 1035 1093 1033 1092 879 3279 2947 88,66 89,92 75,30 84,64 97,20 97,20 95,28 96,56 95,87 96,25 76,03 89,38 94,61 94,51 80,49 89,87 119 91 120 83 119 96 358 270 97 62 97 65 96 74 290 201 268 175 267 148 268 204 803 527 529 368 529 322 528 413 1586 1103 76,47 69,17 80,67 75,42 63,92 67,01 77,08 69,31 65,30 55,42 76,12 65,63 69,57 60,87 78,22 69,55 113 92 113 79 113 64 339 235 100 89 100 90 99 69 299 248 292 248 291 257 292 240 875 745 548 467 547 462 547 411 1642 1340 81,42 69,91 56,64 69,32 89,00 90,00 69,70 82,94 84,93 88,32 82,19 85,14 85,22 84,46 75,14 81,61 2253 2091 2256 2001 2253 1849 6762 5941 921 861 918 849 917 819 2756 2529 3327 3076 3315 2868 3320 2578 9962 8522 7266 6744 7257 6394 7251 5921 21774 19059 92,81 88,70 82,07 87,86 93,48 92,48 89,31 91,76 92,46 86,52 77,65 85,54 92,82 88,11 81,66 87,53 z pomiaru torem biologicznym i torem wodnym opisano szczegółowo w ubiegłym roku. Skrótowo można stwierdzić, że w r.2011 wśród 42 oznaczeń 7 parametrów w 6 materiałach kontrolnych statystycznie istotne różnice między wartościami wyznaczonymi odmiennymi torami pomiarowymi wykazano 28 razy (66,7%), najrzadziej dla pomiarów pH i PCO2 (po 1 razie), najczęściej dla sodu i potasu (po 6 razy) czy chlorków i PO2 (po 5 razy). Często różnice mimo, że istotne były w rzeczywistości niewielkie (np. potas – 4,46 i 4,31 lub 6,84 i 6,70 mmol/l, chlorki – 119,1 i 118 mmol/l czy wapń – 1,15 i 1,12 mmol/l), ale przy wąskich na ogół dopuszczalnych granicach błędu wyraźnie wpłynęły na ocenę (np. oznaczenie wapnia Latem 2011 w mat. alkalosis – poprawne vs x̄apar 95,3% nadesłanych wartości, ale 97,3% dla pomiarów w torze wodnym i 90,3% w torze pomiarowym biologicznym. Największe różnice w wyznaczanych wartościach zaobserwowano dla pomiarów PO2, zwłaszcza w materiałach alkalosis (Zimą 2011 – 34,7 i 73,8 mmHg, Latem 2011 – 21,7 i 67 mmHg). Podział na wyniki uzyskane przy wykorzystaniu toru pomiarowego wodnego lub biologicznego dokonano na podstawie oceny wyników PO2 w mat. alkalosis i nie zostały one potwierdzone przez wykonawców. W tab. XIII przedstawiono zbiorczo (z rozbiciem na parametry rkz i elektrolity) dane za r.2010 i 2011. Podano liczbę nadesłanych w każdym sprawdzianie wyników oraz dokonany przez organizatora podział na grupy A (tor wodny) i B (tor biologiczny) oraz ocenę tych wyników vs korygowane średnie ogólne oraz korygowane średnie grupowe. Różnice w ocenie mogą być znaczne – w r. 2011 różnica w odsetku wyników poprawnych dla 3 parametrów rkz w 6 materiałach kontrolnych wynosiła 11,6% (Zima) i 10,7% (Lato). Przedstawione dane są klasycznym przykładem, jak błędne wyniki części uczestników sprawdzianów mogą wysoce niekorzystnie wpłynąć na ocenę uczestników, którzy oznaczenia wykonali prawidłowo i uzyskali wyniki poprawne (błędnie zdyskwalifikowane!). Pozostaje problem podstawowy – jak w takiej sytuacji powinien postąpić organizator sprawdzianów. Standardowym postępowaniem jest ocena względem korygowanej średniej aparaturowej z całego zbioru wyników, mając świadomość, że jest to wartość pośrednia pomiędzy dwoma odrębnymi podzbiorami, a jej wykorzystanie powoduje zarówno ewent. pozytywną ocenę części wyników błędnych, jak i dyskwalifikację części wyników poprawnych. Oczywiście organizatorzy mogą arbitralnie dokonać podziału na dwie grupy wynikowe (przy małych różnicach może to być nierealne) i ocenić każdą z tych grup osobno (jak w tab. XIII). Jest to jednak niedopuszczalna manipulacja wynikami, a jednocześnie usankcjonowanie nieprawidłowego postępowania (przyjęcie wartości wyznaczonych dla próbek wodnych torem biologicznym – postępowanie przyjęte obecnie przez wszystkich producentów poza f-mą Roche). Można oczywiście równie arbitralnie przyjąć, że poprawne są tylko wyniki uzyskane z wykorzystaniem prawidłowego toru pomiarowego i wszystkie pozostałe zdyskwalifikować, co przy dużej przewadze pomiarów przeprowadzonych niepoprawnie spowodowałoby fatalne skutki. Każde wyjście jest niewłaściwe, a jedynym poprawnym jest promowanie poprawnego postępowania (wyegzekwowanie tego nie jest łatwe!). Problem dotyczy oczywiście nie tylko oznaczeń parametrów rkz analizatorami Cobas lecz wszystkich oznaczeń, dla których rozkład wyznaczonych wartości jest bimodalny (polimodalny?). Organizatorzy sprawdzianów Rycina 8 Wzrost liczby analizatorów rkz Cobas b121 i b221 firmy Roche w latach 2007-2011. Podział na użytkowników toru wodnego i toru biologicznego oparto o wartości wyznaczone dla PO2 alkalosis. Na prawej osi przedstawiono wzrost procentowy z zaznaczeniem minimum i maximum użytkowników toru wodnego. Tabela XIII Wyniki uzyskane analizatorami Cobas b121 i b221 w latach 2010-2011. Podano - dla parametrów rkz (pH, PCO2 i PO2) oraz elektrolitów (sód, potas, chlorki, wapń) liczbę ocenionych wyników i odsetek wyników uznanych za poprawne vs Xog. (z wszystkich nadesłanych wyników) oraz z rozbiciem na użytkowników toru wodnego (A), toru biologicznego (B) i razem dla obu tych grup (A + B). parametry rkz sprawdzian n wyników elektrolity % wyników poprawnych vs n wyników % wyników poprawnych vs ogółem A B Xog. A vs XA B vs XB A+B ogółem A B Xog. A vs XA B vs XB A+B Zima 2010 1680 342 1338 89,9 97,1 93,8 94,5 1111 285 826 85,7 95,1 91,3 92,3 Lato 2010 1818 386 1432 88,7 95,3 92,7 93,2 1095 258 837 84,9 94,6 90,6 91,5 Zima 2011 2034 711 1323 83,7 97,5 94,2 95,3 1320 498 822 82,4 95,0 92,0 93,1 Lato 2011 2184 1509 675 84,6 95,5 95,0 95,3 1385 974 411 87,2 92,1 82,7 89,3 147 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... stosują różne rozwiązania. Czasami fakt bimodalności rozkładu po prostu ignorują lub przeoczą. Czasami, zwłaszcza gdy znana jest przyczyna niejednorodności zbioru (np. różne odczynniki – oznaczenia żelaza ap. Architect – ryc. 3A) i została ona w pełni potwierdzona przez każdego uczestnika, stosuje się przyjęcie więcej niż jednej wartości należnej. Czasem przyjmuje się jeden zakres za prawidłowy, dyskwalifikując pozostałe wyniki. Kiedy nie można wyraźnie określić przyczyny polimodalności i dokonać uzasadnionego, jednoznacznego podziału na stosowne podzbiory, oznaczenie takie są „unieważniane” a wyznaczone wartości wycofuje się z oceny – co spotyka się ze sprzeciwem wykonawców („przecież dokonałem pomiaru”) zwłaszcza, gdy może to ewent. wpłynąć na ocenę okresową. Problem jest trudny i złożony i niewątpliwie zasługuje na bardziej szczegółowe opracowanie i podjęcie stosownych rozwiązań. Sprawdziany oznaczeń koagulologicznych. Ze względów finansowych utrzymano minimalny, ograniczony do 5 podstawowych parametrów, program sprawdzianów koagulologicznych, przeprowadzanych dwa razy w roku, każdorazowo z wykorzystaniem dwóch różnych materiałów kontrolnych – prawidłowego i patologicznego. W sprawdzianach uczestniczyło około 1350 laboratoriów, z których praktycznie wszystkie wykonywały oznaczenie czasu protrombinowego (wskaźnik i INR), a zaledwie poniżej 90 laboratoriów – oznaczanie czasu trombinowego. Zbiorczą ocenę nadesłanych w r. 2011 wyników przedstawiono w tab. XIV. Podobnie jak w innych programach, także i w programie koagulologicznym bardzo utrudnia ocenę duże zróżnicowanie aparatury, a zwłaszcza wykorzystywanych odczynników, poważnie ograniczając odsetek wyni- ków, które mogą zostać ocenione wg „własnej” korygowanej średniej aparaturowo-odczynnikowej. W wierszu górnym tabeli przedstawiono ocenę wszystkich wyników, a w dolnym – tylko wyników sklasyfikowanych dla których można było stworzyć homogenne zbiory o n ≥ 6. Oczywiście im bardziej szczegółowo zostały sprecyzowane warunki wyznaczenia wartości kontrolnych, tym ocena poprawności tych oznaczeń była wyższa. W tabeli XV oceniono wyniki poszczególnych parametrów (i ogółem), wyznaczone najczęściej wykorzystywanymi koagulometrami, uporządkowanymi wg liczby nadesłanych wyników (liczba aparatów była ± 4 razy mniejsza). Oczywiście najpopularniejsze pozostały koagulometry polskiej produkcji firm BioKsel i Eliza bis Kselmed, jednak wyniki uzyskane tyki aparatami nie były najkorzystniejsze. Wydaje się, że w przeważającej mierze było to spowodowane faktem bardzo dużego zróżnicowania wykorzystywanych odczynników wielu producentów/dostawców. Jak wynika z tab. XIV, wpływ wykorzystywanych odczynników na poprawność ocenianych wartości jest nawet większy, niż wpływ aparatury – jako poprawne oceniono 73,2% vs x̄odczyn. i 68,9% vs x̄apar. Także związane z aparatem i odczynnikami pozostaje duże zróżnicowanie oceny wyników wyznaczanych w materiale prawidłowym i patologicznym. Dla niektórych aparatów, np. nielicznych (15 szt.) aparatów BioMar Coatron M1, M2 poprawność oznaczeń w obu materiałach została oceniona jako niska (63,2% i 47,4% poprawnych) przy bardzo dużej różnicy oceny dla materiału prawidłowego i patologicznego (Δ = 15,8%!). Dla wartości wyznaczonych 55 koagulometrami STA Compact firmy Roche poprawność nadesłanych wyników względem własnych średnich aparaturowo-odczynnikowych oceniono wysoce korzystnie, co świadczy o dobrym skupieniu nadesłanych wartości – 90,6% poprawnych Tabela XIV Zbiorcza ocena sprawdzianów koagulologicznych w r.2011 zależnie od przyjętych wartości odniesienia. a-wszystkie zgłoszone pozycje aparaturowo-odczynnikowe (51% to wyniki pojedyncze!); b-tylko pozycje o n ≥ 6. n pozycji n ocen. apar-odcz wyn. a 127 5345 3795 71,0% 4046 75,7% 4269 79,9% 4068 76,1% 4463 83,5% b 27 4678 3372 72,1% 3766 80,5% 3829 81,8% 3717 79,5% 3858 82,5% a 127 5345 3545 66,3% 3872 72,4% 4080 76,3% 3840 79,8% 4284 80,2% b 27 4678 3144 67,2% 3600 77,0% 3665 78,3% 3519 75,2% 3688 78,8% a 130 4959 2364 47,7% 3123 63,0% 3284 66,2% 3056 61,6% 3559 71,8% b 25 4322 2071 47,9% 2913 67,4% 2986 69,1% 2838 65,7% 3021 69,9% a 20 345 187 54,2% 225 65,2% 233 67,5% 182 52,8% 270 78,3% b 5 225 137 60,9% 169 75,1% 170 75,6% 175 77,8% 175 77,8% a 86 3021 1472 48,7% 1936 64,1% 2056 68,1% 1954 64,7% 2229 73,8% b 23 2615 1272 48,6% 1795 68,6% 1853 70,9% 1850 69,2% 1919 73,4% a 490 19016 11363 59,8% 13202 69,4% 13922 73,2% 13100 68,9% 14805 77,9% b 107 16518 9996 60,5% 12243 74,1% 12503 75,7% 12059 73,0% 12660 76,6% PT-wsk. PT-INR APTT wsk. TT wsk. Fibrynogen Razem =86.9% 148 n i % poprawnych vs X og. X firma odcz. X odcz. X aparat. X apar.-odcz. 149 07-41-01 -27-01 -40-01 -19-01 -44-01 -41-03 -41-02 -44-03 -26-04 -19-04 -44-02 -13-01 -26-05 -26-02 -26-01 -96-01 -13-02 Ogółem Wiosna+Jesień aparat Bio-Ksel Chrom 7,CC 3003 Eliza bis Kselmed K3002 wszystkie Siemens CA serii 5.. Siemens BCS Roche STA Compact Bio-Ksel 6000 Bio-Ksel C 3002 Roche Coasys Plus C IL ACL Elite Pro Siemens Fibrintimer II Roche Start wszystkie bio-Merieux Option wszystkie IL ACL TOP CTS 500 IL ACL 8000-10000 IL ACL 100-7000 Bio-Mar Diagnost. Coatron M1,M2 bio-Merieux Thrombolyzer PTmat.N n a/b 76,6 2601 83,0 77,0 769 81,9 75,5 608 75,2 73,8 206 86,4 64,3 140 88,6 97,2 109 98,2 78,8 99 86,9 64,9 97 74,2 96,2 80 96,2 61,8 76 88,2 72,2 72 83,3 87,9 66 89,4 83,6 61 90,2 85,7 49 93,9 68,8 48 87,5 75,9 29 75,9 58,6 29 69,0 84,2 19 94,7 wsk. mat.P n a/b 66,1 2599 73,7 74,2 770 74,5 51,7 605 58,7 53,4 206 83,5 63,6 140 89,3 92,7 109 92,7 85,0 99 82,8 53,6 97 58,8 93,8 80 95,0 71,1 76 84,2 59,7 72 72,2 86,4 66 87,9 50,8 61 62,3 75,5 49 87,8 70,8 48 72,9 62,1 29 62,1 41,4 29 51,7 57,9 19 68,4 PTmat.N n a/b 73,0 2601 79,5 73,6 769 79,2 69,9 608 69,4 72,3 206 85,4 58,6 140 87,8 96,3 109 95,4 77,8 99 82,8 58,8 97 67,0 93,8 80 93,8 65,8 76 89,5 72,2 72 81,9 81,8 66 84,8 78,7 61 82,0 91,8 49 98,0 68,8 48 87,5 72,4 29 72,4 55,2 29 62,1 78,9 19 89,5 INR mat.P n a/b 60,2 2599 68,3 67,7 770 68,2 49,2 605 51,2 79,6 206 85,0 84,3 140 82,1 34,9 109 85,3 80,8 99 80,8 47,4 97 43,3 15,0 80 88,8 51,3 76 82,9 69,4 72 70,8 25,8 66 80,3 50,8 61 63,9 87,8 49 83,7 64,6 48 66,7 76,0 29 72,4 41,4 29 44,8 78,9 19 84,2 APTT mat.N mat.P n a/b n a/b 53,9 42,0 2410 2408 66,6 60,6 54,0 38,9 704 705 67,2 60,6 36,2 26,1 538 537 48,1 37,4 52,7 21,8 203 202 74,9 68,3 42,1 18,6 140 140 74,3 72,8 81,6 78,0 109 109 80,7 78,0 65,6 67,7 99 99 80,8 82,8 55,3 49,4 85 85 50,6 49,4 77,5 81,2 80 80 86,2 82,5 75,6 83,3 78 78 89,7 92,3 42,0 23,2 69 69 58,0 42,0 64,4 62,7 59 59 66,1 67,8 49,1 40,0 55 55 49,1 45,4 81,6 75,5 49 49 91,8 91,8 79,2 77,1 48 48 89,6 83,3 72,4 69,0 29 29 79,3 72,4 55,6 44,4 18 18 55,6 44,4 63,2 78,9 19 19 78,9 68,4 mat.N n a/b 84,5 129 72,9 16,7 12 25,0 44,4 18 66,7 65,8 38 68,4 87,5 32 93,8 64,3 14 71,4 85,7 7 85,7 66,7 6 83,3 TT 6 7 14,3 85,7 33,3 83,3 mat.P n a/b 57,8 128 71,9 31,2 16 25,0 66,7 18 72,2 68,4 38 76,3 40,6 32 90,6 53,8 13 84,6 Fibrynogen mat.N mat.P n a/b n a/b 55,2 43,7 1463 1463 71,0 63,2 44,4 35,9 426 443 70,6 68,2 44,9 34,9 185 186 50,3 46,2 49,4 54,4 158 158 62,0 55,7 45,5 44,0 134 134 87,3 74,6 76,4 79,4 107 107 86,9 86,0 43,7 21,8 87 87 64,6 46,0 58,5 47,0 34 34 55,9 61,8 80,6 65,7 67 67 82,1 74,6 50,0 78,4 74 74 75,7 78,4 52,4 33,3 21 21 66,7 61,9 55,9 67,6 34 34 70,6 61,8 50,0 33,3 12 12 41,7 25,0 59,2 44,9 49 49 71,4 73,5 50,0 52,1 42 42 73,8 52,1 50,0 55,6 18 18 44,4 61,1 Razem mat.N mat.P n a/b n a/b 66,3 54,4 9204 9197 75,6 67,0 64,5 56,6 2680 2704 75,2 67,8 59,9 42,2 1939 1933 63,5 49,2 62,4 52,6 791 790 77,9 74,2 53,5 53,7 592 592 83,4 79,6 87,8 69,1 466 466 90,6 85,8 67,2 65,1 384 384 79,2 74,0 59,7 49,8 313 313 63,6 51,8 87,3 63,8 307 307 89,9 85,7 63,5 70,3 318 317 85,2 84,5 61,5 49,6 234 234 73,9 62,0 75,1 59,6 225 225 79,1 76,4 69,8 46,6 189 189 72,5 55,6 79,8 69,0 203 203 88,7 84,2 67,2 67,2 192 192 84,9 71,4 69,5 63,5 105 105 70,5 67,6 56,6 42,1 76 76 63,2 47,4 71,9 75,4 57 57 87,7 73,7 Tabela XV Sprawdziany koagulologiczne w r.2011 - 2 sprawdziany (wiosna, jesień), każdorazowo 2 materiały kontrolne. Dla 5 parametrów oznaczanych najczęściej wykorzystywanymi koagulometrami podano: n-liczbę ocenianych wyników i odsetek wyników uznanych za poprawne w stosunku do wartości średnich ogólnych (a-wiersz górny) a poniżej w stosunku do średnich aparaturowych (b-wiersz dolny) – z rozbiciem na mat.N, mat.P. Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... w materiale prawidłowym i 85,8% poprawnych w materiale patologicznym, a więc różnica oceny między tymi materiałami była stosunkowo nieznaczna (Δ = 4,8%). Tylko nieznacznie gorzej oceniono wyniki uzyskane 40 aparatami Coasys Plus f-my Roche (89,9 i 85,7% poprawnych, Δ = 4,2%), 38 aparatami ACL Elite Pro firmy IL (85,2 i 84,5% poprawnych, Δ = 0,78%!) czy 70 koagulometrami BCS firmy Siemens (83,4 i 79,6% poprawnych, Δ = 3,8%). Wydaje się prawdopodobne, że korzystna ocena wyznaczanych tymi aparatami wartości w znacznej mierze jest zasługą nie aparatów (choć są to aparaty niewątpliwie bardzo dobre), co wymuszonego korzystania z ujednoliconych, firmowych odczynników. Obecnie największym problemem jest ewent. poszerzenie panelu objętych sprawdzianami składników – choć warunkiem niezbędnym jest odpowiednia liczebność wykonujących dane oznaczenie laboratoriów – oraz promowanie (jak??) ujednolicenia wykorzystywanych z poszczególnymi koagulometrami odczynników. Uzyskiwana w programach sprawdzianów poprawność wykonywanych oznaczeń jest zdecydowanie poniżej oczekiwań i potrzeb klinicznych dla tych tak ważnych obecnie oznaczeń. Oczywiście ocena zależy od przyjętych granic dopuszczalnego błędu i na podstawie uzyskiwanych wyników wydaje się, że wykorzystywane kryteria są zbyt rygorystyczne. Być może tak, ale uzyskane niektórymi koagulometrami wyniki – i to zarówno w materiale prawidłowym jak i patologicznym – aczkolwiek ciągle niezadowalające, wskazują na potencjalne możliwości i ewent. zmiany czynią mniej pilnymi, wymagającymi dalszej dyskusji. Program sprawdzianów hematologicznych. W ramach programu przeprowadzono dwa sprawdziany, w których uczestniczyło 1611 laboratoriów, poddając ocenie 1984 aparaty. W sumie uczestnicy nadesłali w 2 sprawdzianach 257349 wyników dla dotychczas oznaczanych składników i dodatkowe 45,6 tys. wyników dla oceny krwinek białych, rozdzielonych na grupy w systemie 3 diff – wartości bezwzględne i odsetkowe. W stosunku do średnich ogólnych z wszystkich wyników oceniono jako poprawne (bez rozdziału krwinek białych) 89,19% wyników (89,04% w sprawdzianie wiosennym i 89,35% w sprawdzianie jesiennym). 27 modeli aparatów było wykorzystywanych przez co najmniej 6 laboratoriów i przy nieuwzględnianiu różnic odczynnikowych tworzyło podstawę do klasyfikacji nadesłanych 251915 wyników (97,9% wszystkich), z których jako poprawne oceniono 89,37% vs x̄og, 94,97% vs x̄apar i 85,54% vs wartości nominalne podane przez producenta nie dla wszystkich aparatów i parametrów. Najczęściej wykorzystywanymi są aparaty firmy Sysmex – 800 szt. (40,3% wszystkich analizatorów hematologicznych), podzielone na dwie grupy – 440 aparatów 3 diff i 360 – 5 diff. Są to jednocześnie aparaty, na których użytkownicy uzyskują najkorzystniejsze oceny. Odsetek wyników uznanych za poprawne vs x̄og, x̄apar i wartości nominalne wynosiły odpowiednio dla aparatów 3 diff 95,3%, 97,7% i 86,4%, natomiast dla aparatów 5 diff – 96,9%, 98,9% i brak danych przy braku wyznaczonych wartości nominalnych. 150 O ile bardzo wysoki odsetek wyników uznanych za poprawne vs średnia ogólna mógłby wynikać z dużej liczby tych analizatorów, a więc uzyskane nimi wyniki mają znaczny wpływ na średnie ogólne, to bardzo wysokie oceny vs średnie systemowe (aparaturowe) wynikają z dobrego skupienia zbiorów nadesłanych wartości. Średni współczynnik zmienności dla 16 oznaczanych parametrów (2 x 8) wyniósł w wypadku ap. Sysmex 3 diff – 2,28%, a dla ap. Sysmex 5 diff – 1,80% (!). Oczywiście przy tak znacznym skupieniu wyznaczanych wartości ich ocena – przy sztywnych granicach dgb – musi być wysoce korzystna. Jeszcze 3 dalsze modele aparatów występowały w ponad 100 egzemplarzach – Micros 60 f-my abx Horiba (347 szt., a po ewent. dołączeniu aparatów Micros 45 i Micros CRP – 396 szt., czyli 20% wszystkich ocenianych analizatorów hematologicznych), Cell Dyn 1600, 1700, 1800 – 114 szt. i Pentra także f-my abx Horiba – 103 szt. Tym ostatnim analizatorem także uzyskano korzystne wyniki – 96,0% poprawnych vs x̄ og, 96,6% - vs x̄ apar i 92,0% vs podane wartości nominalne. Niemal zgodna poprawność vs x̄og i x̄apar świadczy o niemal identycznych wyznaczonych średnich, a niewielka różnica vs wartości nominalne wyznaczone przez producenta wykorzystanych materiałów potwierdza poprawną kalibrację. Ogólnie należy stwierdzić dobre z zasady skupienie wartości, wyznaczanych poszczególnymi modelami analizatorów. Dla 15 modeli występujących w liczbie ≥ 25 szt., średni współczynnik zmienności wynosił dla hematokrytu 3,7%, dla hemoglobiny – 2,8%, dla krwinek czerwonych – 2,7%. Większe było rozproszenie wartości w zbiorach krwinek białych oraz płytek – średnio po 6,4%. Ujemną stroną tego dobrego skupienia zbiorów dla poszczególnych składników i aparatów przy dużych na ogół liczebnościach tych zbiorów jest istotność małych nawet różnic, występujących dla poszczególnych składników między aparatami. Na ryc. 9 przedstawiono równanie regresji dla trzech składników, oceniając korelacje między wynikami wyznaczonymi poszczególnymi aparatami w dwóch materiałach kontrolnych dla danych surowych i po odrzuceniu wyników na podstawie ocen wizualnych zbiorów, których przynależność do tych zbiorów wydaje się wątpliwa. Wszystkie trzy oceniane korelacje są istotne, co w przypadku krwinek białych wynika z liczby 8 tys. wyników. Jednocześnie na rycinie zaznaczono 3 typowe rodzaje popełnianych błędów – A -zła kalibracja (obydwa wyniki wysoce niższe od pozostałych), B -zamiana wykorzystywanych materiałów o wartościach wysokich i niskich, C -znaczny błąd przypadkowy dotyczący jednego tylko materiału. Oczywiście analogiczną analizę – choć bez opracowania graficznego – powinien wykonać każdy uczestnik po uzyskaniu wyników sprawdzianu. Należy podkreślić, że dzięki bardzo korzystnym zmianom wyposażenia ocena sprawdzianów hematologicznych uległa zdecydowanej poprawie. Podsumowanie. Kolejny rok realizacji zewnątrzlaboratoryjnej oceny wyników kontrolnych przebiegł w zasadzie bezawaryjnie. Częściej niż Rycina 9 Równanie regresji i współczynnik korelacji przykładowo wyznaczone dla trzech składników w programie hematologicznym Wiosna 2011. Dodatkowo na rycinie zaznaczono przykłady typowych błędów. dotychczas wynikały kłopoty z pojawieniem się bimodalności ocenianych zbiorów, co bardzo utrudniało a czasem wręcz uniemożliwiało ocenę wyników. Trudno jednocześnie orzec, czy wynikało to z niewłaściwego doboru materiałów kontrolnych, co zarzucają Centralnemu Ośrodkowi „poszkodowani” uczestnicy programów, z „usprawnień” (oszczędności) wprowadzanych przez księgowych producentów, czy z bardziej wnikliwej oceny zbiorów, wyznaczanych dla poszczególnych materiałów kontrolnych różnymi metodami czy aparatami i wychwytywanie różnic, które wcześniej były przeoczane. W części wypadków wykazano wyraźnie zróżnicowanie wyników, gdy firma produkuje więcej niż 1 zestaw dla tej samej metody – dlatego coraz częściej Centralny Ośrodek domaga się nie tylko kodu firmy producenta, ale i numeru katalogowego wykorzystywanych odczynników – co poza obciążeniem uczestników bardzo utrudnia ocenę wyników w Centralnym Ośrodku. Niestety jest to także związane z ogromną pracą wstępną – uporządkowaniem bazy danych od „wszystkich” producentów/dystrybutorów. Można wówczas wykazać, że ten sam odczynnik rozprowadzany jest przez kilku dystrybutorów (często pod „własną” nazwą firmy) a dokonanie stosownych połączeń bardzo poprawia możliwość oceny. Przykładowo dla oznaczeń PT najpierw odczynniki od 36 dystrybutorów sprowadzano do 18 producentów. Niestety okazało się, że część producentów produkuje równolegle kilka odczynników do tego samego oznaczenia, ci zdecydowanie pogarsza możliwość oceny i poszerza zakres wy- maganych informacji. Należy podkreślić, że sugerowany staranniejszy dobór wykorzystywanych materiałów kontrolnych jest praktycznie niemożliwy – niezależnie od obowiązującej Centralny Ośrodek ustawy o zamówieniach publicznych nigdy nie można a priori przewidzieć, czy ze względu na unikalny efekt podłoża nie wystąpią kłopoty z wykonywaniem oznaczeń poszczególnych składników przy wykorzystaniu określonych metod analitycznych, określonych aparatów czy nawet odczynników – liczba różnych możliwości jest tak zawrotna, że jakakolwiek wstępna weryfikacja jest absolutnie niemożliwa. Zahamowaniu uległo sztandarowe działanie Centralnego Ośrodka w ostatnich latach. Zarówno ze względu na wygodę użytkowników poszczególnych programów, eliminację potencjalnych błędów przy manualnym wprowadzaniu w Centralnym Ośrodku wyników do systemu obliczeniowego, a przede wszystkim ogromną oszczędność czasu wdrożenie dwustronnej łączności elektronicznej między Centralnym Ośrodkiem a uczestnikami programów wydawało się wyjątkowo cenne. Niestety nie doceniono wszystkich trudności. Ze względu na ograniczenie finansowe nie można było zamówić i zaabonować obsługę stosownego programu w jakiejś firmie zewnętrznej. Jedynym realnym rozwiązaniem było przygotowanie programu własnymi siłami i stworzony przez informatyka Centralnego Ośrodka program zyskał pozytywną opinię zdecydowanej większości użytkowników. Pochopnie jednak wdrożono ten program bez zabezpieczenia 151 Sprawdziany międzylaboratoryjne prowadzone w roku 2011 przez Centralny Ośrodek Badań Jakości w Diagnostyce ... niezbędnych warunków minimalnych – obsługa programu i część kontaktów z użytkownikami bezwzględnie wymaga odpowiedniego przygotowania profesjonalnego, przekraczając możliwości nawet sprawnego ale bez odpowiedniego przygotowania informatycznego użytkownika komputera i internetu. Dotychczasowe doświadczenie potwierdza, że program w pełni spełnia oczekiwania. Opracowane wyniki centralnego programu chemicznego zainteresowani mogą odebrać na stronach portalu ESPD (Elektroniczny System Przekazu Danych) po tygodniu, a nie po miesiącu, co ułatwia, a czasem po prostu umożliwia ewent. podjęcia stosownych działań naprawczych. Oczywistą niedogodność stwarza fakt, że część użytkowników nie ma możliwości (brak sprzętu, dostępu do Internetu, przygotowania) włączyć się w system elektronicznego przekazu danych. Z tego powodu wszystkie programy sprawdzianów, w których wdrożono ESPD, muszą być realizowane dwutorowo – rosnąca część użytkowników przekazuje wyniki (i otrzymuje opracowania) poprzez Internet, a część utrzymuje dotychczasowy przekaz papierowy, z koniecznością manualnego wprowadzenia do systemu nadesłanych wyników, co bardzo utrudnia i opóźnia opracowania. Program do tej pory został wdrożony poza centralnym programem chemicznym (wszyscy użytkownicy!) w programie hematologicznym (Jesień 2011 – z przekazanych 1984 arkuszy odpowiedziowych 1335 = 67,3% - przekaz elektroniczny – PE), programie immunochemii poszerzonej (511 laboratoriów wśród 585 uczestników – 87,6%) i programie immunochemii podstawowej – z tajemniczych przyczyn tylko poniżej 50% odpowiedzi zostało przekazanych elektronicznie, znacznie mniej niż w innych włączonych do programu sprawdzianach. Ale podstawową przyczyną zahamowania całego procesu, a nawet obawy o realizację już podjętych działań jest brak w Centralnym Ośrodku drugiego informatyka. Niezależnie od obciążenia pracą, nie można jakiejkolwiek poważnej działalności opierać się na jednej tylko osobie. Nawet najlepiej przygotowanej i zaangażowanej, odpowiedzialnej osobie może się zdarzyć awaria, a jak wspomniano, do realizacji programu obecność profesjonalisty jest bezwzględnie niezbędna. Od trzech lat Centralny Ośrodek konsekwentnie występuje do Ministerstwa Zdrowia o drugi etat informatyka, tłumacząc odnoszone korzyści (przede wszystkim czas!) i istniejące zagrożenia – i mimo poparcia Departamentu Organizacji Ochrony Zdrowia i Specjalisty Krajowego konsekwentnie uzyskuje informację o zarządzonej przez Premiera blokadzie etatów, co czyni starania bezprzedmiotowymi. Oczywiście nie stanowi argumentu zagrożenie realizacji programu. Bezwzględnie należy podtrzymać wniosek Centralnego Ośrodka powołania przy Ministerstwie Zdrowia Komisji z udziałem wszystkich zainteresowanych, która przedyskutuje problemy jakości w diagnostyce laboratoryjnej i przyszłość w Polsce programów EQA oraz przyjmie odpowiednie ustalenia. 152 Adres do korespondencji: Mgr Barbara Przybył-Hac Centralny Ośrodek Badań Jakości w Diagnostyce Laboratoryjnej 90-613 Łódź, ul.Gdańska 80 tel./fax 42 2302578, 42 2302579 e-mail: www.cobjwdl.lodz.pl Zaakceptowano do publikacji: 10.06.2012