EA04 - Ekoatom

Transkrypt

EA04 - Ekoatom
NR 4/1 LUTY ‐ MARZEC 2012
MARZEC 2012 MAGAZYN POPULARNONAUKOWY MORSKI WIATR KONTRA ATOM DOZYMETRIA BIOLOGICZNA POWIEW FUKUSHIMY... RADON 2
Reklama
Kwartalnik popularnonaukowy Luty— Marzec 2012 Redakcja
ul. Świętokrzyska 14 00‐050 Warszawa tel.22 336 14 19 fax. 22 336 14 25 www.ekoatom.com.pl E‐mail: [email protected] SKŁAD REDAKCJI Redaktor Naczelny dr inż. Krzysztof Rzymkowski, dr inż. Marek Rabiński, dr inż. Andrzej Mikulski, dr inż. Piotr Czerski (PGE), Sekretarz Redakcji Jerzy Szczurowski (SEP COSIW ) Redaktor Techniczny Jarosław Cyrynger (SEP COSIW ) RADA PROGRAMOWA: Przewodniczący prof. dr hab. Maciej Sadowski, Członkowie prof. dr hab. Janusz Lewandowski (PW), prof. dr hab. Łukasz Turski (UW) prof. dr hab. Zdzisław Celiński, prof. dr Andrzej Strupczewski, prof. dr hab. Natalia Golnik (PW) prof. dr hab. inż. Roman Domański NASZ SPONSOR DOŁĄCZ I ZOBACZ RELACJE FOTOGRAFICZNE Redakcja zastrzega sobie prawo
dokonywania skrótów, korekty, edycji
nadesłanych materiałów, oraz nie zwraca
materiałów niezamówionych. Redakcja
zastrzega sobie prawo do publikacji
materiałów w dogodnym dla redakcji
czasie i kolejności oraz niepublikowania
materiału bez podania przyczyny.
Redakcja nie odpowiada za treść
zamieszczonych reklam ogłoszeń i innych
płatnych. 3
EKOATOM Nr 4. Luty ‐ Marzec 2012 Szanowni Państwo
Prezentujemy już czwarty numer kwartalnika EKOATOM, jedno‐
cześnie dziękując za zainteresowanie poprzednimi. Dotychczas stronę EKOATOM odwiedziło łącznie około 64 000 osób. Będzie‐
my dokładać starań, by atrakcyjność naszego pisma wzrastała. Pragnąc bardziej przybliżyć problemy związane z ochroną środo‐
wiska, w bieżącym numerze przedstawiamy rozległy i szeroko udokumentowany materiał polemiczny, w którym A. Strupczewski omawia aspekty ekonomiczne wytwarzania energii elektrycznej przez elektrownie wiatrowe. Mało znany i rzadko poruszany temat, bardzo interesująco przedstawiony przez S. Sommera, to zagadnienia związane z dozymetrią biologiczną. Dozymetria biologiczna pozwala określić dawkę promieniowania jonizującego na podstawie zmian spowodowanych w naszym organizmie. Obserwując zmiany w materiale genetycznym limfocytów krwi obwodowej, krążących przecież po całym ciele, możliwe jest odczyta‐
nie dawki, nawet kiedy promieniowanie objęło niewielki fragment ciała. Jest to najlep‐
szy „dozymetr”, który każdy zawsze nosi ze sobą. We wstępie do tematyki dotyczącej promieniowania jonizującego M. Rabiń‐
ski przedstawił krótką historię znaku ostrzegającego przed promieniowaniem. Po raz kolejny, w artykule K. Fornalskiego i L. Dobrzyńskiego omawiany jest ważny problem niskich dawek promieniowania i ich oddziaływanie na organizm. Kwe‐
s a małych dawek jest elementem trwającej dyskusji na temat ich nieszkodliwości. W bardzo interesującej pracy zbiorowej pracowników Centralnego Laborato‐
rium Ochrony Radiologicznej (K. Isajenko, B. Piotrowska, M. Fujal) omówiono wyniki pomiarów izotopów promieniotwórczych, które pojawiły się nad Polską po awarii elektrowni Fukushima Dai‐ichi . Zagadnienia związane z ochroną radiologiczną i no‐
wymi inicjatywami w tej dziedzinie przedstawiła N. Golnik w artykule „Kultura ochro‐
ny radiologicznej”. Kultura ochrony radiologicznej to sposób, w jaki ochrona radiolo‐
giczna jest regulowana, zarządzana, wykonywana, kultywowana i postrzegana w miej‐
scach pracy, medycynie i życiu codziennym i odzwierciedla nastawienie, zrozumienie, cele i wartości wspólne, uznawane przez pracowników, lekarzy, inspektorów i ogół społeczeństwa, w odniesieniu do ochrony radiologicznej. Uzupełnieniem rozważań dotyczących ochrony przed promieniowaniem jest opis technologii wspomagających rozwój bezpieczeństwa energetyki jądrowej przygo‐
towany przez S. Sommera. W ostatnim artykule omawiam prowadzone w Japonii działania związane z usuwaniem skutków katastrofy ekologicznej po awarii elektrowni Fukushima Dai‐ichi wywołanej falą tsunami. Wszystkich chętnych, a przede wszystkim specjalistów, serdecznie zapraszamy do współpracy i publikowania na naszych łamach. Dalszy losy naszego czasopisma uzależnione są od wsparcia sponsorów – Zespół Redakcyjny prosi o kontakt zainteresowanych kontynuacją istnienia naszego kwartalnika EKOATOM JEST PRAWNIE ZASTRZEŻONYM ZNAKIEM TOWAROWYM Centralny Ośrodek Szkolenia i Wydawnictw Ul. Świętokrzyska 14 00‐050 Warszawa tel.22 336 14 19 fax. 22 336 14 25 www.cosiw.pl e‐mail: [email protected] Redaktor Naczelny
Dr inż. Krzysztof Rzymkowski
Kwartalnik popularnonaukowy Luty—Marzec 2012 W numerze
4
Wiadomości 6 RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH 6 RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH 7 RUSZYŁ KONKURS NA PREZESA PGE EJ
7 RUSZYŁ KONKURS NA PREZESA PGE EJ 7 ATOMOWE PLANY PGE NA ROK 2012
7 ATOMOWE PLANY PGE NA ROK 2012 7 PROF. STRUPCZEWSKI: PROGRAM JĄDROWY REALIZOWANY PRAWIDŁOWO
7 PROF. STRUPCZEWSKI: PROGRAM JĄDROWY REALIZOWANY PRAWIDŁOWO 8 WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM
8 WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM Edukacja Andrzej Strupczewski 10 ODPOWIEDŹ NA OPRACOWANIE, MORSKI WIA
10 ODPOWIEDŹ NA OPRACOWANIE, MORSKI WIATR KONTRA ATOM
TR KONTRA ATOM Wszystkie źródła energii są Polsce potrzebne i w planach polskich jest miejsce zarówno dla energii jądrowej jak i dla farm wiatrowych, w tym dla morskich farm wiatrowych (MFW). Opracowanie „Morski wiatr kontra atom” niepotrzeb‐
nie podchodzi do spraw rozwoju tych dwóch źródeł energii jakby były one sobie nawzajem wrogie, jakby się wykluczały. Sylwester Sommer 32 DOZYMETRIA BIOLOGICZNA Dozymetria biologiczna pozwala określić dawkę promieniowania jonizującego na podstawie zmian spowodowanych przez nią w naszym organizmie. Najczęściej posługujemy się zmianami w materiale genetycznym limfocytów krwi ob‐
wodowej Promieniowanie jonizujące Marek Rabiński 48 HISTORIA ZNAKU OSTRZEGAJĄCEGO PRZED PROMIENIOWANIEM
48 HISTORIA ZNAKU OSTRZEGAJĄCEGO PRZED PROMIENIOWANIEM Międzynarodowy znak ostrzegający przed promieniowaniem, powszechnie nazywany 'trójlistną koniczynką', powstał około 1946 roku w środowisku pracowników amerykańskiego laboratorium Uniwersytetu Kalifornijskiego w Berkeley. Sugerowano stworzenie grafiki, symbolizującej promieniowanie emitowane przez atom. Krzysztof Wojciech Fornalski, Ludwik Dobrzyński 54 ROBLEM NISKICH DAWEK PROMIENIOWANIA A SPRAWA RADONU
54 ROBLEM NISKICH DAWEK PROMIENIOWANIA A SPRAWA RADONU Problem niskich dawek promieniowania od lat stanowi przedmiot wielu wnikliwych badań i sporów uczonych co do in‐
terpretacji otrzymywanych wyników. Z jednej strony występują zwolennicy hipotezy o liniowym bez progowym wzroście ryzyka wraz z dawką, a z drugiej strony zwolennicy koncepcji hormezy radiacyjnej. Czy możliwe jest znalezienie złotego środka? Kwartalnik popularnonaukowy Luty— Marzec 2012 W numerze
5
Promieniowanie jonizujące Krzysztof A. ISAJENKO, Barbara PIOTROWSKA, Marian FUJAK 62 „POWIEW FUKUSHIMY” NAD POLSKĄ Nad naszym krajem około 23 marca 2011 (12 dni po awarii) zarejestrowano pierwsze warstwy mas powietrza znad elektrowni Fukushima, zawierające niewielkie ilości radionuklidów pochodzenia sztucznego: cezu 137Cs, cezu 134Cs oraz jodu 131I. Zarejestrowano także śladowe ilości innych izotopów. Ze względu na bardzo dużą odległość uszkodzonej elek‐
trowni od granic naszego kraju, radionuklidy znajdujące się w warstwach powietrza przemieszczających się nad naszym krajem, uległy znacznemu "rozcieńczeniu". Natalia Golnik 70 KULTURA OCHRONY RADIOLOGICZNEJ*)1
70 KULTURA OCHRONY RADIOLOGICZNEJ*)1 Ochrona radiologiczna towarzyszy technologii nuklearnej od samego początku jej istnienia, czyli od pierwszych, militar‐
nych zastosowań. W tamtym okresie zadaniami ochrony radiologicznej było ograniczenie narażenia personelu pracują‐
cego z promieniowaniem przed znanymi już zagrożeniami. Krzysztof A. ISAJENKO, Barbara PIOTROWSKA, Marian FUJAK Sylwester Sommer 74 TECHNOLOGIE WSPOMAGAJĄCE ROZWÓJ BEZPIECZEŃSTWA ENERGETYKI JĄDROWEJ Dziewiątego grudnia 2011 odbyło się w Krakowie, w siedzibie Instytutu Fizyki Jądrowej PAN im. Henryka Niewodniczań‐
skiego Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”. Elektrownie Jądrowe Krzysztof Rzymkowski 82 USUWANIE SKUTKÓW KATASTROFY EKOLOGICZNEJ WYWOŁANEJ FALĄ TSUNAMI
USUWANIE SKUTKÓW KATASTROFY EKOLOGICZNEJ WYWOŁANEJ FALĄ TSUNAMI Zbliża się pierwsza rocznica potężnego trzęsienia ziemi (11 marca 2011) , które wywołało ogromną falę tsunami powo‐
dującą tragiczną w skutkach katastrofę. Kwartalnik popularnonaukowy Luty—Marzec 2012 Wiadomości
6
C h c e s z W s p ó ł t w o r z y ć E K O AT O M ?
M a s z c i ek aw y
artykuł ...?
napisz na adres
[email protected]
RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH
RANKING LOKALIZACJI ELEKTROWNI JĄDROWYCH INFORMACJA PRASOWA Ministerstwo Gospodarki (h p://www.mg.gov.pl) Kwartalnik popularnonaukowy Luty— Marzec 2012 Wiadomości
RUSZYŁ KONKURS NA PREZESA PGE EJ
RUSZYŁ KONKURS NA PREZESA PGE EJ Rada nadzorcza PGE Energia Jądrowa ogłosiła konkurs na stanowisko prezesa zarządu spółki. Zainteresowani tą posadą mają trzy tygodnie na złożenie ofert. Rada nadzorcza PGE Energia Jądrowa, czyli spółki odpowiadającej w grupie PGE za strate‐
giczne decyzji w obszarze energetyki jądrowej, ogłosiła dzisiaj rozpoczęcie postępowania kwalifikacyjnego na stanowisko prezesa zarządu spółki. Preferowani będą kandydaci, którzy poza spełnieniem kryteriów wymienionych w ogłoszeniu, dodatkowo posiadają doświadczenie zawodowe lub wykształcenie w dziedzinie energetyki jądrowej, wiedzę w zakresie technologii elektrowni cieplnych, studia podyplomowe lub MBA. Termin składania ofert w konkursie na stanowisko prezesa PGE Energia Jądrowa upłynie 24 lutego bieżące‐
go roku. Fotel prezesa PGE Energia Jądrowa zwolnił się po złożeniu rezygnacji przez Tomasza Zadrogę, który był też prezesem zarządu PGE i odszedł z tego stanowiska wskutek rezygnacji z 14 grudnia 2011 roku. ATOMOWE PLANY PGE NA ROK 2012 W roku 2012 r. planujemy rozpoczęcie postępowania przetargowego na dostawcę technologii dla elektrowni jądrowej. Nastąpi również zakończenie postępowania przetargowego na inżyniera kontraktu oraz na wykonawcę badań lokali‐
zacyjno‐środowiskowych ‐ mówi Marcin Ciepliński, dyrektor ds. strategii i rozwoju w PGE Energia Jądrowa.Na rok 2012 zaplanowano ponadto roz‐
poczęcie badań lokalizacyjno‐środowiskowych. Jak podkreśla Marcin Ciepliński, w br. kontynuowane będą prace nad projektem, w szczególności w zakresie Jak podkreśla Marcin Ciepliński, w br. kontynuowane będą prace nad budowy i realizacji modelu projektem, w szczególności w zakresie budowy i realizacji modelu finan‐
finansowania inwestycji i rozbudowy sowania inwestycji, rozbudowy zespołu projektowego i rozwoju własnych zespołu projektowego Fot. (mat. pras.) kompetencji. Kontynuowana będzie współpraca z podmiotami zaangażo‐
wanymi w projekt, zintensyfikowane zostaną działania komunikacyjne, zwłaszcza w regionach potencjalnych lokalizacji elektrowni jądrowej. wnp.pl (Dariusz Ciepiela) całość pod adresem h p://energetyka.wnp.pl/atomowe‐plany‐pge‐na‐rok‐
2012,161208_1_0_0.html PROF. STRUPCZEWSKI: PROGRAM JĄDROWY PROF. STRUPCZEWSKI: PROGRAM JĄDROWY REALIZOWANY PRAWIDŁOWO Normalną rzeczą jest, że rozpoczęcie budowy elektrowni jądrowej poprzedza dość długi okres przygotowawczy. Najważniejszą kwes ą, którą do tej pory zrealizowano, było przyję‐
cie ustawy Prawo atomowe i przygotowanie rozporządzeń wykonawczych Rady Ministrów, które określają konkretne cechy elektrowni jądrowej i jej właściwości z punktu widzenia bezpieczeństwa. W dyskusjach nad prawem atomowym, prowadzonych w roku 2010, przeciwnicy energetyki jądrowej twierdzili, że w żaden sposób nie uda się prawa atomowego przygotować do końca 2011 r. Udało się, prawo obowiązuje od lipca 2011 r. Brakuje jeszcze ok. 7 rozporządzeń Rady Ministrów, ich projekty już są przygotowane, znajdują się uzgodnieniach międzyresortowych, w ciągu kilku najbliższych miesięcy będą miały moc prawną. wnp.pl (Dariusz Ciepiela) całość pod adresem h p://energetyka.wnp.pl/energetyka_atomowa/prof‐strupczewski‐
program‐jadrowy‐realizowany‐prawidlowo,161579_1_0_0.html Kwartalnik popularnonaukowy Luty—Marzec 2012 7
Wiadomości
8
WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM
WSPOMNIENIE O PROF. ZBIGNIEWIE JAWOROWSKIM W dniu 12 listopada 2011 roku, odszedł od nas wieloletni pracownik i Przewodniczący Rady Naukowej Centralnego Laboratorium Ochrony Radiologicznej, oraz jeden z najwybitniejszych autorytetów w dziedzinie higieny radiacyjnej. Jego dorobek naukowy zajmuje poczesne miejsce w historii polskiej nauki, a zwłaszcza w badaniach zjawisk zachodzących w środowisku i wpływu promieniowania joni‐
zującego na organizmy żyw. Jego opracowania i publikacje są po‐
wszechnie znane i cenione zarówno w Polsce, jak i za granicą. Był nie tylko człowiekiem nadzwyczaj aktywnym i pełnym inwencji, o wszechstronnych zainteresowaniach, obdarzo‐
nym wielką erudycją i mistrzowsko władającym słowem i piórem, lecz również człowiekiem o wielkim sercu i inte‐
lekcie, obdarzony wrażliwością na wszystkie sprawy ludzkie, oddanym bez reszty nauce i popularyzacji wiedzy Profesor Jaworowski był autorem ponad 200 prac naukowych, czterech książek i współautorem lub współ‐
redaktorem naukowych raportów organizacji międzynarodowych : Naukowego Komitetu ds. Skutków Promienio‐
wania Atomowego przy ONZ (UNSCEAR), Międzynarodowej Agencji Energii Atomowej czy Programu Środowisko‐
wego Organizacji Narodów Zjednoczonych, w skrócie UNEP (ang. United Na ons Environmental Programme). Był członkiem wielu stowarzyszeń i organizacji naukowych w kraju i zagranicą: m.in. Komitetu Ochrony Radiolo‐
gicznej Państwa, Polskiego Towarzystwa Badań Polarnych, Norwegian Physical Society. Był też uczestnikiem bądź przewodniczącym blisko 20 Grup Doradczych Międzynarodowej Agencji Energii Atomowej (IAEA) i Programu Środo‐
wiskowego ONZ (UNEP). Był współzałożycielem, a w 2008 roku, Pierwszym Prezesem Stowarzyszenia Ekologów na Rzecz Energii Nukle‐
arnej SEREN – POLSKA. Źródło: z tekstu Dr Pawła Krajewskiego
DYREKTORA CENTRALNEGO LABORATORIUM OCHRONY RADIOLOGICZNEJ
Kwartalnik popularnonaukowy Luty— Marzec 2012 Wiadomości
Obecnie budowane energetyczne bloki jądrowe wykorzystują technologie znane od kilku dekad, podlegające stopniowemu, ewolucyjnemu udoskonalaniu. Jednym z głównych kierunków rozwoju jest tutaj zwiększanie sprawności układu konwersji energii uzyskiwane na drodze podnoszenia parametrów termodynamicznych czynników roboczych – a zatem także parametrów pracy samego reaktora jądrowego. Stanowi to duże wy‐
zwanie z materiałowego punktu widzenia, jako że zbiorniki ciśnieniowe reaktorów są konstrukcjami, które muszą spełniać niezwykle wyśrubowane normy. Podniesienie wytrzymałości tych zbiorników jest jednocze‐
śnie niezbędne dla umożliwienia pracy reaktora jądrowego w warunkach wyższej temperatury i ciśnienia. Jeszcze większe wyzwania niesie ze sobą program w rozwoju reaktorów nowej genera‐
cji. Ogólne dążenie do podnoszenia temperatury pracy reaktorów wymusza opracowa‐
nie nowych materiałów nie tylko dla wytworzenia głównych elementów obiegu tech‐
nologicznego, takich jak np. zbiornik reaktora, ale także dla nowych rodzajów paliwa jądrowego zdolnego do pracy w podwyższonej temperaturze. Istotna jest tu np. kon‐
strukcja koszulek elementów paliwowych, które muszą spełniać wiele różnorodnych wymogów, wśród których można wymienić:  odporność na wysokie temperatury i ciśnienia pracy,  odporność na szkodliwe oddziaływanie chłodziwa (np. korozję),  odporność na skutki działania silnego promieniowania,  minimalny wpływ na gospodarkę neutronową rdzenia,  dobrą przewodność cieplną,  łatwość obróbki, pozwalającą na precyzyjne wykonanie odpowiednich elementów. Warto podkreślić, że to właśnie ograniczenia natury materiałowej w głównej mierze ograniczają parametry pracy reaktorów jądrowych – a co za tym idzie sprawność jądro‐
wych bloków energetycznych. Rozwój w tej dziedzinie ma zatem pierwszorzędne zna‐
czenie dla poprawy efektywności wykorzystania dostępnych zasobów paliwa jądrowe‐
go. Kwartalnik popularnonaukowy Luty—Marzec 2012 9
Edukacja
10
Odpowiedź na opracowanie MORSKI WIATR KONTRA ATOM Andrzej Strupczewski Wiceprezes Stowarzyszenia Ekologów Na Rzecz Energii Nuklearnej STRESZCZENIE
Wszystkie źródła energii są Polsce potrzebne i w planach polskich jest miejsce zarówno dla energii
jądrowej jak i dla farm wiatrowych, w tym dla morskich farm wiatrowych (MFW). Opracowanie „Morski
wiatr kontra atom1” niepotrzebnie podchodzi do spraw rozwoju tych dwóch źródeł energii jakby były one
sobie nawzajem wrogie, jakby się wykluczały. Wcale tak nie jest, o czym świadczy zarówno postawa PGE
Polskiej Grupy Energetycznej prowadzącej prace nad rozwojem wiatraków, jak i oświadczenie Macieja
Stryjeckiego, prezesa Fundacji na rzecz Energetyki Zrównoważonej, niezależnego think-tanku, który prowadził własne analizy porównawcze uwarunkowań ekonomicznych, gospodarczych, społecznych i środowiskowych rozwoju morskiej energetyki wiatrowej i energetyki jądrowej w Polsce2.
Stawianie sprawy w kategoriach konfliktu jest wyrazem postawy organizacji Greenpeace, która stawia sobie jako cel polityczny zwalczanie energii jądrowej w każdym kontekście. W dążeniu do uzyskania potrzebnych jej politycznie efektów Greenpeace stosuje szereg chwytów propagandowych i niezgodnych z
rzeczywistością twierdzeń, które prowadzą do błędnego wniosku sformułowanego przez autorów broszury,
jakoby energia wiatrowa i jądrowa nawzajem się wykluczały. Błędy zawarte w tej broszurze propagandowej są poważne i obejmują całą gamę zagadnień.
Nakłady inwestycyjne na obie rozważane technologie są przedstawione tendencyjnie i z grubymi błędami, co daje wyniki sprzeczne z rzeczywistym stanem rzeczy.
Perspektywy redukcji kosztów w następnych latach są tendencyjnie wypaczone, niezgodne z rozsądkiem
i z publikowanymi danymi.
Wnioski odnośnie ceny energii z obu technologii są błędne.
Frazesy o tworzeniu wielu miejsc pracy przez rozwój odnawialnych źródeł energii (OZE) są niezgodne z
doświadczeniami innych krajów, np. Hiszpanii, i nie uwzględniają rosnącej roli importu spoza krajów Unii
Europejskiej.
Twierdzenia o negatywnym wpływie energetyki jądrowej na miejsca pracy w Polsce są niezgodne z
prawdą.
Całość broszury ma służyć do uzasadnienia żądań wyeliminowania energetyki jądrowej. Tymczasem ceny
energii z wiatraków są ponad dwukrotnie wyższe od cen energii z elektrowni systemowych, podczas gdy
energetyka jądrowa nie wymaga dotacji ani subwencji i oferuje energię po cenie niższej od średniej ceny
energii elektrycznej z konwencjonalnych elektrowni systemowych. Odnawialne źródła energii, w tym i
morskie farmy wiatrowe, można budować i będziemy budować, ponosząc odpowiednie dodatkowe koszty.
Nieuczciwie jest jednak wyłudzanie tych kosztów od społeczeństwa przemilczając rzeczywisty wpływ
OZE na wzrost kosztu energii elektrycznej. Nawoływanie do rezygnacji z energetyki jądrowej jest działaniem na szkodę społeczeństwa.
W tekście poniżej przedstawimy fakty i informacje ilustrujące rzeczywiste koszty, osiągnięcia i
trudności w rozwoju obu tych technologii.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
11
POPARCIE ENERGETYKI ODNAWIALNEJ PRZEZ
RZĄD I PARLAMENT W POLSCE
Rząd polski i polskie środowiska techniczne doceniają znaczenie odnawialnych źródeł energii (OZE),
Premier oświadcza, „dobrze wiemy, że wspieranie odnawialnych źródeł energii, całego sektora zielonej
energii jest rzeczą bardzo ważną" 3 , a ustalone przez polski parlament wysokie dopłaty dla deweloperów
wiatraków i innych źródeł energii odnawialnej świadczą jednoznacznie o woli ponoszenia dużych kosztów, byle tylko zyski dla deweloperów OZE były wystarczające i by chcieli oni inwestować w Polsce.
Trzeba przypomnieć, że o ile za energię elektryczną dostarczoną do sieci elektrownia systemowa dostaje w
Polsce około 200 zł/MWh, to producent energii pochodzącej z wiatraków dostaje te same 220 zł PLUS 270
zł dopłaty za „zielony certyfikat” – a więc razem dostaje 470 zł, ponad dwa razy więcej niż energetyka
systemowa.
Producenci energii odnawialnej mają też dodatkowe korzyści – nie są odpowiedzialni za brak prądu,
gdy wiatr nie wieje – o to muszą się martwić elektrownie zawodowe. W miarę wzrostu udziału energii
elektrycznej z wiatraków w sieci część elektrowni będzie musiała pracować na poziomie minimum technicznego, aby zapewnić rezerwę dla elektrowni wiatrowych na czas, gdy nie ma wiatru. Producenci energii
wiatrowej nie mają też kłopotu, gdy wiatr jest silny - sieć energetyczna ma obowiązek przyjąć energię z
wiatraków w każdej chwili i bez uprzedzenia, nawet gdyby miało to oznaczać konieczność wyłączenia z
ruchu elektrowni systemowych. Ponadto w fazie budowy deweloperzy wiatraków starają się o dotacje
dodatkowe – i otrzymują je4. Ale dla Greenpeace’u to wszystko za mało.
Korzystając z tragedii Japonii, w której wskutek trzęsienia ziemi i tsunami zginęło 25 000 mieszkańców, Greenpeace podjął w Polsce kampanię antynuklearną. I chociaż wskutek uwolnienia materiałów
promieniotwórczych w Japonii nikt nie stracił życia, w przeciwieństwie do ludzi zabitych przez trzęsienie
ziemi i utopionych przez tsunami, Greenpeace straszy nasze społeczeństwo starając się wmówić ludziom,
że to elektrownia jądrowa jest przyczyną nieszczęścia Japonii, a nie podwójna klęska żywiołowa, jaka na
nią spadła.
Chociaż w Polsce i na całym świecie jest dość miejsca i dla drogich, pracujących z przerwami wiatraków i dla stale dostarczającej energię elektryczną taniej energii nuklearnej, Greenpeace wydał niedawno
pięknie ilustrowaną broszurę „Morski wiatr kontra atom”, nie szczędząc pieniędzy by wmówić Polakom,
że powinni zrezygnować z energii jądrowej i budować wiatraki na morzu. W broszurze twierdzi się, że
wiatraki na morzu to rozwiązanie tańsze, co jest twierdzeniem sprzecznym z doświadczeniami innych
krajów, w tym krajów dysponujących znaczne lepszymi warunkami wiatrowymi niż Polska, np. Wielkiej
Brytanii. Warto przypomnieć, że właśnie w tym roku z budowy wiatraków na morzu na dużą skalę ostatecznie zrezygnowała Holandia5 – bo okazały się zbyt drogie. A Holendrzy mają chyba trochę doświadczenia w wiatrakach – zapewne o kilkaset lat więcej niż aktywiści Greenpeace’u. Ale Greenpeace wspierany
przez walczących o polityczną władzę niemieckich zielonych twierdzi, że wiatraki dla Polski to najtańsze
źródła czystej energii! Czy nie przydałoby się autorom nieco skromności i przyznania chociaż czasami, że
fakty przeczą ich szumnym twierdzeniom?
W kilka dni po ukazaniu się wspomnianej broszury Maciej Stryjecki, prezes Fundacji na rzecz Energetyki Zrównoważonej, oświadczył, że nie trzeba przeciwstawiać wiatraków energii jądrowej, bo w gospodarce polskiej jest dość miejsca dla obu tych źródeł energii7. Tego samego zdania jest Stowarzyszenie
Ekologów na Rzecz Energii Nuklearnej SEREN.
Również PGE Polska Grupa Energetyczna uważa, że trzeba rozwijać i energetykę jądrową i wiatrową
i ma zespół fachowców zajmujących się budową i eksploatacją wiatraków bardziej liczny niż zespół do
spraw energetyki jądrowej. Nie tylko premier Tusk, ale i wicepremier, minister gospodarki Waldemar
Pawlak podkreślają znaczenie odnawialnych źródeł energii, a w kwietniu 2011 r. Rada Ministrów przyjęła
opracowany przez Ministerstwo Gospodarki raport określający cele w zakresie udziału energii elektrycznej
wytwarzanej w odnawialnych źródłach energii 8 a przy ministrze rolnictwa powołano Zespół ds. Odna-
Kwartalnik popularnonaukowy Luty—Marzec 2012 12
Edukacja
wialnych Źródeł Energii9.
Ale Greenpeace’owi normalne, spokojne popieranie wiatraków nie wystarcza. Greenpeace szuka rozgłosu, chce sensacyjnych twierdzeń i akcji, które by opisywała prasa, przynosząc zyski polityczne niemieckim i innym zielonym. Dobro gospodarki jest w takiej sytuacji znacznie mniej ważne niż możliwe zyski
polityczne.
Wobec tego, że autorzy broszury Greenpeace’owej wiodą Czytelnika do rejonów odległych od naszych
dotychczasowych doświadczeń i wmawiają mu przy tym, że są bezstronni i że dobrze życzą polskiemu
społeczeństwu, przyjrzyjmy się ich argumentom i skonfrontujmy je z rzeczywistością.
OCENA AKTUALNYCH KOSZTÓW INWESTYCYJNYCH ELEKTROWNI
JĄDROWEJ
Autorzy opracowania Greenpeace’u twierdzą, że ich ocena kosztów dla elektrowni jądrowej jest obiektywna, bo opiera się na uznanej powszechnie metodyce stosowanej przez Massachusetts Institute of Technology (MIT). Gdyby tak rzeczywiście było, nie byłoby powodu do dyskusji, bo z opracowania MIT wyraźnie
widać znaczną przewagę ekonomiczną elektrowni jądrowych nad innymi elektrowniami, w tym także wiatrowymi. Jednakże autorzy przyjęli tylko niektóre elementy metodyki MIT i jak sami napisali, zaktualizowali wysokość nakładów inwestycyjnych. Do analiz przyjęto, że nakłady inwestycyjne dla Polski zostaną
zwiększone o 80% w stosunku do kosztów budowy elektrowni, określanych jako koszty EPC (engineering,
procurement, construction) w studium MIT, a koszty dodatkowe inwestora z 20% do 30%. Razem – wzrost
1,8 x 1,3/1,2 = 1,95 razy!
Tymczasem nakłady inwestycyjne są najważniejszą częścią wyceny ekonomicznej, i to zarówno dla elektrowni jądrowych - gdzie są one wysokie - jak i dla wiatraków, dla których są one jeszcze wyższe, i to dużo
wyższe.
Wobec dominującego znaczenia nakładów inwestycyjnych, zmiany ich wielkości oznaczają brutalną interwencję w rachunek ekonomiczny i bezpośrednie oddziaływanie na wynik porównań kosztowych. Za nierzetelne należy uznać wprowadzenie zdecydowanie innych danych niż w studium MIT i wmawianie potem
Czytelnikowi, że zastosowało się „metodykę MIT”!
Które nakłady są prawdziwe, czy te podawane przez Greenpeace, czy te przyjmowane przez MIT? Greenpeace nie może pogodzić się z rzeczywistymi wielkościami tych nakładów. Chociaż studium MIT podaje,
że nakłady jednostkowe wynoszą 4000 USD/kW (w USD z 2009 roku), co równa się 3000 euro/kW, to
raport „poprawiony” podaje, że wyniosą one 5460 euro/kW mocy zainstalowanej 10. Po przeliczeniu na rok
bazowy 2011 autorzy otrzymali nakłady w wysokości 6145 euro/kW!
Tak więc wartość podana przez Greenpeace jest prawie dwukrotnie większa, niż w oryginalnym raporcie
MIT. Rozbieżność jest zbyt duża, by uznać ją za przypadek. Autorzy raportu podają, że opierali się na
ocenach agencji ratingowej Moody’s i na opracowaniach znanego przeciwnika energii jądrowej, pana Coopera. Ale ani wyceny agencji, ani polemiczne artykuły działaczy antynuklearnych nie są związane z rzeczywistymi faktami finansowania inwestycji. Można byłoby na te wyceny odpowiedzieć innymi wycenami,
wykonanymi przez kompetentnych ekspertów OECD.
Przytoczymy je poniżej, choć i te wyceny nie są faktami. Natomiast takimi faktami są ceny w rzeczywiście
zawartych kontraktach, i to kontraktach dużych, na sumy rzędu 20 miliardów dolarów każdy. Te fakty
chcemy przypomnieć Czytelnikom – i dlatego dokonamy przeglądu kosztów w kontraktach zawartych
rzeczywiście w ciągu ostatnich 20 miesięcy.
W grudniu 2009 r. Zjednoczone Emiraty Arabskie kupiły od Republiki Korei 4 bloki po 1400 MW za
cenę 20 miliardów USD, a więc za około 15 mld euro, co daje cenę jednostkową 2,7 mln euro za MW. Jest
to cena za komplet dostaw i budowę wraz z wsadem paliwowym i uruchomieniem – pod klucz, czyli są to
nakłady inwestycyjne bezpośrednie (overnight w terminologii angielskiej) obejmujące prace inżynieryjne,
dostawy materiałów i urządzeń (engineering, procurement and construction – EPC). Do tego trzeba dołożyć koszty własne inwestora, zagospodarowania działki, koszt doprowadzenia sieci energetycznej do elektrowni i płacenie odsetek od zaciągniętej pożyczki. Te koszty musi jednak ponieść inwestor w każdym
przypadku, dla elektrowni wiatrowej budowanej na morzu będą one jeszcze większe niż dla elektrowni
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
13
jądrowej na lądzie. Nie zależą one od typu elektrowni, a raczej od stosunków inwestora z bankami - dlatego zwykle przy omawianiu kontraktów wymienia się sumy płacone przez inwestora dla dostawcy technologii, a nie koszty inwestora.
Turcja kupiła od Rosji 4 bloki z reaktorami WWER 1000 o mocy 1200 MW każdy. Koszt całości
projektu oceniono na 18-20 mld dolarów USA11, a więc w przeliczeniu na jednostkę mocy przy przyjęciu
górnej granicy ceny i po konwersji na euro otrzymujemy 3,1 mln euro/MW. Kontrakt ten ratyfikował
parlament Turcji w lipcu 2010 roku – a więc jest to transakcja jak najbardziej aktualna. Podobną cenę za
reaktory AP1000 dla EJ Temelin, a mianowicie 3 mln euro/MW wymienił dyrektor firmy Westinghouse,
podając że za dwa bloki o mocy 1150 MW każdy Amerykanie chcą otrzymać 6,59 mld euro12. Jest to
wiadomość z lipca 2010 – a więc również w pełni aktualna.
Koszty budowy reaktora EPR są inne dla bloków prototypowych i inne dla następnych. W prototypowej budowie bloku w Olkiluoto trudności było dużo i opóźnienia oraz koszty były znaczne. W elektrowni
Flamanville 3 budowa idzie lepiej, ale i tam są opóźnienia, a koszty doszły do 6 miliardów euro za 1650
MW 13, co oznacza ‘koszty jednostkowe 3.6 mln euro/MW. W następnych blokach budowanych w Tianshan w Chinach prace są wykonywane sprawnie i zgodnie z harmonogramem. Ma to odzwierciadlenie w
kosztach budowy, które w Chinach są znacznie mniejsze.
To pozytywne doświadczenie pozwoliło Francuzom na zmniejszenie marginesów bezpieczeństwa w
ich ofercie finansowej i oferowanie budowy reaktora EPR w Indiach po cenie naprawdę konkurencyjnej.
W grudniu 2010 r. prezydent Sarkozy i prezes Nuclear Power Corporation of India Limited (NPCIL) podpisali umowę o budowie 2 reaktorów EPR w Jaitapur i o dostawie paliwa przez 25 lat. Cena, jaką zapłacą
Indie, wynosi 9,3 miliarda USD, co oznacza 2.9 mln USD/MW, a pozostały wkład wniosą Indie poprzez
swój udział w budowie14. Jest to dobra wiadomość dla Polski – bo jeśli wybierzemy reaktor EPR, to będzie
on budowany u nas nie jako prototyp, lecz jako kolejny ósmy czy dziesiąty w serii, co pozwoli nam korzystać ze wszystkich doświadczeń zebranych przedtem w Finlandii, Francji, Chinach, Indiach, Wielkiej
Brytanii i w USA.
W innych kontraktach powtarzają się ceny płacone dostawcom reaktora na poziomie 3 – 3,3 mln
euro/MW. W Bułgarii elektrownia jądrowa Belene z dwoma blokami WWER o mocy 1068 MW każdy15,
ma wg dostawcy kosztować 6.3 mld euro16 , co
oznacza cenę 2,95 mln
euro/MW.
Bułgaria
targuje się by uzyskać
niższą cenę. Na Białorusi
mają powstać dwa reaktory o łącznej mocy 2400
MW17 za 9 miliardów
USD, co oznacza koszt
jednostkowy 2810 euro/
MW.
Te dane o kontraktach
zgadzają się z ocenami
uśrednionych kosztów
energii elektrycznej z
różnych źródeł, których
dokonali eksperci OECD
w końcu 2010 roku.
Zestawienie
wyników
Rys. 2.1 Uśrednione koszty energii elektrycznej z różnych źródeł energii elektrycznej w opublikowanych w 2010
Ameryce, Europie i Azji wg OECD 2010 18 Kwartalnik popularnonaukowy Luty—Marzec 2012 14
Edukacja
Rys. 2.2 Uśrednione koszty energii elektrycznej z różnych źródeł energii elektrycznej w Ameryce, Europie i Azji wg OECD 2010.18 PRZEWIDYWANY WZROST KOSZTÓW BUDOWY
ELEKTROWNI JĄDROWYCH PO AWARII W EJ FUKUSHIMA
Autorzy raportu twierdzą, że po awarii w Fukushimie ceny reaktorów znacznie wzrosną. Na poparcie
swego twierdzenia przytaczają opinię pana Coopera, znanego przeciwnika energetyki jądrowej. Nie jest to
dowód, że mają rację – pan Cooper od dawna przepowiada, że energetyka jądrowa musi być nieopłacalna i
fakt, że jest ona najtańszym czystym źródłem energii, wcale nie przeszkadza mu w powtarzaniu jego opinii.
Jeszcze dalej idzie prof. Mielczarski, który dla energetyki jądrowej podaje fantastyczne koszty wytwarzania
energii elektrycznej rzędu 600 zł/MWh. Na uzasadnienie swych twierdzeń pan Cooper podaje, że poprzednio po awarii w Three Mile Island (TMI) koszty budowy elektrowni jądrowych znacznie wzrosły. Rzeczywiście taki wzrost wystąpił, ale awaria w Fukushimie nie spowoduje takich skutków jak awaria w TMI.
Awaria w TMI była spowodowana przez błędy konstrukcyjne w elektrowni, błędy we wskazaniach
układów pomiarowo-kontrolnych i błędy ludzkie. Dozór jądrowy w USA dokonał analizy bezpieczeństwa
wszystkich pracujących i budowanych wówczas elektrowni jądrowych w USA i nakazał wprowadzić szereg
dodatkowych zabezpieczeń i zmian, co zmusiło inwestorów do zatrzymania budowy realizowanych wówczas elektrowni, zaprojektowania i zrealizowania zmian, co opóźniało budowę obiektów i powodowało
wzrost kosztów. Natomiast awaria w Fukushimie była skutkiem zdarzeń zewnętrznych, w szczególności tsunami, którego wielkość przekroczyła oczekiwania, ustalane zresztą nie przez inżynierów jądrowych, ale
przez sejsmologów i hydrologów. Urządzenia elektrowni wytrzymały trzęsienie ziemi, natomiast nie były
odporne na zalanie wodą. Oczywiste jest, że w ogromnej większości lokalizacji elektrowni jądrowych zagrożenie tsunami nie występuje.
W chwili obecnej prowadzona jest akcja weryfikacji odporności istniejących elektrowni jądrowych na
zagrożenia zewnętrzne, tzw. akcja stress-testów. Ma ona być zakończona do końca roku i może wykazać, że
niektóre pracujące obecnie elektrownie wymagają modyfikacji i wzmocnienia ich odporności na zagrożenia
zewnętrzne. Są to jednak elektrownie obecnie pracującej II generacji. Reaktory III generacji były projektowane już po atakach terrorystycznych z 11 września 2001 roku i konstrukcje ich są odpowiednio wzmocnione, tak, że wytrzymują ataki terrorystyczne i zagrożenia zewnętrzne. Na przykład elektrownia jądrowa z reaktorem EPR jest budowana tak, że każdy z czterech systemów bezpieczeństwa znajduje się w oddzielnym
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
15
budynku, budynki są rozmieszczone na czterech rogach elektrowni, a wystarcza działanie jednego systemu
by elektrownia pozostawała bezpieczna. Również awaryjne generatory diesla są rozdzielone, a dodatkowo
budynki ważne dla bezpieczeństwa są chronione powłokami odpornymi na uderzenia samolotów i na zjawiska zewnętrzne. W reaktorze EPR jest specjalna podwójna obudowa reaktora, o bardzo grubych ścianach - 130 i 180 cm betonu, specjalnie zbrojonego19. Zabezpieczenia chroniące nowe elektrownie jądrowe
przed zniszczeniem w razie uderzenia samolotu wymagane są także w USA i elektrownie jądrowe z reaktorami AP1000 i ESBWR zaprojektowane zostały zgodnie z
tymi wymaganiami już na wiele lat przed awarią w Fukushimie. Dlatego zdarzenia zewnętrzne takie jak wstrząsy sejsmiczne, huragany, powodzie, a także działania człowieka nie stanowią w przypadku reaktorów III generacji nowości wymagającej
dodatkowych modyfikacji i kosztów.
W Japonii największe w historii trzęsienie ziemi spowodowało
przyspieszenia na poziomie gruntu rzędu 0,3 g. Reaktory EPR
projektowane są jako odporne na trzęsienie ziemi od 0.1 g w
Finlandii do 0.3 g w USA. Standardowe projekty EPR, AP1000
i ESBWR są obliczone na wartość max poziomego przyśpieszenia gruntu 0,3g – natomiast według przepisów energetyki
Rys. 3.1 Dodatkowa powłoka chroniąca obudowę europejskiej EUR wymagane jest 0,25g. W warunkach polbezpieczeństwa reaktora EPR i jego układy skich, które są podobne do fińskich, nie będzie żadnych probezpieczeństwa przed uderzeniem samolotu20. blemów z odpornością sejsmiczną reaktora EPR. Nie należy
też oczekiwać żadnych podwyżek kosztów powodowanych przez względy sejsmiczne – zostały już one
Rys. 3.2 Wymagania odporności na wstrząsy sejsmiczne stawiane reaktorowi EPR w różnych krajach21. uwzględnione w projekcie EPR na długo przed Fukushimą. Analizy bezpieczeństwa sejsmicznego wykonane przez firmę AREVA dla urzędów dozoru jądrowego w USA i w Wielkiej Brytanii wykazały, że nawet szczytowe przyspieszenie na poziomie gruntu równe 0.6g nie spowodowałoby znaczącego obniżenia
zdolności układów bezpieczeństwa EPR do wykonywania ich funkcji.
Podchodząc do wniosków z awarii w Fukushimie w sposób bardziej ogólny energetyka jądrowa stawia postulat wzmocnienia zasilania elektrycznego, tak by elektrownia mogła wytrzymać długotrwały brak
zasilania ze źródeł zewnętrznych i awarie własnych awaryjnych agregatów prądotwórczych. Również i ten
postulat jest spełniony w przypadku reaktorów III generacji. Firma Westinghouse opracowała analizy, które wykazały, że reaktor AP1000 może bezpiecznie wytrzymać całkowitą utratę zasilania elektrycznego ze
wszystkich źródeł prądu zmiennego przez 72 godziny 22, a w późniejszym okresie wystarcza uruchomienie
Kwartalnik popularnonaukowy Luty—Marzec 2012 Edukacja
16
jednej tylko pompy by zapewnić długotrwałe chodzenie reaktora zasobami wody znajdującymi się w elektrowni. Westinghouse wykazał także, że basen przechowywania paliwa jest dobrze zabezpieczony i nie grozi
mu awaria nawet w razie długotrwałego braku zasilania elektrycznego pądem przemiennym23.
Również reaktor EPR jest odporny na brak zasilania prądem przemiennym z zewnątrz. Ma on 4 gene-
Rys. 3.3 Zasoby wody w reaktorze EPR 24 ratory diesla o mocy 7 MW każdy, umieszczone w osobnych budynkach odpornych na zagrożenia zewnętrzne i dwa małe generatory diesla, każdy o mocy 1 MW, na wypadek całkowitej utraty zasilania z zewnątrz i z
generatorów awaryjnych w elektrowni. Układy te są różnorodne (różne moce i napięcia - 10 kV i 690 V),
osiągają pełną moc w ciągu 15 sekund po sygnale rozruchu i mogą pracować na pełnym obciążeniu przez 72
godziny. Czas ten jest wystarczający, by dowieźć i uruchomić ciężki sprzęt awaryjny zapewniający długotrwałe zasilanie elektryczne. Ponadto w projekcie reaktora EPR uwzględniono, że sieć zewnętrzna może być
uszkodzona w wyniku trzęsienia ziemi, co spowoduje brak zasilania zewnętrznego przez 15 dni. Wobec tego, że w toku awarii EJ Fukushima wystąpił problem braku wody, firma AREVA przeanalizowała zasoby
wody istniejące w elektrowni z reaktorem EPR i stwierdziła, że są one wystarczające. W razie utraty głównego ujścia ciepła (np. odprowadzenia ciepła do oceanu), reaktor EPR dysponuje dodatkowym osobnym
układem odprowadzania ciepła oraz dużymi rezerwami wody w 4 zbiornikach
systemu awaryjnego układu wody zasilającej wytwornice pary, dużym basenem
wody do gaszenia pożarów i dużym
zbiornikiem wody wewnątrz budynku
reaktora.
Dzięki silnemu i odpornemu na zagrożenia systemowi chłodzenia reaktora, w
razie awarii utraty zasilania elektrycznego w reaktorze EPR zgromadzi się mniej
zakumulowanej energii cieplnej. Umożliwia to usuwanie grzania powyłączeniowego nawet wtedy, gdy możliwości działania ograniczają się do środków zewnętrznych. Analizy wykazały, że dzięki
spadkowi generacji ciepła po wyłączeniu
Rys. 3.4 Chłodzenie po upływie 1 dnia od awarii może zapewnić dostarczanie reaktora, w przypadku reaktora EPR po
25
wody z 1 wozu strażackiego Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
17
upływie 1 dnia od awarii wystarcza dostarczanie wody z jednego wozu strażackiego by zapewnić wystarczające chłodzenie rdzenia reaktora.
Tak więc reaktory III generacji były już od dawna zaprojektowane jako odporne na takie zagrożenia,
jakie wystąpiły po trzęsieniu ziemi w Japonii. Urzędy dozoru jądrowego prowadzą analizy wniosków z Fukushimy, które będą uwzględnione w licencjonowaniu nowych elektrowni jądrowych. Jednakże nie oczekuje się istotnych zmian. W Wielkiej Brytanii regulator ONR (Office for National Regulation) opublikował w
dniu 18 maja 2011 raport, w którym stwierdził, że nie widzi podstaw do przerywania pracy istniejących bloków jądrowych i sformułował zalecenia mające zwiększyć ich odporność na zagrożenia zewnętrzne. Szef
dozoru brytyjskiego Mike Weighmann przygotowuje raport na temat Fukushimy, który będzie opublikowany w końcu września 2011, po czym brytyjski dozór jądrowy zamierza wydać ostateczne świadectwa bezpieczeństwa projektom elektrowni z reaktorami EPR i AP1000.
Według oświadczenia dyrektora firmy AREVA w Polsce, jeśli będzie potrzeba, to do reaktora EPR
zostaną wprowadzone odpowiednie modyfikacje, ale z dotychczasowych analiz wynika, że w obecnej koncepcji reaktor EPR nie potrzebuje poważniejszych zmian. Zaburzenia sejsmiczne w Polsce są minimalne,
porównywalne do tych, jakie występują w Finlandii, a więc wielokrotnie mniejsze niż były w Japonii. Prawdopodobieństwo wysokiej fali w Polsce jest znikome, a analizy powodziowe wykonuje się jako normalną
część każdego projektu elektrowni jądrowej. Jakie by nie były zagrożenia, to można tak skonfigurować elektrownię, że będzie można się przed nimi zabezpieczyć.
Zmiany mogą wpłynąć na koszty istniejących elektrowni jądrowych, w których będą wprowadzane
modyfikacje. Np. niemiecki dozór jądrowy wydał raport, w którym stwierdza się, że niemieckie elektrownie
jądrowe są bezpieczne, ale 4 bloki nie mają ochrony fizycznej na wypadek uderzenia samolotu. Możliwe
jest, że w wyniku takich ocen elektrownie te będą musiały wprowadzić wzmocnienie konstrukcji lub zostaną
zamknięte. W Rosji Rostechnadzor opublikował w kwietniu 2011 raport, w którym stwierdził, że rosyjskie
elektrownie jądrowe nie mają luk w zakresie odporności na zagrożenia zewnętrzne. Urzędy dozoru jądrowego w innych krajach również prowadzą analizy, i tak np. w USA dozór jądrowy (NRC) wydał już tymczasowy raport 27 z zaleceniami, które zasadniczo nie wiążą się z dodatkowymi wydatkami na modyfikacje elektrowni, a ukierunkowane są głównie na ulepszenie pracy dozoru jądrowego.
NAKŁADY INWESTYCYJNE NA MORSKIE FARMY WIATROWE
Jak wspomnieliśmy powyżej, jednostkowe nakłady inwestycyjne na budowę wiatraków są znacznie
wyższe niż nakłady na elektrownie jądrowe. Jest to skutkiem bardzo małej gęstości mocy wiatru – setki razy
mniejszej niż w przypadku wody i pary, wykorzystywanych w turbinach elektrowni jądrowych – a także
niewielkich współczynników wykorzystania mocy na skutek częstych spadków siły wiatru. Dlatego do wyprodukowana tej samej ilości energii potrzeba wiatraków o mocy 4-5 razy większej od mocy elektrowni jądrowych. A chociaż pojedyncze wiatraki wydają się smukłe, w rzeczywistości ilości materiałów potrzebnych na ich budowę są dużo większe niż ilości materiałów potrzebnych na elektrownie jądrowe. Do budowy
elektrowni jądrowej z reaktorem PWR o mocy 1000 MW pracującym przez 90% godzin w roku pełną mocą
potrzeba 60 000 ton stali i 372 tys. ton betonu 28 Dla reaktora EPR o mocy 1650 MW wskaźniki są podobne
– potrzeba dlań 630 tys. ton betonu 29. Dla reaktorów PWR wg oceny IAEA potrzeba 900 tys. ton betonu i
50 000 ton stali 30- jest to najwyższa z ocen dla reaktorów energetycznych. Razem więc, na 1000 MW potrzeba w przypadku EJ około od 430 tys. ton do miliona ton żelaza i betonu. A dla farmy wiatrowej – ile?
Wiatrak o mocy szczytowej 2 MW pracujący na lądzie potrzebuje podstawy betonowej o wadze około
800 ton i elementów stalowych o wadze około 300 ton, Tymczasem jego moc przy przeciętnych współczynnikach obciążenia jest dużo niższa. W 2010 r. w Niemczech współczynnik obciążenia wyniósł tylko 0,197,
w Wielkiej Brytanii 0,20 i tylko w krajach o szczególnie silnych wiatrach jak Dania i Irlandia wartość tego
współczynnika sięgała odpowiednio 0,27 i 0,24 31. Przyjmując wyższy od zanotowanego w ostatnim roku
współczynnik obciążenia 0,22 widzimy, że wiatrak o mocy nominalnej 2 MW pracuje średnio z mocą 440
kW.
Kwartalnik popularnonaukowy Luty—Marzec 2012 18
Edukacja
Potrzeba więc razem 1100 ton żelaza i betonu na wiatrak o mocy średniej 440 kW i o trwałości 20 lat. Dla
elektrowni jądrowej współczynnik obciążenia można przyjąć równy 0,9 (średnia dla wszystkich 104 bloków
jądrowych w USA to 0,91 lub wyżej) co oznacza, że na farmy wiatrowe na lądzie dające tyle energii, co EJ
1000 MW przez 60 lat potrzeba (800+300)/2x1000x0,9/0,22x60/20 = 6,75 miliona ton żelaza i betonu.
Jest to liczba szokująca – od 7 do 15 razy więcej niż dla elektrowni jądrowej. Nic dziwnego, że i nakłady
inwestycyjne są większe. A ile one wynoszą?
Wg broszury dla uzyskania mocy średniej takiej jak z elektrowni jądrowej o mocy 3000 MW potrzeba klastra MFW o mocy 5460 MW. Koszty tych farm wynoszą obecnie 3500 euro/kW 32. Autorzy broszury twierdzą, że koszty te gwałtownie spadną. Zobaczmy, czy doświadczenie potwierdza te obietnice.
DŁUGOTERMINOWE PERSPEKTYWY ZMIAN NAKŁADÓW
INWESTYCYJNYCH NA ELEKTROWNIE JĄDROWE I WIATROWE
Autorzy broszury przyjmują zupełnie inne założenia dla każdej z rzekomo obiektywnie porównywanych
technologii. Dla energetyki jądrowej przewidują oni ciągły wzrost kosztów, zaprzeczając spadkowi kosztów
w miarę uczenia się, chociaż doświadczenia energetyki jądrowej są jednoznacznie pozytywne. Jak widać z
rys. 5.1, przy budowie serii reaktorów danego typu występowało wyraźne skrócenie czasu budowy w miarę
zdobywania doświadczenia, a wraz z nim malały koszty budowy.
Rys. 5.1 Skracanie czasu budowy bloków EJ w miarę zdobywania doświadczenia Szczegółowych danych o redukcji czasu budowy kluczowych elementów też nie brakuje. Na rys. 5.2 widzimy, że przy budowie bloków nr 1 i 2 z reaktorami EPR w elektrowni Taishan w Chinach (TSN1 i 2) wystarczał czterokrotnie mniejszy nakład pracy dla osiągnięcie tego samego zaawansowania budowy, co przy budowie prototypowych bloków w Olkiluoto w Finlandii (OL3) i Flamanville we Francji (FA3).
Znaczne obniżenie kosztów elektrowni jądrowych przewidują także analizy wykonywane dla warunków
brytyjskich, jak widać w tabeli 5.1, gdzie podano przewidywane nakłady inwestycyjne przy przyjęciu scenariusza zrównoważonego rozwoju i scenariusza najmniejszych kosztów.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
19
Rok
2015
2020
2025
2030
2035
2040
Scenariusz zrównoważo‐
nego rozwoju
Mln £/MW
2759
2608
2516
2426
2341
2259
Mln Euro/kW
3310
3216
3019
2911
2809
2710
2609
2307
2167
2036
1914
1800
3130
2768
2600
2443
2230
2160
Scenariusz najmniejszych £/kW
kosztów
Euro/kW
Tabela 5.1 Jednostkowe nakłady inwestycyjne na elektrownie jądrowe w Wielkiej Brytanii 34 Jak
widać, dla roku 2015, gdy będą zamawiane bloki dla elektrowni jądrowej w Polsce, nakłady inwestycyjne w
Wielkiej Brytanii będą w przedziale od 3130 do 3310 euro/kW, a w następnych latach będą malały. Jest to
ocena zasadniczo odmienna od zawyżonych ocen podawanych przez przeciwników energetyki jądrowej.
Rys. 5.2 Zaawansowanie budowy w funkcji pracochłonności w blokach prototypowych LO3 i FA3 i w blokach następnych w TSN 1 i 2. 35 Przeciwnicy energetyki jądrowej powołują się na długotrwałe opóźnienia w budowie amerykańskich
elektrowni jądrowych w XX wieku, twierdząc, że są one regułą dla przemysłu jądrowego. Ale opóźnienia w
budowie elektrowni jądrowych w USA są „sukcesem” organizacji antynuklearnych. To wskutek ich protestów procesy sądowe trwały przez wiele lat, niekiedy doprowadzały do ruiny firmy inwestujące w energetykę jądrową, zawsze zaś powodowały wzrost kosztów. Słowo „sukces” zasługuje na cudzysłów, bo koszty
odsetek narastających podczas tych procesów musiało w ostatecznym rozrachunku pokryć społeczeństwo, a
nie organizacje typu Greenpeace. A gdy elektrownie dostawały wreszcie zezwolenie na pracę, to pracowały
znakomicie. A straty czasu i pieniędzy - bo odsetki od zamrożonego kapitału trzeba było płacić przez cały
czas każdego procesu – były niepotrzebne. Opóźnianie rozruchu elektrowni jądrowych było w interesie organizacji antynuklearnych, walczących o rozgłos i wpływy, ale na pewno nie w interesie społeczeństwa.
W Polsce nie można powtarzać błędów amerykańskich, jesteśmy zbyt ubodzy, by bez sensu płacić
odsetki za czas tracony na spory. Wszelkie dyskusje trzeba przeprowadzić PRZED rozpoczęciem budowy
elektrowni jądrowej (EJ), a nie później. Opóźnienie rozpoczęcia budowy nie jest bardzo kosztowne, po prostu społeczeństwo polskie za każdy rok opóźnienia programu musi zapłacić zużyciem droższej energii z innych źródeł. Natomiast gdy w budowę już włożono miliardy euro i elektrownia czeka na zezwolenie na rozruch – wtedy opóźnienia są bardzo kosztowne, bo odsetki od kapitału trzeba płacić!
Oczywiście autorzy broszury wiedzą, że wraz ze zdobywaniem doświadczenia koszty maleją. Ale
takie pozytywne stwierdzenia zachowują tylko dla technologii wiatrowej. Autorzy podają że „Najnowsze,
budowane obecnie na Bałtyku, niewielkie jeszcze MFW mają koszty jednostkowe rzędu 3 500 EUR/kW.”
Jakież więc koszty przyjmują na okres około 2020 roku?
Odpowiedź jest bardzo optymistyczna. Nakłady inwestycyjne na rok 2020 mają wynosić tylko –
2 510 EUR/kW (EUR z 2007 r). Do tego autorzy dodają znikomo małe koszty przyłączenia farmy do sieci
Kwartalnik popularnonaukowy Luty—Marzec 2012 20
Edukacja
elektroenergetycznej na lądzie. Koszty te mają pokryć rozbudowę głównego punktu zasilającego (tzw.
GPZ), budowę stacji Lubiatowo i rozbudowę stacji Słupsk. Łącznie przewidziano na ten cel 25 mln zł co
stanowi zaledwie dodatkowo 1,1 EUR/kW;
Biorąc pod uwagę, że farmy wiatrowe będą budowane w odległości około 40 km od brzegu, kwota
1,1 euro/kW wydaje się zaniżona. Ale pozostańmy przy ocenie zmian kosztów w funkcji czasu i procesu
uczenia się. Oto na 2040 rok autorzy broszury podają nakłady inwestycyjne w wysokości 1 802 EUR/kW
(EUR z 2010 r.), chociaż według ocen firmy Mott-MacDonald są one wyższe.
Tak więc autorzy założyli, że koszty inwestycyjne MFW zmaleją dwukrotnie w okresie od 2011 do
2040 roku. Twierdzą oni – podobnie jak wszyscy zwolennicy OZE – że koszty OZE stale maleją. Tymczasem nie jest to zgodne z prawdą.
Koszty inwestycyjne na elektrownie wiatrowe w USA po dwóch dekadach obniżek zaczęły w XXI
wieku rosnąć i od 2004 roku wzrosły bardzo wyraźnie. W 2004 roku nakłady inwestycyjne na turbiny wiatrowe na lądzie były najniższe, około 1100 USD/ kW. Już w 2006 roku koszty te wzrosły i wynosiły średnio
1485 USD/kW, z zakresem kosztów sięgającym od 1300 USD/kW do ponad 1700 USD/kW. Analitycy w
Lawrence Berkeley National Laboratory sądzą, że podwyżki wynikają z kilku powodów, wśród których najważniejszym był wzrost cen surowców i energii: Koszty surowców stosowanych do budowy wiatraków i
urządzeń pomocniczych takich jak cement, miedź, stal i inne wzrosły. Cena miedzi wzrosła z $0,72/lb w lipcu 2002 do $2,32/lb w marcu 2006. Ceny stali zbrojeniowej wzrosły w tym samym okresie o 45%. Ceny betonu budowlanego wzrosły o 50%. Podobnie wzrósł koszt energii potrzebnej do produkcji, transportu i montażu turbin wiatrowych i generatorów. Cena detaliczna oleju napędowego do silników diesla w USA wzrosła
z $0,85/galon w lipcu 2002 do $2,07/galon w marcu 2006. Wobec ogromnej materiałochłonności i energochłonności budowy wiatraków musiało to odbić się na cenach wiatraków.
Inne przyczyny wzrostu kosztów to koszty utrzymania ruchu turbin wiatrowych, które okazały się
wyższe od oczekiwanych, w szczególności dla turbin wiatrowych firmy VESTAS z Danii. Ponadto dostawcy turbin powiększali swoje zyski (w warunkach amerykańskich dominującym dostawcą jest firma General
Electric, która podniosła ceny wobec tego, że ceny dostaw z Europy wzrosły na rynku amerykańskim wskutek niskiego kursu dolara wobec euro).
Czynniki te były częściowo kompensowane przez wzrost mocy farm wiatrowych co spowodowało redukcję
kosztów dostaw wyposażenia, kosztów budowy i eksploatacji. Średnia moc farmy wiatrowej na północnozachodnim wybrzeżu USA wzrosła z około 20 MW w latach 1997-2000 do ponad 175 MW dla farm budowanych obecnie. Całkowita moc farm wiatrowych nadal rośnie i ostatnio zapowiadano dojście do mocy 750
MW.
Inne elementy kosztów utrzymują się na mniej więcej stałym poziomie. W sumie jednak nakłady inwestycyjne wzrosły.
Przykład tej tendencji wzrostowej podano w analizie organizacji The Northwest Power and Conservation Council (NPCC). W swoim planie sformułowanym w 2002 roku i przyjętym w 2004 roku NPCC 36
przyjmowała nakłady inwestycyjne w wysokości $1010 USD z 2000 r. co odpowiada 1160 USD/kW w
USD z 2006 roku. Do roku 2004 wydawało się, że te założenia są rozsądne, pisze NPCC.
Ale koszty nowych farm wiatrowych wzrosły znacznie w ciągu następnych lat. Przewidywane ceny
energii z elektrowni wiatrowych oddawanych do eksploatacji w 2007 roku doszły do ponad 100 USD/MWh.
Głównym elementem powodującym taki wzrost był wzrost nakładów inwestycyjnych o około 50% w stosunku do założeń z 2004 roku. Jednostkowe nakłady inwestycyjne w roku 2006 oceniano jako równe średnio 1500 USD/kW. Podwyżki te zostały częściowo zrównoważone przez udoskonalenia w procesie konwersji energii, dające oszczędności w wysokości około 7%. W sumie jednak zyski z budowy wiatraków znacznie zmalały.
Inny wskaźnik wzrostu kosztów morskich farm wiatrowych otrzymamy porównując oceny opracowywane dla nich dawniej i obecnie. W 2002 roku oceniano, że koszty morskich farm wiatrowych są około
30-40% wyższe od kosztów farm lądowych. Wynosiły więc one wtedy około 1500-1800 USD/kW. Tymczasem obecnie autorzy broszury podają koszty w wysokości 3500 euro/kW – a więc ponad dwukrotnie więk-
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
21
sze. A więc koszty farm wiatrowych rosną!
W marcu 2011 r. nakłady inwestycyjne na wiatraki w USA wahały się w szerokim zakresie, od 4,16
mln USD/MW w farmie wiatrowej na Hawajach do 2.45 mln USD /MW na wiatraki na lądzie w stanie Maine37. Ale nawet porównując niższą z tych wartości z cenami z poprzednich lat widać, że o spadku kosztów
inwestycyjnych nie ma mowy – od 2003 roku do 2011 r. jednostkowe nakłady inwestycyjne na farmy wiatrowe na lądzie wzrosły z 1.1 do 2.45 mln USD/MW, a więc około 2,7 razy. Efektem tego był gwałtowny spadek tempa inwestowania w wiatraki w USA – w 2010 roku przyrost mocy zainstalowanych wiatraków był
dwukrotnie niższy niż w 2009 roku 38.
W Europie wielką farmę wiatrową na morzu będzie budować Francja - moc szczytowa farmy wyniesie 3000 MW, koszt 10 miliardów euro 39, a więc 3,3 mln euro/MW, podobnie jak w amerykańskiej farmie na
Hawajach.
W Holandii w maju 2010 roku rząd przydzielił niemieckiej firmie deweloperskiej Bard Engineering
ogromne subsydium w wysokości 4.5 miliarda euro na budowę dwóch farm wiatrowych o mocy 300 MW
każda na Morzu Północnym. Oznacza to nakłady inwestycyjne w wysokości 7,5 mln euro/MW.
Najnowsza informacja o farmie wiatrowej na morzu budowanej dla Niemiec podaje, że nakłady inwestycyjne
na tę farmę o mocy 288 MW wyniosą 1,2 miliarda USD40. Przy współczynniku wykorzystania mocy zainstalowanej równym 0,45 jak podają autorzy broszury41 oznacza to 9,2 mln USD/MW. Nic dziwnego, że za energię z farmy wiatrowej na morzu Niemcy muszą płacić deweloperom 190 euro/MWh 42.
Powyższe dane wskazują, że założenia autorów broszury o gwałtownym spadku kosztów inwestycyjnych na
wiatraki są nieuzasadnione. Jeśli nawet założymy, że trend wzrostu kosztów obserwowany od 2004 roku do
chwili obecnej nie utrzyma się i ceny wiatraków nie będą rosły, to przyjmowanie jako założenia do analiz,
że:

koszty EJ wzrosną ponad dwukrotnie ponad obecne ceny

koszty wiatraków spadną ponad dwukrotnie w stosunku do obecnych cen
jest nieuprawnione i w oczywisty sposób fałszuje rzeczywistość.
ŁĄCZNE NAKŁADY INWESTYCYJNE DO PONIESIENIA W PRZY WYBORZE JEDNEJ Z ROZWAŻANYCH TECHNOLOGII
Autorzy broszury podali, że dla wytworzenia w farmach wiatrowych na morzu takiej samej energii jak w
pierwszej polskiej elektrowni jądrowej o mocy 3000 MW potrzeba klastra MFW o mocy 5460 MW. Widzieliśmy powyżej, że nie ma uzasadnienia dla przyjmowania na przyszłość – do roku 2020 – jednostkowych nakładów inwestycyjnych na farmy morskie innych niż obecne. Przy nakładach wynoszących jak podaje broszura 3500 euro/kW, koszty inwestycyjne programu budowy wiatraków morskich wyniosą 5460MW x 3500
000 euro/MW = 20 miliardów euro. Jest to równowartość 80 miliardów PLN 43.
W przypadku pierwszej elektrowni jądrowej, przyjmując zgodnie z analizą MIT, na którą powołują
się autorzy broszury, (ale bez nieuprawnionych modyfikacji!) bezpośrednie koszty inwestycyjne (EPC) w
wysokości 3300 euro/kW powiększone o koszty inwestora w wysokości 20% otrzymujemy łączne nakłady
4000 euro/kW, co oznacza koszt pierwszej EJ w wysokości 12 miliardów euro = 48 miliardów PLN. Autorzy
broszury podają 50 mld PLN- można przyjąć tę wielkość jako wyjściową do dalszej oceny.
Jest to dużo – ale znacznie mniej, niż koszt programu rozwoju morskich farm wiatrowych. I to nie licząc
okresu pracy użytecznej – który dla elektrowni jądrowej wynosi 60 lat, a dla wiatraków 20 lat, a więc koszty
inwestycyjne na wiatraki trzeba będzie w czasie trwania elektrowni jądrowej ponieść trzykrotnie!
Można popierać rozwój wiatraków – ale nie można twierdzić, że 80 miliardów potrzebne na wiatraki to
mniej niż 48 miliardów na elektrownię jądrową.
Greenpeace pisze, że rząd polski i parlament muszą zmienić swe plany i zrezygnować z budowy elektrowni
jądrowej a budować wiatraki na morzu. Ale nawet Greenpeace nie może pisać, że budowa wiatraków jest
tańsza!
Kwartalnik popularnonaukowy Luty—Marzec 2012 22
Edukacja
WSPÓŁCZYNNIK WYKORZYSTANIA MOCY ZAINSTALOWANEJ DLA
EJ I DLA MFW
Aby uzyskać zamówione przez Greenpeace wyniki, autorzy broszury nie tylko stosują tak grube
zmiany, jak niemal dwukrotnie podwyższenie nakładów inwestycyjnych. Wprowadzają oni także istotne
zmiany w założeniach odnośnie współczynnika wykorzystania mocy zainstalowanej dla elektrowni jądrowych, przyjmując go zbyt nisko, a dla elektrowni wiatrowych- zbyt wysoko w stosunku do rzeczywistości.
Rzeczywistość zaś jest taka, że średnia wartość współczynnika wykorzystania mocy zainstalowanej we
wszystkich 104 rektorach energetycznych w USA stopniowo rosła, przed kilku laty osiągnęła wartość powyżej 91% i utrzymuje się na tym poziomie rok po roku.
Rys. 7.1 Współczynnik obciążenia dla wszystkich 104 reaktorów energetycznych w USA44 Warto dodać, że są to reaktory z trzema równoległymi systemami bezpieczeństwa, przy czym jeden wystarcza do zapewnienia bezpieczeństwa, a dwa stanowią rezerwę na wypadek awarii i uszkodzeń.
Oznacza to, że dla dłuższych napraw trzeba te reaktory zatrzymywać – a więc obniżać ich współczynnik wykorzystania mocy. Natomiast nowe reaktory III generacji mają po cztery układy bezpieczeństwa, co oznacza,
że w razie potrzeby można jeden z nich naprawiać, gdy reaktor pracuje na pełnej mocy, a i tak trzy układy
pozostają gotowe do interwencji w razie awarii.
Tak więc potrzebne czasy przestoju reaktora na naprawy będą w III generacji krótsze, niż w obecnej
II generacji. Wydaje się więc, że można spokojnie przyjąć dla reaktorów III generacji przynajmniej taki sam
współczynnik wykorzystania mocy zainstalowanej jak w obecnie pracujących reaktorach amerykańskich,
czyli 91%.
Ale autorzy raportu wolą ten współczynnik zaniżyć. Powołują się przy tym na raport MIT, który jednak nie dotyczył reaktorów III generacji i nie uwzględniał postępu w zakresie zwielokrotniania układów
bezpieczeństwa. Czy jest to słuszne? Uważam, że nie, bo za te zwielokrotnione układy płacimy, ponosząc
odpowiednio większe nakłady inwestycyjne. Nie można przyjmować nakładów inwestycyjnych jak dla reaktorów ulepszonych, a jednocześnie ignorować, że te zwiększone nakłady przynoszą owoce w postaci wzrostu dyspozycyjności reaktora. Przyjęte przez autorów założenie 85% odpowiada zmniejszeniu ilości energii
elektrycznej produkowanej przez reaktor o (91-85)/85 = 7%, co oznacza wzrost kosztów energii elektrycznej prawie o 7%.
Natomiast dla wiatraków na morzu autorzy przyjmują bez wahania współczynnik obciążenia 45%, z
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
23
dalszym wzrostem tego współczynnika do 50% począwszy od 2046 roku.
Wartości te trzeba skonfrontować ze współczynnikami średniego wykorzystania mocy wiatraków na morzu
w Wielkiej Brytanii i Zachodniej Danii, gdzie silne wiatry znad Atlantyku zapewniają wspaniałe warunki
wiatrowe, nieosiągalne na Bałtyku 45.
W Wielkiej Brytanii na najbardziej eksponowanym na wiatr obszarze morskim współczynnik wykorzystania
mocy zainstalowanej wynosi około 35%, a w Danii, np. na farmie morskiej Horns Rev 46 gdzie szybkość
wiatru wynosi przeciętnie 9,7 m/s, współczynnik wykorzystania mocy zainstalowanej wynosi około 42%.
Ale jak widać z rysunku 7.2, wiatry na Bałtyku są słabsze niż u wybrzeży Danii.
Z mapy wiatrów wokoło Danii widzimy, że prędkości wiatru w granicach od 15 do 20 m/s występują
u północno-zachodnich wybrzeży Danii, w cieśninie między Danią a Norwegią, natomiast na wschód od Danii, nad morzem Bałtyckim, prędkości są znacznie mniejsze, w granicach od 10 do 15 m/s. Bałtyk jest więc
znacznie mniej atrakcyjny niż morze przy zachodnich wybrzeżach Danii i współczynnik wykorzystania mocy zainstalowanej winien być niższy, poniżej typowego współczynnika w Wielkiej Brytanii. Przyjęcie go
jako 35% byłoby już i tak znacznym zawyżeniem.
Przyjmując 45%, a w dalszej przyszłości 50%, raport Greenpeace’u przyrzeka produkcję energii z
wiatraków zawyżoną o 10 i 15 punktów procentowych w stosunku do stanu obecnego. Jak widać, przy ocenie współczynników wykorzystania mocy autorzy potraktowali energię jądrową i wiatrową krańcowo różnie, przyjmując te współczynniki zaniżone dla energii jądrowej i znacznie zawyżone dla energii wiatrowej.
KOSZTY ENERGII ELEKTRYCZNEJ Z ELEKTROWNI
JĄDROWEJ I Z MFW
Autorzy broszury twierdzą, że przyjęte w Programie Polskiej Energetyki Jądrowej (PPEJ) wielkości
kosztów wytwarzania energii elektrycznej w EJ są zdecydowanie zaniżone. Należy jednak pamiętać, że
PPEJ został przygotowany przed rokiem, Podano tam wartość około 57 euro/MWh w euro z 2005 r., co odpowiada 67 euro/MWh w euro z 2011 roku. Wcześniejsze oceny, cytowane w Prognozie Oddziaływania na
Środowisko PPEJ wg artykułów z 2009 roku, były dla EJ znacznie niższe, aż do 35 euro/MWh. Czy jednak,
jak twierdzą autorzy broszury, są one „dwukrotnie niższe od wszystkich innych znanych źródeł”?
Od 1 lipca 2011 roku francuska firma Electricite de France (EDF) sprzedaje energię elektryczną z
elektrowni jądrowych po cenie 40 euro/MWh. Sprzedaje ją każdej firmie, jaka chce ją kupić, przy czym konkurencja utrzymuje, że energia ta powinna kosztować mniej, około 35 euro /MWh. A więc produkująca i
sprzedająca energię jądrową EDF zarabia nawet przy tak niskiej cenie, jak 40 euro/MWh. Rząd francuski
oświadczył, że cena ta wystarcza by nie tylko utrzymać produkcję energii elektrycznej z istniejących elektrowni jądrowych, ale i budować nowe obiekty. Czy więc cena 67 euro/MWh (w euro z 2011 roku) podana
w PPEJ jest istotnie zaniżona?
Sądzimy, że cena ta jest zgodną z oczekiwaniami energetyki jądrowej na lata 20-te. Natomiast przeciwnicy energetyki jądrowej operują kosztami dwu lub trzykrotnie wyższymi. Rekordzistą jest tu prof. Mielczarski, który zdobył rozgłos twierdząc, że koszty energii jądrowej wyniosą 600 zl/MWh. Autorzy broszury
powołują się też na pana Coopera, również starającego się zastraszyć czytelników rzekomo wysokimi cenami energii elektrycznej z elektrowni jądrowych.
Jak widać, ani pan Cooper, ani prof. Mielczarski nie przejmują się faktami. A fakty są takie, że na całym
świecie elektrownie jądrowe wytwarzają energię elektryczną taniej niż inne źródła. Znane są koszty wytwarzania energii elektrycznej z różnych źródeł w USA, pokazane na rys. 8.1 wg opracowania NEI Jak widać,
koszty energii jądrowej są najniższe i bardzo stabilne, a w 2010 roku wyniosły w USA zaledwie 2,14 centa/
kWh, gdy koszty energii z elektrowni gazowych były dwukrotnie wyższe. Podobne wyniki osiągają elektrownie jądrowe w Niemczech. Dlatego rząd niemiecki obłożył je podatkiem na rzecz energetyki odnawialnej, która jest bardzo droga i wymaga dopłat, które w 2011 roku wyniosą 13 miliardów euro rocznie. Przeciwnicy elektrowni jądrowych twierdzą, że takie koszty w USA czy w Niemczech, które od dawna nie budują nowych elektrowni jądrowych, są osiągane dzięki temu, że elektrownie te już się zamortyzowały. Warto
Kwartalnik popularnonaukowy Luty—Marzec 2012 24
Edukacja
Rys. 8.1 Koszty wytwarzania energii elektrycznej z różnych źródeł w USA 47 to jednak przemyśleć – przecież człowiek żyje dłużej niż 20 lat, na jakie liczona jest amortyzacja, a jego
dzieci i wnuki będą żyły jeszcze dłużej. Elektrownia jądrowa to dobry prezent dla naszych dzieci, które
dzięki niej będą miały tanią energię elektryczną, gdy nas już nie będzie na świecie.
Niskie ceny energii elektrycznej z elektrowni jądrowych są też w dziesiątkach innych krajów, a spośród nam najbliższych - w Czechach czy Słowacji. Dowodem na opłacalność energetyki jądrowej jest wykres sporządzony przez znaną firmą McKinsey dla Czech, Oczywiście najtańszym sposobem obniżenia
emisji CO2 jest redukcja zużycia energii elektrycznej poprzez podniesienie efektywności jej zużycia, przez
polepszenie izolacji cieplnej budynków itp. Ale gdy już wyczerpiemy możliwości oszczędzania, a chcemy
podnieść produkcję energii elektrycznej, to okazuje się, że najlepszym gospodarczo sposobem jest wprowadzanie energii jądrowej. Zwiększenie wytwarzania w obszarze energetyki jądrowej daje w Czechach zyski
– podczas gdy wprowadzanie energetyki wiatrowej powoduje duże koszty.
Podobne wyniki dały badania wykonane przez firmę McKinsey dla Wielkiej Brytanii 48, Rosji 49 i
50
Polski , a także studium M. Wicksa dla Wielkiej Brytanii 51. Niedawne badania cen energii z różnych źródeł, wykonane na zlecenie przemysłu szwedzkiego przez firmę Pricewaterhouse Coopers SKGS wykazały,
że po odrzuceniu wszelkich świadczeń rządowych w postaci ulg podatkowych, gwarantowanych cen, rabatów i grantów, ale z uwzględnieniem kosztów gospodarki odpadami radioaktywnymi i likwidacji elektrowni, energia jądrowa okazała się o 65 % tańsza od energii wiatru.
Biorąc pod uwagę przytoczone powyżej dane, a w szczególności cenę sprzedaży energii elektrycznej z elektrowni jądrowych we Francji wynoszącą jak podaliśmy powyżej 40 euro/MWh, należy uznać, że
cena podana w PPEJ wynosząca 67 euro/MWh (euro z 2011 r,) jest rozsądna i powinna być przyjmowana
jako podstawa do ocen ekonomicznych wprowadzania energetyki jądrowej.
Jak widać, ceny podane w PPEJ nie były wcale tak abstrakcyjne, jak sugeruje Greenpeace. A przedstawiona przez Greenpeace cena energii jądrowej równa 110 euro/MWh nie ma żadnego uzasadnienia.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
25
A jak wyglądają ceny energii z wiatraków, z owych morskich farm wiatrowych?
Autorzy broszury wyliczyli, że wyniosą one 104 euro/MWh. Ale wielkość tę otrzymali oni przy bardzo zaniżonych nakładach inwestycyjnych - przyjęli oni nakłady dwukrotnie niższe od rzeczywistych w
chwili obecnej – i to przy zawyżonych współczynnikach wykorzystania mocy zainstalowanej. A więc naprawdę energia wiatrowa będzie znacznie droższa.
Do takiego wniosku doszli też i Holendrzy, którzy przez wiele lat rozwijali energetykę wiatrową w
farmach morskich. Są oni trzecią na świecie potęgą w MFW. Ale utrzymywanie rozwoju MFW kosztowało
Holandię 4,5 miliarda euro rocznie i w 2011 roku rząd holenderski zadecydował, że dalej płacić tak dużo nie
będzie 52. Subwencje zostały obcięte do 1.5 mld euro rocznie i przydzielane są tym rodzajom OZE, które są
najbliżej stanu opłacalności, chociaż wciąż znacznie droższe od energii jądrowej. I tak w pierwszej kolejności Holendrzy będą wspierać te rodzaje OZE, którym do opłacalności brakuje mniej niż 90 euro/MWh, potem inne w czterech grupach cenowych - ale nie morskie farmy wiatrowe. Te nie dostaną w Holandii ani
centa. Dlaczego? Bo kosztują tak dużo, że praktyczni Holendrzy uznali wspieranie ich za niecelowe, są zbyt
drogie! Poprzedni rząd holenderski w maju 2010 roku przydzielił niemieckiej firmie deweloperskiej Bard
Engineering ogromne subsydium w wysokości 4,5 miliarda euro na budowę dwóch farm wiatrowych o mocy
300 MW każda na Morzu Północnym. Oznacza to dopłatę 7500 euro/MW. Koszty ponosi podatnik holenderski 53. Dlatego Holendrzy powiedzieli – STOP!
Zgodnie ze strategią przyjętą przez rząd holenderski, rozwój MFW stanie się przedmiotem długoterminowego programu badawczego – ale nie będzie wdrażany na skalą przemysłową 54.
Skoro Holendrzy, od wieków pracujący z wiatrakami stwierdzili, że MFW są za drogie by warto je było
wspierać, to czy mamy wierzyć Greenpeace’owi, że jest to najtańsza droga rozwoju czystej energetyki w
Polsce?
Różnice między zapewnieniami lobbystów MFW a ocenami bezstronnych organizacji występują nie
tylko w Holandii. Autorzy broszury przyznają, że firma Mott-MacDonald, w opracowaniu wykonanym dla
rządu Wielkiej Brytanii (który od wielu lat wspiera energetykę wiatrową), oceniła koszty MFW na znacznie
więcej niż lobbystyczne Europejskie Stowarzyszenie Energetyki Wiatrowej - EWEA. Bazując na tych danych kosztowych, rządowa Komisja ds. Zmian Klimatu (CCC) nie zarekomendowała zwiększenia tempa
rozwoju MFW w Wielkiej Brytanii. Jak widać, Brytyjczycy, mający wieloletnie doświadczenie w zakresie
farm morskich, nie chcą wierzyć ocenom firm zarabiających na budowie wiatraków.
Należy przy tym pamiętać, że warunki wiatrowe w Polsce i na Bałtyku nie są wcale lepsze niż na zachodnich wybrzeżach Danii, Irlandii i Szkocji. A od siły wiatru zależy konkurencyjność farm wiatrowych.
EWEA przyznaje, że „chociaż przyrost mocy wiatraków jest szybki, tylko w niektórych miejscach o wysokich prędkościach wiatru wiatraki mogą konkurować ekonomicznie z konwencjonalnymi źródłami energii”55.
Ostatecznym dowodem na to, które źródła dają tańszą energię, są ceny ustalone na energię jądrową i
wiatrową. Energia jądrowa nie potrzebuje i nie dostaje żadnych subwencji, jest konkurencyjna wobec innych
źródeł. We Francji cena hurtowa wynosi 40 euro/MWh, co według oświadczenia rządu wystarcza na pokrycie przewidywanych nakładów inwestycyjnych na nowe elektrowni jądrowe. W Niemczech, gdzie roczne
subsydia dla kopalni węgla wynoszą 2,5 miliarda euro, a taryfa dla energii odnawialnej z MFW wynosi 150
euro/MWh z dodatkową premią podnoszącą opłaty za prąd z MFW do 190 euro/MWh 56, elektrownie jądrowe nie otrzymują żadnych subsydiów, przeciwnie, muszą dopłacać do budżetu państwa. Stawki ustalone
przed decyzją rządu niemieckiego o wycofaniu się Niemiec z energetyki jądrowej wynosiły 2,3 miliarda euro rocznie (około 16 euro/MWh), plus opłata 300 milionów euro/rok w celu subsydiowania OZE.
Porównanie tych danych z różnych krajów wskazuje, że właściwą podstawą do porównań jest cena
rzędu 67 euro z 2011 r./MWh dla EJ (jak przyjęto w PPEJ) i około 150 euro/MWh dla MFW, tak jak przyjęto obecnie w Niemczech.
Kwartalnik popularnonaukowy Luty—Marzec 2012 26
Edukacja
WPŁYW MFW I EJ NA MIEJSCA PRACY W POLSCE
Autorzy broszury Morski wiatr kontra atom podają, że koszty zbudowania i eksploatacji farm morskich o mocy 5700 MW w latach 2015-2020 wyniosą 14,3 mld euro. Oznacza to koszty 2,5 mln euro/MW.
Jak pokazaliśmy powyżej, jest to ocena zaniżona, bo obecne koszty budowy morskich farm wiatrowych wynoszą 3,5 mln euro/MW, a trendy zmian mają tendencję rosnącą a nie malejącą. Ale przyjmijmy dane autorów broszury. Podają oni, że dzięki finansowaniu MFW wzrost zatrudnienia w Polsce w czasie budowy
MFW może osiągnąć 9000 osób, a po zakończeniu ich budowy ilość miejsc pracy przy ich obsłudze wyniesie 1700 osób. Ile więc kosztuje jedno miejsce pracy uzyskane dzięki MFW w Polsce?
Gdyby dane autorów były prawdziwe, to na jedno miejsce pracy w czasie budowy przypada koszt
14300 mln euro/9000 = 1,6 miliona euro. W zamian otrzymujemy prąd droższy ponad dwukrotnie od prądu
z elektrowni systemowych. No i dajemy wysokie zyski deweloperom OZE. A jak wygląda sytuacja po wybudowaniu MFW?
Przyjmując cenę płaconą za energię elektryczną z MFW równą 150 euro/MWh (jak w sąsiednich
Niemczech, bez dodatkowej taryfy „startowej”) otrzymujemy cenę 600 PLN/MWh, a więc cenę o 380 PLN
wyższą niż cena prądu w polskiej sieci energetycznej. Przyjmując optymistycznie, że różnica nie będzie aż
tak wysoka, a „tylko” równa 270 PLN/MWh jak ustalono w przepisach polskich, do produkcji energii z
MFW wynoszącej według autorów broszury 22,47 mln MWh będziemy dopłacać 22,47 mln MWh x 270
PLN/MWh = 6 miliardów PLN rocznie.
W tym czasie będzie wg broszury pracować w Polsce 1700 osób dla MFW. Oznacza to, że nasze
społeczeństwo do każdego zatrudnionego w MFW będzie dopłacało (poza normalną stawką za energię elektryczną) będzie dopłacało 6000/1700 = 3,5 miliona PLN rocznie. A więc nie wystarczy zapłacić 1,6 miliona
euro za utworzenie jednego miejsca pracy na początku programu MFW – dla utrzymania tego miejsca trzeba
nadal dopłacać 3.5 mln PLN rocznie.
W przypadku energetyki jądrowej zatrudnienie w czasie budowy autorzy broszury oceniają na 7140
osób, co przy łącznym koszcie elektrowni jądrowej o mocy 3000 MW wynoszącym (wraz z wydatkami inwestora, a więc z oprocentowaniem kapitału) 12 miliardów euro oznacza 12 000 mln euro/7140 = 1,68 mln
euro na 1 miejsce pracy. Koszty budowy są więc podobne, Ale po wybudowaniu elektrowni o mocy 3000
MW mamy trwałe zatrudnienie 2400 osób 57 bez żadnych dodatkowych subsydiów, przeciwnie, przy cenie
energii elektrycznej niższej od energii z innych elektrowni systemowych.
Dla przykładu, elektrownia jądrowa Palo Verde w USA o mocy 3733 MW daje 3943 miejsca pracy.
Bezpośrednie zatrudnienie w samej elektrowni wynosi 2,386 osób, w tym podwykonawcy pracujący w ramach kontraktów długoterminowych. Praca elektrowni powoduje też powstanie dodatkowych 1,570 miejsc
pracy w rejonie. Zarobki za te prace w 2003 roku wyniosły 245 milionów USD 58. Ponadto, elektrownia i
związane z nią prace przynoszą do kasy stanowej podatki w wysokości 62 mln USD rocznie (z 2003 r.,)
Przy okazji można dodać, że w 2002 r. EJ Palo Verde wyprodukowała 30.9 TWh osiągając współczynnik
wykorzystania mocy zainstalowanej powyżej 94%. Koszt produkcji 59 wyniósł 13,3 USD/MWh, podczas
gdy średni koszt produkcji energii elektrycznej w stanach południowo-wschodnich USA wynosił 25,3 USD/
MWh. 60
EJ Palo Verde nie jest wcale wyjątkiem. Oto elektrownie McGuire, Catawba and Oconee o łącznej
mocy 7000 MW należące do Duke Power dają 4,692 miejsca pracy o znacznie wyższych pensjach niż pensje
płacone średnio w tym rejonie 61. Na przykład średnie roczne pensje pracowników w EJ Oconee wynoszą
59, 5 tys. USD (z 2003 r.). Do tego należy doliczyć miejsca pracy tworzone pośrednio poza elektrowniami.
Te trzy elektrownie wyprodukowały w 2002 r. 58 TWh, co oznacza współczynnik wykorzystania mocy zainstalowanej równy średnio 94,5%. Średni koszt produkcji energii elektrycznej w tych elektrowniach wyniósł 14,6 USD/MWh, podczas gdy dla innych elektrowni w tym rejonie średni koszt produkcji wyniósł 19,8
USD/MWh. Wiele dalszych przykładów potwierdza, że elektrownie jądrowe dają dużo dobrze płatnych
miejsc pracy, a przy tym produkują energię elektryczną taniej od innych źródeł.
Ważne są przy tym nie tylko bezpośrednie i pośrednie miejsca pracy, ale także miejsca pracy induko-
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
27
wane przez zaspakajanie potrzeb osób zatrudnionych bezpośrednio i pośrednio. Studium sekcji ekonomicznej Oxfordu wykonane dla całych Stanów Zjednoczonych wykazało, że przy programie budowy 52 reaktorów energetycznych o łącznej mocy 72800 MW, w USA powstanie 350 000 miejsc pracy powodujących
wzrost dochodu narodowego o prawie 45 mld USD rocznie 62. Uwzględniono w nim zatrudnienie bezpośrednie (82 000) przy budowie, produkcji elementów i eksploatacji elektrowni, zatrudnienie pośrednie (74 000)
związane z łańcuchami dostaw dla elektrowni i zatrudnienie indukowane (112 000) wynikające z wydatków
dokonywanych przez bezpośrednio i pośrednio zatrudnionych w innych sektorach gospodarki. W sumie około 7000 miejsc pracy na reaktor, a więc znacznie więcej niż wynikało z przytoczonych powyżej przykładów
elektrowni Palo Verde i innych.
Trzeba tu raz jeszcze podkreślić, że każde z tych miejsc pracy oznacza zyski dla społeczeństwa, bo
energia jądrowa oznacza tanią elektryczność, a więc nie tylko zyski indywidualnych odbiorców energii, ale
też i rozwój przemysłu wykorzystującego tę energię. Aktualny przykład Niemiec, gdzie po wyłączeniu części elektrowni jądrowych ceny rosną i będą rosły nadal, jest tu ważnym doświadczeniem praktycznym. Przemysł niemiecki zapowiada bowiem ucieczkę z terenu Niemiec do innych krajów, gdzie energia elektryczna
będzie tańsza. W sferze ekonomicznej puste hasła nie wystarczają – przemysł potrzebuje taniego prądu!
Hasła o dodatkowych miejscach pracy tworzonych przez rozwój OZE nie zgadzają się także z sytuacją w innych krajach. Oto w Hiszpanii, wobec gwałtownego wzrostu bezrobocia, ludność pyta gdzie są te
„zielone” miejsca pracy, które były wielokrotnie na ustach polityków wspierających OZE. Hiszpańskie Ministerstwo Pracy i Imigracji ogłosiło, że od stycznia 2008 roku do 2010 r. liczba przedsiębiorstw 63 w tym
kraju zmalała o 110 058. Kryzys najmocniej dotknął firmy zatrudniające od 6 do 50 pracowników. W omawianym okresie upadło 47 835 takich przedsiębiorstw Hasła o tworzeniu „zielonych” miejsc pracy okazały
się propagandą bez pokrycia. Bezrobocie w Hiszpanii jest dwukrotnie wyższe niż średnie w Unii Europejskiej, a wśród młodzieży od 16 do 24 lat wzrosło ono z 17,9 do 42,9 procent 64.
Na pytanie, gdzie podziały się te przyrzeczone „zielone” miejsca pracy, odpowiada studium Uniwersytetu Juana Carlosa, które wykazało, że utworzenie jednego zielonego miejsca pracy powoduje utratę 2,5
miejsc pracy w innych gałęziach przemysłu 65. Studium tego uniwersytetu przytacza liczby z oficjalnego
opracowania Komisji Europejskiej MITRE 66 w którym ustalono na koniec 2010 roku docelową moc energetyki wiatrowej w Hiszpanii równą 15 614 MW i wytworzoną przez nią energię elektryczną 37 558 GWh, co
oznacza wg ocen MITRE utworzenie 15 000 bezpośrednich i pośrednich miejsc pracy. Raport Uniwersytetu
podaje podsumowanie subwencji, jakie energia wiatrowa otrzymała do końca 2008 roku, wynoszących
5485,38 mln euro ponad normalne stawki płacone za energię elektryczną. Do końca 2010 r. subsydia dla
energetyki wiatrowej wyniosły 16,4 miliarda euro. Przeliczenie wykazuje, że koszt jednego miejsca pracy
dla energetyki wiatrowej, wliczając miejsca pracy bezpośredniej i pośredniej, wyniósł 1,1 miliona euro. Natomiast średni koszt jednego miejsca pracy w Hiszpanii w okresie od 1995 do 2005 roku wyniósł 0,26 mln
euro. Uniwersytet Juana Carlosa wyciągnął stąd wniosek, że subsydia na energię wiatrową, które spowodowały zużycie funduszy krajowych, dały w wyniku nie zysk, ale utratę miejsc pracy.
W tej sytuacji rząd hiszpański podjął decyzje o ograniczeniu subsydiów na OZE. Subsydia na farmy
wiatrowe będą zmniejszone o 35% 67.
Zmniejszone będą także subsydia dla energii słonecznej i ograniczona będzie liczba godzin rocznie, za które energetyka odnawialna może żądać dodatkowych opłat za dostawy energii do sieci. Hiszpania nie jest więc wcale przykładem sukcesu w tworzeniu miejsc pracy dzięki
OZE.
Czy w Polsce będzie lepiej niż w Hiszpanii?
Autorzy broszury piszą, że w morskiej energetyce wiatrowej Polska ma szansę być jednym z liderów
i eksporterów technologii. Jest to bardzo wątpliwe, bo kraje przodujące w technologii wiatrowej, jak Dania,
Niemcy czy Hiszpania, właśnie dlatego ponoszą wysokie nakłady na OZE by zdobyć dominujące pozycje na
rynku eksportowym. A tymczasem grozi im silna konkurencja ze strony krajów Dalekiego Wschodu. Rzeczywistość zaś jest taka, że udział polskiego przemysłu w produkcji dla energetyki wiatrowej był i jest zni-
Kwartalnik popularnonaukowy Luty—Marzec 2012 Edukacja
28
komo mały.
Natomiast udział polskiego przemysłu w energetyce jądrowej jest już obecnie znaczący. Polacy stanowią najliczniejszą grupę narodowościową na budowie EJ Olkiluoto 3, polskie firmy mają podpisane umowy o współpracy z dostawcami reaktorów III generacji, powstał polski klaster firm budowlanomontażowych do budowy elektrowni jądrowych, trwają szkolenia polskich przedsiębiorców mających dostarczać elementy i wykonywać prace dla elektrowni jądrowych. Wartość części reaktorowej, dostarczanej
głównie przez dostawcę technologii, wynosi około 30% wartości elektrowni, reszta to urządzenia, materiały
i prace, które może dostarczyć polski przemysł. W dziedzinie elektrowni jądrowych mamy pozytywne doświadczenia – nasz przemysł produkował dla EJ wszystkie elementy poza paliwem, reaktorami, pompami i
rurociągami obiegu pierwotnego. Podobnie będzie z nowymi elektrowniami jądrowymi w Polsce.
UWAGI KOŃCOWE
Na zakończenie dodajmy komentarz do kilku twierdzeń w wydanej przez Greenpaeace broszurze,
pasujących do propagandy Greenpeace’u ale sprzecznych z rzeczywistością.
Nieprawdziwe jest twierdzenie autorów raportu, że „skala programu jądrowego oraz nadany mu silny priorytet polityczny blokują inne alternatywne opcje w polityce energetycznej i w praktyce zamykają możliwość
rozwoju innych strategicznych programów inwestycyjnych, w szczególności tych związanych z wykorzystaniem odnawialnych źródeł energii.
Pisaliśmy o tym w rozdziale 1, wykazując że polski rząd, parlament i organizacje polskie popierają
OZE i wspierają je finansowo. Faktów świadczących o poparciu OZE na etapie budowy i eksploatacji OZE
jest wiele.
Nieprawdziwe jest też sformułowanie o rzekomo „nielicznych już narodowych programach energetyki jądrowej”. Programy te realizują wszystkie wielkie kraje na świecie, większość krajów w Europie i dziesiątki krajów rozwijających się.
Autorzy opierają się o „analizę prof. W. Mielczarskiego opublikowaną w listopadzie 2010 roku w
miesięczniku „Energetyka” który wykazał. że koszt produkcji energii z elektrowni jądrowej wyniesie 600650 zł/MWh” Autorzy przemilczają, że w analizie tej prof. Mielczarski przyjął błędne założenia, co wykazał
prof. Strupczewski w artykule opublikowanym w grudniu 2010 r 68.
Nie jest prawdą, że „opinia publiczna nie uzyskała żadnej informacji” w sprawie porównawczych
analiz ekonomicznych elektrowni jądrowych. Analizy te zostały przeprowadzone i były publikowane najpierw w 2009 roku 69, a następnie w 2010 r. po opracowaniu analiz uzupełniających przez Agencję Rynku
Energii, a więc instytucję najbardziej kompetentną w Polsce. Zostały one opublikowane przez dr inż. M. Dudę, między innymi w materiałach pokonferencyjnych, np. Zeszytach Naukowych Instytutu Gospodarki Surowcami Mineralnymi i Energią PAN (2010) 70.
Autorzy podają, że dla EJ liczyli jako czas życia okres 40 lat, a tylko „w analizie wrażliwości w jednym z wariantów wydłużono okres życia EJ do 50 lat”. Jest to ponownie podejście niezgodne z realiami otaczającego nas świata – ponad połowa elektrowni jądrowych w USA ma okres życia przedłużony do 60 lat, a
wszystkie elektrownie III generacji projektowane są na 60 lat lub więcej. Założenie o okresie 60 lat nie powinno więc być wprowadzane w ramach analizy wrażliwości, lecz przyjmowane po prostu jako podstawowa
informacja we wszystkich wariantach. Natomiast autorzy przyjmują dla MFW okres 25 lat, co jest niezgodne z powszechnie przyjmowanym okresem 20 lat. Takimi metodami – pogarszania przyjmowanych charakterystyk energii jądrowej i polepszania charakterystyk MFW – autorzy starają się dojść do wyznaczonego
celu, tj. rzekomej konkurencyjności ekonomicznej MFW.
Autorzy piszą o „największym ze wszystkich technologii energetycznych skoku cenowym, w którym
cena za 1 kW wzrosła z 2 002 dolarów w 2002 roku do 4 000 dolarów w roku 2007, co obrazuje średnioroczny wzrost kosztów o ok. 15%, z uwzględnieniem założonej 3% inflacji.” Ale skok ten nie ograniczał się
wcale do energetyki jądrowej. Koszty inwestycyjne elektrowni wiatrowych wzrosły również i to w podob-
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
29
nym tempie, co wykazaliśmy powyżej.
Autorzy piszą o „kosztach zrzutu wody z chłodzenia reaktorów”, które rzekomo są zaniżone w USA,
bo „tzw. termiczne zanieczyszczenie środowiska jest nieznane w prawie amerykańskim”. W rzeczywistości
jest odwrotnie, przepisy amerykańskie odnośnie układu chłodzenia elektrowni – nie tylko jądrowych, ale i
konwencjonalnych 71– są znacznie bardziej rygorystyczne niż przepisy w krajach Unii Europejskiej. W stanach Kalifornia i Nowy Jork właśnie wskutek tych rygorystycznych przepisów elektrownie cieplne znajdujące się na brzegach oceanów zostały zmuszone do przejścia z cyklu otwartego – tańszego – na droższy cykl
zamknięty,72 z wieżami chłodniczymi,
Ostateczny wniosek broszury Greenpeace’u
„brak odpowiedniego uwzględnienia rozwoju MFW w polityce energetycznej Polski można nazwać nie tylko niewykorzystaniem potencjału, a wręcz niezrozumiałym marnowaniem krajowego potencjału polskich
zasobów energetycznych i niewykorzystaniem bieżących możliwości gospodarczych”
jest nieuzasadniony i sprzeczny z rzeczywistym stanem rzeczy, co wykazują powyższe rozważania.
ŹRÓDŁA
1
G. Wiśniewski i inni: Morski wiatr kontra atom, Greenpeace i Fundacja im. Heinricha Bölla, wyd. Agencja Reklamowa i Public
Relations ADRENALINA Warszawa 2011
2
Analiza: W Polsce jest miejsce i dla wiatru, i dla atomu, wnp.pl (Patrycja Batóg) - 14-07-2011
3
http://www.wnp.pl/wiadomosci/145817.html
4
http://www.wnp.pl/wiadomosci/rozwoj-odnawialnych-zrodel-a-zachety-podatkowe-dla-firm,145939_1_0_0_0_1.html
5
subsidies for offshore wind power and solar panels to zero Holland’s Radical U-Turn On Climate and Energy Policy, Financial
Times Deutschland, 8 February 2011
6
Morski wiatr kontra atom” M. Wiśniewski i inni, broszura sfinansowana przez Greenpeace i niemiecki Instytut Heinricha Bolla,
Warszawa 2011.
7
Analiza: w Polsce jest miejsce i dla wiatru, i dla atomu, wnp.pl (Patrycja Batóg) - 14-07-2011 09:52
8
http://ecopress.pl/art/deklaracja-wicepremiera-waldemara-pawlaka-w-sprawie-oze-336.html
9
http://www.wnp.pl/wiadomosci/146444.html
10
W tekście raportu podano błędnie 5460 eur/MWh, co nie ma zupełnie sensu. Jak widać, wysiłek Greenpeace’u idzie na ładne
ilustrowanie raportu efektownymi rysunkami, a nie na sprawdzenie treści merytorycznej. Czy megawaty- jednostki mocy, czy megawatogodziny- jednostki energii – kto by się przejmował takimi drobiazgami!
11
http://en.rian.ru/business/20100715/159820318.html
12
http://energetyka.wnp.pl/czeskie-atomowki-3-mln-euro-za-mw,113586_1_0_0.html
13
http://www.world-nuclear-news.org/NN_New_approach_puts_back_Flamanville_3_2107111.html
14
http://wiadomosci.onet.pl/swiat/indie-i-francja-zawarly-umowe-na-budowe-reaktorow-,1,4017049,wiadomosc.html
15
Wenisch A. AES-92 for Belene: The Mystery Reactor, Vienna, February 2007
16
Bułgaria domaga się od Rosji dalszych negocjacji ws. siłowni atomowej, PAP - 17-06-2011 12:53
17
http://naviny.by/rubrics/english/2011/06/22/ic_articles_259_174095
18
OECD Report “The Projected Cost of Generating Electricity: 2010 Update, Nuclear Energy Agency, OECD, Paris,2010
19
Dyrektor Areva Polska: w nowych elektrowniach niemożliwa jest awaria jak w Fukushimie, wnp.pl 20-06-2011
20
Źródło – UK EPR 1a EPR Design Description v3
21
AREVA Post-Fukushima 5_EPR Safety 15 June 2011.
22
Westinghouse: AP1000® Nuclear Power Plant Coping with Station Blackout, April 2011
23
Westinghouse AP1000® Nuclear Power Plant Spent Fuel Pool Cooling May 2011
24
AREVA Post-Fukushima 5_EPR Safety 15 June 2011.
25
AREVA Post-Fukushima 5_EPR Safety 15 June 2011.
27
US NRC: Recommendations for Enhancing Reactor Safety in the 21-st Century, 12 July 2011
28
Dones R et al GABE: Environmental Inventories for future electricity supply systems for Switzerland, PSI report 96-07, February 1996
29
E-mail od inż. Z. Wiegnera, kierownika budowy Olkiluoto 3, z dnia 28.3.2011.
30
Ki Sig Kang Project Management of NPP including Construction Nuclear Power Division IAEA 11 May 2010
31
Enlarged wind statistics http://www.pfbach.dk/firma_pfb/enlarged_wind_power_statistics_2010.pdf
32
Morski wiatr kontra atom.
Kwartalnik popularnonaukowy Luty—Marzec 2012 30
Edukacja
33
Rozwadowski A: Technologia i doświadczenie firmy AREVA dla polskiego programu energii jądrowej, Konferencja Most Wanted,
Warszawa, 30-31 maja 2011 roku
34
Costs of low-carbon generation technologies, Committee on Climate Change, Mott MacDonald, May 2011
35
Rozwadowski ibid.
36
Northwest Power & Conservation Council Biennial Review Of The Cost Of Wind Power July 13, 2006
37
http://venturebeat.com/2011/04/11/u-s-wind-power-stalls/
38
http://venturebeat.com/2011/04/11/u-s-wind-power-stalls/
39
France to Invest $13bn on First Offshore Wind Project, 31 January 2011 www.power-technology.com/news/news108554.html
40
http://www.energy-enviro.fi/index.php?PAGE=3&NODE_ID=5&LANG=1&ID=3751
41
Morski wiatr…
42
http://www.wind-works.org/FeedLaws/Germany/GermanyPassesNewRenewableEnergyLawfor2012.htm
45
Hasager C.B et al: SAR – Based Wind Resource Statistics in the Baltic Sea, Remote Sens. 2011, 3, 117-144.
46
http://powerplants.vattenfall.com/powerplant/horns-rev
47
NEI US Electricity production costs, 2011
48
For the same power generation and CO2 emissions, building offshore wind requires two to three times the investment required for
nuclear CBI – The voice of business . Decision time Driving the UK towards a sustainable energy future, 2009
49
McKinsey and comp. Pathways to an energy and carbon efficient Russia, 2009
50
Ocena potencjału redukcji emisji gazów cieplarnianych w Polsce do roku 2030, grudzień 2009
51
M. Wicks: ...nuclear should provide some 35-40 per cent of our electricity beyond 2030 www.decc.gov.uk/en/content/cms/
what_we_do/change_energy/int_energy/security/security.aspx
52
http://www.american.com/archive/2011/april/on-green-energy-a-dutch-re-treat
53
http://energiaadebate.com/the-dutch-lose-faith-in-windmills 28.06.2011
54
http://energiaadebate.com/the-dutch-lose-faith-in-windmills 28.06.2011.
55
http://www.ewea.org/fileadmin/ewea_documents/documents/publications/WETF/Facts_Volume_2.pdf
56
http://www.wind-works.org/FeedLaws/Germany/GermanyPassesNewRenewableEnergyLawfor2012.html
57
Ocena oddziaływania programu energetyki jądrowej na środowisko, Tabela Wykaz stanowisk w elektrowni jądrowej.
58
Średnio więc roczne zarobki pracowników wyniosły 62 000 USD z 2003 roku na osobę.
59
Koszty produkcji dla elektrowni w USA podawane są bez udziału kosztów inwestycyjnych, a więc obejmują koszty paliwa, ruchu,
napraw, podatków itd. lub innymi słowy wszystkie koszty jakie występują po spłaceniu kosztów budowy. Taka sama definicja kosztów produkcji stosowana jest do wszystkich elektrowni.
60
Economic Benefits of Palo Verde Nuclear Generation Station An Economic Impact Study by the Nuclear Energy Institute November 2004
61
Economic Benefits of the Duke Power-Operated Nuclear Power Plants An Economic Impact Study by the Nuclear Energy Institute, 2004
62
Economic, Employment and Environmental Benefits of Renewed U.S. Investment in Nuclear Energy National and State Analysis
2008 Oxford Economics
63
W Hiszpanii zniknęło ponad 100 tys. Przedsiębiorstw, PAP - 02-09-2010 20:34
64
http://ncwatch.typepad.com/media/2010/01/what-happened-to-spains-green-jobs.html
65
http://ncwatch.typepad.com/media/2009/03/green-stimulus-destroys-jobs-according-to-spanish-study-.html
66
Monitoring & Modelling Initiative on the Targets for Renewable Energy (MITRE). “Meeting the targets and putting renewables to
work. Country Report. Spain", pp. 17, 2003.
67
Subsidies to be cut for Spain's wind and thermal solar sectors http://www.rechargenews.com/business_area/politics/
article219756.ece
68
Strupczewski A.: Czy jądrowa się opłaca? Energetyka cieplna i zawodowa 12/2010, s 44-49
69
H. Mikołajuk, M. Duda, U. Radovic. S. Skwierz, Analiza porównawcza kosztów wytwarzania energii elektrycznej w elektrowniach
jądrowych, węglowych i gazowych oraz odnawialnych źródłach energii ARE Warszawa, listopad 2009
70
M. Duda: Konkurencyjność perspektywicznych technologii wytwarzania energii elektrycznej Zeszyty Naukowe Instytutu Gospodarki Surowcami Mineralnymi i Energi¹ Polskiej Akademii Nauk nr 78, rok 2010 ³http://www.min-pan.krakow.pl/Wydawnictwa/
ZN78/duda.pdf
71
US Federal Clean Water Act, §316, Cooling technology performance requirements
72
US EPA Economic Analysis of the Final Regulations Addressing Cooling Water Intake Structures for New Facilities, Washington
DC Nov. 9, 2001, p. 1-3
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
Kwartalnik popularnonaukowy Luty—Marzec 2012 31
Edukacja
32
DOZYMETRIA BIOLOGICZNA Sylwester Sommer Centrum Radiobiologii i Dozymetrii Biologicznej, Instytut Chemii i Techniki Jądrowej w Warszawie WSTĘP
Promieniowanie jonizujące jest stałym elementem środowiska a jego zastosowanie - częścią naszej
cywilizacji. Praktycznie nie ma w nowoczesnym państwie człowieka, który nie korzystałby z tego zastosowania w swoim życiu codziennym. Wszelkiego rodzaju procedury medyczne, od zwykłego prześwietlenia
płuc, aż po tomografię komputerową, czy procedury medycyny nuklearnej, energia pozyskiwana z elektrowni atomowych, czujniki dymu, defektoskopy – wszystko to ma związek z promieniowaniem jonizującym.
Jest ono postrzegane, i słusznie, jako szkodliwe dla zdrowia a nawet życia. Boimy się go, ponieważ czytamy
o awariach elektrowni atomowych w Czarnobylu i Fukushimie. Boimy się go, ponieważ jest niewidzialne i
niewyczuwalne, a więc tym groźniejsze.
Potrafimy wykorzystywać promieniowanie i chronić się przed jego skutkami. Elektrownie atomowe
są zabezpieczone dziesiątkami skomplikowanych systemów, które mogą zapobiegać nawet bardzo niespodziewanym zdarzeniom. Wszystkie osoby pracujące z promieniowaniem noszą dozymetry fizyczne i mają
skrupulatnie sprawdzane dawki pochłonięte z częstotliwością co 3 miesiące. Potrafimy również odczytać
dawkę promieniowania na podstawie zmian, jakie zostawia ona w organizmie. Taka procedura nazywa się
dozymetrią biologiczną.
CO TO JEST DOZYMETRIA BIOLOGICZNA?
Dozymetria biologiczna pozwala określić dawkę promieniowania jonizującego na podstawie zmian
spowodowanych przez nią w naszym organizmie. Najczęściej posługujemy się zmianami w materiale genetycznym limfocytów krwi obwodowej. Nie jest to jedyna możliwość, ale limfocyty maja niezaprzeczalne
zalety: pobieranie ich do badania jest mało inwazyjne (tak jak zwykłe pobieranie krwi do badania), limfocyty we krwi obwodowej nie dzielą się i są zsynchronizowane w fazie G0 cyklu komórkowego – co ułatwia i
zmniejsza niepewność badań dozymetrycznych, limfocyty krążą wraz z krwią po całym ciele, dzięki czemu
możliwe jest odczytanie dawki, nawet kiedy promieniowanie objęło niewielki fragment ciała. Można by powiedzieć, że najlepszy „dozymetr” każdy zawsze nosi ze sobą.
„Złotym standardem” dozymetrii biologicznej jest test chromosomów dicentrycznych. Wykonuje się go
stymulując sztucznie do podziału limfocyty krwi obwodowej i oceniając częstość chromosomów dicentrycznych w metafazach pierwszych mitoz po napromienieniu. Dozymetrię biologiczną stosuje się na całym świecie i do tej pory oszacowano dawkę pochłoniętą w tysiącach przypadków. Bada się osoby podejrzane o narażenie na promieniowanie jonizujące związane z ich pracą w przemyśle – przy obsłudze defektoskopów czy
innych źródeł promieniowania gamma i rentgenowskiego, w medycynie – przy obsłudze akceleratorów, cyklotronów lub generatorów izotopów promieniotwórczych, a także aparatów do radioterapii, do prześwietlania czy tomografów komputerowych, wreszcie w przemyśle jądrowym, przy obsłudze reaktorów, transporcie
i obróbce paliwa. Drugą grupą osób, u których stosuje się dozymetrię biologiczną są osoby przypadkowo
narażone na promieniowanie w czasie radioterapii, lub po kontakcie z otwartym źródłem promieniowania. W
ostatnich latach rozważa się scenariusze ataku terrorystycznego przy użyciu tzw. „brudnej bomby”. „Brudna
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
33
bomba”, czyli materiał radioaktywny np. 60Co lub 137Ce dołączony do konwencjonalnego materiału wybuchowego mógłby zostać rozpylony na dużym, gęsto zaludnionym obszarze i w konsekwencji spowodować
napromienienie wielu osób.
Pewne i dokładne odczytanie dawki pochłoniętej przez osobę napromienioną może pomóc w doborze
odpowiednich procedur medycznych w trakcie jej leczenia [1]. Dziesiątki lat pracy radiobiologów zaowocowały zrozumieniem mechanizmów działania promieniowania na ludzkie komórki, opisem i scharakteryzowaniem ostrej choroby popromiennej (ARS), a także stochastycznych (oddalonych) skutków promieniowania.
Medycyna, bazując na faktach ustalonych przez biologów, wie jak postępować z osobami napromienionymi.
Adekwatne do dawki i objawów fizjologicznych zastosowanie terapii cytokinami, czynnikami wzrostu, antybiotykami, a w skrajnym wypadku przeszczep szpiku kostnego pozwalają na wyleczenie pacjentów, którzy
otrzymali dawki nawet w przedziale 4-6 siwertów (Sv) na całe ciało [2].
Dawka pochłonięta – jest to miara ilościowa energii promieniowania jonizującego pochłoniętego przez dany obiekt. Jest ona wyrażana w grejach (Gy): 1Gy = 1J / 1 kg. Można stosować również centygreje (cGy): 1cGy = 0,01Gy, miligreje (mGy): 1mGy = 0,001Gy, mikogreje (μGy): 1μGy = 0,000001Gy, rady: 1 rad = 1cGy = 0,01Gy. Dawka równoważna ‐ efekty promieniowania są różne w zależności od jego rodzaju i dlatego wprowadzono ten termin. Dawka równoważna to dawka pochłonięta przemnożona przez współczynnik wR, charakterystyczny dla poszczególnych rodzajów promieniowania, np. wR dla promieniowania gamma równa się 1, a dla neutronów o energiach 0,1‐
= 1Gy * wR. Stosuje się również milisiwerty (mSv): 1mSv = 2 MeV wynosi 20. Jest ona wyrażana w siwertach (Sv): 1 Sv 0,001Sv, mikrosiwerty (μSv): 1μSv = 0,000001Sv, remy: 1 rem = 0,01 Sv. Dawka skuteczna (dawka efektywna, czy efektywny równoważnik dawki) – zależy od promieniowrażliwości tkanek, bo niektóre z nich są bardziej odporne na promieniowanie, np. skóra (wT = 0,01), a inne mniej np. gruczoły płciowe (wT = 0,2). Dawka skuteczna to dawka równoważna pomnożona przez współczynnik wT, charakterystyczny dla każdej tkanki. Współczynnik wT dla całego ciała równa się 1. Jednostką dawki skutecznej również jest siwert (Sv). METODY DOZYMETRII BIOLOGICZNEJ Oprócz testu chromosomów dicentrycznych w dozymetrii biologicznej używanych jest wiele innych
metod. W ostatnich latach przesunął się nieco akcent w definiowaniu celów dozymetrii biologicznej: istotniejsze jest, aby metody biodozymetryczne pozwalały na analizę wielu przypadków w krótkim czasie, nawet
kosztem dokładności. Inną tendencją jest powstawanie fizycznych testów dozymetrycznych opartych, tak jak
dozymetria biologiczna, na zmianach wywoływanych przez promieniowanie w naszym organizmie. W krótkim przeglądzie aktualnie używanych testów biodozymetrycznych oprócz wyjaśnienia, na czym one polegają
zwrócę uwagę na zakres ich stosowania, możliwość użycia w dużej liczbie przypadków, a także na ich przydatność w szeroko pojętej energetyce jądrowej.
TEST CHROMOSOMÓW DICENTRYCZNYCH
Tak jak pisałem wyżej, jest to klasyczny, cytogenetyczny test dozymetrii biologicznej. W stymulowanych do podziału limfocytach analizuje się częstość chromosomów policentrycznych (ryc. 1), która jest proporcjonalna do dawki. Na podstawie znalezionej w konkretnym przypadku częstości dicentryków określa się
dawkę z krzywej dawka / efekt uzyskanej we wcześniejszych doświadczeniach in vitro (ryc. 2). Zalety tego
testu są następujące:  jest on przeprowadzany na limfocytach krwi obwodowej;  pozwala na rozróżnienie czy dana osoba była napromieniona na całe ciało czy częściowo – jest to ważne z przyczyn medycz‐
nych, – gdy napromienienie ciała jest częściowe, rokowania są lepsze, ponieważ produkujący limfocyty szpik kostny nie zo‐
stał w całości dezaktywowany;  częstość chromosomów dicentrycznych utrzymuje się we krwi obwodowej na zbliżonym poziomie do kilku tygodni, a później wolno spada, – dzięki czemu dozymetrię można przeprowadzić w rozsądnym czasie po zdarzeniu radiacyjnym; Kwartalnik popularnonaukowy Luty—Marzec 2012 Edukacja
34
 test ten jest najczęściej używanym, najlepiej udokumentowanym i najlepiej sprawdzonym w praktyce (zwalidowanym) te‐
stem biodozymetrycznym [3];  działa w zakresie dawek od 0,1 – 0,2 Sv do 5 – 12 Sv. Powstaje pytanie, co znaczy zakres 0,1 – 12 Sv? Czy jest on szeroki, czy wąski? Czy jest adekwatny do dawek otrzymywanych przez ludzi? Jeżeli popatrzymy na przykładowe wielkości dawek zamieszczone w tabeli 1, to dojdziemy do wniosku, że test dicentryków jest zbyt mało czuły do analizy dawek, które otrzymują
pracownicy zawodowo narażeni na promieniowanie. Idealnie natomiast „pokrywa” zakres dawek wysokich,
liczonych w siwertach (Sv), które powodują kłopoty zdrowotne, a nawet śmierć napromienionych osób.
Spontaniczna częstość dicentryków jest bardzo niska i wynosi 1 chromosom dicentryczny na 1000 –
2000 komórek. Górna granica zakresu działania metody jest sprawą dyskusyjną – zależy ona od wysokości
dawki, po jakiej limfocyty jeszcze się dzielą. W niektórych laboratoriach jest to 5 Sv, ale w Centrum Radiobiologii i Dozymetrii Biologicznej Instytutu Chemii i Techniki Jądrowej, gdzie mam przyjemność pracować,
ta granica jest wyższa niż 10 Sv;
- jest on bardzo specyficzny – chromosomy dicentryczne są indukowane tylko przez promieniowanie, nieliczne substancje genotoksyczne i nieliczne zmiany genetyczne.
Największą wadą testu dicentrycznego jest jego pracochłonność, co ogranicza liczbę możliwych do
analizy próbek i to, że jego wykonanie wymaga doświadczonego personelu. Aktualnie pracuje się nad przystosowaniem testu dicentryków do użycia na masową skalę. Proponowane są 4 możliwe drogi do osiągnięcia
tego celu: obniżenie liczby liczonych komórek, – czyli zwiększenie szybkości analizy kosztem dokładności
[4], grupowanie laboratoriów biodozymetrycznych w funkcjonalnie działające sieci, teledozymetria, czyli
analiza częstości dicentryków na wysokiej jakości zdjęciach przesyłanych do ekspertów przez internet oraz
automatyzacja metody i liczenia dicentryków. W Europie trwają próby wykorzystania automatycznych mikroskopów z systemem do analizy obrazu niemieckiej firmy Metasystems (ryc. 3), co pozwoli zautomatyzoDawka 0,001 Sv/rok – 1 mSv/rok 0,0012 Sv/rok – 1,12 mSv/rok 0,003 Sv/rok – 3,0 mSv/rok 0,0035 Sv/rok – 3,5 mSv/rok 0,020 Sv/rok – 20,0 mSv/rok 1‐2 Sv – 1000‐2000 mSv 3‐5 Sv – 3000‐5000 mSv Opis Dopuszczalna dawka roczna dla osoby nie pracującej z promieniowaniem, otrzymana z innych źródeł niż medyczne i promieniowanie naturalne – według polskiego prawa i zale‐
ceń ICRP (Międzynarodowej Komisji Ochrony Radiologicznej); Średnia dawka roczna pracowników elektrowni atomowych w Korei Południowej w 1997 roku, otrzymana z innych źródeł niż medyczne i promieniowanie naturalne [6]; Średnia dawka roczna pracowników przemysłu jądrowego w USA, otrzymana z innych źró‐
deł niż medyczne i promieniowanie naturalne [7]; Średnia dawka roczna mieszkańca Polski otrzymywana, ze źródeł medycznych i natural‐
nych; Średnia dawka roczna, w ciągu pięciu lat dla pracowników zawodowo narażonych na pro‐
mieniowanie według ICRP (Międzynarodowej Komisji Ochrony Radiologicznej – dawka nie może w ciągu pięciu lat przekroczyć 0,100 Sv, a w ciągu roku 0,050 Sv); Jeżeli dostarczona w krótkim czasie może powodować ostrą chorobę popromienną (ARS) i wymaga opieki medycznej; Półletalna dawka dla człowieka (LD50/30) – umiera 50% osób w ciągu 30 dni; Tabela 1. Przykładowe wielkości dawek promieniowania. wać proces liczenia. W Stanach Zjednoczonych w Bethesda, Maryland, działa już laboratorium biodozymetryczne, gdzie wszystkie etapy testu dicentryków, począwszy od założenia hodowli, poprzez wykonanie preparatów, aż do liczenia częstości dicentryków są zautomatyzowane, co pozwala analiRyc. 1. Limfocyt ludzki krwi obwodowej w zować setki przypadków tygotrakcie mitozy. Widoczne liczne, indukowa‐ dniowo [5].
ne promieniowaniem jonizującym, aberra‐
cje – strzałkami zaznaczono fragmenty cen‐
tryczne chromosomów, a w ramkach znaj‐
dują się chromosom dicentryczny i chromo‐
som tricentryczny. Kwartalnik popularnonaukowy Luty— Marzec 2012 Liczba dicentryków / komórka Edukacja
Dawka, Gy 35
Ryc. 2. Krzywa dawka efekt dla chromosomów dicentrycznych, uzyskana in vitro. Znając częstość dicentryków w danej próbce krwi, można odczytać dawkę promieniowania [3]. TEST MIKROJĄDROWY
Jest to drugi z klasycznych, cytogenetycznych
testów biodozymetrii. W stymulowanych do podziału
limfocytach blokuje się podział cytoplazmy komórek,
pozwalając na podział jąder. W tak powstałych komórkach dwujądrzastych analizuje się częstość mikrojąder,
czyli kulistych tworów otoczonych błoną jądrową widocznych w cytoplazmie (ryc. 4). Mikrojądra powstają z
części lub całych chromosomów w następstwie napromienienia komórek bądź działania różnych czynników Ryc. 3. Automatyczny mikroskop Zeiss Image Z2 połączony chemicznych [8]. Częstość mikrojąder jest proporcjonal- systemem do analizy obrazu Metafer MSearch firmy na do dawki w sposób liniowo kwadratowy. Dawkę pro- Metasystems, Niemcy w Centrum Radiobiologii i Dozymetrii mieniowania odczytuje się z częstości mikrojąder, po- Biologicznej Instytutu Chemii i Techniki Jądrowej. równując do krzywych dawka efekt uzyskanych w eksperymentach in vitro (podobnych do krzywych dla chromosomów dicentrycznych). Test mikrojądrowy ma
następujące zalety:
 jest przeprowadzany na limfocytach krwi obwodowej;
 jest prosty; analiza częstości mikrojąder nie jest tak pracochłonna jak analiza dicentryków, nie wymaga
również dużego doświadczenia;
 idealnie nadaje się do automatyzacji. Do tej pory podjęto szereg prób automatyzacji testu mikrojadrowego [9]. Najbardziej zaawansowane jest oprogramowanie MnScore niemieckiej firmy Metasystems, walidowane w ramach projektu MULTIBIODOSE (wyjaśnienie w ramce) w kilku europejskich laboratoriach (ryc. 5). Automatyzacja testu mikrojądrowego daje możliwość analizy nawet setek próbek w ciągu
tygodnia przez 1 laboratorium;
 działa w zakresie od 0,2-0,5 Sv do 3,0 – 4,0 Sv.
Tak jak test chromosomów dicentrycznych jest zbyt mało czuły do analizy dawek, które otrzymują
pracownicy zawodowo narażeni na promieniowanie, ale „pokrywa” zakres dawek potencjalnie możliwych
do otrzymania w razie zdarzenia radiacyjnego. Najmniejsza możliwa do oszacowania dawka jest stosunkowo wysoka, ponieważ bardzo zmienny jest spontaniczny poziom mikrojąder. Wiadomo również, że zależy
on od wieku i płci. Czułość testu mikrojądrowego w zakresie niskich dawek można podnieść poprzez malowanie centromerów metodą hybrydyzacji in situ [10]. Mikrojądra powstałe spontanicznie zawierają centromery, natomiast mikrojądra indukowane przez czynniki genotoksyczne (takie jak promieniowanie) najczę Kwartalnik popularnonaukowy Luty—Marzec 2012 Edukacja
36
ściej nie zawierają centromerów. Tak więc, analiza chromosomów bez centromerów pozwala „ominąć”
problem wysokiej i różnorodnej częstości kontrolnych mikrojąder.
mikrojądra jądra Ryc. 4. Limfocyt z 2 jądrami, widoczną otaczającą je cytoplazmą i 2 indukowanymi promieniowaniem mikrojądrami. Ryc. 5. Galeria dwujądrzastych limfocytów z mikrojądrami utworzona po przeszukaniu preparatu przez program MSearch (Metafer, Metasystems). Test mikrojądrowy nie jest idealnym biodozymetrem. Wysoka częstość spontanicznych mikrojąder,
brak możliwości rozpoznania częściowego napromienienia ciała, stosunkowo wąski zakres dawek, przy
których test ten dział, brak możliwości dozymetrii retrospektywnej, (ponieważ poziom mikrojąder w limfocytach krwi obwodowej szybko spada wraz z czasem), to że mikrojądra nie są specyficzne dla promieniowania, ale indukowane są również różnymi substancjami chemicznymi – wszystko to powoduje znaczne
ograniczenia w jego użyteczności.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
37
MULTIBIODOSE – Mul dyscyplinarne narzędzie biodozymetryczne w przypadkach masowego narażenia na promieniowanie jonizujące (Mul ‐disciplinary biodosimetric tools to manage high scale radiological casual es) – projekt współfinansowany przez Unię Europejską. Jego celem jest przeanalizowanie użyteczności szerokiego spektrum technik biodozymetrycznych i dostosowanie ich do masowego zdarzenia radiacyjnego. Projekt jest realizowany w 14 laboratoriach z 11 krajów, w tym w Polsce w Instytucie Chemii i Techniki Jądrowej w Warszawie. Link do strony projektu: h p://
www.mul biodose.eu/index.htm TEST OGNISK HISTONU GAMMA-H2AX
Jest to nowy, bardzo obiecujący test biodozymetryczny. Polega on na szacowaniu liczby ognisk
ufosforylowanych cząsteczek histonu gamma-H2AX w jądrach napromienionych limfocytów. Powstanie
indukowanych promieniowaniem dwuniciowych pęknięć DNA powoduje, że histon H2AX, wchodzący w
skład rdzenia nukleosomu (cząstki białkowej, na którą nawinięty jest DNA) zostaje ufosforylowany przez
kinazy ATM i DNA-PK i tworzy tzw. ogniska. Ogniska histonu gamma-H2AX można wyznakować immunofluorescyjnie i obserwować pod mikroskopem (ryc. 5). Ich liczba jest proporcjonalna do dawki promieniowania w sposób liniowy. Dawkę promieniowania odczytuje się z liczby ognisk, porównując ją do krzywej dawka-efekt uzyskanej w doświadczeniach in vitro, tak jak w przypadku testu chromosomów dicentrycznych, czy testu mikrojądrowego. Zalety testu ognisk histonu gamma-H2AX są następujące:
 może być przeprowadzony na limfocytach krwi obwodowej;
 potencjalnie pozwoli rozpoznawać częściowe napromienienie ciała, ale na razie nie jest to wystarczająco udokumentowane;
 jest prosty w wykonaniu, wynik można uzyskać już w kilka godzin po dostarczeniu próbki krwi, co jest
niemożliwe zarówno w przypadku testu chromosomów dicentrycznych, jak i testu mikrojądrowego,
gdzie trzeba czekać, aż limfocyty podzielą się, –co najmniej 48 godzin;
 doskonale nadaje się do automatyzacji i w efekcie możliwy do zastosowania jako test przesiewowy
(triage), w krótkim czasie u dużej liczby osób;
 można go stosować potencjalnie w zakresie od kilku miniSv do kilku Sv.
To jest ogromny zakres dawek, większy niż przy teście chromosomów dicentrycznych czy teście
mikrojądrowym. Problemem jest, że zakres możliwych do odczytania dawek zmienia się wraz z upływem
czasu od ekspozycji, ponieważ liczba ognisk histonu zmniejsza się wraz z upływem czasu (ryc. 6). Wielkość dawki rzędu miliSv jest możliwa do odczytania tylko do około 2- 3 godzin po napromienieniu. Za realny zakres dawek możliwych do odczytania przy analizie automatycznej
przyjmuje się, w zależności od autora, od 0,1 do 2 Sv albo od 0,6 do 2 Sv
[11]. Tak więc, powyższy test również nie nadaje się do oceny dawek związanych z pracą zawodową – które zazwyczaj podawane są przy małej mocy
dawki, w długim czasie.
Oprócz licznych wymienionych zalet, test ognisk histonu gammaH2AX ma również swoje ograniczenia. Po pierwsze, jak już wspomniałem,
liczba ognisk histonu spada w krótkim czasie od napromieniania, co powoduje, że próbka krwi musi być szybko dostarczona do laboratorium, a już po
48 godzinach poziom tego histonu wraca do wartości kontrolnych. Jako zuRyc. 5. Ogniska histonu gamma‐ pełnie nowy, test ten był użyty w dozymetrii tylko w kilku przypadkach; istH2AX ‐ widoczne jądro limfocytu nieje ogromna liczba protokołów proponujących, jak otrzymywać wybarwiow 1 godzinę po napromienieniu i ne ogniska histonu gamma-H2AX i jak oceniać ich liczbę. Nie wiadomo, czy
zielone ogniska histonu gamma‐ zastosowanie różnych protokołów daje porównywalne wyniki i generalnie
H2AX wyznakowane test czeka na standaryzację i walidację. Jednym z zadań wspomnianego
immunofluorescencyjnie. wcześniej projektu MULTIBIODOSE jest stworzenie tzw. SOP (Standard
Operation Procedure) oraz właśnie standaryzacja i walidacja tego testu.
Być może, test ognisk histonu gamma-H2AX mógłby być użyty jako tzw. test predykcyjny, dla pracowników zawodowo narażonych na promieniowanie. Polegałby on na tym, że próbki krwi zostają napromienione in vitro i analizuje się np. kinetykę zaniku histonu. Jeżeli u badanej osoby odbiegałaby ona od
Kwartalnik popularnonaukowy Luty—Marzec 2012 Edukacja
38
normy (średniej dla populacji) to- być może - ta osoba jest bardziej promieniowrażliwa i nie powinna pracować z promieniowaniem. Od bardzo dawna trwają poszukiwania takiej metody, pozwalającej w stosunkowo prosty sposób oszacować promieniowrażliwość osobniczą, do tej pory raczej bez sukcesu
Średnia częstość ognisk histonu gamma‐
H2AX na komór‐
kę minuty Ryc. 6. Zależność liczby ognisk histonu gamma‐H2AX od czasu w limfocytach ludzkich napromienionych 0,5 Gy pro‐
mieniowania gamma [11]. Widać, że po 3 godzinach od napromienienia poziom histonu zbliża się do wartości kon‐
trolnych. ANALIZA TRANSLOKACJI
Translokacje są stabilnymi aberracjami chromosomowymi (ryc. 7). Indukowane są przez promieniowanie jonizujące z częstością równą dicentrykom i ich częstość jest proporcjonalna do dawki promieniowania. Jednak w odróżnieniu od dicentryków nie powodują one śmierci mitotycznej komórek i w konsekwencji ich częstość nie maleje z czasem, a więc lepiej nadają się do dozymetrii retrospektywnej
(przeprowadzonej nawet wiele lat po zdarzeniu radiacyjnym). Inne zalety analizy translokacji w celach
dozymetrycznych są analogiczne do zalet testu chromosomów dicentrycznych:
- translokacje analizuje się w limfocytach krwi obwodowej;
- test pozwala na rozróżnienie, czy dana osoba była napromieniona na całe ciało czy częściowo;
- można go stosować w zakresie dawek od 0,1 – 0,2 Sv do 5 – 12 Sv. Spontaniczna częstość translokacji
jest wyższa niż spontaniczna częstość dicentryków, ale na tyle niska, żeby nie mieć wpływu na dolny limit
rozpoznawalnych dawek.
Największą wadą analizy translokacji jest wysoka cena testu. Żeby zobaczyć translokację należy
„pomalować” jedną, dwie, trzy bądź wszystkie pary chromosomów na różne kolory, bo chromosomy z
translokacją strukturalnie nie różnią się od niezmienionych. Dopiero „malowanie” pozwala zidentyfikować
„przeniesiony” fragment i rozpoznać translokację (ryc. 8). Procedura malowania chromosomów nazywa
się FISH (Fluorescence In Situ Hybridization), jest dosyć skomplikowana i droga. Powoduje to, że analiza
translokacji, jako test biodozymetryczny, nie jest tak często używana jak test chromosomów dicentrycznych i dzięki temu nie jest tak dobrze „zwalidowana” i standaryzowana.
Specjalna odmiana tego testu, analiza translokacji stabilnych powinna być testem z wyboru przy
monitoringu wpływu permanentnych (dostarczanych nawet przez dziesięciolecia) niskich dawek promieniowania na genom. Jest to sytuacja osób pracujących z promieniowaniem, w tym szczególnie pracowników przemysłu jądrowego. Powinni oni co kilka lat być testowani na obecność translokacji w swoim genomie, najlepiej poprzez „malowanie” wszystkich chromosomów czyli tzw. procedurę mFISH (ryc. 9).
Dotychczas opublikowano szereg prac wykorzystujących technikę FISH i pokazujących różny wpływ niskich dawek na wieloletnich pracowników zawodowo narażonych na promieniowanie [12].
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
Ryc. 7. Limfocyt ludzki w trakcie mitozy, z widocznymi chromoso‐
mami. Na zielono „pomalowane” chromosomy 2. Widoczna trans‐
lokacja „wzajemna” pomiędzy chromosomem 2 a chromosomem „nie pomalowanym” oraz jeden niezmieniony chromosom 2. Ryc. 8. Translokacja nie są widoczne jako strukturalne zmiany w chromosomach (lewa strona ryciny). Dopiero po pomalowaniu widać, że niewielka część czerwonego chromoso‐
mu jest przeniesiona na czarny chromosom, podobnie jak część czarnego chromosomu jest przyłączona do czerwonego chromosomu. Ryc. 9. Mitoza ludzkiego limfocytu, każda para chromosomów „pomalowana” na inny kolor, przy pomocy techniki m‐FISH, dzię‐
ki czemu można analizować częstość translokacji w całym geno‐
mie. Widoczne również 3 interfazowe jądra limfocytów z poma‐
lowanymi na różne kolory, wyodrębnionymi terytoriami chromo‐
somowymi. Kwartalnik popularnonaukowy Luty—Marzec 2012 39
Edukacja
40
PRZEDWCZESNA KONDENSACJA CHROMOSOMÓW (PCC – PREMATURE CHROMOSOME CONDENSATION)
Technika ta po raz pierwszy w celach dozymetrycznych została użyta po wypadku w Zakładach Przetwarzania Paliwa Jądrowego (JCO) w Tokai-mura w Japonii, gdzie 3 osoby otrzymały bardzo duże dawki
promieniowania w 1999 roku [13]. Jest to technika z wyboru, kiedy przewidywane dawki pochłonięte są na
tyle wysokie (> 5-10 Sv), że prawdopodobnie uniemożliwią stymulowanym limfocytom dojście do fazy mitozy. Jeżeli limfocyty zostaną zatrzymane wcześniej w cyklu komórkowym, to analiza częstości chromosomów
dicentrycznych, mikrojąder czy translokacji jest niemożliwa. Dodając do hodowli pewnych substancji chemicznych – inhibitorów fosfataz białkowych, takich jak kwas okadajowy czy kalikulina A, można jednak spowodować kondensację chromosomów niemal we wszystkich fazach cyklu podziału komórkowego, niezależnie od dawki promieniowania (ryc. 10). W przypadku biodozymetrii używa się limfocytów i kondensuje się
chromosomy w fazie G2 i mitozie, a następnie analizuje się częstości szeroko rozumianych morfologicznych i
numerycznych zmian w chromosomach, proporcjonalnych do dawki promieniowania, takich jak częstości
pierścieni, liczbę dodatkowych fragmentów PCC – czyli fragmentów acentrycznych nadmiarowych w stosunku do liczby chromosomów dla danego gatunku albo stosunek częstości super-długich fragmentów acentrycznych do ogólnej liczby fragmentów PCC. Zalety testu PCC są następujące:
- wykonywany jest na limfocytach ludzkich;
- działa w zakresie dawek od 0,1 – 0,2 Sv aż do nawet 40 Sv, jednak - ponieważ analiza jest żmudniejsza i
trudniejsza niż w przypadku testu chromosomów dicentrycznych, stosuje się go tylko przy dużych dawkach
promieniowania.
Należy podkreślić, że metoda PCC wykonywana w limfocytach ludzkich wymaga ich uprzedniego
stymulowania do podziału i efektywnie jest stosowana dopiero, kiedy komórki znajdą się w późnej fazie G2,
czyli po około 45-48 godzinach hodowli. Tak więc, żeby rozpocząć przygotowywanie preparatów mikroskopowych muszą upłynąć 2 doby. Podobnie jest w przypadku testu chromosomów dicentrycznych czy analizy
translokacji, a w przypadku
testu mikrojąder preparaty wykonuje się nawet po 3 dobach hodowli.
faza G2 faza S Ryc. 10. Limfocyty ludzkie ze skondensowanymi przez inhibitor fosfataz chromosomami w różnych fazach cyklu komórkowego: fazie S i fazie G2. W celach biodozymetrycznych używa się komórek w fazie G2 i mitozie. Istnieje możliwość zastosowania metody PCC w niestymulowanych limfocytach poddanych działaniu kinazo-zależnej cykliny B oraz kalikuliny A (metoda nazwana RICA – Rapid Interphase Chromosome Assay). W
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
41
tym przypadku ocenia się liczbę obszarów, na jakie podzielone są terytoria chromosomowe, widoczne dzięki
hybrydyzacji in situ (FISH) w częściowo skondensowany jądrach interfazowych [14]. Zaletą tej metody jest
skrócenie czasu hodowli komórek z 48 do kilku godzin, oraz łatwość jej wykonania. Zastosowanie metody
pozwala istotnie skrócić czas uzyskania wyników biodozymetrii i używać jej jako testu przesiewowego
(triage) u dużej liczby potencjalnie napromienionych osób. Metoda jest obiecująca, ale słabo udokumentowana (3 publikacje) i używana tylko w jednym laboratorium na świecie – w AFRRI (Armed Forces Radiobiology Research Institute) w Stanach Zjednoczonych.
MOLEKULARNE BIOWSKAŹNIKI NAPROMIENIENIA
Nie są to jeszcze metody dozymetrii biologicznej, ale prowadzone są prace nad wykorzystaniem molekularnych biowskaźników promieniowania do tego celu. Wiadomo, że w napromienionych komórkach zmienia się poziom ekspresji pewnych grup białek, np. białek naprawy DNA, sygnalizacji tej naprawy, protoonkogenów itp. Zmiana stężenia białek w komórce musi się wiązać ze zmianą aktywności kodujących je genów. Zwiększa się poziom transkrypcji i powstaje więcej kopii m-RNA odpowiadającego tym białkom. Możliwe jest badanie zmian profilu ekspresji genów w komórce, poziomu m-RNA dla poszczególnych białek jak i
poziomu samych białek (ryc. 12) – i to są właśnie molekularne wskaźniki napromienienia.
Ryc. 12. Schemat komórki z drogą od informacji zapisanej w DNA do zsyntetyzowania białek. Po na‐
promienieniu zmienia się poziom i wzór transkrypcji w jądrze komórkowym. Powstaje inny ”koktajl” m
‐RNA w cytoplazmie, a na końcu syntetyzowane są różne białka. Zarówno wzór ekspresji genów, po‐
ziom m‐RNA jak i poziom białek w komórce mogą służyć jako molekularne biowskaźniki napromienie‐
nia. Ryc. 13. Przykład mikromacierzy DNA. Wzór punktów odwzorowuje wzór ekspresji ge‐
nów w danej tkance i jest zmieniany nawet przez niewielkie dawki promieniowania (źródło Wikipedia). Kwartalnik popularnonaukowy Luty—Marzec 2012 Edukacja
42
Zmiana profilu ekspresji genów badana jest przy pomocy tzw. mikromacierzy DNA (DNA microarrays).
W ogromnym uproszczeniu na płytce (szkiełku) znajduje się naniesiona kolekcja fragmentów genów w postaci jednoniciowego DNA i jeżeli nakropimy na nią jednoniciowe fragmenty c-DNA, przepisane z m-RNA
ekstrahowanego z badanych komórek, to otrzymamy mapę wszystkich genów, jakie są aktywne w badanych
komórkach (ryc. 13). Można rozróżnić „wolne” miejsca na płytce od „zapełnionych” gdzie badane c-DNA
hybrydyzowało z DNA przyczepionym do płytki. W ten sposób można obserwować zmianę ekspresji dziesiątek tysięcy genów jednocześnie. Wiadomo, że mikromacierz po napromienieniu nawet zupełnie małymi
dawkami promieniowania (rzędu milisiwertów) wygląda inaczej niż macierz przed napromienieniem. W
przypadku rzeczywistej biodozymetrii nie mamy jednak dostępnej macierzy przed napromienieniem. Dodatkowo, ekspresja genów u danej osoby w danej tkance może się zmieniać w czasie pod wpływem całej gamy
czynników fizjologicznych. Poza tym metoda jest słabo powtarzalna, droga i skomplikowana.
Dzięki technice mikromacierzy DNA zidentyfikowano setki, jeżeli nie tysiące genów, które ulegają
nadekspresji lub ich ekspresja jest zmniejszona po działaniu promieniowania. Potencjalnie każdy z tych genów mógłby być molekularnym biodozymetrem, bo zmianę jego ekspresji po napromienieniu można obserwować jako zmianę poziomu m-RNA w danej tkance przy pomocy techniki RT-PCR (Real Time Polymerase Chain Reaction). Trwają prace nad wybraniem tkanki (limfocyty krwi obwodowej, surowica krwi) i odpowiednich genów, których ekspresja byłaby promieniozależna, stała dla wszystkich dawców i niezależna
od mikrośrodowiska komórkowego oraz stanu fizjologicznego. Do tej pory wstępnie przebadano szereg genów np: CDKN1A, GADD45A, SENS1, BAX, DDB2 [15, 16] i uzyskano dobrze rokujące krzywe zależności dawka-efekt. Metoda jest obiecująca, bo - posiadając odpowiedni sprzęt - wynik pokazujący poziom ekspresji wybranego genu można by uzyskać po około 8 godzinach i u stosunkowo dużej liczby osób.
Stężenie białka GADD45 w ekstrakcie komórek ludzkiej krwi (pg/ μl) Dawka, Gy Ryc. 14. Krzywa dawka‐efekt dla stężenia białka GADD45 w napromienionych komórkach krwi, po 24 i 48 godzinach [17]. Poziom białek można mierzyć zarówno w ekstraktach z komórek (np. limfocytów), jak i surowicy krwi.
Dużo prac w tym kierunku przeprowadzali naukowcy ze wspomnianego już wcześniej amerykańskiego instytutu AFRRI. Stwierdzili oni wzrost poziomu białek Ras p21 i Raf w ludzkich limfocytach krwi obwodowej po działaniu 0,1 i 0,75 Gy promieniowania X. Badali ponadto poziom różnych białek w surowicy krwi
napromienionych myszy [17]. Stosowali metod ELISA, a wzrost poziomu wytypowanych białek oznaczali
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
43
jako % poziomu wszystkich białek. Test ELISA z powodu jego pracochłonności i stopnia skomplikowania
w żaden sposób nie może jednak służyć jako podstawa testu biodozymetrycznego. Dużo bardziej zaawansowane prace dotyczyły białka GADD45 [17]. Oznaczano jego poziom w zależności od dawki w zakresie 0-6
Gy promieniowania X, zarówno w surowicy krwi obwodowej jak i ekstrakcie komórek krwi i uzyskano
obiecujące krzywe dawka – efekt (ryc. 14). Dodatkowo okazało się, że metoda pozwala rozpoznać częściowe napromienienie ciała. Ważne jest też, że poziom tego białka nie oznaczano standardowo testem ELISA,
ale metodą immunofluorescencyjną opierającą się technice mikrosfer Luminex, która wykorzystuje cytometr
przepływowy do odczytywania wielkości sygnału. Jest ona prosta, szybka i w pełni zautomatyzowana.
Choć na dzień dzisiejszy żaden z omówionych molekularnych wskaźników napromienienia nie jest jeszcze
wystarczająco opracowany by mógł służyć jako test biodozymetryczny (może poza automatyczną analizą
białka GADD45 w limfocytach i surowicy krwi) to wydaje się, że potencjalnie spełniają one wszystkie ku
temu warunki i w najbliższej przyszłości mogą stać się konkurencja dla testów cytogenetycznych.
BIODOZYMETRIA MEDYCZNA – NA PODSTAWIE OBJAWÓW
Wysokie dawki promieniowania mogą powodować objawy chorobowe, takie jak spadek liczby limfocytów
we krwi obwodowej (od 1 Sv), wymioty (od 1 Sv), biegunka (od 4 Sv), bóle głowy (od 2 Sv), wzrost temperatury (od 2 Sv) czy utrata przytomności (od 6 Sv) [18]. Chociaż nie są to objawy specyficzne, doświadczeni
lekarze, szczególnie, kiedy wiedzą, że w grę mogło wchodzić promieniowanie, mogą na ich podstawie określić, czy dana osoba została napromieniona i oszacować w przybliżeniu dawkę. Jednak co najmniej 4 powody zmniejszają atrakcyjność takiego szacunku jako biodozymetru. Po pierwsze, dolna granica metody to
dawki rzędu 1-3 Gy, a więc bardzo wysokie, praktycznie spotykane tylko przy poważnych wypadkach radiacyjnych. Metoda nie nadaje się więc do oceny niskich dawek u pracowników zawodowo narażonych na promieniowanie. Po drugie, wymienione wyżej objawy chorobowe (z wyjątkiem spadku poziomu limfocytów)
u jednych osób występują już po 1 Sv, a u innych dopiero po 3 Sv i różne jest ich nasilenie. Po trzecie, są to
objawy niespecyficzne i mogą być wywołane z tysiąca innych powodów. I wreszcie ostatni powód – zauważono, że w czasie jakichkolwiek sytuacji zbiorowego narażenia część osób, które tak naprawdę nie zostały
napromienione (czy np. skażone chemicznie, bo zjawisko jest szersze) będzie miało symptomy jak po otrzymaniu dużej dawki, bądź będzie się czuło poszkodowane i domagało opieki medycznej. Są to tzw. pacjenci
„worried well”, a występujące u nich symptomy, całkiem poważne - wymioty, biegunka, bóle głowy czy gorączka - mają
podłoże psychiczne.
Biodozymetria medyczna jest wpisana w tzw. triage medyczny –
czyli w algorytmy podziału poszkodowanych na grupy na miejscu zdarzenia w sytuacji masowego narażenia wielu osób [2].
Bardzo ważne jest ustalenie w tego typu sytuacjach, czy zdarzenie jest związane z promieniowaniem (np. atak przy użyciu
„brudnej bomby”). Jeżeli tak, to w przygotowanym do tego celu
szpitalu powinien odbyć się kolejny triage medyczny, już ukierunkowany na rozpoznanie osób napromienionych i pobranie
materiału do biodozymetrii cytogenetycznej, która ustali dokładne wysokości dawek pochłoniętych. Ustalenie wysokości dawki
ma znaczenie przy doborze stosowanych procedur medycznych.
Wiele różnych schematów postępowania w tego typu sytuacjach
zostało przeanalizowane i opisane w podręczniku TMT HandboRyc. 15. Spadek liczby limfocytów we krwi obwo‐
dowej po 1 i 2 dniach od napromienienia całego ok, Triage, Monitoring and Treatment of people exposed to ionising radiation following malevolent act, 2009 (więcej informacji
ciała [19]. na stronie www.tmthandbook.org).
Kwartalnik popularnonaukowy Luty—Marzec 2012 44
Edukacja
Najważniejszym z symptomów, na którym można oprzeć szacowanie dawki w szpitalu jest spadek liczby
limfocytów krwi obwodowej. Wiadomo, że liczba limfocytów u zdrowej osoby waha się w granicach od
1400 do 3500 w mm3 krwi [5]. Po napromienieniu liczba ta spada tak jak to pokazano na ryc. 15, aż do zera przy bardzo wysokich dawkach.
DOZYMETRIA PRZY POMOCY SPEKTROSKOPII ELEKTRONOWEGO
REZONANSU PARAMAGNETYCZNEGO (EPR)
Spektroskopia EPR jest techniką pozwalającą badać niesparowane elektrony (rodniki, centra paramagnetyczne) w sieci krystalicznej różnych związków chemicznych. Nawet najmniejsze dawki promieniowania
wzbudzają związki chemiczne i powodują powstawanie nowych rodników, które mogą być wykrywane
przy pomocy EPR. Koncentracja nowo powstałych rodników jest proporcjonalna do dawki.
Ze względów technicznych dozymetrią przy pomocy EPR można przeprowadzać w hydroksyapatycie,
pochodzącym ze szkliwa zębów lub kości oraz we włóknach kolagenowych z paznokci lub włosów. Do tej
pory najwięcej prac dotyczyło szkliwa zębów. Zaletami dozymetrii przy użyciu spektroskopii EPR w szkliwach zębów są:
szeroki zakres wykrywanych dawek od mniej, niż 0,1 Gy do dawek nie mających znaczenia w biodozymetrii rzędu setek Gy;
wysoka powtarzalność i znikomy koszt analizy próbki (koszty zakupu sprzętu – spektrometru są jednak
bardzo wysokie);
sygnał EPR w hydroksyapatycie jest stały przez miliony lat, dzięki temu analizę można wykonywać w
dowolnym momencie po napromienieniu (retrospektywnie);
w pewnych okolicznościach możliwe jest wykrycie częściowego napromienienia ciała. Można sobie wyobrazić sytuację, że przeprowadzamy analizę EPR w szkliwie zębów i w paznokciach od nóg czy rąk u
danej osoby – i jeżeli znajdujemy sygnał tylko w jednej z próbek, świadczy to o częściowym napromienieniu;
postuluje się, że EPR może służyć do badania niskich i dostarczanych w długim czasie dawek np. u osób
zawodowo narażonych na promieniowanie, czy mieszkających na obszarze o podwyższonej promieniotwórczości naturalnej. Najmniejsza wykrywalna dawka to około 0,05 Sv. Natomiast poważną zaletą tej
metody jest to, że wykrywany sygnał, w odróżnieniu od zmian cytogenetycznych (częstość dicentryków
czy raczej translokacji) nie jest w żaden sposób zależny od czasu czy stanu fizjologicznego badanej osoby;
technika ta jest już dosyć dobrze udokumentowana i kilka razy zastosowana w praktyce;
jej klasyczna odmiana bazuje na analizie fragmentu zęba pobranego z organizmu – i to jest jej zasadnicza wada, bo czyni ją techniką inwazyjną.
Osoba postawiona przez wyborem czy woli przeprowadzić dozymetrię na próbce krwi, czy kawałku zęba
z całą pewnością wybierze próbkę krwi. Jednak ostatnio konstruuje się małe, przenośne spektroskopy EPR,
pozwalające przeprowadzać pomiar w warunkach polowych, bez pobierania fragmentu zęba tylko bezpośrednio w jamie ustnej setek osób w krótkim czasie – i traktować go jako bardzo efektywny test przesiewowy [20].
Spektroskopia EPR przeprowadzana na skrawkach paznokci nie jest tak dobrze udokumentowana. Jej
oczywistą zaletą jest nieinwazyjność, a wadą, – że sygnał EPR w paznokciach jest słabszy i nie tak stabilny
jak w hydroksyapatycie z zębów.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
45
DOZYMETRIA PRZY POMOCY SPEKTROSKOPII ELEKTRONOWEGO
REZONANSU PARAMAGNETYCZNEGO (EPR) ORAZ TECHNIK LUMINESCENCYJNYCH (OSL – OPTICALLY STIMULATED LUMINESCENCE) W WYŚWIETLACZACH I KOMPONENTACH ELEKTRONICZNYCH
PRZENOŚNYCH URZĄDZEŃ ELEKTRONICZNYCH
W oczywisty sposób nie jest to dozymetria biologiczna tylko fizyczna, ale ma z dozymetrią biologiczną
jedną wspólną cechę. Otóż, jeżeli chodzi o czułość metody dozymetria biologiczna nie może konkurować z
dozymetrią fizyczną, jednak dozymetry fizyczne – w postaci różnego rodzaju plakietek - noszą i co jakiś
czas mają kontrolowane tylko osoby pracujące z promieniowaniem. Tymczasem dozymetr biologiczny każdy nosi ze sobą, wszystko jedno czy są nim limfocyty krwi obwodowej, czy szkliwo zębów. Często jednak
mamy przy sobie przenośne urządzenia elektroniczne: telefony komórkowe, odtwarzacze MP3 i MP4, przenośne pamięci, itd. Zatem, gdyby można było przeprowadzić dozymetrię fizyczną w tych urządzeniach to
uzyskalibyśmy zarówno łatwość, szybkość i dokładność odczytu, jak i powszechność indywidualnego dozymetru. Stąd pomysł mierzenia sygnałów EPR i OSL w urządzeniach elektronicznych.
Pomysł ten jest podstawą jednego z tematów w projekcie MULTIOBIODOSE. Do tej pory przeanalizowano możliwość czytania sygnału EPR w wyświetlaczach 61 modeli telefonów oraz sygnału OSL w komponentach elektronicznych tych samych telefonów.
TEST PRZEBARWIEŃ W SKÓRZE (SKIN SPECLE ASSAY) I BADANIE
POZIOMU BIAŁEK W OSOCZU KRWI (SERUM PROTEIN ASSAY)
Żaden z testów cytogenetycznych ani biochemicznych używanych w dozymetrii biologicznej nie odtworzy dawki dostarczonej na niewielka powierzchnię ciała. Żeby taka dawka była groźna dla zdrowia czy życia, musi być wysoka. Dawki rzędu kilku grejów, które byłyby zabójcze w przypadku pochłonięcia przez
całe ciało, dostarczone np. na fragment 10 cm2 uda będą tylko drobną niedogodnością, kończącą się jakąś
formą miejscowego zapalenia. Gdyby jednak pochłonięta dawka okazała się bardzo wysoka, np. rzędu 100
Gy, to wtedy pojawi się problem. Po pierwsze, taka dawka zabije wszystkie komórki w tym miejscu (skóry,
naskórka, tkanek pod skórą) i spowoduje trudną do wyleczenia martwicę tkanek. Po drugie, przez jakiś czas
po napromienieniu (np. kilka tygodni, czy nawet miesięcy) może nie być żadnych niepokojących objawów,
ale jeżeli dawka była odpowiednio wysoka, to martwica jest nieuchronna i powinno się wyciąć takie tkanki
wcześniej i wypełnić ranę, żeby zminimalizować cierpienie i nie dopuścić do zakażenia.
Odtworzeniu dawki w takich sytuacjach służy opracowany we Francji test przebarwień na skórze (SSA)
[21]. Polega on na naświetlaniu skóry światłem z lasera i badaniu światła odbitego od skóry, a więc metoda
jest nieinwazyjna. Promieniowanie zmienia sposób odbicia takiego światła w sposób proporcjonalny do
dawki. Do tej pory na modelach zwierzęcych testowano dawki od 20 do 80 Gy. Uzupełnieniem tej metody
ma być badanie ekspresji wybranych białek w surowicy krwi przy pomocy elektroforezy dwukierunkowej.
Dotychczas przetestowano 34 białka wybrane za pomocą spektroskopii masowej i otrzymano obiecujące
wyniki [22]. Wydaje się, że zmiany ekspresji pewnych białek w osoczu krwi są widoczne nawet po napromienieniu niewielkiego obszaru powierzchni skóry, w okresie, kiedy brak jeszcze klinicznych symptomów
napromienienia.
DOZYMETRIA BIOLOGICZNA W POLSCE
Dozymetria biologiczna z powodu swojej przydatności powinna być wpisana w system reagowania w sytuacjach kryzysowych. Tak się dzieje w wielu krajach, które utrzymują specjalne jednostki zajmujące się
głównie dozymetrią, w tym biologiczną np. w Niemczech – Bundesamt fuer Strahlenschutz czy w Finlandii
– Radiation and Nuclear Safety Authority. W Polsce organem dozoru jądrowego jest między innymi Państwowa Agencja Atomistyki (PAA). Składa się ona z wielu departamentów (między innymi Centrum ds.
Zdarzeń Radiacyjnych CEZAR), które odpowiadają za monitoring sytuacji radiacyjnej kraju, dozymetrię
fizyczną na miejscach zdarzenia itp. Oficjalną jednostką, która przeprowadza dozymetrię biologiczną dla
Kwartalnik popularnonaukowy Luty—Marzec 2012 Edukacja
46
PAA jest Centralne Laboratorium Ochrony Radiologicznej (CLOR) w Warszawie, gdzie tą tematyka zajmuje
się jedna osoba. W przypadku masowego zdarzenia radiacyjnego CLOR nie jest w stanie zapewnić dozymetrii biologicznej dla wszystkich potrzebujących.
Polska jest jednym z 15 państw w Europie, gdzie funkcjonują laboratoria posługujące się metodami dozymetrii biologicznej [23]. Według mojej wiedzy, 4 instytuty w Polsce są realnie zdolne do wykonania rekonstrukcji dawki u napromienionej osoby: CLOR, Zakład Biologii Radiacyjnej i Środowiskowej Instytutu Fizyki Jądrowej PAN w Krakowie, Zakład Radiobiologii i Immunologii Instytutu Biologii Uniwersytetu im. Jana
Kochanowskiego w Kielcach oraz Centrum Radiobiologii i Dozymetrii Biologicznej Instytutu Chemii i
Techniki Jądrowej (ICHTJ) w Warszawie. Tylko dwa ostatnie z wymienionych zakładów dysponują nowoczesnymi, automatycznymi mikroskopami i systemami do analizy obrazu wykorzystywanymi w szybkiej dozymetrii biologicznej.
Ponieważ jedno laboratorium dozymetryczne nie jest w stanie zapewnić dozymetrii przy masowym zdarzeniu radiacyjnym, istnieje potrzeba grupowania laboratoriów w funkcjonalne sieci. Na terenie Europy dzięki
projektom MULTIBIODOSE oraz RENEB (Realizing the European Network in Biodosimetry) powstają
właśnie funkcjonalne sieci dozymetrii biologicznej. Do tej pory w prace obu konsorcjów włączone jest tylko
Centrum Radiobiologii i Dozymetrii Biologicznej ICHTJ w Warszawie.
Jeżeli chodzi o Polskę, to pod koniec 2010 roku zainicjowano program „Porównanie Międzylaboratoryjne"
mający na celu porównanie oceny dawek pochłoniętych na podstawie częstości chromosomów dicentrycznych pomiędzy CLOR a ICHTJ i standaryzację procedury. Planowane są dalsze ćwiczenia i włączenie w nie
pozostałych 2 laboratoriów: z Kielc i Krakowa. Być może, będzie to podstawa sieci biodozymetrycznej w
naszym kraju.
Powstanie polskiej sieci biodozymetrycznej i pokazanie, że Polska jest w stanie zapewnić ochronę radiologiczną całego kraju również używając metod dozymetrii biologicznej mogłoby mieć pozytywny wpływ na
społeczny odbiór rozwoju energetyki jądrowej. W przypadku jakiegokolwiek zdarzenia radiacyjnego ludzie
są bardzo zainteresowani tym, jakie dawki promieniowania dostali i co to oznacza dla ich zdrowia, to zaś
może zagwarantować tylko dozymetria biologiczna i utrzymywanie grupy ekspertów z tej dziedziny.
LITERATURA:
1. Waselenko J.K., MacVittie T.J., Blakely W.F., Pesik N., Wiley A.L., Dickerson W.E., Tsu H., Confer D.L., Coleman C.D., Seed
T., Lowry P., Armitage J.O., Dainiak N.: Medical Management of the Acute Radiation Syndrome: Recommendations of the Strategic National Stockpile Radiation Working Group. Annals of Internal Medicine (2004), 140, Nov 12, 1037-1051;
2. Rojas-Palma C., Liland A., Jerstad A.N., Etherington G., Perez M., Rahola T., Smith K.: TMT Handbook – Triage, Monitoring
and Treatment of people exposed to ionising radiation following a malevolent act. (2009);
3. Cytogenetic analysis for radiation dose assessment. Technical Report Series No 405, IAEA Vienna (2001);
4. Lloyd D.C., Edwards A.A., Moquet J.E., Guerrero-Carbajal Y.C.: The role of cytogenetics in early triage of radiation casualties. Applied Radiation and Isotopes. (2000), 52, 1107-1112;
5. Blakely W.F., Satter C.A., Prassana P.G.: Early-response biological dosimetry – recommended countermeasure enhancement
for mass-casualty radiological incidents and terrorism. Health Physics (2005), Nov, 89(5), 494-504;
6. Lee B.I., Kim S.I., Suh D.H., Kim J.I., Lim Y.K.: Radiation dose distribution for workers in South Korean nuclear power
plants. Academy of Science, Engineering and Technology (2011), 76, 148-151;
7. Word Nuclear Association – informacje ze strony internetowej (2011);
8. Fenech M.: The advantages and disadvantages of the cytokinesis-block micronucleus method. Mutation Research, (1997),
392, 11-18;
9. Rossnerova A., Spatova M., Schunck C., Sram R.J.: Automated scoring of lymphocyte micronuclei by the MetaSystems Metafer image cytometry system and its application in studies of human mutagen sensitivity and biodosimetry of genotoxin exposure.
Mutagenesis, (2011), 26, 169-175;
10. Wójcik A., Kowalska M., E. Bouzyk E., Buraczewska I., Kobialko G., Jarocewicz N., Szumiel I.: Validation of the micronucleus-centromere assay for biological dosimetry. Genetics and Molecular Biology, (2000), 23, 4, 1083-1085;
11. Roch-Lefevre S., Mandina T., Voisin P., Gruel Gaetan G., Mesa J.E.G., Valente M., Bonnesoeur P., Garcia O., Voisina P.,
Roy L.: Quantification of c-H2AX Foci in Human Lymphocytes: A Method for Biological Dosimetry after Ionizing Radiation Exposure. Radiation Research, (2010), 174, 185–194;
Kwartalnik popularnonaukowy Luty— Marzec 2012 Edukacja
47
12. Tawn E.J., Whitehouse C.A., Tarone R.E.: FISH chromosome aberration analysis on retired radiation workers from the Sellafield nuclear facility. Radiat Res., (2004) Sep;162(3), 249-56;
13. Hayata I., Kanda R., Minamihisamatsu M., Furokawa S., Sasaki M.: Cytogenetical dose estimation for 3 severely exposed
patients in the JCO criticality accident in Tokai-mura. J Radiat Res Suppl, (2001), 42, 149-155;
14. Prasanna P.G.S., Escalada N.D., BlakelyW.F.: Induction of premature chromosome condensation by a phosphatase inhibitor
and a protein kinase in unstimulated human peripheral blood lymphocytes: a simple and rapid technique to study chromosome
aberrations using specific whole-chromosome DNA hybridization probes for biological dosimetry. Mutation Research, (2000),
466, 131–141;
15. Kabacik S., Mackay A., Tamber N., Manning G., Finnon P., Paillier F., Ashworth A., Bouffler S., Badie C.: Gene expression
following ionising radiation: Identification of biomarkers for dose estimation and prediction of individual response Int. J. Radiat.
Biol., (2011), 87, No. 2, 115–129;
16. Prasanna P.G.S., Muderhwa J.M., Miller A.C., Grace M.B., Salter C.A., Blakely W.F.: Diagnostic Biodosimetry Response
for Radiation Disasters: Current Research and Service Activities at AFRRI. RTO-MP-HFM (2004);
17. Blakely W.F., Miller A.C., Muderhwa J.M., Manglapus G.L., Leidel J.M., Martinez M., Landauer M.R., Grace M.B., Prasanna P.G.S.: Development and Validation of Radiation-Responsive Protein Bioassays for Biodosimetry Applications. NATO RTG099 (2005);
18. Diagnosis and Treatment of Radiation Injuries. Safety Report Series, No 2, IAEA, Vienna (2008);
19. European Group of Blood and Marrow Transplantation web page. (2007);
20. Swartz H., Flood A.B., Williams B., Dong R., Gui R., He X., Lesniewski P., Kmiec M., LaRciviere J., Mathews T., Raynolds
T., Grinberg O., Salikhov I., Demidenko E., Nicolalde J., Wilcox D.: Electron Paramagnetic Resonance (EPR) Dosimetry for response to a large-scale radiation incident. 19th Nuclear Medical Defense Conference (2011);
21. Carvalho O., Clairac B., Benderitter M., Roy L.: Statistical speckle study to characterize scattering media: use of two complementary approaches. Optics express (2007), 15, 13817-13831;
22. Guipaud O., Holler V., Buard V., Tarlet G., Royer N., Vinh J., Benderitter M.: Time-course analysis of mouse serum proteome changes following exposure of the skin to ionising radiation. Proteomics (2007), 7, 3992-4002;
23. Wojcik A., Lloyd D., Romm H., Roy L.: Biological dosimetry for triage of casualties in a large-scale radiological emergency:capacity of the EU member states. Radiat Prot Dosimetry. (2010), Mar;138(4), 397-401;
Kwartalnik popularnonaukowy Luty—Marzec 2012 48
Promieniowanie jonizujące
HISTORIA ZNAKU OSTRZEGAJĄCEGO PRZED PROMIENIOWANIEM Marek Rabiński Międzynarodowy znak ostrzegający przed promieniowaniem, powszechnie nazywany 'trójlistną koniczynką', powstał około 1946 roku w środowisku pracowników amerykańskiego laboratorium Uniwersytetu Kalifornijskiego w Berkeley. Sugerowano stworzenie grafiki, symbolizującej promieniowanie emitowane przez
atom.
Wyjściowa wersja przewidywała użycie fioletowego symbolu na niebieskim tle. Wybór niebieskiego uzasadniano tym, że w laboratoriach kolor ten jest stosowany niezwykle rzadko więc zostanie zminimalizowane
niebezpieczeństwo potencjalnej koincydencji z barwą ostrzegawczych przywieszek. Wybór fioletu był wynikiem dość kuriozalnego toku rozumowania – farba tego koloru była wyjątkowo
droga, co skutecznie miało zapobiegać przed niebezpieczeństwem powszechnego
jej użycia.
Większość pracowników zdecydowanie krytykowała niebieskie tło bo kolor ten
nie kojarzy się ze znakami ostrzegawczymi oraz płowieje pod wpływem światła.
Merytoryczną dyskusję komplikowała jednak awersja autora koncepcji do żółtego,
uznawanego przez niego za zbyt pospolity. Wybór kolorów został ostatecznie rozstrzygnięty po przeprowadzeniu z odległości 30 stóp (9 metrów) testów na łatwość
rozpoznawania znaków w różnych warunkach oświetlenia, jednoznacznie wykazały one wyższość fioletu na żółtym tle. Sama jednak forma nie była początkowo
jednoznaczna. Na przełomie lat 1940-tych i 1950-tych używano różnych wariantów, przede wszystkim z prostymi lub falistymi liniami dodatkowych strzałek
skierowanych na zewnątrz, które umieszczano albo w polach listków, albo między
nimi. Dopiero pod koniec lat 1950-tych amerykański urząd standaryzacji (ANSI)
przyjął dzisiejszy kształt.
Geometria znaku jest jednoznacznie zdefiniowana – jeśli wewnętrzne kółko ma
promień R to listki koniczynki zaczynają się na promieniu 1,5 x R a kończą na
promieniu 5 x R, są rozstawione co 60 stopni, przy czym u góry umieszcza się
dwa listki. Znak amerykański jest fioletowy na żółtym tle, po wielu latach dopuszczono ewentualność stosowania koloru czarnego w zastępstwie fioletu i ta wersja
przyjęła się powszechnie poza Stanami.
Na wybór kształtu wpływ wywarły wcześniejsze symbole. W dokach pobliskich
stoczni zbliżony znak ostrzegał przed obracającymi się śrubami napędowymi statków. Wcześniej powszechnie używano też ostrzeżenia przed promieniowaniem w
formie małej czerwonej kropki, od której odchodziło cztery lub pięć czerwonych
błyskawic (jak przy oznaczeniach udarów elektrycznych) ze skierowanymi na ze-
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
49
wnątrz strzałkami. Można też dopatrywać się inspiracji flagą japońskiej floty wojennej, w świadomości ówczesnych Amerykanów jednoznacznie kojarzonej z niebezpieczeństwem.
'Koniczynka' jest powszechnie uznawana za jeden z najbardziej rozpoznawalnych na świecie znaków graficznych. Jednak w 2007 roku Międzynarodowa Organizacja Standaryzacji (ISO) i Międzynarodowa Agencja Energii Atomowej (IAEA) po 5 letnich studiach wprowadziły nowy symbol pomocniczy. Ma dobitnie
ostrzegać o potencjalnym niebezpieczeństwie przebywania w pobliżu silnych źródeł promieniowania jonizującego, przede wszystkim przechowalników odpadów wysokoaktywnych. Znak ma kształt trójkątnej tarczy
w ostrzegawczym kolorze czerwonym, z umieszczoną u szczytu 'koniczynką', rozchodzącymi się od niej falistymi strzałkami promieniowania, trupią czaszką i uciekającym człowiekiem. Semantyka znaku jest zdecydowanie łopatologiczna, ale zdaniem zamawiających dziś inteligentnym
inaczej odbiorcom kultury masowej takich właśnie symboli
trzeba. Nowy znak przetestowano na 1700 osobach różnej
płci i wykształcenia z 11 krajów, w tym także z Polski.
W odróżnieniu od 'koniczynki' czerwony trójkąt od chwili
wprowadzenia nie cieszy się przychylnością krytyków. Ich
zdaniem nowy znak wymyślono dla niewykształconych głupoli, z których znaczna część i tak szybciej zemrze na chorobę popromienną niż zrozumie o co w tym rebusie chodzi.
Znaki ostrzeżeń powinny przekazać przesłanie w jak naj-
prostszy i jednoznaczny sposób, tymczasem
nowy znak zawiera więcej elementów składowych niż najbardziej złożone hieroglify.
Zresztą umieszczone na staroegipskich grobowcach inskrypcje 'Uciekaj stąd, tu leży
śmierć' i tak nie odstraszyły rabusiów sarkofagów z mumiami faraonów. Żartobliwie zaproponowano więc wprowadzenie uniwersalnego
symbolu 'monstrum' – odrażającego robala z
rozdziawionym pyskiem i wydobywającym
się z niego warknięciem WRRR!
Zaczęły się złośliwe domysły jak zinterpretowaliby znak przybyli z innych planet archeolodzy gdy odkopią tablice za dziesiątki
tysięcy lat. Różnorodność znaczeń, jakich nośnikiem może być trupia czaszka i skrzyżowane piszczele prowadziła do interpretacji typu:
'Jesteśmy nosicielami śmierci', 'Śmierć wyłania się z mogił', gracze komputerowi zaproponowali – 'Uważaj na Wielką Czachę Zmutowanego Zombie-Szkieletora, a tędy jest wyjście na następny poziom'. Wreszcie ktoś pokazał znak siedmiolatkowi uzyskując orygi-
Kwartalnik popularnonaukowy Luty—Marzec 2012 50
Promieniowanie jonizujące
nalne wyjaśnienie – to jest informacja dla piratów i uprawiających jogging, że wentylator jest nad nimi u góry. Lawina rozwinięć tej odkrywczej myśli doprowadziła do wersji 'Spieprzaj stąd piracie bo wiatrak nawiewa smrody'.
Istnieje też inny znak powszechnie mylony
ze znakiem 'koniczynki'. Został wprowadzony w 1961 roku przez amerykański urząd
obrony cywilnej na oznaczenie schronów
przeciwatomowych (ang: fallout shelter
sign). W jego przypadku od razu wybrano
kolor żółty i czarny bo założeniem była dobra widoczność z odległości 200 stóp (60
metrów). Na żółtej tablicy jest umieszczone
czarne koło, wewnątrz którego znajdują się
trzy żółte trójkąty równoboczne połączone
wierzchołkami, przy czym zajmują one pole
górne i dwa boczne na dole. Tym samym
żółte trójkąty znajdują się dokładnie w tym
samym miejscu co żółte tło w przypadku
'koniczynki'. Sekretarz d/s zdrowia zwrócił
uwagę sekretarzowi d/s obrony Robertowi S.
McNamarze na tę niefortunną zbieżność, ale
zdaniem armijnych psychologów nie była
ona wystarczającym powodem do zaniepokojenia. Schodzące się wierzchołki trójkątów miały kojarzyć się z miejscem schronienia trzyosobowej rodziny amerykańskiej (w
domyśle – starszy syn służyłby w armii).
Przed wprowadzeniem oznaczenia przeanalizowano też aspekty prawne związane z zamieszczeniem identycznego znaku w publikowanym od 1932 roku podręczniku projektowania. Wśród wariantów ilustrujących możliwości graficznego
połączenia trzech trójkątów znalazł się rysunek 349, przedstawiający analogiczny znak. Jednak najwyższa
rada adwokacka USA dopatrzyła się w wydaniach podręcznika od 1946 roku dodania przypisu wyjaśniającego, że jest to ‘antyczny symbol głowy boga’. Skoro antyczny, to nie podpadający pod ochronę patentową
Stanów Zjednoczonych Ameryki.
Geometria tablic z oznaczeniem schronów została bardzo dokładnie sformalizowana. Zewnętrzne tablice z
aluminium miały mieć wymiary 14 x 20 cali (35 x 50 cm), umieszczane wewnątrz budynków – 10 x 14 cali
(25 x 35 cm, z galwanizowanej stali). W dolnej części tablicy znajdował się napis dużymi literami FALLOUT SHELTER (schron przeciwatomowy) oraz strzałki lub informacje jak do niego trafić. W rejonach zamieszkałych przez hiszpańskojęzycznych Amerykanów (Latynosów i emigrantów z Meksyku) przewidywano wersję z napisem REFUGIO CONTRA RADIATION, a na wyspach Samoa – LAFIGA MAI PEFUATOMIKA. W dolnym czarnym trójkącie umieszczano okrąg z wpisaną pojemnością schronu w osobach lub
strzałkę wskazującą kierunek. Zewnętrzne tablice miały być pokryte farbami odblaskowymi co spowodowało, że w praktyce używano odcienia jasnopomarańczowego (złotego) a zamiast czerni często pojawiał się
stalowoszary podkład.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
51
Popularnie
znak
był
nazywany
'ponurakiem' (ang: grim). Jego wprowadzenie
odbyło się w USA w ramach ogólnokrajowej
kampanii budowy schronów przeciwatomowych. W akcji tej aktywnością wykazywała się
nie tylko administracja prezydenta Johna F.
Kennedyego, ale także gubernator Nelson Rockefeller (kontrkandydat republikański). Wydano
między innymi 25 milionów egzemplarzy broszury z instrukcjami jak zbudować i wyposażyć
przydomowy schron rodzinny oraz jak się zachować w przypadku ataku jądrowego. W powszechnej świadomości Amerykanów wprowadzone wtedy oznaczenie schronu tak silnie się
związało z Zimną Wojną jak dla Polaków płyn
Lugola z awarią w Czarnobylu. Znajomość tego
znaku jest w USA wymagana od każdego zdającego na prawo jazdy, ponieważ wzdłuż autostrad są rozstawione tablice informacyjne jak
dotrzeć do najbliższego punktu obrony cywilnej.
Autor artykułu ma nadzieję, że powyższe wyjaśnienia pozwolą rozeznać się Czytelnikom w
dżungli dostępnych w sieci znaczków, z których
większość jest albo nieprawidłowo narysowana
albo odwrócona. Nawet grafiki kultowej gry Stalker powielają te błędy, co częściowo daje się wytłumaczyć faktem izolacji radzieckiego obszaru
kulturowego od źródeł powszechnie rozpoznawanych na świecie symboli. W ZSRR przedkładano
rosyjskojęzyczne szablony, pozbawione jakiegokolwiek zmysłu estetycznego. Forma międzynarodowego znaku ostrzegającego przed promieniowaniem stała się materiałem swobodnych wariacji
domorosłych artystów z pracowni propagandy wizualnej na temat rzekomej ikony imperialistycznego wyścigu zbrojeń.
Kwartalnik popularnonaukowy Luty—Marzec 2012 52
Promieniowanie jonizujące
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
53
Pod takim tytułem ukazała się, nakładem SEP Centralnego Ośrodka Szkolenia I Wydawnictw , książeczka po‐
pularyzująca zagadnienia ochrony radiologicznej. Autorem jest wieloletni pracownik Instytutu Badań Jądro‐
wych i Centralnego Laboratorium Ochrony Radiologicznej mgr inż. Ryszard Siwicki. Książeczka zawiera 15 rozdziałów ilustrowanych komiksowymi rysunkami dobranymi odpowiednio do omawianej tematyki. W for‐
mie encyklopedycznej omówione są: ‐ pochodzenie i rodzaje promieniowania jonizującego; ‐ działanie biologiczne promieniowania; ‐ zewnętrzne i wewnętrzne narażenie człowieka; ‐ sztuczne i naturalne źródła promieniowania; ‐ wykorzystanie promieniowania w medycynie, przemyśle i energetyce ‐ pomiary i dawki promieniowania; ‐ działanie bomby atomowej i ochrona przed skutkami wybuchu; ‐ postępowanie z odpadami promieniotwórczymi. Wszystko to mieści się na 48 stronach. Poleca Tadeusz Musiałowicz
oraz Dyrekcja i pracownicy CLOR
Kwartalnik popularnonaukowy Luty—Marzec 2012 54
Promieniowanie jonizujące
PROBLEM NISKICH DAWEK PROMIENIOWANIA A SPRAWA RADONU Krzysztof Wojciech Fornalski, Ludwik Dobrzyński Problem niskich dawek promieniowania od lat stanowi przedmiot wielu wnikliwych badań i sporów uczonych co do interpretacji otrzymywanych wyników. Z jednej strony występują zwolennicy hipotezy o liniowym bez progowym wzroście ryzyka wraz z dawką, a z drugiej strony zwolennicy koncepcji hormezy radiacyjnej. Czy możliwe jest znalezienie złotego środka? Na to pytanie postarano się odpowiedzieć w oparciu o
analizę ryzyka nowotworów płuc w zależności od stężenia radioaktywnego gazu radonu.
W literaturze naukowej ostatnich kilkunastu lat znaleźć można setki prac naukowych traktujących o wpływie niskich dawek promieniowania na zdrowie ludzi [1]. Zdecydowana większość publikacji ukazuje liniowy wzrost ryzyka nowotworowego dla dawek dużych (powyżej 200 mSv/rok) oraz brak jednoznacznego
trendu w obszarze dawek małych. Ta niejednoznaczność spowodowana jest zasadniczo przez duże niepewności otrzymywanych danych, które mogą wskazywać zarówno na liniowy, progowy lub nawet hormetyczny efekt.
Czy zatem z góry skazani jesteśmy na ciągły brak pewności i jedynie domyślanie się jak w rzeczywistości
wygląda zależność dawka-efekt w obszarze poniżej ok. 200 mSv/rok? Sposób odpowiedzi na to zasadnicze
pytanie jednoznacznie determinuje wszelki pogląd na to, czym są niskie dawki promieniowania i jak należy
do nich podchodzić.
MAŁE DAWKI – DUŻY PROBLEM
Zasadniczo występują trzy najbardziej popularne hipotezy zależności efektu zdrowotnego od otrzymanej
dawki promieniowania jonizującego (Rysunek 1):
hipoteza liniowa bezprogowa (ang. linear no-threshold, LNT) zakładająca, iż ryzyko rośnie liniowo wraz
z dawką i nawet najmniejsze dawki są szkodliwe;
hipoteza progowa zakładająca, iż poniżej pewnego progu brak jest wpływu promieniowania, a powyżej
progu wzrost jest liniowy;
hipoteza hormezy radiacyjnej zakładająca, iż w obszarze niskich dawek wpływ promieniowania jest pozytywny, prozdrowotny.
W literaturze naukowej znaleźć można bardzo kategoryczne opinie popierające daną hipotezę. Najczęściej
spór toczy się pomiędzy zwolennikami koncepcji LNT a zwolennikami hormezy radiacyjnej [2][3]. Stojąc
nieco na uboczu tego sporu łatwo jest zauważyć, iż obie strony „konfliktu” zdają się całkowicie nie zauważać argumentów swych oponentów. Co więcej – nie zauważa się również dziesiątek cennych i wartościowych prac naukowych, a jedynie selektywnie wybiera te, które akurat danej grupie są użyteczne i służą poparciu ich własnej tezy.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
55
Rys. 1. Wykresy przedstawiające schematycznie ideę trzech podstawowych hipotez zależności efektu od dawki: hipoteza liniowa bezprogowa (LNT), hipoteza progowa, hipoteza hormezy radiacyjnej J‐kształtna (linią przerywaną zaznaczono wariant dla krzywej U‐kształtnej [1]). Przykładów można by mnożyć. Najczęstszy scenariusz wygląda następująco: grupa A powołuje się na pracę
naukową pokazującą hipotezę LNT, jednocześnie całkowicie pomijając inne prace z tej dziedziny, które pokazują nieco inne zależności. W odpowiedzi grupa B pokazuje prace popierające hipotezę hormezy i popełnia ten sam błąd – nie zauważa wyników odmiennych, „lansowanych” przez grupę A. Jeśli grupa A opublikuje 10 wyników badań pokazujących LNT, grupa B poczyni to samo publikując 10 wyników pokazujących
hormezę. I odwrotnie, i tak dalej, i tak dalej... W ten sposób działając trudno znaleźć odpowiedź na postawione pytania.
Gdzie jest więc złoty środek? Jak umiejętnie analizować wyniki wszystkich badań naukowych z obszaru niskich dawek promieniowania? Odpowiedzi na to pytanie można poszukać w zagadnieniu znanym już od
bardzo dawna – i równie od dawna kontrowersyjnym, mianowicie we wpływie alfa-radioaktywnego gazu
radonu i jego licznych promieniotwórczych pochodnych na ryzyko raka płuc.
PROBLEM RADONU—KOLEJNY ODCINEK NIEKOŃCZĄCEJ SIĘ SAGI
Zarówno w prawie atomowym jak i w powszechnej świadomości radon jest gazem szkodliwym, który odpowiedzialny jest za znaczną liczbę chorób nowotworowych płuc [2]. Te opinie są uzasadniane w oparciu chociażby o popularne ostatnimi laty badania łączone (ang. pooled studies) wielu niezależnych wyników [4][5]
[6]. Niestety tego typu analizy statystyczne mają dwie podstawowe wady: po pierwsze nie uwzględniają
wszystkich wyników (wspomniane wcześniej przy okazji przykładu z grupą A i B), a po drugie z góry zakładają model LNT. Jak należy interpretować ów drugi zarzut? Otóż wyobraźmy sobie grupę wyników
otrzymanych z kilku niezależnych badań. Wyniki te poddawane są statystycznej analizie danych. Problem
polega na tym, iż analiza ta z góry zakłada, iż a) zależność dawka-efekt musi być liniowa; b) zależność dawka-efekt musi dawać efekt zerowy w zerowej dawce (są takie, aby to zweryfikować?); c) zależność dawkaefekt nigdy nie może być mniejsza od zera (czyli wywoływać skutków pozytywnych dla zdrowia). W wyniku analizy statystycznej otrzymuje się wynik zgodny z hipotezą LNT. Nic dziwnego, iż otrzymano zależność liniową, skoro było to głównym założeniem od samego początku [7]!
Kwartalnik popularnonaukowy Luty—Marzec 2012 Promieniowanie jonizujące
56
Nie rozwijając dalej wątku badań naukowych, które z góry eliminują pozostałe hipotezy, skupmy się raczej
na wynikach, które pokazują efekt przeciwny. W przypadku wpływu radonu na zdrowie jest ich całkiem sporo [1]. Do najważniejszych należą badania z niemieckiej Saksonii [8][9] (wyniki na Rys. 2), Stanów Zjednoczonych [10] (wyniki na Rys. 3) oraz amerykańskiego hrabstwa Worcester [11] (wyniki na Rys. 4).
1,2
ryzyko raka płuc
1
0,8
0,6
0,4
grupa kontrolna nr 1
grupa kontrolna nr 2 (ICRP)
0,2
brak wpływu na zdrowie
0
0
100
200
300
400
500
600
700
koncentracja radonu [Bq/m3]
Rys. 2. Wpływ stężenia radonu na ryzyko raka płuc w niemieckiej Saksonii (na podstawie [8][9]). Użyto dwóch grup kontrolnych (szczegóły w oryginalnej pracy). Słupki błędów reprezentują jedno odchylenie standardowe (68% przedział ufności). 1,40
ryzyko raka płuc
1,20
1,00
0,80
0,60
0,40
0
50
100
150
200
koncentracja radonu [Bq/m3]
Rys. 3. Wpływ stężenia radonu na ryzyko raka płuc wśród ok. 400 000 Amerykanów (na podstawie [10]). Kwartalnik popularnonaukowy Luty— Marzec 2012 250
Promieniowanie jonizujące
57
3
ryzyko raka płuc
2,5
2
1,5
1
0,5
0
0
50
100
150
200
250
300
350
400
koncentracja radonu [Bq/m3]
Rys. 4. Wpływ stężenia radonu na ryzyko raka płuc w hrabstwie Worcester, Massachuse s, USA (na podstawie [11]). Wyniki opublikowane przez L. Cohena [10] tyczą się badań na grupie około 400 000 Amerykanów.
Dzięki tak dużej kohorcie niepewności otrzymanych danych są stosunkowo niewielkie (Rys. 3). Analiza
uwzględnia kilkadziesiąt czynników gmatwających (ang. confounding factors), takich jak palenie papierosów (niezwykle istotne przy badaniu nowotworów płuc), miejsce zamieszkania, wiek, zawód, płeć, status
społeczny i wiele innych. Wyniki Cohena [10] stanowią jeden z najlepiej udokumentowanych przykładów
działania hormetycznego, przez co były wielokrotnie krytykowane przez przeciwników tej koncepcji, którzy w rzeczywistości nie podejmowali rzetelnej i merytorycznej dyskusji z Cohenem. Co więcej, znaleźć
można opinie, które kwestionują tego typu badania ekologiczne w odniesieniu do pojedynczego człowieka.
Jednakże badania Cohena miały z definicji odnosić się do weryfikacji hipotezy LNT w odniesieniu do całej
populacji ludzkiej [10] i tak należy je rozumieć.
Druga praca zza oceanu [11] wydaje się być na dzień dzisiejszy najbardziej dokładną analizą ryzyka
radonowego ze wszystkich opublikowanych (Rys. 4). Autorzy nie popełnili błędu założenia z góry koncepcji LNT, choć w czasie lektury publikacji odczuwalne jest, iż są jej zwolennikami. Jest to kolejny argument
przemawiający za dokładnością zebranych i opracowanych danych w pracy Thompson’a i współpracowników [11]. Co więcej, wyniki te są zbliżone do wyników wspomnianego już Cohena (Rys. 3).
ANALIZA BAYESOWSKA 28 PRAC O WPŁYWIE
RADONU NA ZDROWIE
Obiektywizm naukowy nakazuje traktowanie wszelkich prac, zarówno pokazujących LNT jak i hormezę radiacyjną, na równi jako jednakowo ważne i potrzebne. Z związku z tym wydaje się naturalne zestawienie wszystkich dostępnych publikacji i dokonanie ich całościowej re-analizy, na zasadzie wspomnianych uprzednio pooled studies [12]. Do tego celu wykorzystano wolną od wszelkich odgórnych założeń
bayesowską statystyczną analizę danych [13].
Wyniki wszystkich 28 prac przedstawiono zbiorczo na Rys. 5. Rysunek celowo nie zawiera niepewności ze względu na zachowanie czytelności (oczywiście w cytowanej analizie zostały wzięte pod uwagę
oryginalne niepewności). Można mieć wątpliwości, czy wyniki z 28 tak różnych studiów, różniących się
zarówno metodologią jak i źródłem opracowywanych danych, można umieszczać na jednym wykresie i dokonywać wspólnej całościowej analizy statystycznej. Jednakże tego typu analogiczny zabieg został z powodzeniem zastosowany w raporcie UNSCEAR [14] na rys. XV (zawierającym dane Cohena [10], górników
oraz dane dla populacji [5]) oraz w innych zbiorczych analizach [4][5][6]. Dodatkowo wyniki zostały unor Kwartalnik popularnonaukowy Luty—Marzec 2012 Promieniowanie jonizujące
58
mowane i uzależnione nie od stężenia radonu, lecz od przypadającej od niego średniej rocznej dawki równoważnej na płuca. Zastosowano przelicznik 1 Bq/m3 = 0,179 mSv/rok [15]. W pracy [12] dokonano ponownej analizy 28 prac traktujących o wpływie radonu na raka płuc.
Ryzyko raka płuc
2,5
2,0
1,5
1,0
0,5
0
10
20
30
40
50
60
70
80
90
100
110
120
130
140
150
średnia dawka roczna na płuca [mSv/rok]
Rys. 5. Ryzyko raka płuc w zależności od średniej rocznej dawki równoważnej na płuca dla 28 niezależnych studiów radonowych (na podstawie [12]). Prezentowane punkty nie zawierają niepewności ze względu na zachowanie czytelności wykresu. Za pomocą bayesowskiej analizy danych [13] dopasowano do wszystkich wyników siedem podstawowych modeli matematycznych: dwa stałe (niezależne od dawki), trzy liniowe (w tym LNT) oraz dwa
kwadratowe (w tym hormetyczny). Dopasowania bayesowskie pokazały, iż model stały prezentował wynik
RR ≈ 1 (czyli ani wzrost ani spadek ryzyka), model kwadratowy przedstawiał hormezę radiacyjną, a podstawowy model liniowy pokazywał spadek (!) ryzyka w zależności od dawki (w analizowanym przedziale
od 0 do 150 mSv/rok). Jak wynika z dalszej analizy [12] prawdopodobieństwo otrzymania poszczególnych
dopasowań jest różne (tzw. algorytm selekcji modeli [13]) i najbardziej prawdopodobnym modelem opisującym dane z Rys. 5 jest model stały, niezależny od dawki, RR=1. Jest on ok. 90 razy bardziej prawdopodobny, niż model LNT. Model hormetyczny okazał się najmniej prawdopodobny. Ten zaskakujący wynik
jest odpowiedzią algorytmu na znaczny rozrzut prezentowanych punktów (Rys. 5), który uniemożliwia
dopasowanie bardziej skomplikowanej krzywej. Co ciekawe, rezultat ten jest taki sam niezależnie od tego,
czy w grupie 28 studiów znalazły się wyniki Cohena (Rys. 3 i [10]), czy nie.
Z czysto matematycznego punktu widzenia, nie zaburzonego żadnymi odgórnymi założeniami,
można spojrzeć na otrzymane wyniki z drugiej strony: forsowanie modelu liniowego bezprogowego (LNT)
wymaga założenia, iż jest on przynajmniej 90 razy bardziej prawdopodobny od pozostałych modeli. W ten
oto sposób matematyka pokazała, jak bardzo należy wystrzegać się negowania na wstępie jakichkolwiek
potencjalnych interpretacji otrzymywanych wyników.
Patrząc na Rys. 5 można inną drogą dojść do tych samych wniosków końcowych. Otóż prezentowane punkty układają się w rozkład zbliżony do rozkładu Poissona na osi ryzyka (Rys. 6). Maksimum
(czyli wartość oczekiwana rozkładu) przypada na RR = 1, co potwierdza wyniki analizy bayesowskiej. Innymi słowy: wspólna analiza 28 studiów radonowych [12] pokazuje, iż najbardziej prawdopodobnym modelem opisującym dane (Rys. 5) jest model progowy (Rys. 1), w którym poniżej 150 mSv/rok brak jest
zależności ryzyka od dawki (RR=1).
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
59
< 2,3
ryzyko raka płuc (przedziałami)
1,8 ÷ 2,3
1,55 ÷ 1,8
1,35 ÷ 1,55
1,25 ÷ 1,35
1,15 ÷ 1,25
1,05 ÷ 1,15
0,95 ÷ 1,05
0,85 ÷ 0,95
0,75 ÷ 0,85
0,5 ÷ 0,75
< 0,5
0
5
10
15
20
liczba punktów
Rys. 6. Rozkład punktów z Rys. 5 w zależności od ryzyka raka płuc. Z Rysunku 6 naturalnie wyłania się jeszcze jeden wniosek: otóż skoro istnieją chociażby pojedyncze punkty powyżej RR=1, to nie oznacza, iż istnieje nawet hipotetyczny wzrost ryzyka w tym obszarze dawek.
Wszystkie punkty pokazujące zarówno ostrą zależność liniową (LNT) jak i ostrą hormezę, są po prostu
fluktuacjami statystycznymi od średniej RR=1 i nie mogą być podstawą jakichkolwiek finalnych koncepcji
czy teorii.
PODSUMOWANIE – CZY MOŻLIWY JEST KOMPROMIS?
Od lat trwa burzliwa dyskusja na temat rzeczywistej zależności dawka-efekt przy wdychaniu radioaktywnego gazu radonu. Z jednej strony pojawiają się argumenty przemawiające na korzyść hipotezy liniowego
bezprogowego wzrostu ryzyka (LNT), a z drugiej strony wyniki badań wskazujące na zależność przeciwną, hormetyczną [1][2].
Na podstawie analizy statystycznej uwzględniającej 28 różnych wyników wpływu radonu na raka płuc [12]
okazuje się, iż modelem najlepiej opisującym wszystkie istniejące dane jest hipoteza progowa (Rys. 1).
Wydaje się, iż w obliczu wielu sprzecznych wyników w tej dziedzinie [1], będących de facto fluktuacjami
statystycznymi (Rys. 6), najlepszym i najlogiczniejszym kompromisem jest hipoteza progowa, będąca wynikiem bayesowskiej analizy statystycznej [12].
LITERATURA:
[1] Charles L. Sanders, “Radiation Hormesis and the Linear-No-Threshold Assumption”, Springer: Heidelberg 2010
[2] Wade Allison, “Radiation and reason”, York, 2009
[3] B.G. Charlton, Zombie science: A sinister consequence of evaluating scientific theories purely on the
basis of enlightened self-interest, Medical Hypotheses 71(2008) issue 3, p. 327-32
Kwartalnik popularnonaukowy Luty—Marzec 2012 60
Promieniowanie jonizujące
[4] Darby S, Hill D, Auvinen A, Barros-Dios JM, Baysson H, Bochicchio F, Deo H, Falk R, Forastiere F,
Hakama M, Heid I, Kreienbrock L, Kreuzer M, Lagarde F, Mäkeläinen I, Muirhead C, Oberaigner W,
Pershagen G, Ruano-Ravina A, Ruosteenoja E, Schaffrath Rosario A, Tirmarche M, Tomášek L, Whitley
E, Wichmann HE, Doll R. Radon in homes and risk of lung cancer: collaborative analysis of individual
data from 13 European case-control studies. British Medical Journal 330(7485):223-226; 2004.
[5] Lubin JH, Boice JD. Lung Cancer Risk From Residential Radon: Meta-analysis of Eight Epidemiologic
Studies. J Natl Cancer Inst 89:49–57; 1997.
[6] Lubin JH, Wang ZY, Boice JD, Xu ZY, Blot WJ, Wang LD, Kleinerman RA. Risk of lung cancer and
residential radon in China: pooled results of two studies. Int J Cancer 109:132–137; 2004.
[7] Jaynes ET. Probability Theory – The Logic of Science. Cambridge; 2003.
[8] Conrady J, Martin K. Weniger Modelle – spezifischere analytische Studien zum Radonrisiko in
Wohnungen sind notwendig. Bundesgesundheitsblatt 19:106–110; 1996.
[9] Becker K. Health Effects of High Radon Environments in Central Europe: Another Test for the LNT
Hypothesis?. Nonlinearity Biol Toxicol Med 1(1):3–35; 2003.
[10] Cohen BL. Test of the Linear No-Threshold Theory of radiation carcinogenesis for inhaled radon decay products. Health Physics 68(2):157-174; 1995.
[11] Thompson RE, Nelson DF, Popkin JH, Popkin Z. Case-control study of lung cancer risk from residential radon exposure in Worcester County, Massachusetts. Health Physics 94(3):228–241; 2008.
[12] Fornalski K.W., Dobrzyński L. Pooled Bayesian analysis of twenty-eight studies on radon induced
lung cancers. Health Physics 101(3); 2011 (in press).
[13] Fornalski K.W., Dobrzyński L. Zastosowania twierdzenia Bayesa do analizy niepewnych danych doświadczalnych. Postępy Fizyki, vol. 61, no. 5, 2010, pp. 178-192.
[14] UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiation) Report 2006.
Vol. II, Annex E. Sources-to-effect assessment for radon in homes and workplaces; 2006.
[15] Kendall GM, Smith TJ. Doses to organs and tissues from radon and its decay products. J Radiol Prot
22:389-406; 2002.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
61
Radon (Rn, łac. radon) – pierwiastek chemiczny z grupy gazów szlachet‐
nych w układzie okresowym. Został odkryty w 1900 roku przez Friedricha Dorna. Początkowo był nazywany "emanacją" (symbol Em), proponowano dla niego także nazwę "niton" (Nt). Niektóre jego izotopy nosiły własne nazwy, pochodzące od pierwiastków z których powstały, jak 222
Rn – "radon", 220Rn – "toron" (symbol Tn) lub 219Rn – "aktynon" (An). Dopiero po roku 1923 przyjęto jako obowiązującą nazwę najtrwalszego izotopu. WŁAŚCIWOŚCI FIZYCZNE Radon jest bezbarwnym, bezwonnym radioaktywnym gazem szlachetnym. Występuje naturalnie, jako produkt rozpadu radu, który z kolei powstaje z obecnego w
przyrodzie w sporych ilościach uranu. Jego najstabilniejszy izotop, 222Rn, ma okres połowicznego rozpadu 3,8 dnia i jest stosowany w radioterapii.
Gęstość radonu wynosi 9,73 kg/m3 – jest on 8 razy cięższy niż średnia gęstość gazów atmosferycznych. W tem‐
peraturze pokojowej jest bezbarwny, ale schłodzony do punktu zamarzania (−71 °C), nabiera barwy żółtej, a po‐
niżej −180 °C staje się pomarańczowo‐czerwony. Emituje również intensywną poświatę, będącą efektem jego radioaktywności. PROMIENIOTWÓRCZOŚĆ Radon w czasie rozpadu emituje promieniowanie alfa (oraz w mniejszym stopniu beta) o małej przenikliwości, ale o dużej zdolności jonizującej (wysoka energia, duża masa cząstki). 222Rn jest izo‐
topem naturalnym, pochodzącym bezpośrednio z rozpadu 226Ra (o okresie połowicznego zaniku 1600 lat). Ten ostatni z kolei jest długożyciowym produktem przemian radioaktywnych zachodzących w naturalnym szeregu promieniotwórczym, którego pierwszym członem jest naturalny izotop uranu: 238U. Zawartość uranu w skorupie ziemskiej wynosi średnio 2ppm (0,0002%), więc stosunkowo dużo. Dlatego też zawartość Rn‐222 w powietrzu atmosferycznym w warstwie przypowierzchniowej jest znacząca. Średnie stężenie 222Rn w powietrzu w Polsce wynosi ok. 10 Bq/m³. Radon stanowi 40–50% dawki promieniowania, jaką otrzymuje mieszkaniec Polski od źró‐
deł naturalnych. Radon może stanowić zagrożenie dla zdrowia człowieka, bowiem gromadzi się w budynkach mieszkalnych, zwłaszcza w piwnicach, przedostając się tam z gleby w wyniku różnicy ciśnień (efekt kominowy). Dotyczy to zwłaszcza podłoża granitowego, zawierającego większe ilości uranu w swoim składzie niż np. skały osadowe. Aktualnie w Polsce obowiązuje limit stężenia radonu w nowych budynkach mieszkalnych wynoszący 200 Bq/m3[2]. Szkodliwość radonu jest wynikiem stosunkowo szybkiego jego rozpadu, prowadzącego do powsta‐
nia kilku krótkożyciowych pochodnych, również radioaktywnych, emitujących promieniowania alfa. Ich zatrzy‐
manie w płucach będzie powodować uszkodzenia radiacyjne, prowadzące do rozwoju choroby nowotworowej. RADON A ZDROWIE Radon jest pierwiastkiem stosowanym w medycynie – naturalnie występujące wody radonowe stosuje się do kąpieli w rehabilitacji chorób narządów ruchu, zarówno tych
pourazowych jak i reumatycznych. Kąpiele radonowe stosowane są też dla leczenia cukrzycy,
chorób stawów, chorób tarczycy oraz schorzeń ginekologicznych i andrologicznych[3].
Przedawkowanie radonu lub stała praca przy kopalinach, gdzie są silne emanacje radonu wpływa niekorzystnie na zdrowie. Szkodliwe efekty działania radonu polegają na uszkadzaniu struktury chemicznej kwasu DNA przez wysokoenergetyczne, krótkotrwałe produkty rozpadu radonu
222
Rn, co może powodować chorobę popromienną.
WŁAŚCIWOŚCI CHEMICZNE Właściwości radonu są stosunkowo słabo znane, ze względu na
jego wysoką radioaktywność. Radon należy do grupy gazów szlachetnych, które z definicji powinny być chemicznie obojętne. Mimo to znanych jest kilka jego związków na różnych stopniach utlenienia. Są to m.in. fluorki RnF2, RnF4, RnF6 oraz chlorek RnCl4. Ze względu na nietrwałość samego radonu nie mają one żadnych zastosowań.
Kwartalnik popularnonaukowy Luty—Marzec 2012 62
Promieniowanie jonizujące
„POWIEW FUKUSHIMY” NAD POLSKĄ Krzysztof A. ISAJENKO, Barbara PIOTROWSKA, Marian FUJAK Centralne Laboratorium Ochrony Radiologicznej, Warszawa AWARIA ELEKTROWNI W FUKUSHIMIE
W piątek 11 marca 2011 r. na wschód od japońskiej wyspy Honsiu doszło do potężnego trzęsienia
ziemi o sile 9 stopni w skali Richtera. Epicentrum trzęsienia znajdowało się w odległości ok. 130 km od
wyspy, a jego rezultatem było powstanie olbrzymiej fali tsunami o wysokości przekraczającej miejscami
10 metrów. Na skutek trzęsienia, a później niszczycielskiego działania fali tsunami, doszło do awarii w
japońskiej elektrowni Fukushima I (Fukushima Dai-ichi), wyposażonej w 6 bloków z reaktorami BWR
(Boiling Water Reactor). Awaria była jedną z największych w historii światowej energetyki jądrowej (Fot.
1). Jej wielkość oceniono na 7. stopień (w siedmiostopniowej skali INES – International Nuclear and Radiological Event Scale), a więc podobnie jak awarię w Czarnobylu w kwietniu 1986 r.
Fot. 1. Uszkodzone bloki reaktora w Fukushimie po trzęsieniu ziemi i tsunami (źródło: –Fukushima: “Höhere Strahlenwerte in Europa”‐ BZ‐ news aus Berlin 14.04.2011) MONITOROWANIE PROMIENIOTWÓRCZYCH SKAŻEŃ POWIETRZA
W wyniku awarii do atmosfery została uwolniona duża ilość izotopów radioaktywnych. Ciągłe
monitorowanie skażeń promieniotwórczych na świecie nadzorowane jest przez międzynarodowy system
wczesnego wykrywania skażeń promieniotwórczych działający w oparciu o Traktat o Całkowitym Zakazie
Prób Jądrowych (CTBT – Comprehensive Nuclear Test Ban Treaty). W Polsce ciągłym monitorowaniem
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
63
skażeń promieniotwórczych powietrza zajmuje się Centralne Laboratorium Ochrony Radiologicznej w
Warszawie wykorzystujące system wysokoczułych stacji wczesnego wykrywania skażeń promieniotwórczych – stacje ASS-500.
Nad naszym krajem około 23 marca 2011 (12 dni po awarii) zarejestrowano pierwsze warstwy mas powietrza znad elektrowni Fukushima, zawierające niewielkie ilości radionuklidów pochodzenia sztucznego:
cezu 137Cs, cezu 134Cs oraz jodu 131I. Zarejestrowano także śladowe ilości innych izotopów. Ze względu na
bardzo dużą odległość uszkodzonej elektrowni od granic naszego kraju, radionuklidy znajdujące się
w warstwach powietrza przemieszczających się nad naszym krajem, uległy znacznemu "rozcieńczeniu".
Dodatkowo skażone masy powietrza nie dotarły nad Polskę najkrótszą drogą lecz poprzez Stany Zjednoczone i Kanadę, a więc dookoła świata (sposób przemieszczania się radioaktywnej chmury w oparciu o pomiary 133Xe obrazuje Rys. 1).
Na podstawie danych zamieszczonych przez Wydział Badań Atmosfery i Klimatu Norweskiego
Instytutu Badań Powietrza (NILU – Department of Atmospheric and Climate Research, The Norwegian
Institute for Air Research) można stwierdzić, że poziom skażenia promieniotwórczego powietrza znad Fukushimy w północnej części Europy był około 100 razy niższy niż w Ameryce Północnej. Widać to wyraźnie na poniższej mapce (Rys. 1 – dane dla 133Xe z dn. 5 kwietnia 2011 roku).
Rys. 1. Poziom wielkości skażenia promieniotwórczego powietrza z nad Fukushimy w dniu 5 kwietnia 2011 roku w skali globalnej. (źródło: h p://transport.nilu.no.NILU‐ATMOS).
Maksymalne wartości skażeń promieniotwórczych w Polsce zarejestrowano po ok. tygodniu od pojawienia się pierwszych oznak „japońskich skażeń” nad naszym krajem. W piątek 01 kwietnia 2011 nad
Polską nastąpił przełom. Od tego dnia w aerozolach w powietrzu zaczęto rejestrować coraz niższe stężenia
izotopów promieniotwórczych pochodzenia sztucznego. Maksymalne stężenia radionuklidów, jakie zostały
zarejestrowane w powietrzu atmosferycznym nad naszym krajem nie przekroczyły pojedynczych milibekereli na metr sześcienny (mBq/m3) dla jodu 131I oraz kilkuset mikrobekereli na metr sześcienny (μBq/m3)
w przypadku obydwu cezów. Były to ilości, które w żaden sposób nie mogły zagrozić zdrowiu mieszkańców ani środowisku naturalnemu naszego kraju.
Dla porównania, trzeba przypomnieć, że w czasie przemieszczania się nad terytorium naszego kraju
chmury radioaktywnej po awarii elektrowni jądrowej w Czarnobylu, rejestrowane były stężenia jodu 131I
Kwartalnik popularnonaukowy Luty—Marzec 2012 64
Promieniowanie jonizujące
dochodzące do 200 Bq/m3 (bekereli na metr sześcienny – czerwona linia przerywana na rysunku 2), a więc setki tysięcy razy wyższe niż maksymalne stężenia tego izotopu zarejestrowane w powietrzu atmosferycznym
nad Polską po awarii w Fukushimie.
Wyniki pomiarów jodu 131I, które zostały przeprowadzone przez międzynarodowe stacje wczesnego wykrywania skażeń promieniotwórczych (Rys. 2), obrazują skale wielkości problemu w różnych częściach świata.
Rys. 2. Wyniki pomiarów jodu 131I zarejestrowane przez wybrane międzynarodowe stacje wczesnego wykrywania skażeń promieniotwórczych (źródło: h p://www.bfs.de). SYSTEM STACJI ASS-500 W POLSCE.
Wszystkie wyniki, które są przytoczone w artykule pochodzą z systemu wysokoczułych stacji wczesnego wykrywania skażeń promieniotwórczych Prezesa PAA. Monitoring powietrza polega na ciągłym zbieraniu aerozoli z powietrza przez stacje ASS-500, (patent, produkcja stacji oraz nadzór nad działaniem sieci Centralne Laboratorium Ochrony Radiologicznej – Fot. 2). System ten jako jedyny zarejestrował przemieszczające się nad naszym krajem skażenia (ze względu na ich bardzo niskie stężenia). Stacji podstawowych
wczesnego wykrywania skażeń (ASS-500) jest w Polsce 12 i są one zlokalizowane w:
Warszawie (Centralne Laboratorium Ochrony Radiologicznej),
Białymstoku (Uniwersytet Medyczny),
Gdyni (Oddział Morski Instytutu Meteorologii i Gospodarki Wodnej),
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
65
Katowicach
(Główny Instytut Górnictwa),
Krakowie (Instytut Fizyki Jądrowej),
Lublinie (Uniwersytet Marii Curie-Skłodowskiej),
Łodzi (Politechnika Łódzka),
Sanoku (Stacja Sanitarno-Epidemiologiczna),
Szczecinie (Zachodniopomorski Uniwersytet Technologiczny),
Toruniu (Uniwersytet Mikołaja Kopernika),
Wrocławiu (Politechnika Wrocławska),
Zielonej Górze (Uniwersytet Zielonogórski).
Na mapie (Rys. 3) przedstawione jest rozmieszczenie stacji ASS-500 na terenie naszego kraju.
Pokrywają one równomiernie obszar Polski.
Fot. 2. Widok stacji ASS‐500 Nominalny przepływ powietrza przez filtry stacji wynosi 500 m3/h. W sytuacji normalnej, filtry zmieniane są w stacjach raz w tygodniu (poniedziałki ok.
południa). Przy przemieszczaniu się nad Polską mas
powietrza znad Fukushimy, częstość wymiany filtrów
zwiększono nawet do trzech razy w tygodniu. Każdy
filtr po wyjęciu ze stacji był mierzony dwukrotnie.
Pierwszy pomiar następował bezpośrednio po wyjęciu
filtru – jego czas był zazwyczaj krótki, w związku z
czym wyniki z tego pomiaru nie zawsze można było
traktować jako miarodajne. Pomiar miał na celu zaobserwowanie ogólnej tendencji dotyczącej skażeń po- Rys. 3. Rozmieszczenie stacji ASS‐500 w Polsce. wietrza nad Polską. Po upływie 2-4 dni wykonywany był drugi, całodobowy pomiar filtru. Ten kilkudniowy odstęp czasowy powodował rozpad krótkożyciowych izotopów naturalnych obecnych w powietrzu, przez co drugi
pomiar był dużo bardziej dokładny od tego pierwszego, zwykle pobieżnego pomiaru. Pomiary prowadzone były przy użyciu wysokorozdzielczej spektrometrii promieniowania gamma wykorzystującej detektory półprzewodnikowe HPGe. Kilka ośrodków w kraju (tj. w Szczecinie, Toruniu i Zielonej Górze), nie posiada niestety
takiej wysokoczułej aparatury spektrometrycznej wobec czego filtry z tych stacji mierzone były sukcesywnie (w
miarę posiadanych mocy pomiarowych) w Centralnym Laboratorium Ochrony Radiologicznej w Warszawie.
Filtry w tych stacjach wymieniane były jeden raz w tygodniu.
Kwartalnik popularnonaukowy Luty—Marzec 2012 Promieniowanie jonizujące
66
WYNIKI POMIARÓW
W pomiarach aerozoli powietrza na filtrach zarejestrowano obecność trzech izotopów pochodzenia
sztucznego, tj. jod 131I (okres połowicznego zaniku wynosi 8 dni) i dwa izotopy cezu 134Cs (okres połowicznego zaniku - 2,06 lat) i 137Cs (okres połowicznego zaniku - 30 lat). W ilościach śladowych zarejestrowano także obecność innych izotopów.
JOD
I
131
Zakres zmian stężeń promieniotwórczych radionuklidu sztucznego jodu 131I w czasie przechodzenia nad Polską warstw powietrza znad Japonii zebranych z czterech stacji ASS-500 (Sanok, Wrocław,
Łódź i Warszawa) w okresie 21.03.2011 – 30.05.2011 przedstawiono na Rys. 4.
Jod 131I rejestrowany był nad terytorium naszego kraju od 25 marca do 26 kwietnia 2011. Największe jego stężenie promieniotwórcze osiągnęło poziom 5400 μBq/m3 (czyli 5,4 mBq/ m3) i zostało zarejestrowane 30 marca w Łodzi. W innych lokalizacjach stężenia promieniotwórcze radionuklidu sztucznego
jodu 131I były niższe. I tak, w Sanoku maksymalne stężenie zarejestrowano wynosiło 2355μBq/m3, we
Wrocławiu – 1703 μBq/m3, w Warszawie – 3173 μBq/m3.
Rys. 4. Stężenia promieniotwórcze radionuklidu sztucznego 131I w powietrzu w czterech wybranych lokalizacjach CEZ
137
CS
Przebieg zmian stężenia promieniotwórczego radionuklidu sztucznego cezu 137Cs podczas przemieszczania się nad terytorium Polski mas powietrza znad Japonii tj. w okresie od 21 marca do 30 maja,
dla czterech wybranych stacji ASS-500 zlokalizowanych w Sanoku, Warszawie, Łodzi i we Wrocławiu,
przedstawiono na rysunku 5.
Podwyższone zawartości izotopu cezu 137Cs w powietrzu atmosferycznym, odpowiednio w Sanoku,
Warszawie, Wrocławiu i Łodzi zarejestrowano w dniach 25 marca – 26 kwietnia 2011. Największe wartości dla tych czterech lokalizacji wynosiły: w Sanoku - 339 μBq/m3, w Warszawie - 217,8 μBq/m3,
w Łodzi- 732 μBq/m3, we Wrocławiu - 281μBq/m3. Zostały one zarejestrowane w powietrzu w dniach 30
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
67
marca - 1 kwietnia. W drugiej połowie maja stężenia tego radionuklidu w powietrzu zmalały do poziomu
stężeń rejestrowanych przed awarią w elektrowni jądrowej Fukushima.
Rys. 5. Stężenia promieniotwórcze radionuklidu pochodzenia sztucznego 137Cs w powietrzu, pomiary wykonane w czterech wybranych lokalizacjach CEZ
134
CS
Zakres zmian stężenia promieniotwórczego izotopu cezu 134Cs zarejestrowanego w okresie od 25
marca do 16 maja przedstawia rysunek 6.
Podobnie jak izotop jodu 131I, tak i izotop cezu 134Cs przed awarią w Fukushimie nie występowały
w naszym środowisku (a dokładniej jod 131I, jako izotop używany powszechnie w medycynie, występował
sporadycznie w minimalnych stężeniach). W wyniku awarii maksymalne stężenia promieniotwórcze cezu
134
Cs w powietrzu atmosferycznym nad naszym krajem zarejestrowano na poziomie 619 μBq/m3 (stacja
ASS-500 w Łodzi). W innych lokalizacjach stacji ASS-500 maksymalne stężenia promieniotwórcze tego
radionuklidu wynosiły: w Sanoku 172,3 μBq/m3, w Warszawie 277,4 μBq/m3, we Wrocławiu 210,9 μBq/
m3. Maksymalne wartości zostały zarejestrowane w dniach 30 marca - 1 kwietnia. Cez 134Cs rejestrowany
był w okresie od 25 marca do 26 kwietnia 2011. Od połowy maja stężenia cezu 134Cs w powietrzu nad Polską zmalały do wartości poniżej poziomu mierzalności
stosowanej metody badawczej.
Rys. 6. Stężenia promienio‐
twórcze radionuklidu sztuczne‐
go cezu 134Cs w powietrzu, pomiary wykonane w czterech wybranych lokalizacjach Kwartalnik popularnonaukowy Luty—Marzec 2012 Promieniowanie jonizujące
68
POSUMOWANIE
Awaria elektrowni jądrowej w Fukushimie, oceniona w międzynarodowej skali INES na siódmy
(najwyższy) stopień awarii, dla mieszkańców Polski nie miała negatywnego wpływu zarówno na zdrowie
ludzi jak również na biosferę Polski. Dawki otrzymane od izotopów, które zostały zarejestrowane w aerozolach powietrza nad Polską w czasie przechodzenia radioaktywnej chmury znad Japonii były bardzo niskie. Przyczyną tak niskich stężeń izotopów promieniotwórczych nad Polską (pomimo skali awarii) była
przede wszystkim odległość uszkodzonej elektrowni od granic naszego kraju (w linii prostej, to ponad
8500 km) oraz czas przebywania chmury promieniotwórczej znad Japonii nad terytorium Polski (niewiele
ponad miesiąc). Maksymalne stężenie promieniotwórcze radionuklidu sztucznego 131I w powietrzu nad
Polską wynosiło 5,4 mBq/ m3 co stanowi ok. 0,0001 stężenia tego samego izotopu w czasie przechodzenia
nad naszym krajem chmury radioaktywnej po awarii w Czarnobylu (kwiecień 1986 r.).
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
Kwartalnik popularnonaukowy Luty—Marzec 2012 69
70
Promieniowanie jonizujące
KULTURA OCHRONY RADIOLOGICZNEJ*)1 Natalia Golnik Ochrona radiologiczna towarzyszy technologii nuklearnej od samego początku jej istnienia, czyli od
pierwszych, militarnych zastosowań. W tamtym okresie zadaniami ochrony radiologicznej było ograniczenie narażenia personelu pracującego z promieniowaniem przed znanymi już zagrożeniami. Niestety w ówczesnych warunkach „zimnej wojny” zalecenia ochrony radiologicznej były czasami traktowane „ulgowo”
lub nawet ignorowane dla osiągnięcia założonych celów. Ludności cywilnej zamieszkującej w pobliżu
ośrodków wojskowych, nie informowano o możliwych zagrożeniach, lub ich braku, ze względu na ścisłe
utajnienie informacji wojskowych obowiązujące w tych czasach. Nie należy więc się dziwić, że technologia
nuklearna w społecznym odbiorze jest kojarzona z czasami tajemnicy państwowej, ukrytych celów i nierzetelnej informacji. Obecnie w większości krajów informacje na temat ochrony radiologicznej są powszechnie
dostępne a wypowiedzi ekspertów nie są cenzurowane, nastąpił także duży rozwój wiedzy dotyczącej skutków promieniowania i metod pomiarów. Mimo to eksperci ochrony radiologicznej powszechnie spotykają
się z barierą braku społecznego zaufania a wiedza społeczeństw na temat skutków narażenia na promieniowanie jest powszechnie określana jako „katastrofalnie niska”.
W odpowiedzi na taką sytuację, Międzynarodowe Stowarzyszenie Ochrony Radiologicznej
(International Radiation Protection Associacion, IRPA) wystąpiło z inicjatywą określenia i rozpowszechnienia pojęcia kultury ochrony radiologicznej. Szczegółowe informacje na temat projektu można znaleźć na
stronie www.irpa.net .
Inicjatywa została zgłoszona przez Francuskie Stowarzyszenie Ochrony Radiologicznej na 12 kongresie IRPA i entuzjastycznie przyjęta przez delegatów, skutkiem czego Zarząd IRPA postanowił poprzeć
tą inicjatywę. Następnie swoje zainteresowanie i wsparcie wyraziła Światowa Organizacja Zdrowia (WHO)
oraz szereg zawodowych i naukowych stowarzyszeń, grupujących specjalistów ochrony radiologicznej i
fizyków medycznych. Do chwili obecnej zorganizowano już kilka międzynarodowych spotkań poświęconych opracowaniu zasad kultury ochrony radiologicznej, których celem ma być nie tylko poprawa bezpieczeństwa radiologicznego, ale również, a może przede wszystkim poprawa poczucia bezpieczeństwa społeczeństw, poprzez zwiększenie świadomego zaangażowania na rzecz bezpiecznego korzystania z energii jądrowej.
Zanim zaczniemy rozważania na temat kultury ochrony radiologicznej warto na chwilę zatrzymać
się nad samym pojęciem kultury, definiowanej jako całokształt materialnego i duchowego dorobku ludzkości, a także ogół wartości, zasad i norm współżycia przyjętych przez różne społeczności i grupy ludzi. Kultura jest więc zespołem zjawisk, takich jak wiedza, wierzenia, sztuka, moralność oraz prawo i obyczaje, nabyte przez człowieka jako członka społeczeństwa.
W odniesieniu do technologii nuklearnych, stosowanych w energetyce czy medycynie, określenie
kultura jest stosowane nie tylko w znaczeniu opisowym, ale także normatywnym. W tym znaczeniu pojęcie
kultury określa to, co jest oczekiwane i łączy się ze standardami moralnymi i etycznymi.
Wychodząc z takiego pojmowania kultury sformułowano pierwszą, roboczą definicję kultury ochrony radiologicznej: Kultura ochrony radiologicznej to sposób, w jaki ochrona radiologiczna jest regulowana,
1
Artykuł jest autorskim przekładem i skrótem artykułu N. Golnik, P. Tulik „IRPA initiative on radiation protection culture”
Pol.J.Med.Phys.Eng 2011;17(1);1-12.
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
71
zarządzana, wykonywana, kultywowana i postrzegana w miejscach pracy, medycynie i życiu codziennym
i odzwierciedla nastawienie, wierzenia, zrozumienie, cele i wartości wspólne, uznawane przez pracowników, lekarzy, inspektorów i ogół społeczeństwa, w odniesieniu do ochrony radiologicznej. Taka definicja
kultury ochrony radiologicznej znacząco wykracza poza ogólne zasady bezpieczeństwa przyjęte w przemyśle, ponieważ musi zawierać zwarty system zasad dla wszystkich zastosowań promieniowania, w tym
medycynę, badania naukowe i życie codzienne. Do kultury ochrony radiologicznej odnoszą się także
ogólne zasady kultury bezpieczeństwa, czyli zasady, według których ludzie wykonują „właściwe rzeczy
we właściwym czasie i z właściwym nastawieniem”. Bardzo obrazową definicją kultury bezpieczeństwa
jest więc stwierdzenie: „Sposób, w jaki postępujemy, kiedy nikt nie patrzy”.
W ramach dotychczasowych prac IRPA sformułowano pierwsze zadania, które wpłyną na rozwój
kultury ochrony radiologicznej:
nadać przejrzystość najważniejszym zasadom ochrony radiologicznej (naukowym i moralnym)
rozpowszechniać wiedzę na temat ryzyka związanego z ochrona radiologiczną
rozbudzać poczucie odpowiedzialności wśród lekarzy, pracowników technicznych, kadry zarządzającej i władz
zachować dziedzictwo ochrony radiologicznej i zapewnić jego przekazanie następnym pokoleniom
specjalistów
zapewnić jakość i skuteczność ochrony radiologicznej
działać na rzecz zwiększenia bezpieczeństwa ludności
Podstawą ochrony radiologicznej jest postępowanie zgodne z wiedzą naukową i budowa systemu
bezpieczeństwa wokół trzech prostych zasad – uzasadnienia narażenia (każde nawet małe narażenie wymaga uzasadnienia), optymalizacji (zawsze dążymy do dawek tak niskich jak to jest rozsądnie osiągalne,
nawet jeśli narażenie jest poniżej limitów określonych w przepisach) i limitowania dawek indywidualnych, określanych na poziomie zapewniającym ryzyko zawodowe na takim samym poziomie jak w zawodach powszechnie uznawanych za bezpieczne, a w przypadku populacji (osób nie pracujących zawodowo
z promieniowaniem) na poziomach niższych od tła naturalnego.
Należy podkreślić, że obecnie ochrona radiologiczna ma możliwość zapewnienia bezpieczeństwa
ludziom we wszystkich możliwych planowanych sytuacjach narażenia na promieniowanie jonizujące
oraz w zdecydowanej większości sytuacji kryzysowych co pozwolą na wykorzystanie promieniowania z
pożytkiem dla człowieka i środowiska naturalnego. Istnieje oczywiście ryzyko użycia energii jądrowej
lub źródeł promieniowania promieniotwórczości w celach militarnych lub z zamiarem popełnienia przestępstwa, jednak nawet dla takich sytuacji istnieją scenariusze awaryjne silnie ograniczające konsekwencje.
Wróćmy teraz do rozważań na temat kultury ochrony radiologicznej i jej społecznej roli.
Przyjmuje się, że wiedza na temat ochrony radiologicznej świadomość społeczna, ewoluuje w
czasie, podobnie jak inne zjawiska kulturowe. Początkowo opiera się na instynkcie samozachowawczym
i podstawowych zasadach sprowadzających się głównie do unikania poważnych zagrożeń. Następnym
etapem jest wprowadzenie systemu nadzoru i kontroli, wykonywanej z zewnątrz. Jest to klasyczna ochrona przed promieniowania skodyfikowana w postaci praw i przepisów. Kolejnym etapem jest świadoma
samokontrola i optymalizacja własnego postępowania w warunkach narażenia na promieniowania. Ostatnim, najbardziej zaawansowanym etapem jest system zapewnienia bezpieczeństwa, obejmujący świadome działanie nie tylko na rzecz własnego bezpieczeństwa, ale również współpracowników, pacjentów i
populacji. Ten etap obejmuje również właściwe zarządzanie bezpieczeństwem i współpracę między zespołową, a obydwa ostatnie etapy są powiązane z niezależnym postępowaniem człowieka, gdy ludzie
dbają o innych, pomagają innym i stają się częścią współpracującego zespołu. Taki stopień zaawansowania zapewnia wysoki poziom bezpieczeństwa i poczucie dumy zawodowej czy też przekonania o odpowiedzialnym pełnieniu roli społecznej.
Kwartalnik popularnonaukowy Luty—Marzec 2012 72
Promieniowanie jonizujące
Rys.1 Ewolucja ochrony przed promieniowaniem Kultura ochrony radiologicznej dotyczy dwóch grup ludzi, pracowników wykorzystujących promieniowanie oraz społeczeństwa, czyli osób, które nie mają zawodowego kontaktu z technologią nuklearną. Główna zasada ochrony radiologicznej określana jako ALARA (As Low As Reasonably Achievable),
tak niskie jak racjonalnie osiągalne) dotyczy obu tych grup lecz w obu przypadkach może pociągać za sobą inne konsekwencje. Zasada ALARA zakłada, że narażenie na promieniowanie będzie minimalizowane
do racjonalnego poziomu (zawsze dużo poniżej limitów dawek indywidualnych) i jest doskonałym narzędziem rozwoju osobistej kultury ochrony radiologicznej, gdyż stymuluje odpowiednie planowanie, organizację i wykonywanie pracy. Niestety nawet w dobrze zorganizowanym i nadzorowanym środowisku elektrowni jądrowych konieczna jest ciągła troska o zachowanie odpowiedniej kultury bezpieczeństwa. W innych miejscach pracy, takich jak szpitale czy uniwersytety, wyzwania mogą być jeszcze większe. Zaskakujące jest to, że zbyt silne rygory narzucone przez pracodawcę mogą być szkodliwe z punktu widzenia
osobistego zaangażowania w przestrzeganie zasad ochrony przed promieniowaniem. Zbyt duże zaufanie
do systemu organizacji, pomiarów i kontroli może skutkować uśpieniem uwagi i osobistej inicjatywy pracowników. Zasada ALARA jest wtedy zbyt często postrzegana jako martwy przepis będący problemem
jedynie osób odpowiedzialnych za bezpieczeństwo, a nie jako kwestia osobistego zaangażowania i wykonywanej przed każdym rozpoczęciem pracy analizy narażenia. Pojawia się więc ryzyko stopniowego obni-
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
73
żenia kultury ochrony radiologicznej wśród pracowników, mimo zachowania zgodności ze wszystkimi
przepisami.
W przypadku kontaktów z przedstawicielami społeczeństwa, zasada ALARA może prowadzić do
innego typu nieporozumień. W tym wypadku znaczenie ma wyrażenie „racjonalnie osiągalny”. Nowoczesne społeczeństwo jest świadome swojego prawa do wpływania na wszystkie decyzje dotyczące jakości życia i jakiekolwiek próby narzucenia „racjonalnego” poziomu przez profesjonalistów czy polityków
są postrzegane jako zawodowa arogancja. Ponadto jest bardzo trudno przedstawić łatwy w zrozumieniu i
przekonujący dowód, że dany stopień ochrony jest bardziej racjonalny od nieznacznie większego lub
mniejszego. Autorka tego artykułu jakiś czas temu zaproponowała aby w niektórych przypadkach, wymagających uzgodnień społecznych, zasadę ALARA rozumieć i prezentować raczej jako ALASA (As
Low As Socially Acceptable - tak niskie jak społecznie akceptowalne). ALASA opiera się na takich samych ocenach kosztu i korzyści jak ALARA, jednak określenie poziomu „racjonalności” uwzględnia
poziom akceptacji społecznej. Realnie rzecz biorąc zasada ALASA już funkcjonuje praktycznie, niemal
we wszystkich przypadkach zastosowań promieniowania. Między innymi, właśnie ze względu na wyższy
poziom akceptacji społecznej, w medycynie dopuszcza się znacznie większe narażenia niż w przypadku
energetyki jądrowej. Takie podejście ułatwia też porównanie ze stopniami zabezpieczeń używanymi w
innych dziedzinach przemysłu, gdzie wyższy stopień ryzyka jest społecznie akceptowalny. Łatwiej też
wyjaśnić, że wysoki poziom ochrony radiologicznej nie wynika z zagadkowego, odrobinę mistycznego
charakteru zagrożeń powodowanych przez promieniowanie jonizujące, lecz z ekstremalnych wymogów
stawianych przez ludzi zabezpieczeniom akurat przed tym rodzajem.
Podsumowując, kultura ochrony radiologicznej to ogół wiedzy (naukowej, technicznej, etycznej,
historycznej, praktycznej) i zachowań, takich jak otwartość, przejrzystość, osobista odpowiedzialność,
uczciwość, zaangażowanie zainteresowanych stron, podejście zgodne z regułami ograniczonego zaufania, dotyczących ochrony radiologicznej. Jak wiadomo ludzie na zmiany i ryzyko często reagują irracjonalnie, a pojęcia związane z atomistyką nie są łatwe dla osób nie mających odpowiedniego przygotowania zawodowego. Dlatego możemy spodziewać się, że włączenie kultury ochrony radiologicznej do kultury społeczeństwa będzie długotrwałym procesem, wymagającym pokonania wielu lęków i uprzedzeń,
oraz umiejętnego przeciwstawienia się świadomym fałszerstwom i manipulacjom. To zadanie będzie
musiało wziąć na swoje barki młode pokolenie specjalistów ochrony radiologicznej, które w najbliższych
latach zastąpi odchodzące na emeryturę pokolenie twórców nowoczesnego systemu ochrony przed promieniowaniem.
Kwartalnik popularnonaukowy Luty—Marzec 2012 74
Promieniowanie jonizujące
TECHNOLOGIE WSPOMAGAJĄCE ROZWÓJ BEZPIECZEŃSTWA ENERGETYKI JĄDROWEJ Sylwester Sommer Centrum Radiobiologii i Dozymetrii Biologicznej, Instytut Chemii i Techniki Jądrowej w Warszawie Na końcową formę artykułu duży wpływ miały poprawki zaproponowane przez: Macieja Budzanowskiego (IFJ), Krzysztofa Ciupka (CLOR), Krzysztofa A. Isajenko (CLOR), Anny Lankoff (ICHTJ), Ireny Szumiel (ICHTJ) i Ireneusza Śliwki (IFJ) Dziewiątego grudnia 2011 odbyło się w Krakowie, w siedzibie Instytutu Fizyki Jądrowej PAN im. Henryka Niewodniczańskiego Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych
potrzeb energetyki jądrowej”. Celem Seminarium była prezentacja
3-letniego projektu badawczego „Technologie wspomagające rozwój bezpieczeństwa energetyki jądrowej” finansowanego przez Narodowe Centrum Badań i Rozwoju. Projekt realizowany jest przez
sieć naukową składającą się z 4 czołowych polskich instytutów,
specjalizujących się w technologiach jądrowych: Centralne Laboratorium Ochrony Radiologicznej (CLOR) z Warszawy, Instytut
Chemii i Techniki Jądrowej (ICHTJ) z Warszawy, Instytutu Fizyki
Jądrowej PAN (IFJ) z Krakowa i Narodowe Centrum Badań Jądrowych (NCBJ) ze Świerku.
Projekt wpisuje się w plan wdrożenia energetyki jądrowej w
Polsce i ma na celu zapewnienie najwyższych standardów i najlepszych metod pomiarowych monitorujących wpływ elektrowni jądrowej na stan środowiska naturalnego i zdrowie ludności. Mamy
nadzieję, że oprócz osiągnięcia celów naukowych, badania prowadzone w: CLOR, ICHTJ, IFJ i NCBJ przyczynią się do rozwoju
kadr w zakresie bezpieczeństwa jądrowego, wpłyną pozytywnie na postrzeganie programu nuklearnego
przez społeczeństwo i będą wykorzystane do propagowania rozwoju bezpiecznej energetyki jądrowej w Polsce, szczególnie gdy kwestionowana jest ona przez sąsiadujące państwa. Na rys. 1 pokazano, w jaki sposób
stan szeroko rozumianej ochrony radiologicznej może wpływać na odbiór społeczny energetyki jądrowej
[1]. Im lepszy jest stan ochrony radiologicznej, a społeczeństwo lepiej i rzetelniej poinformowane, tym wyższe poziomy promieniowania są uznawane za bezpieczne.
Nie sposób w krótkim artykule omówić wszystkich tematów i zagadnień zawartych w projekcie. Dokonano więc subiektywnego wyboru najciekawszych tematów. Jak wskazuje doświadczenie płynące z dotychczasowych awarii jądrowych, zawsze wiążą się one z uwalnianiem dużych ilości promieniotwórczych
izotopów jodu i cezu do atmosfery. W Zakładzie Dozymetrii CLOR opracowana będzie prototypowa przenośna stacja do poboru aerozoli atmosferycznych i gazowej postaci jodu. Zostanie ona wyposażona w urządzenie GPS pozwalające przyporządkowywać („mapować”) wyniki pomiarów położeniu na mapie. Stacja ta
będzie wykorzystywana też do kontroli promieniotwórczych zanieczyszczeń powietrza wokół obiektów jądrowych zarówno w sytuacji ich normalnej pracy (kontrola dopuszczalnych uwolnień), jak i w przypadku
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
75
awarii takiego obiektu. Ponadto przewiduje się, że opracowane nowe urządzenie po niewielkich modyfikacjach obudowy (ochrona przed różnymi warunkami meteorologicznymi, takimi jak deszcz, śnieg, mróz) pozwoli na rozszerzenie istniejącej sieci wczesnego ostrzegania o skażeniach.
Rys.1. Wpływ stanu ochrony radiologicznej na postrzeganie energetyki jądrowej [1] Sieć wczesnego ostrzegania o skażeniach radiologicznych w Polsce opiera się na odczytach on-line
pomiarów mocy dawki i rejestracji oraz analizie widma promieniowania gamma w 35 stacjach terenowych (należących do CLOR, MON i IMGW). W
większości są to wysokoczułe stacje ASS-500 opracowane i wytwarzane w CLOR (rys. 2). Według dyrektora CLOR, dr Pawła Krajewskiego, o ile taka
sieć była wystarczająca, kiedy elektrownie atomowe
były daleko od naszych granic, to - gdy już zbudujemy elektrownię atomową w Polsce - sieć trzeba będzie rozbudować. Dla przykładu, w krajach mających energetykę jądrową jest znacznie więcej stacji
Rys. 2. Stacja pomiaru skażeń radiologicznych ASS‐500 monitoringu, m.in. Niemcy – 2000 stacji rozmieszopracowana i wytwarzana w CLOR (zdjęcie reprodukowane dzięki uprzejmości Krzysztofa A. Isajenko, zastępcy dyrektora czonych w rastrze 15x15 km, Szwajcaria - 120 stacji,
Finlandia - 254 stacje tego typu.
CLOR) W ramach omawianego projektu opracowane zostaną w CLOR kompleksowe procedury dotyczące:
 pomiaru chwilowego mocy dawki przy pomocy przenośnych mierników promieniowania;
 pomiaru ciągłego mocy dawki przy pomocy całkujących detektorów TLD (termoluminescencyjnych);
 spektrometrii promieniowania tła (pomiary „in situ”) oraz określenia udziałów składowych naturalnych i antropogenicznych dawki.
Kwartalnik popularnonaukowy Luty—Marzec 2012 76
Promieniowanie jonizujące
Pozwoli to oceniać dawki ekspozycji zewnętrznej w środowisku na obszarze przewidywanej lokalizacji elektrowni jądrowej (na poziomie promieniowania tła). Uzyskane dane będą opracowywane i prezentowane przy pomocy technologii GIS (Geographic Information Systems). GIS pozwala między innymi na tworzenie efektownych i przede wszystkim czytelnych map rozkładu chwilowego czy ciągłego mocy dawki w
terenie (rys. 3).
Rys. 3. Przykładowa mapa rozkładu mocy dawki wykonana przy użyciu oprogramowania GIS w Centralnym Laboratorium Ochrony Radiologicznej w Warszawie (P. Krajewski, dyrektor CLOR) Określony zostanie wyjściowy (zerowy) stan radiologiczny terenów przeznaczonych pod inwestycję i
na terenach wokół planowanej elektrowni jądrowej (IFJ, Kraków). W ramach tego projektu zbadane zostaną
poziomy izotopów naturalnych 40K, 238U, 226Ra, 232Th, poziom radonu 222Rn, trytu 3H, produkty aktywacji,
produkty rozszczepienia i transuranowce w wodzie, powietrzu, osadach dennych, glebie, roślinności, żywności oraz zwierzętach wodnych i lądowych. Określone i monitorowane będą metodami chromatografii gazowej wartości stężeń antropogenicznych gazów śladowych (atmosferycznych znaczników niepromieniotwórczych), takich jak: 11F, 12F, SF6 oraz stężenia gazów szlachetnych Ar i Ne występujących w wodach podziemnych pierwszego poziomu, co pozwoli na ocenę wieku tych wód i tym samym na ocenę ich odporności
na skażenia w sytuacji awarii radiologicznej [2].
Prowadzone będą prace nad rozwojem metod radiometrycznych dla potrzeb ochrony radiologicznej
energetyki jądrowej. Laboratorium Dozymetrii Indywidualnej i Środowiskowej IFJ w Krakowie będzie udoskonalało termoluminescencyjne dawkomierze osobiste (rys. 4A). Każda z osób zawodowo pracujących z
promieniowaniem nosi ze sobą dawkomierz osobisty, który pozwala odczytać wielkość ewentualnej dawki
awaryjnej. Dawkomierz taki zawiera materiał termoluminescencyjny, który niejako „akumuluje” w sobie
energie promieniowania i pod wpływem wysokiej temperatury uwalnia ją w postaci światła. Odczytując
„poziom jasności” detektora można odtworzyć dawkę pochłoniętą przez dawkomierz (rys. 4B). Materiałami
termoluminescencyjnymi są znane przez wszystkich: sól kuchenna i diamenty. Jednak w dawkomierzach
osobistych najczęściej używane są związki: LiF:Mg, Ti; LiF: Mg, Cu, P; CaSO4:Dy i Al2O3:C.,
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
77
Rys. 4. Osobista dozymetria termoluminescencyjna [3]. Panel A: dawkomierze osobiste noszone przez osoby pracujące z pro‐
mieniowaniem. Panel B: Profesjonalny materiał termoluminescencyjny, jeżeli zostanie wcześniej napromieniony a potem wygrzewany w temperaturze 360 0C, emituje światło, którego jasność jest proporcjonalna do dawki pochłoniętej. Panel C: „Naturalne” materiały termoluminescencyjne to między innymi sól kuchenna i diamenty. W ramach projektu zespół Laboratorium Dozymetrii Indywidualnej i Środowiskowej IFJ w Krakowie planuje rozszerzyć zakres dawek odczytywanych przez dozymetry indywidualne z zakresu 0,1 – 1 Sv
do 0,1 – 10 Sv. (W pewnych okolicznościach istnieje potrzeba używania dawkomierzy o takim zakresie
pomiarowym np. w Czarnobylu ratownicy używali dawkomierzy mierzących dawkę bodajże tylko do 1 Gy
co było niewystarczające ponieważ bo skala była za mała i tak naprawdę nie wiadomo było jakie kto dawki otrzymał). Możliwe jest również, co pokazują wyniki doświadczeń, przykrycie detektorów dozymetrycznych specjalnymi filtrami, które pozwolą odróżnić napromienienie statyczne od dynamicznego (rys.
5). Ma to duże praktyczne znaczenie, ponieważ zdarza się, że w polu promieniowania została zostawiona
kurtka / fartuch z przyczepionym dawkomierzem i tylko dawkomierz został napromieniony, a nie osoba. W
takim przypadku mamy do czynienia z napromienieniem statycznym. I wreszcie prowadzone są prace nad
powtórnym odczytywaniem dawki z tego samego dawkomierza, czego do tej pory nie praktykowano. W
pewnych okolicznościach możliwy jest powtórny odczyt dawki z tego samego detektora umożliwiający
weryfikacje przypadków wątpliwych.
W CLOR, IFJ i ICHTJ rozwijane będą techniki dozymetrii biologicznej. Dozymetria biologiczna
daje rozstrzygającą odpowiedź, czy dana osoba została napromieniona czy nie, ponieważ stosowana metoda polega na szacowaniu zmian w DNA limfocytów ludzkich. Metody dozymetrii biologicznej są znane i z
powodzeniem stosowane od wielu lat. Ich podstawą są doświadczenie wykonywane in vitro, w których
określa się w jaki sposób zmiany w materiale genetycznym zależą od dawki promieniowania. Z funkcji
określającej powyższą zależność (krzywej dawka – efekt) znając wielkość uszkodzenia DNA można odczytać dawkę promieniowania potrzebną do wywołania uszkodzenia. W CLOR wykonana zostanie krzywa
dawka – efekt dla chromosomów dicentrycznych (klasyczna metoda estymacji uszkodzeń DNA) dla mieszanego promieniowania neutrony – promieniowanie gamma. Eksperymentalne napromienienie limfocytów odbędzie się w reaktorze Maria na terenie NCBJ w Świerku. W ICHTJ w Centrum Radiobiologii i Dozymetrii Biologicznej realizowane będą aż 3 projekty z zakresu biodozymetrii:
1.Akredytowana zostanie metoda dozymetrii przy pomocy chromosomów dicentrycznych. Będzie to drugie akredytowane laboratorium biodozymetryczne w Polsce, po CLOR. Te 2 warszawskie laboratoria
(CLOR i ICHTJ) wraz z Zakładem Biologii Radiacyjnej i Środowiskowej IFJ PAN i Zakładem Radiobiologii i Immunologii IB Uniwersytetu Jana Kochanowskiego w Kielcach stworzą w niedługim czasie Sieć
Kwartalnik popularnonaukowy Luty—Marzec 2012 78
Promieniowanie jonizujące
Biodozymetryczną, mogącą skutecznie reagować w przypadku masowego zdarzenia radiacyjnego w naszym kraju. Sieci takie funkcjonują w rozwiniętych państwach takich jak Niemcy, Francja, Kanada, Japonia. Ideą stojącą za rozwojem tego typu organizacji jest potrzeba zapewnienia biodozymetrii w przypadku
masowego zdarzenia radiacyjnego. Klasyczne metody dozymetrii biologicznej są bardzo pracochłonne i
nie dają możliwości szybkiej analizy wielu (setek) próbek jednocześnie. Kilka współpracujących ze sobą
laboratoriów, pośród których mogą zostać rozesłane próbki do badania rozwiązuje problem
„przepustowości”.
Rys. 5. Identyfikacja ekspozycji: statyczna – dynamiczna [3]. Panel A: Różne typy termoluminescencyjnych dawkomie‐
rzy indywidualnych. Widoczne 4 miejsca na detektory termoluminescencyjne. Panel B: Co najmniej jeden z detekto‐
rów może zostać przykryty metalową nakładką, która zakrywa większość jej powierzchni przed promieniowaniem. Panel C: Jeżeli dozymetr leżał w polu promieniowania nie ruszany przez jakiś czas, to dzięki temu filtrowi tylko część detektora zostanie napromieniona. Panel D: Natomiast, jeżeli dozymetr poruszał się w raz z osobą go noszącą, to cały detektor zostanie napromieniony w miarę jednorodnie. 2. Zbadana zostanie przydatność analizy ekspresji genów jako dozymetru biologicznego. Promieniowanie
poprzez uszkadzanie makromolekuł (głównie DNA, ale również i białek) w komórkach modyfikuje aktywność komórkowych szlaków sygnalizacyjnych, co zmienia ekspresję genów w narażonych komórkach
(niektóre białka są wytwarzane w większej liczbie kopi, a niektóre mogą przestać w ogóle być wytwarzane). Najpierw trzeba zidentyfikować białka, których ekspresja jest zmieniona. Robi się to za pomocą tzw.
mikromacierzy DNA, metody która pokazuje wszystkie białka które ulegają ekspresji w danym typie komórek czy tkanek. Porównując mikromacierze z np. napromienionych i nienapromienionych limfocytów
można zidentyfikować różnice w ekspresji białek między nimi. Jest to metoda jakościowa. Dane o różnicach w ekspresji białek pod wpływem promieniowania w różnych tkankach dostępne są również w literaturze. Do badania zmian ekspresji wybranych genów w limfocytach i surowicy krwi wykorzystana zostanie metoda RT-PCR (reakcja łańcuchowa polimerazy DNA z analizą ilości produktu w czasie rzeczywistym). Metoda ta pozwala uchwycić ilościowe różnice w ekspresji białek, które mogą być zależne od dawki promieniowania.
3. Zbadana zostanie przydatność metody przedwczesnej kondensacji chromosomów interfazowych połą-
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
79
czonej z metodą hybrydyzacji in situ (The Rapid Interphase Chromosome Assay – RICA) do celów dozymetrii biologicznej. Metoda opisana przez Prasanna w 2000 roku [4] wygląda na prostą i efektywną, a nie
została do tej pory zaadaptowana przez żadne europejskie laboratorium. Polega ona na badaniu w niestymulowanych do podziału limfocytach ludzkich liczby nadmiarowych terytoriów chromosomowych; liczba
ta jest wprost proporcjonalna do dawki promieniowania (rys. 6). Częściową kondensację chromatyny, potrzebną do wymuszenia ruchu oddzielającego poszczególne terytoria chromosomowe od siebie wywołuje
się sztucznie, dodając do hodowli komórek odpowiednich białek regulatorowych (cyklino- zależnej białkowej kinazy 1 (Cdc2) oraz kalikuliny A – inhibitora fosfataz białkowych). Terytorium chromosomowe maluje się sondami DNA, które hybrydyzują (łączą się) z materiałem wybranego chromosomu i są sprzężone
z fluorochromem co umożliwia obserwacje sygnału przy pomocy mikroskopu fluorescencyjnego (ryc. 6).
Rys. 6. Metoda przedwczesnej kondensacji chromosomów interfazowych połączonej z metodą hybrydyzacji in situ (The Rapid Interphase Chromosome Assay – RICA) (Panel B i C Prasanna 2000). Panel A: Terytoria chromosomowe w interfazowym jądrze limfocytu malowane techniką m‐FISH. Widać, że terytoria poszczególnych chromosomów (różnokolorowe powierzchnie) są wyodrębnione, ale poprzeplatane ze sobą. Panel B: Terytoria chromosomowe chro‐
mosomów nr 1. Po zastosowaniu odpowiedniej sztucznej kondensacji są wyraźnie wyodrębnione. Panel C: Trzy tery‐
toria chromosomowe chromosomu nr 1 w napromienionym limfocycie ludzkim. Ponieważ normalne komórki ludzkie mają podwójny garnitur chromosomów, 3 terytoria są prawdopodobnie skutkiem napromienienia komórki W Zakładzie Biologii Radiacyjnej i Środowiskowej IFJ PAN zostaną opracowane szybkie testy oznaczania
dawki pochłoniętej z uwzględnieniem indywidualnej podatności osób narażonych na promieniowanie jonizujące. Testem wyboru będzie analiza uszkodzeń DNA metodą kometową, ale również stosowane będą
inne testy takie jak: analiza chromosomów dicentrycznych, analiza mikrojąder, analiza wymian chromatyd
siostrzanych i analiza translokacji przy pomocy hybrydyzacji in situ [5]. Metoda kometowa, zwana inaczej
elektroforezą pojedynczej komórki polega na migracji w polu elektrycznym uszkodzonego DNA. Komórki
zatapia się żelu agarozowym na szkiełkach mikroskopowych, trawi białka, poddaje elektroforezie i barwi
barwnikami fluorescencyjnymi. Uszkodzony DNA wędruje z jądra komórkowego tworząc strukturę podobną do komety i stąd nazwa testu (rys. 7). Miarą poziomu uszkodzeń DNA jest długość ogona i ilość
zawartego w nim DNA. Do oceny długości ogona niezbędny jest komputerowy program do analizy obrazu. Test kometowy służy nie tylko do szacowania poziomu uszkodzeń DNA ale również do oceny kinetyki
ich naprawy, co daje wskazówki na temat promieniowrażliwości danej osoby. Badanie kinetyki naprawy
DNA prowadzi się po napromienieniu in vitro limfocytów tak zwaną dawką pobudzającą.
Kwartalnik popularnonaukowy Luty—Marzec 2012 Promieniowanie jonizujące
80
Rys. 7. Test kometowy [6]. Uszkodzony DNA wędruje w polu elektrycznym z jadra komórki, tworząc ogon komety. Miarą po‐
ziomu uszkodzeń DNA jest długość ogona i ilość zawartego w nim DNA. Test kometowy służy do szacowania poziomu uszko‐
dzeń DNA i kinetyki ich naprawy. Przedstawione skrótowe sprawozdanie wymaga wielu wyjaśnień, które będą uzupełnione w dalszych publikacjach dotyczących realizacji projektu. Osoby zainteresowane tematami zawartymi w projekcie znajdą
więcej informacji pod adresami: www.clor.waw.pl/projekty/ncbir/index.htm - oficjalna strona projektu badawczego „Technologie wspomagające rozwój bezpieczeństwa energetyki jądrowej” i www.ifj.edu.pl/
pro/09122011/prezentacje/seminarium_09122011.pdf?lang=pl – strona gdzie można znaleźć prezentacje
pokazane na Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011.
W artykule wykorzystałem materiały z prezentacji wygłoszonych na Seminarium pt. „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011.
PRZYPISY:
1, Krajewski P.: Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej, Seminarium „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla
bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011;
2, Zuber A., Ciężkowski W., Różański K. (red.), Metody znacznikowe w badaniach hydrogeologicznych – poradnik metodyczny.
Oficyna Wydawnicza Politechniki Wrocławskiej, Wrocław, 2007;
3, Budzanowski M.: Nowe dawkomierze pasywne do pomiaru dawek indywidualnych i awaryjnych, Seminarium „Rozwój metod
zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011;
4, Prasanna P.G.S., Eskalada N.D., Blakely W.F.: Induction of premature chromosome condensation by a phosphatase inhibitor and a protein kinase in unstimulated human peripheral blood lymphocytes: a simple and rapid technique to study chromosome aberrations using specific whole-chromosome DNA hybridization probes for biological dosimetry. Mutation Research 466:
(2000) 131–141;
5, Cebulska-Wasilewska A.: Response to challenging dose of X-rays as a predictive assay for molecular epidemiology. Mutation
Research 544: (2003) 289-97;
6, Cebulska-Wasilewska A.: Opracowanie szybkich testów dawki pochłoniętej z uwzględnieniem indywidualnej podatności osób
narażonych na promieniowanie jonizujące, Seminarium „Rozwój metod zapewnienia bezpieczeństwa jądrowego i ochrony radiologicznej dla bieżących i przyszłych potrzeb energetyki jądrowej”, Kraków 2011;
Kwartalnik popularnonaukowy Luty— Marzec 2012 Promieniowanie jonizujące
Kwartalnik popularnonaukowy Luty—Marzec 2012 81
82
Elektrownie Jądrowe
USUWANIE SKUTKÓW KATASTROFY EKOLOGICZNEJ WYWOŁANEJ FALĄ TSUNAMI Rzymkowski Krzysztof Stowarzyszenie Ekologów Na Rzecz Energii Nuklearnej Zbliża się pierwsza rocznica potężnego
trzęsienia ziemi (11 marca 2011) , które wywołało ogromną falę tsunami powodującą tragiczną w skutkach katastrofę. Fala tsunami o wysokości około 14 m (mniej więcej wysokości 5
piętrowej kamienicy) poruszająca się z wielką
prędkością spowodowała przede wszystkim
zniszczenia w północno-wschodnich prefekturach Japonii, głównie Iwata, Miyagi i Fukushima, jak również w innych położonych bardziej
na południe. Zginęło około 15 000 ludzi, 4 000
uznano za zaginione, tysiące ludzi straciło swój
dobytek, miejsca pracy, mieszkania. Trzęsienie
ziemi oraz fala tsunami spowodowała ogromne
straty w rolnictwie, przemyśle i transporcie.
Zniszczeniu uległy drogi, koleje, domy (całe osiedla) linie energetyczne, linie łączności. Powstały zwały
gruzu stosy połamanych drzew, złomowiska samochodów, zanieczyszczenia chemiczne, pożary. Dewastacji uległo środowisko naturalne.
Należy przypomnieć, że po głównym trzęsieniu ziemi nastąpiło około 300 trzęsień wtórnych o
różnej sile. Fala tsunami oprócz zniszczeń powstałych w czasie napływu, powodowała dalsze szkody w
fazie cofania się, zabierając do morza gruz, sprzęt, tym samym zanieczyszczając dodatkowo łowiska.
Zniszczone zostały uprawy ryżu, warzyw, sady, zalane słoną wodą, pokryte szlamem i błotem,
chemikaliami wypływającymi ze zniszczonych zbiorników. Niektóre rodziny farmerskie uprawiały ziemię w tej okolicy już od 400 lat a obecnie właściciele zostali pozbawieni możliwości kontynuacji upraw.
W rejonach Tohoku, Kanto, 23 000 ha zostało zalanych wodą ze szlamem. Największe straty powstały w
prefekturze Miyagi, gdzie sytuacja ta dotyczy 15 000 ha, co stanowi 50% całkowitej powierzchni upraw
w tym rejonie. Zniszczone zostały też zakłady przetwórcze powiązane z rolnictwem i hodowlą. Jeszcze
bardziej dramatyczne straty powstały w rybołówstwie. Zniszczeniu uległy wszystkie porty rybackie, 90
% floty rybackiej (na podstawie danych firm ubezpieczeniowych). Część łodzi została zatopiona część
wyniesiona na morze, lub w głąb lądu lub zniszczona w portach. Połowy w tym regionie pokrywały
około 10 % zapotrzebowania krajowego. Zniszczeniu uległy hodowle ostryg, krewetek stanowiących
30% krajowej produkcji. Zniszczenia i straty spotęgowane były faktem, że cały przemysł powiązany z
Kwartalnik popularnonaukowy Luty— Marzec 2012 Elektrownie Jądrowe
83
Budowa „namiotu ‐ ochrony” wokół budynku reaktora (Copyright The Asahi Shimbun Company rybołówstwem był właśnie przygotowany do rozpoczęcia nowego sezonu. W pobliżu elektrowni wstrzymano uprawy niektórych roślin przede wszystkim ryżu ze względu na wysoki stopień skażenia gleby i
pochłanianiu przez te rośliny dużej ilości radioaktywnego cezu. Produkcja ryżu w prefekturze Fukushima należała do największych (450 000 ton rocznie).
Z powyższych przyczyn Premier Japonii Yoshihiko Noda na konferencji prasowej stwierdził, że
„ nie będzie odnowienia Japonii bez odbudowy Fukushimy”
Prawie natychmiast po ustąpieniu fali tsunami przystąpiono do usuwania jej skutków rozpoczynając od ratowania i poszukiwania ludzi, organizowania doraźnej pomocy oraz oszacowania ogromu
zniszczeń. Należy zwrócić uwagę na całkowitą niemożność komunikacji międzyludzkiej w chwili nawałnicy za wyjątkiem ograniczonych możliwości sieci komórkowych. Oprócz rozległych działań sieci
obrony cywilnej np.: monitoringu radiacyjnego (wspomaganego później nawet przez organizacje pozarządowe i międzynarodowe) do akcji włączono wszystkie możliwe służby mające jakikolwiek związek
z nie tylko z ochroną radiologiczną, ale i z np.: pomocą medyczną ( włączając w to pomoc psychologiczną odgrywającą w skrajnie trudnych warunkach istotna rolę zapobieżeniu panice i depresji) .
Starając się koordynować ich działania zgodnie z obowiązującymi procedurami i uzyskać rzeczywisty obraz skażeń zorganizowano sieć monitoringu skażeń.
Jedne z najistotniejszych informacji dotyczyły niepewnej sytuacji w elektrowni jądrowej Fukushima Daiichi, gdzie wybuchy wodoru, wycieki z uszkodzonego basenu wypalonego paliwa, niemożność
uruchomienia awaryjnych systemów chłodzenia zniszczonych w czasie przejścia tsunami nie gwarantowały pełnego bezpieczeństwa rejonów w pobliżu elektrowni.
Dlatego w miarę uzyskiwania informacji z obserwacji stanu reaktorów zdecydowano o zmianie
kwalifikacji oceny poziomu katastrofy z 4 do najwyższego poziomu 7 w międzynarodowej skali stoso-
Kwartalnik popularnonaukowy Luty—Marzec 2012 84
Elektrownie Jądrowe
wanej przez MAEA – Międzynarodową Agencję Energii Atomowej (IAEA International Atomic Energy
Agency). (4 stopień - awaria bez znaczącego zagrożenia poza obiektem, 7 stopień - wielka awaria –
uwolnienie znacznych ilości substancji promieniotwórczych , długo i krótko życiowych izotopów rozprzestrzeniających się na znacznym obszarze). Sytuację w elektrowni komplikował fakt braku zasilania,
które pozwoliłoby na uruchomienie systemów awaryjnego chłodzenia i neutralizacji gazów, szczególnie
wodoru powstającego wewnątrz obudowy reaktora w wyniku reakcji chemicznych zachodzących w podwyższonej temperaturze.
Spodziewano się, że parująca woda odsłoni górne partie rdzenia, powodując jego nadtopienie.
Ponadto konieczność zmniejszenia ciśnienia w zbiorniku reaktora spowodowała uwalnianie wodoru,
wraz z którym nastąpiła emisja pierwiastków promieniotwórczych - jodu i cezu ( 131J , 134Cs, 137Cs), powodując skażenie środowiska.
Dodatkowo w początkowej fazie usuwania skutków awarii konieczne było, ze względu na brak
dostatecznej ilości zbiorników, uwolnienie tysięcy litrów skażonej wody do oceanu. Ocenia się, że całkowita emisja tych pierwiastków mogła osiągnąć 10 % podobnej emisji w trakcie awarii w Czarnobylu w
1986 roku. Podwyższone poziomy radioaktywności wykrywano w próbkach mleka, roślin (np. szpinaku)
pochodzących z rejonu awarii, przy czym poziomy te nie przekraczały dopuszczalnych norm. Największe skażenia gleby, lasów, rzek zaobserwowano w około 30 kilometrowym paśmie o szerokości kilku
kilometrów, rozciągającym się w kierunku północno-zachodnim od elektrowni Fukichima Daiichi.
Niepewność dalszego rozwoju sytuacji (odnosząca się przede wszystkim do skażenia powietrza)
spowodowała decyzję o czasowej ewakuacji ludności z zagrożonych terenów. Ustalono rejon tzw. pełnej ewakuacji ludności na obszar o promieniu 20 km od centrum źródła skażeń tzn. od elektrowni Fukushima Daiichi, oraz rejon tzw. ograniczonej ewakuacji w promieniu 30 km. W tym rejonie obowiązywała
czasowa ewakuacja, która obowiązuje nadal na obszarach o podwyższonym poziomie promieniowania.
Worki ze skażoną ziemią (Copyright The Asahi Shimbun Company Kwartalnik popularnonaukowy Luty— Marzec 2012 Elektrownie Jądrowe
85
Przewidywany jest powrót mieszkańców po przeprowadzeniu dekontaminacji.
W kwietniu 2011 przyjęto wstępny plan usuwania skutków trzęsienia ziemi ze szczególnym
uwzględnieniem usuwania skutków awarii elektrowni, tzw. „mapa drogowa odbudowy”.
Usuwanie zniszczeń wywołanych falą tsunami wymagało przede wszystkim odbudowy sieci
energetycznych, sieci komunikacyjnych, rozpoczęcie usuwania gruzów, utylizację odpadów zagrażających ludziom i środowisku. W następnej kolejności planowano przystąpienie do odbudowy gospodarki,
poprzez pomoc finansową przy zakupie nowego sprzętu, odbudowie portów itp. Szybko powstały spółki
odtwarzające przemysł rybołówstwa, wprowadzające jednocześnie jego reorganizację np. ograniczenie
liczby portów rybackich, sposoby wykorzystania nowoczesnego drogiego sprzętu. Rozpoczęto przygotowania do usuwania zasolenia gleby. Metody te były już wcześniej stosowane w Japonii, ponieważ podobne problemy powodowane były przez silne tajfuny często przechodzące nad Japonią.
Powołano specjalne grupy ekspertów, których zadaniem było opracowanie i przedstawienie rządowi analizy przyczyn i skutków awarii. Przeprowadzenia dokładnej analizy skutków awarii będzie
możliwe dopiero po ustaleniu pełnego ich zakresu, co będzie procesem długotrwałym, tak więc końcowa analiza spodziewana jest w połowie 2011 roku .
Pierwszą wstępną analizę, opublikowano 9 maja 2011 pt. „ Wnioski wypływające z analizy awarii w elektrowni jądrowej Fukushima Daiichi ‘’ ( Lessons learned from the accident at the Fukushima
Daiichi Nuclear Power Plant). Została ona przeprowadzona przez zespół ekspertów z: OASIS (Open
Standards for the Information Societry)-Otwarte Standardy Informacji Społecznej Podkomitet Analiz
Technicznych, CINS Commit6tee for Investigation of Nuclear Safety) – Komitet Badań Bezpieczeństwa
Jądrowego, AESJ ( Atomic Energy Society of Japan) – Japońskie Towarzystwo Energii Atomowej. W
raporcie uwzględniono znane przyczyny awarii.
Kolejne wyniki badań skutków awarii, przygotowane przez zespoły międzynarodowe, przedstawiono w czasie pięciodniowej (20 -25 czerwiec 2011) konferencji organizowanej w Wiedniu przez MAEA, oraz podobnej konferencji organizowanej przez OECD . W czasie tych spotkań przedstawiono również raport Rządu Japonii (Report of Japanese Government to the IAEA Ministerial Conference on Nuclear Safety- The Accident at TEPCO's Fukushima Nuclear Power Stations).
Raporty cząstkowe analizujące poszczególne fazy katastrofy są przygotowywane systematycznie
w ciągu całego roku. W jednym z ostatnich opublikowanym w grudniu 2011 stwierdzono m.in., że 10
m fala tsunami mogłaby zostać powstrzymana, gdyby wprowadzono wcześniejsze zalecenia ekspertów,
jak również, że po utracie zasilania operator (pracownicy elektrowni) nie wprowadził przewidywanych
procedur awaryjnych dla systemów chłodzenia reaktorów 1 i 3. Raport stwierdza, że gdyby uruchomiono wcześniej wozy straży pożarnej do schładzania (pompowania wody), zniszczenia byłyby ograniczone
i mniej substancji radioaktywnych przedostałoby się do atmosfery. Działania Rządu oceniono jako niedostateczne, szczególnie brak łączności pomiędzy Rządem a centrum kryzysowym zawiadującym tzw.
systemem SPEEDI (System for Predicting Environmental Emergency Dose Information), którego zadaniem jest między innymi prognozowanie rozprzestrzenianiem się substancji radioaktywnych. Dane z
systemu SPEEDI nie były wykorzystywane w rozporządzeniach o ewakuacji, które były niedokładne i
nie docierały do władz lokalnych. Podobnie nieprzejrzysty był system informowania społeczeństwa.
Japońska Komisja Energii Atomowej (JAEC - Japan Atomic Energy Commision) 13 grudnia
opublikowała zalecenia dalszego postępowania przy usuwaniu skutków katastrofy, zalecając między
innymi, by Rząd:
przejął pełną odpowiedzialność za usuwanie skutków katastrofy do czasu pełnej dekontaminacji terenu zaczynając od wprowadzenia odpowiedniego systemu i infrastruktury, jak również systemu bezpieczeństwa nadzorowanego przez TEPCO i prowadzenie pełnej, przejrzystej akcji społecznej informacyjnej o podjętych działaniach,
zobowiązał TEPCO do przygotowania i wprowadzenia planów ochrony radiologicznej i innych po Kwartalnik popularnonaukowy Luty—Marzec 2012 86
Elektrownie Jądrowe
krewnych działań po pełnej konsultacji i akceptacji organów odpowiedzialnych za bezpieczeństwo,
pełną koordynację nad zabezpieczeniem działań przed nierozprzestrzenianiem materiałów jądrowych we współpracy z organizacjami międzynarodowymi, głównie MAEA,
ustanowił niezależną „trzecią” organizację kontrolującą te działania,
podjął średnio- i długo-terminowe działania, umożliwiające rozwój przemysłowy regionu w przyszłości,
jak również wykorzystanie jego zasobów.
Istotne wydaje się zwłaszcza zalecenie powołania niezależnej organizacji kontrolującej i koordynującej wysiłki poprawy bezpieczeństwa jądrowego.
przejął
Dotychczas rolę dozoru jądrowego w Japonii pełniła Agencja Bezpieczeństwa Jądrowego i Przemysłowego (NISA - Nuclear and Industrial Safety Agency) nadzorowana przez Komisję Bezpieczeństwa
jądrowego (NSC - Nuclear Safety Comission) i Japońską Komisję Energii Atomowej (JAEC - Japan Atomic Energy Commision) , które z kolei podlegają prezydium Rządu (Cabinet Office). Ponadto Agencja
Bezpieczeństwa Jądrowego i Przemysłowego NISA jest administracyjnie podległa Ministerstwu Gospodarki, Handlu i Przemysłu (METI – Ministry of Economy, Trade and Industry), co budzi liczne zastrzeżenia. Oprócz tego istnieje Japońska Organizacja Bezpieczeństwa Energii Jądrowej (JNESO – Japan Nuclear
Energy Safety Organization), zrzeszająca specjalistów z różnych dziedzin, nie będąca agendą rządową.
Powstaje również problem podporządkowania nowego urzędu. Czy ma być to organ całkowicie samodzielny nie podporządkowany innym urzędom czy też będzie wchodził w struktury np. ministerstwa Środowiska?. Mimo tych niejasności, należy podkreślić, że dotychczasowy system nie spełnił oczekiwań.
Osobnym problemem było przygotowanie „mapy drogowej” dla usuwania skutków awarii w elektrowni Fukushima Daiichi. Pierwszym i podstawowym celem usuwania skutków było osiągnięcie stabilnych warunków chłodzenia reaktorów i paliwa zmagazynowanego w basenach, oraz ograniczenie emisji
pierwiastków promieniotwórczych tak, by ewakuowana bezpośrednio po awarii ludność mogła powrócić
do miejsc zamieszkania.
W czasie posiedzenia Komitetu Szybkiego Reagowania w wypadku Awarii Jądrowych, które miało
miejsce 16 grudnia 2011 pod przewodnictwem Premiera Yohihiko Nody oświadczono, że sytuacja w
elektrowni jądrowej Fukushima Daiichi została opanowana, ponieważ osiągnięto stan zimnego wyłączenia.
Określenie zimne wyłączenie w czasie normalnej pracy reaktora odpowiada stanowi w którym temperatura
wody chłodzącej w reaktorze jest poniżej 100 0C i chłodzenie może być kontynuowane. Stan taki pozwala
zdjąć pokrywę reaktora tzn. otworzyć reaktor w warunkach normalnego ciśnienia atmosferycznego.
Zakładając, że rdzenie w niektórych reaktorach uległy stopieniu, warunkiem uznawania, że osiągnięto stan zimnego wyłączenia, jest by temperatura w dolnej części obudowy ciśnieniowej i wewnątrz
zbiornika ciśnieniowego była poniżej 100 0C. Wytwarzanie pary w zbiorniku może być wówczas kontrolowane przez wtryskiwanie wody, uwalnianie materiałów radioaktywnych jest małe (obecnie w granicach
elektrowni dawka roczna nie przekracza 0,1 mSv), co sprawia, że zapewnione są podstawowe warunki
bezpieczeństwa.
Pierwszy etap przedstawionej przez TEPCO (Tokyo Electric Power Company) w kwietniu „mapy
drogowej” usuwania skutków awarii już osiągnięto. Należy podkreślić że przewidywano zakończenie tego
etapu dopiero na początku 2012.
Ponadto potwierdzono, że rozpoczęte (10 sierpnia 2011) prace nad zabezpieczeniem zniszczonych
budynków reaktorów będą kontynuowane. TEPCO postanowiło przykryć, a właściwie obudować budynki
reaktorów szczelnym, ogniotrwałym, plastikowym „namiotem” rozpiętym na stalowej konstrukcji wyposażonym w systemy wentylacyjne. Celem ustawienia tych konstrukcji (odpornych na warunki atmosferyczne,
Kwartalnik popularnonaukowy Luty— Marzec 2012 Elektrownie Jądrowe
87
w tym na opady śniegu i silne wiatry) jest kontrola i zatrzymywanie uwalnianych substancji promieniotwórczych. Konstrukcja namiotów jest monitorowana przez systemy czujników ciśnienia, wilgotności,
temperatury pozwalających sprawdzać szczelność, kamery, detektory promieniowania itd.
Potwierdzono, że trwają prace przygotowawcze do usunięcia wypalonego paliwa z basenów.
Nowatorskim przedsięwzięciem jest sprawdzenie przed otwarciem pokrywy reaktora jego stanu
przy pomocy metody endoskopowej. Spodziewając się nadtopienia rdzenia, co mgło uszkodzić różne
elementy wewnątrz obudowy ciśnieniowej, postanowiono wprowadzić kamerę do wnętrza reaktora Nr
2 . Średnica kamery odpornej na promieniowanie i temperaturę ( wraz oświetleniem) i 10 metrowego
kabla wynosi 8 mm. Prace mają się rozpocząć w styczniu 2012. Są to przygotowania do usunięcia stopionego rdzenia i demontażu reaktorów. Przewiduje się, że do pełnego demontażu najbardziej niebezpiecznych elementów będą używane specjalnie do tego celu zaprojektowane roboty.
W związku z postępującą normalizacją na terenie elektrowni Fukushima Daiichi Rząd Japonii
postanowił zmienić zasady dotyczące stref ewakuacji, a ściślej możliwości powrotu ludności na wybrane obszary . Ostateczne decyzje zostaną podjęte na początku 2012 roku.
Przewiduje się wprowadzenie trzech stref w zależności od poziomu promieniowania. W obszarach w których moc dawki promieniowania jest mniejsza niż 20 mSv/rok rząd podejmie starania o jak
najszybszy powrót mieszkańców do swoich domów. W obszarach, gdzie moc dawki może przekroczyć
20 mSv/rok, zalecane jest powstrzymanie się od powrotu. W obszarach, gdzie moc dawki przekracza 50
mSv/rok, powrót jest zabroniony. Określenie stref powinno nastąpić do końca marca 2012 i będzie prowadzone w porozumieniu z władzami lokalnymi. Całkowitym zakazem powrotu objęty jest obszar w
odległości 3 km od elektrowni. Oczywiście decyzje te nie spotykają się z pełną aprobatą mieszkańców
ewakuowanych terenów, żądających jak najszybszego umożliwienia im powrotu do normalnego życia, a
w przypadku zakazu powrotu umożliwienie nowego startu w innej lokalizacji.
Chcąc pospieszyć proces rekultywacji zniszczonych terenów przygotowano rozległy program
usuwania skutków trzęsienia ziemi w dużej mierze oparty na bogatych wcześniejszych doświadczeniach, ale uzupełniony o konieczność dekontaminacji terenu, zabudowań i lasów. Zakończeniem tego
procesu będzie, wg założeń programu rządowego, powrót mieszkańców do swoich domów. Przewiduje
się, że proces usuwania zniszczeń w elektrowni może potrwać od 30 do 40 lat. Proces odnowy środowiska może być krótszy, ponieważ jest wspomagany przez zjawiska naturalne, np. opady powodujące wymywanie skażonej gleby do rzek, krótki czas połowicznego rozpadu niektórych pierwiastków, zmniejszenie ich koncentracji na skutek różnych działań, jak np. odbudowa dróg wymagająca wielu prac ziemnych.
Od 1 stycznia 2012 weszła w Japonii w życie regulacja dotycząca dekontaminacji obszarów skażonych w wyniku awarii elektrowni Fukushima Daiichi. Niektóre koncerny oferują opracowanie specjalnych przeznaczonych do tego celu urządzeń, których konstrukcja została wstępnie przetestowana na
terenie elektrowni. Urządzenie do dekontaminacji i oczyszczania może dziennie usuwać 97% substancji
radioaktywnych z 1,7 ton skażonej gleby i mułu. Inne oferowane i sprawdzone urządzenie może usuwać
nisko aktywne substancje z wody w zbiornikach i kanalizacji. Zainteresowanie tymi urządzeniami wykazały przede wszystkim ośrodki przemysłowe i niektóre władze regionalne. Toshiba opracowuje bardziej ekonomiczne i nowsze rozwiązanie o zwiększonej wydajności.
Rząd Japonii proponuje utworzyć w pobliżu miejscowości Futaba na północny zachód od elektrowni Fukushima, ( jednym z najbardziej skażonych terenów) czasowe składowisko odpadów dekonta Kwartalnik popularnonaukowy Luty—Marzec 2012 88
Elektrownie Jądrowe
Kwartalnik popularnonaukowy Luty— Marzec 2012 Elektrownie Jądrowe
Kwartalnik popularnonaukowy Luty—Marzec 2012 89
90
Elektrownie Jądrowe
minacji z innych terenów. Rozpoczęto negocjacje z władzami lokalnymi i dyskusję społeczną. Proponowany jest państwowy wykup terenu.
W Prefekturze Fukushima 80 % powierzchni wymaga dekontaminacji.
Rząd będzie pokrywał część kosztów dekontaminacji w obszarach, w
których moc dawki przewyższa 0,23
μSv/h, oraz poniesie koszty oczyszczania z mułu którego aktywność
osiąga 8000Bq/kg. Postanowiono
również wytypować priorytetowe
miejsca dekontaminacji.
( Grudzień 2011)Sprawdzanie dachu fabryki w Naraha, prefektura Fukushima , przed rozpoczęciem pełnej dekontaminacji. (Copyright The Asahi Shimbun Company Jun Kaneko) Dekontaminację (eksperymentalną)
wybranych obiektów rozpoczęto 18
listopada 2011. Wstępnie oczyszczono 4 budynki władz regionalnych Do dekontaminacji powołano 900 wyspecjalizowanych zespołów. Do
oczyszczenia przewidziano 110 000 budynków i oczekuje się na zgodę właścicieli na jej przeprowadzenie.
Mobilne zespoły dekontaminacyjne są wyposażone w przewoźne urządzenia dozymetryczne pozwalające
sprawdzać, czy pracownicy zespołów nie zostali skażeni (tzw liczniki skażeń całego ciała), oraz urządzenia
do dekontaminacji odzieży ochronnej.
W całej skażonej okolicy, od chwili awarii, (w promieniu 30 km od centrum źródła skażeń tzn. od
elektrowni Fukushima Daiichi), prowadzone są systematyczne pomiary poziomu promieniowania powietrza, gleby, oraz wód. Obserwowana jest wyraźna tendencja spadkowa. Tym niemniej w wątpliwych rejonach szkoły pozostają zamknięte i wszędzie zostały dostarczone dozymetry.
Władze lokalne rozpoczęły i prowadzą badania tarczycy 360 000 młodzieży do lat 18 zamieszkałej w
prefekturze Fukushima. Przebadane osoby pozostaną pod obserwacją do końca życia. Od chwili awarii przebadano około 2 000 000 ludzi w miastach i wioskach nawet w promieniu do 50 km od elektrowni Fukushima
Daiichi. Nie stwierdzono poważniejszych przypadków napromieniowania (97 % badanej populacji była narażona na dawkę poniżej 5 mSv). Podjęto obserwację i badania 25 000 dzieci urodzonych w tym rejonie w
tym czasie, które pozostaną pod obserwacją do osiągnięcia dojrzałości. Publikowane są regularnie mapy pokazujące rozprzestrzenienie się różnych izotopów pierwiastków Cs, J, Pu, Sr, Cu, Te, które były wykryte w
glebie wokół Fukushimy. Obecnie zabrania się upraw ryżu w tych rejonach. Prowadzone są stałe badania
żywności, monitorowane są hodowle bydła, zbiorniki wody pitnej, lasy oraz wody przybrzeżne.
Rząd Japonii postanowił w ciągu kilku lat (do 2015) rozmieścić na dnie oceanu w najbardziej prawdopodobnych miejscach występowania trzęsień ziemi, podwodne czujniki sejsmiczne, oparte o hydrociśnieniowe detektory, tzw. czujniki tsunami. Docelowo planowane jest okrążenie całej Japonii podobnymi czujnikami umieszczanymi nawet 400 km od jej brzegu. Najwięcej tych czujników znajdzie się w okolicy prefektur Miyagi i Fukushima.
Należy podkreślić, że ogrom prac organizacyjnych, naukowych (rozwiązanie problemu oczyszczania
wody w elektrowni), technologicznych, legislacyjnych, oraz kontrolnych, który został wykonano od czasu
awarii jest imponujący. Obecnie przed Rządem Japonii stoi nowe, niezwykle trudne wyzwanie powtórnego
przekonania społeczeństwa do energetyki jądrowej. Dyskutowana jest ustawa ograniczająca wydawanie licencji na eksploatację elektrowni jądrowej do 40 lat z ograniczoną możliwością przedłużenia. Rozpoczęto
również kontrolę wszystkich japońskich elektrowni jądrowych. Kontrole mają być ukończone do końca marKwartalnik popularnonaukowy Luty— Marzec 2012 Elektrownie Jądrowe
91
ca 2012. W chwili obecnej z uwagi na ograniczona liczbę pracujących reaktorów w niektórych rejonach odczuwane są braki energii.
Prowadzone są też dyskusje i wstępne prace nad uniezależnieniem się od energetyki jądrowej
03.02.2012 Zmniejszanie dawki promieniowania poprzez zbieranie kurzu i małych odłamków na parkingu przed głównym gmachem elektrowni jądrowej Daiichi. Kompletny system oczyszczania (Źródło: materiały prasowe TEPCO) Obniżenie radiacji PRZED PO oczyszczeniu z kurzu Źródła artykułu: Japan Atomic Industrial Forum Jaff.org.jp.english Factsanddetails.com.php TEPCO Bulle ns Kwartalnik popularnonaukowy Luty—Marzec 2012