fizyka viii - Instytut Fizyki AJD, Częstochowa

Komentarze

Transkrypt

fizyka viii - Instytut Fizyki AJD, Częstochowa
Prace Naukowe
Akademii im. Jana Długosza w Częstochowie
FIZYKA VIII
Redakcja
Bogdan Wszołek, Katarzyna Filipecka, Magdalena Biernacka
Wersja elektroniczna wydania jest dostępna na stronie
www.if.ajd.czest.pl
Częstochowa 2013
Komitet Naukowy
Ivan L. Andronov (Narodowy Uniwersytet Morski w Odessie)
Marek Biesiada (Uniwersytet Śląski w Katowicach)
Jacek Filipecki (Akademia im. Jana Długosza w Częstochowie)
Stefan Giller (Akademia im. Jana Długosza w Częstochowie)
Jacek Kasperczyk (Akademia im. Jana Długosza w Częstochowie)
Abdel Hadi Kassiba (Uniwersytet du Maine w Le Mans)
Andrzej Kołodziejczyk (Akademia Górniczo-Hutnicza w Krakowie)
Piotr Korzekwa (Akademia im. Jana Długosza w Częstochowie)
Małgorzata Makowska-Janusik (Akademia im. Jana Długosza w Częstochowie)
Arkadiusz Mandowski (Akademia im. Jana Długosza w Częstochowie)
Redakcja
Bogdan Wszołek, Katarzyna Filipecka, Magdalena Biernacka
Korekta
Bogdan Wszołek, Katarzyna Filipecka, Magdalena Biernacka
Łamanie
Katarzyna Filipecka, Magdalena Biernacka
Projekt okładki
Katarzyna Filipecka, Grzegorz Pleszyniak
Strona 4 okładki
Tranzyt Wenus z dnia 6 czerwca 2012 zarejestrowany w Instytucie Fizyki
Akademii im. Jana Długosza w Częstochowie (fot. A.Leśniczek i B.Wszołek)
© Copyright by Akademia im. Jana Długosza w Częstochowie
ISBN 978-83-7455-302-5
ISSN 2082-0488
Wydawnictwo Akademii im. Jana Długosza w Częstochowie,
42-200 Częstochowa, ul. Waszyngtona 4/8,
tel. (034) 378 43 28, fax (034) 378 43 19,
e-mail: [email protected]
www.ajd.czest.pl
Spis treści
CZĘŚĆ I (artykuły przeglądowe) .............................................................................. 5
Andrzej Kołodziejczyk
Sto lat nadprzewodnictwa .......................................................................................... 7
CZĘŚĆ II (komunikaty naukowe) ........................................................................... 43
Tomasz A. J. Banyś, Tomasz Kisiel
Znaczenie obserwacji prowadzonych przy użyciu bardzo małych i małych
teleskopów ................................................................................................................ 45
Kordian Chamerski, Jacek Filipecki
Akceleratory jako narzędzia badań chorób nowotworowych .................................. 51
Michał Drahus
Microwave spectroscopy as a tool for studying the nuclei of active comets ........... 79
Katarzyna Filipecka
Powierzchniowo wzmocniona spektroskopia Ramana biomolekuł
usytułowanych na polimerowych podłożach ........................................................... 89
Katarzyna Filipecka, Katarzyna Pawlik, Piotr Pawlik, Jerzy J. Wysłocki,
Piotr Gębara, Anna Przybył, Małgorzata Szwaja, Izabela Wnuk
Wpływ temperatury wygrzewania na skład fazowy i właściwości magnetyczne
taśm stopu Fe64,32Nd9,6B22,08W4 ................................................................................ 97
А. V. Коnoplev
Оптимизация конструкции сварной конструкции автомобильного
полуприцепа с помощью экспериментально-расчѐтного метода ................... 103
Piotr Korzekwa, Witold Korzekwa, Justyna Zych, Żaneta Braska, Jarosław
Miszczuk
Czy wibroakustyka może być metodą uzupełniającą leczenie chorych
z przewlekłą niewydolnością żylną? ...................................................................... 113
Katarzyna Kotynia, Agnieszka Kocela, Katarzyna Filipecka, Jacek Filipecki,
Piotr Korzekwa, Edmund Golis
Badanie stopnia zdefektowania struktury hydrożelowych i silikonowohydrożelowych polimerowych soczewek kontaktowych metodą spektroskopii
czasów życia pozytonów PALS ............................................................................. 121
Larisa S. Kudashkina
Mathematical modeling of photometric variability of semiregular pulsating
stars at the asymptotic giant branch and classification .......................................... 131
Anna Majtyka
Preparation and characterization of Liposomes (Small Unilamellar Vesicles,
SUV, made of pure phospholipid molecules and real biological membranes) ...... 143
Piotr Plaszczyk
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera
i niejednorodna Lemaitre’a-Tolmana-Bondiego .................................................... 155
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych
podczas oceny diagnostycznej zwieracza zewnętrznego odbytu .......................... 171
CZĘŚĆ III (artykuły dydaktyczne i popularno naukowe).................................. 197
Magdalena Biernacka, Hubert Dróżdż, Ewa Mandowska
Komputer i Internet w procesie zdobywania wiedzy przez studentów I roku
Wydziału Matematyczno-Przyrodniczego Akademii Jana Długosza
w Częstochowie ...................................................................................................... 199
Kinga Raczyńska
Tzolkin święty kalendarz Majów ........................................................................ 207
Bogdan Wszołek
W przyjaźni z Wenus ku lepszej przyszłości ......................................................... 213
Część I
(artykuły przeglądowe)
Sto lat nadprzewodnictwa
Andrzej Kołodziejczyk
Katedra Fizyki Ciała Stałego, Wydział Fizyki i Informatyki Stosowanej,
Akademia Górniczo-Hutnicza, Al. Mickiewicza 30, 30-096 Kraków
[email protected]
Streszczenie
Z okazji stulecia odkrycia, przedstawiono historię odkryć nadprzewodników
i rozwoju modeli teoretycznych nadprzewodnictwa w ujęciu chronologicznym. Najpierw omówiono znaczny rozwój fizyki i techniki otrzymywania niskich temperatur
na początku XX wieku, który umożliwił odkrycie nadprzewodnictwa rtęci przez
Kamerlingha Onnesa w 1911 roku w Uniwersytecie w Lejdzie. Podkreślono uwarunkowania społeczno-historyczne oraz wkład Olszewskiego i Wróblewskiego w otrzymywanie niskich temperatur. Omówiono polski wkład w badania nadprzewodnictwa,
szczególnie doświadczalne, w ostatnich 40-tu latach, kiedy ten wkład został bardziej
zaznaczony. Przedstawiono odkrycia nowych nadprzewodników, nazywanych niekonwencjonalnymi albo egzotycznymi, które stanowią nowe wyzwania dla teorii
nadprzewodnictwa. Opisano niektóre z ważnych zastosowań nadprzewodników.
Nadprzewodnictwo, jako gałąź fizyki ciała stałego, rozwija się bardzo dynamicznie. Obecnie, szczególnie po odkryciu nadprzewodników wysokotemperaturowych
w 1986 roku oraz późniejszym odkryciom, nadprzewodniki dorównują ważnością
zainteresowań i zastosowań metalom, półprzewodnikom i magnetykom. Na uczelniach wykłady z nadprzewodnictwa odbywają się na równi z wykładami na temat
pozostałych materiałów z zakresu materii skondensowanej.
Praca została opracowana na podstawie referatu wygłoszonego przez autora na
seminarium wydziału w dniu 8 kwietnia 2011, dokładnie w 100-u lecie odkrycia, który można znaleźć na stronie:
http://www.ftj.agh.edu.pl/doc/pl/seminarium/kolodziejczyk2011.pdf
Skroplenie helu, odkrycie i zdefiniowanie nadprzewodnictwa i nadciekłości
Nadprzewodnictwo, jak wiele odkryć stanowiących milowe kroki w rozwoju nauki i poznaniu świata, zostało odkryte przypadkowo. Nie oznacza to, że bez wysiłku
włożonego w badanie i zrozumienie zjawisk przyrody. Przed Newtonem wielu obserwowało spadające z drzew jabłka, a nie odkryło siły grawitacji. Ziarno musi paść
na podatny grunt wiedzy, aby wydać owoc. Odkrycie nadprzewodnictwa 8 kwietnia
7
Andrzej Kołodziejczyk
1911 roku w laboratorium Heike Kamerlingha Onnesa w Lejdzie w Holandii [1] poprzedziła żmudna i dobrze udokumentowana praca nad skropleniem helu i innych
gazów w celu uzyskania jak najniższych temperatur i zmierzenia zachowania się oporu czystych metali tj. Pt, Au, Hg, Pb i Cd przy najniższych temperaturach [2-5]. Ten
problem stanowił jedno z podstawowych wyzwań naukowych na początku XX wieku, kiedy to już znano prawo Ohma, ale jeszcze nie wiedziano czy na pewno elektrony są nośnikami prądu. Dzięki zbudowaniu bardzo nowoczesnego na owe czasy laboratorium otrzymywania niskich temperatur Kamerlingh Onnes wraz z zespołem odkrył zjawisko nadprzewodnictwa poprzez stwierdzenie braku oporności rtęci w ciekłym helu poniżej 4.2 K. Rtęć „zestala się‖ w temperaturze 234 K (–39oC). W doświadczeniach w laboratorium w Lejdzie najpierw stwierdzono, że opór Hg jest równy zero w 3 K. W zeszycie pomiarowym z 8 kwietnia 1911 roku Kamerlingh Onnes
zapisał „kwik nagenoeg nul‖ co z języka holenderskiego oznacza „oporność rtęci
bliska zeru‖ (Rys. 1).
Rys. 1. Słynny rysunek przejścia rtęci do stanu nadprzewodnictwa z pracy [1] H. Kamerlingh
Onnesa z Commun. Phys. Lab. Univ. Leiden. Suppl. 29 (Nov. 1911), który najczęściej jest cytowany w podręcznikach fizyki ciała stałego. Zeszyt pomiarowy Heike Kamerlingh Onnesa z dnia
8 kwietnia 1911 z zaznaczonym zapisem odkrycia nadprzewodnictwa w formie „Kwik nagenoeg
nul‖ co oznacza „Opór rtęci zero‖ (zdjęcie z Muzeum Boerhaave w Lejdzie, Holandia) [3].
Obecnie wiemy, że to ostre przejście fazowe rtęci do stanu bezoporowego występuje przy temperaturze 4.154 K, która jest prawie równa temperaturze skroplenia helu He4 pod ciśnieniem normalnym 4.21 K. Oryginalną zależność oporu rtęci od temperatury, dokumentującą tę obserwację, którą znajdujemy niemal w każdym podręczniku dotyczącym nadprzewodnictwa, przedstawiono na rysunku 1. Pochodzi ona dopiero z 26 października 1911 [1]. Zapewne w owym czasie zmierzenie zależności
oporu od temperatury R(T) „punkt po punkcie‖ zajęło kilka miesięcy. Ten pomiar
8
Sto lat nadprzewodnictwa
wykonano tylko dla sześciu punktów pomiarowych i tylko przy rosnącej temperaturze, bo tak jest łatwiej stabilizować żądaną temperaturę. Dla tak wąskiego przejścia
trudno było zmierzyć choć jeden punkt w samym przejściu, stąd linia przerywana na
rysunku 1. Warto zauważyć, że w owym czasie za sześć punktów pomiarowych i linię przerywaną otrzymywało się nagrodę Nobla. Jednakże, wymagało to bardzo dużego nakładu pracy doświadczalnej.
W tych samych doświadczeniach, zespół Kamerlingha Onnesa zaobserwował
przejście fazowe ciekłego He4 z fazy normalnej He I do fazy nadciekłej He II. Hel
nadciekły nie wykazuje lepkości, tzn. współczynnik tarcia wewnętrznego jest równy
zero, poniżej temperatury 2.2 K. W zeszycie pomiarowym Kamerlingha Onnesa zapisano [1-3], że przy tej temperaturze gwałtownie ustało parowanie z objętości helu, co
jest oznaką stanu nadciekłości. Jednakże, waga naukowa tej obserwacji nie dotarła do
świadomości badaczy. Także później w latach dwudziestych pracujący w Lejdzie
polski fizyk Mieczysław Wolfke zauważył, że w temperaturze poniżej 2.18 K gwałtownie wrzący ciekły hel nagle się uspokaja. Właśnie Wolfke nadał temu „spokojnemu‖ helowi nazwę Hel II. Ani Wolfke, ani jego następcy, przez niemal 15 lat nie
sprawdzili jego podstawowych właściwości termodynamicznych oraz mechanicznych. Dopiero w 1937 roku Piotr Kapica stwierdził, że He II ma zadziwiające właściwości mechaniczne, przepływa przez kapilary bez oporu i stąd nazwa w analogii
do nadprzewodnictwa nadciekłość. Wkrótce okazało się, że nadciekły hel wykazuje
jeszcze więcej zaskakujących właściwości takich jak: efekt fontannowy, drugi
dźwięk czy skwantowane wiry prędkości atomów He II nazwane rotonami.
Rys. 2. Nowoczesne laboratorium kriogeniczne Kamerlingha Onnesa w Lejdzie, które stanowiło
jakościowy skok w uprawianiu fizyki doświadczalnej, w porównaniu do aparatury Cailleteta do
skraplania gazów z roku 1878 [http://bern-1914.org/genf_1896/rp11_sa_cailletet.html]. Kamerlingh
Onnes (na lewo) z Johannes Diderik van der Waalsem i z technikiem Giles Holstem, który
wykonywał pomiary [3, 4].
Te odkrycia były możliwe dzięki zbudowaniu przez Kammerlingha Onnesa nowoczesnego laboratorium niskich temperatur i wygraniu wyścigu o pierwszeństwo
w skropleniu helu w 1908 roku (Rys. 2). Tym samym dołączył on do Karola
Olszewskiego i Zygmunta Wróblewskiego, którzy jako pierwsi skroplili powietrze
w 1883 roku w Uniwersytecie Jagiellońskim w Krakowie i do Jamesa Dewara, który
9
Andrzej Kołodziejczyk
skroplił wodór w 1898 roku. Położyli oni podwaliny pod nowoczesną fizykę i technikę niskich temperatur, czyli kriogenikę. Słowo kriogenika pochodzi od słów greckich
„krios‖ co oznacza „zimno‖ i „genos‖ – „pochodzenie‖, a nazwa ta została zaproponowana przez Kamerlingha Onnesa. W swoim wykładzie noblowskim pt. ―Investigations into the properties of substances at low temperatures, which have led,
amongst other things, to the preparation of liquid helium‖, (Nobel Lecture, 11 December, 1913), kilkukrotnie i ciepło powołuje się na osiągnięcia Olszewskiego
i Wróblewskiego [6].
Skroplenie powietrza przez Olszewskiego i Wróblewskiego w Krakowie w 1883
roku było pierwszym krokiem na drodze ku badaniu nowych ciekawych zjawisk
w niskich temperaturach i początkiem nowoczesnej kriogeniki [7]. Rywalizacja
w skropleniu wodoru zakończyła się sukcesem Jamesa Dewara w 1898 roku, oczywiście skroplonego do słynnego naczynia Dewara. Do porażki Kamerlinga Onnesa
przyczynił się fakt, iż władze miasta Lejda zabroniły Kamerlinghowi Onnesowi na
jakiś czas używania „niebezpiecznego‖ laboratorium kriogenicznego. W pokonywaniu oporu rajców Kamerlingha Onnesa wspomagali solidarnie Olszewski i Dewar.
W owych czasach, obawiano się eksperymentów naukowców. W Krakowie profesor
August Witkowski musiał walczyć z radnymi miasta o zezwolenie na lokalizację
„niebezpiecznego‖ Instytutu Fizyki Uniwersytetu Jagiellońskiego przy Plantach,
(obecnie Collegium Witkowskiego). Autor artykułu, zaczynał tam studia z fizyki,
a skończył w nowym Instytucie Fizyki przy ul. Reymonta, wybudowanym w 1964
roku na jubileusz 600-lecia UJ. Kamerlingh Onnes zastosował w 1908 roku do skroplenia helu metodę kaskadową. Do skroplenia helu tą metodą z wykorzystaniem
efektu Joule'a-Thomsona potrzebne były duże ilości gazów, które mają wyższą niż
hel temperaturę skraplania. Wymagało to dużych zabiegów organizacyjnych. Dlatego
do swojego przedsięwzięcia Kamerling Onnes szkolił techników w zawodowej szkole producentów instrumentów naukowych, usytuowanej przy laboratorium kriogenicznym. Dzięki temu Holandia miała długą tradycję w manufakturze przyrządów
naukowych. W zespole Kamerlingha Onnesa pracowali naukowcy, studenci, asystenci, technicy, laboranci i inżynierowie. Przez kolejne 15 lat laboratorium w Lejdzie
miało monopol na produkcję ciekłego helu. Do laboratorium pielgrzymowali fizycy
z całego świata, także polski fizyk Mieczysław Wolfke.
Kamerlingh Onnes był kolekcjonerem wszelakiego rodzaju wyróżnień, doktoratów honorowych, członkowstw akademii, odznaczeń i medali. Encyklopedie podają,
że był m.in. odznaczony medalem Polonia Restituta [7]. Musiało to odznaczenie być
przyznane niedługo po odnowieniu medalu przez II Rzeczpospolitą w 1921 roku.
Oryginalne rysunki metody kaskadowej wykonane przez technika Gerrita Jana
Flima przedstawiono na rysunku 3 [3, 6]. Kolejnymi stopniami kaskady był ciekły
CH3Cl (temperatura wrzenia 200 K), C2H4 (125 K), ciekły tlen (90.2 K) i azot
(77.5 K). Ostatnim stopniem kaskady był skroplony wodór o temperaturze 20.1 K,
który Kamerlingh Onnes otrzymał wykorzystując efekt termodynamiczny zwany
zjawiskiem Joule’a-Thompsona. Wodór rozprężający się przez zawór Joule’aThompsona oziębiał się. Dzięki temu przepływający hel oziębiał się do temperatury
4.2 K, skraplał się i możliwe było zaobserwowanie nadprzewodnictwa rtęci. Pomiary
10
Sto lat nadprzewodnictwa
oporu rtęci wybrano dlatego, że można ją było bardzo dobrze oczyścić, a pierwotnym
celem pomiarów było uniknięcie oporu na wszelkich domieszkach.
Mistrzostwem światowym, nawet do tej pory, był wielokrotny szklany kriostat
użyty w tych doświadczeniach (Rys. 3). Wykorzystano w nim kolejno coraz węższe
kriostaty skroplonych: alkoholu, powietrza, ciekłego wodoru i ciekłego helu. Na rysunku 3a jest pokazany schemat skraplarki helowej wykorzystanej w tych pomiarach,
którą Kamerlingh Onnes przedstawił w swoim wykładzie noblowskim [6]. Rtęć miała
służyć jako termometr, oznaczony na rysunku 3b symbolem Ω Hg. Konstrukcja tego
termometru była też mistrzostwem techniki. Było to siedem szklanych kapilar
w kształcie litery U wypełnionych rtęcią i połączonych szeregowo [6]. W tym kriostacie Kamerlingh Onnes wraz ze współpracownikami zoobserwował zjawisko nadprzewodnictwa rtęci i równocześnie zjawisko nadciekłości helu. Teraz lepiej rozumiemy słynne motto Kamerlingh Onnesa: „Door meten tot weten”, co znaczy „Wiedza pochodzi z doświadczenia”.
Rys. 3. Schemat skraplarki helowej wraz ze stopniami kaskadowej metody skraplania, wykonany
przez współpracownika Kammerlingh Onnesa technika Gerrita Flima [6] (z lewej), rysunek kriostatu helowego z pracy [3]: alkohol (fiolet), ciekłe powietrze (niebieski), ciekły i gazowy wodór
(ciemno- i jasnozielony) i ciekły i gazowy hel (ciemno- i jasnoczerwony), Ω Hg i Ω Au oznaczają
termometry rtęciowy i złoty a Th3 oznacza termometr gazowy. Termometr Ω Hg to siedem szklanych kapilar w kształcie litery U wypełnionych rtęcią i połączonych szeregowo (z prawej).
O tym odkryciu H. Kamerlingh Onnes donosił w pracy [1] opublikowanej
w Commun. Phys. Lab. Univ. Leiden. Suppl. 29 (Nov. 1911). Kilka dni po otrzymaniu
słynnego wyniku miał on okazję przedstawić go elicie fizyków ówczesnego czasu.
Było to na pierwszej konferencji naukowej z fizyki, Kongresie Solvaya w Brukseli
w dniu 29 października, poświęconym teorii promieniowania i kwantom. Pokazuje to
zdjęcie przedstawione na rysunku 4. Można sobie wyobrazić jak trudno było mu zainteresować uczestników tematyką nadprzewodnictwa, które w owym czasie wyda11
Andrzej Kołodziejczyk
wało się nie mieć nic wspólnego z tematyką konferencji. Ciekawe, że wtedy nadprzewodnik przetłumaczył na supraconductor, a nie jak dzisiaj superconductor. Niemniej ciekawy był fakt organizacji konferencji przez chemika i filantropa Ernesta
Solvaya, który obecnie byłby nazywany „sponsorem z przemysłu‖, gdyż był twórcą
metody wytwarzania węglanu sodu i właścicielem fabryki go produkującej.
Rok później zespół z Lejdy odkrył nadprzewodnictwo ołowiu i cyny odpowiednio
poniżej temperatury 6 K i 4 K [8]: Commun. Phys. Lab. Univ. Leiden 133d (May
1913).
Ciekawe, że Kamerlingh Onnes otrzymał Nagrodę Nobla z fizyki dopiero w 1913
roku i to właściwie za skroplenie helu, a nie za odkrycie nadprzewodnictwa. Laudatio
Komitetu Noblowskiego brzmiało: „for his investigations on the properties of matter
at low temperatures which led, inter alia, to the production of liquid helium” [6].
Rys. 4. Uczestnicy pierwszej konferencji naukowej z fizyki Kongresu Solvaya w 1911 w Hotelu
Metropol w Brukseli. Siedzą od lewej do prawej (L-P): W. Nernst, M. Brillouin, E. Solvay,
H. Lorentz, E. Warburg, J. Perrin, W. Wien, M. Skłodowska-Curie i H. Poincaré. Stoją (L-P):
R. Goldschmidt, M. Planck, H. Rubens, A. Sommerfeld, F. Lindemann, M. de Broglie,
M. Knudsen, F. Hasenöhrl, G. Hostelet, E. Herzen, J.H. Jeans, E. Rutherford,
H. Kamerlingh Onnes, A. Einstein i P. Langevin.
W 1932, sześć lat po śmierci Kamerlingh Onnesa, jego współpracownik Garet
Flim przyjechał do Londonu z walizkowym dewarem zawierającym pierścień
z ołowiu zanurzony w ciekłym helu, w którym płynął trwały prąd o natężeniu 200 A.
Celem, było pokazanie trwałych prądów płynących w nadprzewodniku na zebraniu
Królewskiego Towarzystwa Fizycznego.
Przez kolejnych dwadzieścia lat, znakiem rozpoznawczym nadprzewodnictwa
nowych materiałów był zanik oporności do niemierzalnie niskich wartości poniżej
12
Sto lat nadprzewodnictwa
temperatury krytycznej Tc (c małe od ang. critical
– tutaj C duże).
nie mylić z temperaturą Curie TC
Zrozumienie i teorie nadprzewodnictwa
Wielu znakomitych fizyków epoki usiłowało zrozumieć zjawisko zerowania się
oporu elektrycznego. Wszystkie próby były bezowocne aż do czasu, gdy Walther
Meissner i Robert Ochsenfeld dokonali odkrycia zjawiska usuwania pola magnetycznego z wnętrza nadprzewodnika [9]. Przedstawiono to na rysunku 5. Wykazali oni, że
jeśli nadprzewodnik oziębiony poniżej temperatury Tc wypycha ze swego wnętrza
pole magnetyczne to indukcja pola magnetycznego we wnętrzu nadprzewodnika jest
zero (Bw = 0). Skutkuje to pojawieniem się ujemnego namagnesowania, a zatem
i ujemnej podatności magnetycznej, we wnętrzu nadprzewodnika. Zatem nadprzewodnik jest diamagnetykiem setki razy mocniejszym od miedzi! Zjawisko to zostało
nazwane stanem Meissnera-Ochsenfelda lub stanem idealnego diamagnetyzmu.
Krótko po tym powstała pierwsza próba opisu zjawiska nadprzewodnictwa nazwana
od nazwisk jej twórców teorią Londonów.
stan Meissnera,
R = 0, B = 0
Fritz Meissner
Robert Ochsenfeld
Definicja: R=0 i Bw=0 czyli
=M/Bz= 1/4 bo Bw = Bz+4 M
ujemne
Rys. 5. Fragment pracy Meissnera i Ochsenfelda z 1933 roku [9], która pokazała, że nadprzewodnik
wykazuje ujemną podatność (strzałka) i ujemne namagnesowanie. Jest zatem „idealnym diamagnetykiem‖, zdefiniowanym przez dwie cechy: R = 0 i Bw = 0 wypychanie indukcji pola magnetycznego z wnętrza nadprzewodnika poniżej Tc, tzw. stan Meissnera-Ochsenfelda (wstawka).
Genialne odkrycie braci Fritza i Heinza Londonów (Rys. 6) z 1934 roku [10] polegało na zastosowaniu klasycznej teorii gazu elektronowego i prawa Ohma dla
przewodnictwa metali oraz równań elektrodynamiki Maxwella, przy założeniu, że
średni czas rozproszenia elektronów na drganiach sieci (fononach) jest nieskończenie
długi bo R = 0. Przy tym założeniu wyliczyli oni zależność indukcji pola magnetycznego wewnątrz nadprzewodnika Bw(x) (wstawka na Rys. 6). Zależność ta pokazuje,
że indukcja B(x) szybko eksponencjalnie zanika w funkcji odległości x od powierzchni do wnętrza nadprzewodnika. Odległość, na której indukcja zmaleje e-razy
13
Andrzej Kołodziejczyk
nazwano głębokością wnikania L. Opisuje to w całości wyniki doświadczenia
Meissnera-Ochsenfelda, gdyż poza bardzo cienką warstwą naskórkową o grubości
L indukcja pola Bw wewnątrz nadprzewodnika znika. Podobną zależność bracia
Londonowie wyprowadzili dla zaniku powierzchniowej gęstości prądu J(x) ekranującego wnętrze nadprzewodnika. Rysunek 6 przedstawia fotografię braci Londonów
i podstawowe zależności ich teorii.
Fritz London był, w zgodnej opinii wielu badaczy, tym, który jako pierwszy uważał zjawisko nadprzewodnictwa za przejaw kwantowej koherencji układu makroskopowego. Jako pierwszy nazwał je makroskopowym zjawiskiem kwantowym. Opis
osiągnięć braci Londonów można znaleźć w artykule napisanym z okazji stulecia
nadprzewodnictwa zatytułowanym „Zapomniani bracia‖ i opublikowanym w Physics
World [11].

B

B(0) e
x
L
L

J
mc 2
4 ns e 2

J (0)e
1
x
L
2
m – oznacza masę, e – ładunek elektronu, a ns – gęstość elektronów nadprzewodzących czyli tzw. par Coopera (patrz dalszy tekst
o teorii BCS).
Rys. 6. Bracia Londonowie i wyprowadzone zależności indukcji pola B i gęstości prądu ekranującego wnętrze J od odległości od powierzchni x oraz głębokość wnikania L z ich teoretycznego opisu zjawiska Meissnera [10].
Chyba wszyscy najwięksi fizycy XX wieku zajmowali się objaśnieniem zjawiska
nadprzewodnictwa. Pierwszy wielki sukces to niewątpliwie wspomniana teoria
Londonów. Kolejny, to termodynamiczna teoria Witalija Ginzburga i Lew Landaua,
sformułowana w 1950 roku na podstawie słynnej teorii Landaua ciągłych przemian
fazowych z lat trzydziestych, zastosowanej do opisu nadprzewodnictwa [12]. Teoria
ta, podobnie jak teoria Londonów, jest teorią fenomenologiczną. Kondensat nadprzewodzący jest tu opisywany za pomocą zespolonego, zależnego od punktu
w przestrzeni i pędu parametru porządku (r) (patrz Rys. 7). Teoria ta w latach
1955-1958 została rozwinięta przez Aleksija Abrikosova i Lew Gor’kova [13, 14]
i dlatego nazywa się teorią GLAG (Rys. 7). Wyprowadzili oni dwie podstawowe mikroskopowe wielkości charakteryzujące stan nadprzewodzący pokazane pod rysunkiem 7. Są to: głębokość wnikania pola magnetycznego GL i zasięg koherencji GL
oraz ich zależności od zredukowanej temperatury t = Tc/T i od takich parametrów
elektronowych jak:
współczynnik ciepła elektronowego, n koncentracja elektronów nadprzewodzących i względna powierzchnia Fermiego S.
14
Sto lat nadprzewodnictwa
(r )
GL
9.37 10
7 1/2
(nS)
1
(1
t)
(r ) e
1/2
GL
i ( p.r ) 
5.87 10 17 (nS )(T ) 1(1 t ) 1 / 2
s
Rys. 7. Twórcy teorii GLAG: Ginzburg, Landau, Abrikosov i Gor’kov i ich funkcja opisująca
parametr porządku oraz zależności głębokości wnikania GL i zasięgu koherencji GL od parametrów elektronowych (patrz tekst).
Chociaż wkład Rosjan do zrozumienia nadprzewodnictwa jest bardzo znaczący to
przełom związany z mikroskopową teorią nadprzewodnictwa nastąpił w połowie lat
pięćdziesiątych w Stanach Zjednoczonych w University of Illinois Chicago. W 1956
roku Leon Cooper pokazał, że jeśli pomiędzy dwoma elektronami w metalu o energiach wyższych od energii Fermiego EF występuje nawet bardzo słabe oddziaływanie
przyciągające, to tworzą one stan związany. Taką parę elektronów nazwano parą
Coopera dla uhonorowania pomysłodawcy (Rys. 8). Opisuje się ją przy pomocy odpowiedniej kwantowo-mechanicznej funkcji falowej ψ(r). Zasięg koherencji tej
funkcji jest porównywalny z odległością elektronów w parze. Całkowita energia pary
elektronów jest niższa niż dwukrotna energia Fermiego 2EF, jaką mogą one posiadać
w metalu w stanie normalnym. Niestabilność powierzchni Fermiego względem oddziaływań przyciągających pomiędzy elektronami, scharakteryzowanymi przez energetyczną przerwę nadprzewodzącą Δ, jest przyczyną powstawania pary prowadzącą
do stanu nadprzewodzącego. Teoria została opublikowana w 1957 roku przez Jhona
Bardeena, Leona Coopera i Richarda Schrieffera [15] i jest znana jako teoria BCS
(Rys. 8). Przerwa nadprzewodząca Δ jest parametrem porządku (uporządkowania)
nadprzewodnika. Łatwo ją zmierzyć przy pomocy pomiaru charakterystyki prądowonapięciowej I(V) tunelowania elektronów z „rozerwanej‖ napięciem pary przez barierę izolatora w odpowiednio przygotowanym złączu nadprzewodnik/izolator/metal
(N-I-M).
Z okazji stulecia odkrycia zjawiska warto wspomnieć o próbach zrozumienia
nadprzewodnictwa przez innych wielkich fizyków tamtych czasów takich jak:
Einstein, Bohr, Bloch, Brillouin, Born czy Feynman. Nie wszyscy z nich wiele pisali
na temat nadprzewodnictwa, ale wszyscy mniej lub bardziej intensywnie starali się je
zrozumieć. Żaden z nich nie poradził sobie z tym problemem. Więcej na ten temat
można znaleźć w artykule profesora Wysokińskiego „Nadprzewodnictwo – pierwsze
100 lat” [16]. Wskazuje to na skalę trudności, jaką pokonano formułując poprawny
opis zjawiska, co zajęło bez mała półwiecze.
15
Andrzej Kołodziejczyk
Obie teorie, fenomenologiczna GLAG i kwantowo-mechaniczna BCS, są komplementarne w tym sensie, że pierwsza stosuje się w zasadzie poniżej i w pobliżu
temperatury przejścia Tc, a druga w pełnym zakresie temperatury, z kolei z wyłączeniem bardzo bliskiej okolicy Tc, gdzie mogą występować fluktuacje parametru porządku .
kTC
1.14
e
1/V N ( E F )
Rys. 8. Bardeen, Cooper i Schrieffer twórcy mikroskopowego opisu nadprzewodnictwa tzw. teorii
BCS oraz podstawowa zależność energii przerwy nadprzewodzącej i temperatury przejścia Tc od
częstości Debye’a , potencjału oddziaływania elektron-fonon V i gęstości stanów elektronowych
przy energii Fermiego N(EF).
Odkrycie zjawiska nadprzewodnictwa o tak niezwykłych właściwościach pobudziło wyobraźnię i marzenia wielu badaczy na liczne zastosowania nadprzewodników. Potrzebne do tego były materiały charakteryzujące się możliwie wysokimi temperaturami przejścia Tc, wysokimi wartościami drugiego pola krytycznego Bc2 i gęstości prądu krytycznego Jc. Pole krytyczne Bc2 to indukcja pola magnetycznego,
a Jc to gęstość prądu, niszczące stan nadprzewodzący. Poszukiwano więc wciąż nowych nadprzewodników o dużych wartościach Tc, Bc2 i Jc, a każde odkrycie przynosiło nową nadzieję. W Tabeli 1, podsumowującej wyniki pierwszego 50-lecia badań
nadprzewodnictwa przedstawiono niektóre z tych materiałów. W 1941 roku odkryto
nadprzewodnictwo azotku niobu NbN z Tc = 16 K, który dopiero ponad 20 lat później
zastosowano na złącza N-I-N, nadprzewodnik-izolator-nadprzewodnik, w elektronice
SQUID-owej (patrz dalszy tekst). W 1954 roku w grupie Bernt Matthiasa, który prawie całe naukowe życie poświęcił poszukiwaniu nadprzewodników o coraz to wyższej temperaturze przejścia Tc, znaleziono związki Nb3Sn i Nb3Al o rekordowej na
owe czasy temperaturze przejścia nadprzewodzącego około 23 K, które do dzisiaj
stosuje się na przewody do magnesów nadprzewodzących.
Pierwsze pięćdziesięciolecie nadprzewodnictwa zaczęło się piękną i bardzo trudną pracą doświadczalną ustalającą definicję nadprzewodnictwa jako stanu termodynamicznego o zerowej oporności (R = 0) i zerowej indukcji magnetycznej wewnątrz
nadprzewodnika (Bw = 0) (stan Meissnera-Ochsenfelda). Prawie 50 lat potrzeba było,
aby zrozumieć przyczyny zjawiska i opracować teorie GLAG i BCS. W tym okresie
polski wkład został zaznaczony w rozwoju techniki niskich temperatur przez
16
Sto lat nadprzewodnictwa
Olszewskiego i Wróblewskiego. Nie było znaczących osiągnięć w badaniach nadprzewodnictwa.
Podsumowaniem pierwszego 50-lecia badań nadprzewodnictwa jest Tabela 1,
przedstawiająca w skrótowy sposób główne odkrycia i fakty z tego okresu.
Pierwsze 50-lecie zakończyło się odkryciem zjawiska kwantowania strumienia
pola magnetycznego w nadprzewodniku (Rys. 9). Wkrótce okazało się, że jest ono
bardzo owocne w różnorakie zastosowania.
Tabela 1. Nadprzewodnictwo w pierwszym 50-cioleciu.
ROK
Tc(K)
MATERIAŁ
PRACA/UWAGI
1911
4.15
Hg
odkrycie nadprzewodnictwa
Heike Kamerlingh Onnes, Georg Holst, Universiteit
Leiden, Leiden Comm. 120b 122b, 124c, (1911), nagroda Nobla w 1913
1913
7.2
Pb
Heike Kamerlingh Onnes, Universiteit Leiden
Lata 20-te i 40-te bez znaczących wyników ze względu na I i II wojnę światową i lata powojenne
1932
9.25
Nb
(najwyższa temperatura dla pierwiastka)
odkrywca(y) ?
1941
16.1
NbN
E. Justi, Berlin
1954
18.1
Nb3Sn
B.T. Matthias, T.H. Geballe, S. Geller, E. Corenzwit
23.1
Nb3Al
Bell Telephone Lab., Phys. Rev. 95, (1954), 1435.
1950-1959
Powstanie i rozwój teorii Ginzburga-LandauaAbrikosova-Gorkova (GLAG), Uniwersytet
Łomonosowa w Moskwie
1957
Teoria Bardeena-Coopera-Schrieffera (BCS), Uniwersytet Illinois w Chicago, nagroda Nobla 1972
Od makroskopowego kwantowania strumienia pola magnetycznego do wysokotemperaturowego nadprzewodnictwa. Polski wkład w tym okresie.
Odkrycie zjawiska kwantowania strumienia pola magnetycznego przechodzącego
przez cylinder nadprzewodzący w 1961 roku [17] rozpoczęło badania kwantowych
właściwości stanu nadprzewodzącego. Jest to jedno z trzech zjawisk tzw. „makroskopowego kwantowania‖ oprócz kwantowego efektu Hall’a z roku 1980 [18] i tzw.
rotonów, czyli kwantów wirowości w nadciekłym He4 z roku 1956 [19]. Rysunek
9 przedstawia fragment pracy [17] dotyczącej tego odkrycia wraz z wynikiem doświadczenia pokazującego, że kwant strumienia wynosi 0 = h/2e. Wkrótce odkryto
[20], że do nadprzewodnika w stanie mieszanym pole magnetyczne wnika właśnie
w formie kwantów strumienia pola magnetycznego 0, gdy wartość pola przekroczy
17
Andrzej Kołodziejczyk
tzw. pierwsze pole krytyczne Bc1. Kwant strumienia ma bardzo małą wartość
-15
Wb, co przy rozsądnie małym przekroju, np. S = 1 mm2, skutkuje
0 = h/2e = 2*10
możliwością pomiaru indukcji pola magnetycznego z czułością na poziomie nanotesli
B = 0/S = 2*10-9 T. Ten fakt wykorzystuje się w najczulszych obecnie miernikach
pola magnetycznego tzw. magnetometrach SQUID-owych (patrz tekst poniżej).
Rys. 9. Pole B jest wypchnięte z nadprzewodzącego pierścienia; spułapkowany strumień pola magnetycznego we wnętrzu pierścienia jest skwantowany w formie = n 0.
Wkrótce po tym odkryciu w 1962 roku Brian Josephson przewidział teoretycznie
występowanie zjawiska tunelowania par Coopera przez złącze N-I-N [21] (Rys. 10).
Josephson wraz z Ivar Giaeverem, który po raz pierwszy zaobserwował to zjawisko
[22], otrzymali nagrodę Nobla w 1973 roku za „Elektronikę tunelową nadprzewodnictwa‖. Praca Gievera [22] pokazuje, że za jednostronicową publikację można
otrzymać nagrodę Nobla. Znane obecnie pod nazwą „stałoprądowe zjawisko
Josephsona” polega na przepływie prądu stałego o natężeniu I I c sin pomiędzy
dwoma nadprzewodnikami, których funkcje falowe charakteryzują się różnicą faz .
Wynik był tak nieoczekiwany, że Bardeen – twórca teorii BCS argumentował, iż jest
błędny, gdyż w obszarze bariery znikają pary Coopera. Wkrótce okazało się, że to
młody student Josephson miał rację. Zjawisko jest wykorzystywane w urządzeniach
zwanych interferometrami kwantowymi tzw. SQUID-ami (od ang. Superconducting
Quantum Interference Device). SQUID zwykle składa się z dwóch złącz Josephsona
połączonych równolegle. Dzięki zjawisku interferencji prądów tunelowania płynących przez złącza, gdy mierzony strumień pola magnetycznego przenika ich powierzchnię, można mierzyć pole magnetyczne z fantastyczną czułością ~10 -15 T
(Rys. 10). Josephson wykazał także, że jeśli do nadprzewodników po obu stronach
bariery tunelowej przyłożyć stałą różnicę potencjałów V, to nastąpi zmiana w czasie
różnicy faz między nadprzewodnikami. Spowoduje to przepływ prądu zmiennego
IJ przez złącze o zależności jak na rysunku 10, o częstotliwości ω = 2eV/ћ i amplitu18
Sto lat nadprzewodnictwa
dzie Ic [21]. Ic w obu wzorach oznacza krytyczną wartość prądu. To „zmiennoprądowe zjawisko Josephsona‖ jest również wykorzystywane w metrologii, jako precyzyjny wzorzec napięcia. W Tabeli 2 przedstawiono dalsze ważne fakty z historii nadprzewodnictwa.
Tabela 2. Ważniejsze fakty z badań nadprzewodnictwa w 3-cim 25-cioleciu. Polski wkład.
ROK
Tc(K)
MATERIAŁ
PRACA/UWAGI
1961
Odkrycie kwantowania strumienia pola w nadprzewodniku, B. S. Deaver, W. M. Fairbank Phys.
Rev.Lett. 7 (1961) 43
1962
Zjawisko Josephsona (kwantowanie strumienia
pola magnetycznego w złączu nadprzewodnikizolator -nadprzewodnik), B.D. Josephson, The discovery of tunnelling supercurrents, Rev. Mod. Phys.
46 (1974) 251 Nagroda Nobla w 1973
1962
9
Nb1-xTix
pierwszy materiał na drut nadprzewodzący, Niemcy,Westinghouse, I. Pfeiffer, H. Hillmann, Acta
Met.16 (1968) 1429
1972
8
PdHx
T. Skośkiewicz, Phys.St.Solidi (a) 11 (1972) K123
1973
23.2
Nb3Ge
J. R. Gavaler et al., Appl. Phys. Lett. 23 (1973) 480
1974
300
Al-C-Al
K. Antonowicz, Possible superconductivity at room
temperature, Nature 247, 358-360 (8 February 1974)
1979
0.6
CeCu2Si2
początek ery nadprzewodników ciężkofermionowych
F. Steglich et al., Phys. Rev. Lett., 43 (1979) 1892
1980
2-3
Y4Co3
A. Kołodziejczyk, B. V. B. Sarkissian, B. R. Coles,
Magnetism and superconductivity in a transition metal
compound Y4 Co3, J.Phys.F: Metal Phys. 10 (1980)
L333, współistnienie nadprzewodnictwa z ferromagnetyzmem – pierwsza obserwacja
1980
1.4
Nadprzewodniki (TTMTSF)2-X = ReO4 , PF6
D. Jerome et al., J. Phys. (Paris) Lett. 41, L95 (1980)
organiczne
b-(BEDT-TTF)2X = Cu(NCS)2 (T = 0,9 K, p = 12
kbar), W. Little, Organic superconductors (1990)
10.4
1985
1991
10-50
Odkrycie fullerenów
H. W. Kroto, J. R. Heath, S. C. O' Brien, R. F. Curl,
R. E. Smalley, C60 Buckminsterfullerene, Nature 318
(1985)162
Fuleryty nadprzewodzące
A. F. Hebard et al. (1991), Superconductivity at 18 K
in potassium-doped C60, Nature 350, 600, nagroda
Nobla 1996
19
Andrzej Kołodziejczyk
Ij
I j I c sin (
0
2e Vt )

Rys. 10. Złącze N-I-N i prąd Josephsona Ij, którego zastosowania w formie pamięci RAM z 6000
takich złącz oraz sondy SQUID-owej przedstawia prawa ilustracja (opis w tekście).
Pierwszy nadprzewodzący drut został wykonany ze stopu NbTi na początku lat
sześćdziesiątych. Przez wiele lat nadprzewodnikiem o rekordowo wysokiej temperaturze przejścia pozostawał Nb3Ge (Tc = 23.2 K). Ta temperatura przez 30 lat uchodziła za najwyższą możliwą zgodnie do teorii BCS.
W dziesięcioleciu 1970-1980 powstały trzy znaczące odkrycia polskich uczonych: profesora Tadeusza Skośkiewicza z Instytutu Fizyki PAN z 1972 roku [23]
i autora tej pracy z 1980 roku [24], które uznano za jedne z bardzo znaczących osiągnięć po 2-giej wojnie w dziedzinie fizyki ciała stałego na I Kongresie Nauki Polskiej
we Wrocławiu w 1985 roku [25]. Na uwagę zasługują także prekursorskie badania
profesora Kazimierza Antonowicza z 1974 roku z Uniwersytetu Mikołaja Kopernika
w Toruniu, dotyczące możliwości wystąpienia nadprzewodnictwa w temperaturze
pokojowej w węglu [26], nie potwierdzone do tej pory.
W roku 1972 profesor Skośkiewicz odkrył nadprzewodnictwo wodorków palladu
PdHx w temperaturze krytycznej kilku kelwinów [23]. Było to podczas jego stażu
w Laboratorium Kamerlingh Onnesa w Lejdzie, które jeszcze raz zasłużyło na uznanie, tym razem w historii polskiej nauki. Ciekawe było, że zamiana wodoru
H deuterem D zwiększała Tc materiału o kilkanaście procent (tzw. odwrotny efekt
izotopowy) [23]. W latach siedemdziesiątych bardzo wiele grup badawczych zajmowało się tym nadprzewodnikiem usiłując wyjaśnić jego wysoką temperaturę przejścia
oraz odwrotny efekt izotopowy. Prace te [23] były licznie cytowane. Rysunek 11
przedstawia początek tej pracy. W Tabeli 3 pokazano pola i temperatury krytyczne
tych związków o różnej zawartości wodoru.
Drugie zaskakujące odkrycie nadprzewodnictwa w związku międzymetalicznym
Y4Co3, (późniejszym Y9Co7), pochodzi od autora tej pracy i współpracowników [24]
(Rys. 12). W trakcie podoktorskiego stażu w Imperial College w Londynie badałem
duży wzrost podatności χ’ w ciekłym helu dla związku Y4Co3 (Rys. 12b), którym byłem zainteresowany w Polsce. Wykorzystując tamtejsze możliwości badawcze, wraz
z moim londyńskim współpracownikiem Boghosem Sarkissianem, wykonaliśmy pomiary w niższych temperaturach chcąc sprawdzić jaka jest przyczyna maksimum podatności χ’ (Rys. 12b). Okazało się wtedy, że poniżej tego maksimum podatność bardzo szybko staje się ujemna, czyli diamagnetyczna. Występowanie nadprzewodnic20
Sto lat nadprzewodnictwa
twa w takim związku, ówcześnie zupełnie niespodziewane, potwierdziliśmy pomiarami oporności właściwej ρ(T) (Rys. 12a). Jeszcze raz okazało się, że jeśli nie wiadomo dlaczego coś się dzieje to należy schłodzić próbkę i zrobić porządne niskotemperaturowe pomiary.
Rys. 11. Początkowy fragment pracy Skośkiewicza, która donosiła o odkryciu nadprzewodnictwa
w wodorkach palladu [23].
Tabela 3. Pola i temperatury krytyczne wodorków palladu [23].
21
Andrzej Kołodziejczyk
Rys.12. Początek pracy [24] i temperaturowa zależność oporności właściwej ρ i namagnesowania
M(0,T) (a) oraz podatności zmiennoprądowej χ’ związku Y9Co7 [27] (b).
Zmierzone w następnych pracach namagnesowanie M (T,0) pokazało, że uporządkowanie ferromagnetyczne występuje poniżej temperatury Curie TC 4.5 K,
natomiast nadprzewodnictwo pojawia się w temperaturach poniżej Ts
2-3 K
(Rys. 12a) [27]. Oznacza to występowanie współistnienia nadprzewodnictwa z ferromagnetyzmem w zakresie kilku stopni poniżej Ts, czego zgodnie z teorią nie można
22
Sto lat nadprzewodnictwa
się było spodziewać. Ferromagnetyzm to równoległe uporządkowanie spinów elektronowych, które zwykle wytwarza duże wewnętrzne pole magnetyczne tzw. pole
molekularne czy pole wymienne. Nadprzewodnictwo, zgodnie do teorii BCS, to antyrównoległe uporządkowanie spinów elektronów w parze Coopera, które jest niszczone przez duże pola magnetyczne.
Problem czy te same elektrony są odpowiedzialne za oba zjawiska rozważaliśmy
w pracach [27]. Streszczenie ostatniej z nich i ważny wynik przedstawiono na rysunku 13.
Rys. 13. Obliczony rozkład magnetyzacji spinowej w płaszczyźnie y = 0 pokazujący, że nie ma
momentu ferromagnetycznego w dużych obszarach komórki elementarnej (czarny kolor), w których
istnieje nadprzewodnictwo, co umożliwia jego współistnienie z ferromagnetyzmem [27].
To odkrycie długo pozostawało osamotnione. Dopiero 20 lat później takie współistnienie zaobserwowano w UGe2 i URhGe, a kilka lat temu w UCoGe [28], (Tabela 4). Od tego czasu prace dotyczące związku Y9Co7 są często cytowane.
Problem współistnienia nadprzewodnictwa i ferromagnetyzmu bynajmniej się nie
zakończył i należy mieć nadzieję, że również tego typu nadprzewodniki będą odkrywane i badane w przyszłości.
23
Andrzej Kołodziejczyk
Tabela 4. Związki wykazujące współistnienie nadprzewodnictwa z ferromagnetyzmem.
Współistnienie nadprzewodnictwa z ferromagnetyzmem !
ROK
Tc(K)
MATERIAŁ
PRACA/UWAGI
1980
2-3
Y4Co3
pierwszy nadprzewodnik ferromagnetycznywspółistnienie,
A. Kołodziejczyk, B. V. B. Sarkissian, B. R. Coles,
Magnetism and superconductivity in a transition
metal compound Y4 Co3, J.Phys.F: Metal Phys.10
(1980) L333
2000
0.4
UGe2
S. S. Saxena et al., Superconductivity on the border of
itinerant-electron ferromagnetism in UGe2, Nature
406, 587 (2000)
2001
0.25
URhGe
D. Aoki et al.,Coexistence of superconductivity and
ferromagnetism in URhGe, Nature 413, 613, 2001.
2007
0.5
UCoGe
N. T. Huy et al., Superconductivity on the border of
weak itinerant ferromagnetism in UCoGe, Phys. Rev.
Lett., 99 (2007)
W 1974 roku w „Nature‖, jednym z najbardziej prestiżowych i najstarszych
czasopism nauk przyrodniczych (od 1869 roku), profesor Antonowicz opublikował
pracę zawierającą wyniki badań próbek węgla bezpostaciowego, przez które przepuszczano prąd elektryczny [26] (Rys. 14). Okazało się, że próbki te stają się nie tylko
wielokrotnie bardziej przewodzące, ale i po wyłączeniu prądu „zapamiętują‖ ten stan.
Interpretacja tego zjawiska wskazuje na możliwość pojawienia się nadprzewodnictwa
w temperaturach pokojowych. Praca wywołała wielki rezonans w świecie naukowym, ale do dzisiaj nie udało się potwierdzić czy mamy tu do czynienia z nadprzewodnictwem w temperaturze pokojowej.
Possible superconductivity at room temperature
Kazimierz ANTONOWICZ
Physical Institute, Nicolas Copernicus University, Torun, Poland
Abstract
In this paper some observations are presented on an anomalous current in aluminum-carbon-aluminium (Al-C-Al) sandwiches, at room temperature, which in
several respects behaves in the same way as the Josephson current might be expected to do. At first the switching effect was studied in Al-C-Al sandwiches discovered by Ovshinsky1 and Pearson2 in chalcogenide glasses and amorphous oxides. In carbon sandwiches subjected to proper electrical pulsing, changes in resistance of a factor of 1,000 were found, the changes being reversible and with a
memory time of the order of a few days3.
Rys. 14. Streszczenie pracy Antonowicza o niepotwierdzonym nadprzewodnictwie węgla
Nature 247, 358-360
(8 February
1974) | doi:10.1038/247358a0
w temperaturze
pokojowej
[26].
24
Sto lat nadprzewodnictwa
W ostatnich latach trwają usilne próby znalezienia materiałów wykazujących
nadprzewodnictwo w temperaturach pokojowych. Wystarczy w wyszukiwarkę intenetową wpisać hasło „room temperature superconductivity‖ aby otrzymać wiele wyników na ten temat. I choć niektórzy twierdzą, że są to tak zwane USO (Unidentified
Superconducting Object Niezidentyfikowane Obiekty Nadprzewodzące), to po odkryciu tzw. wysokotemperaturowych nadprzewodników w 1986 roku, nie brakuje też
takich, którzy wierzą, że jest to możliwe. Niektórzy autorzy tych prac cytują pracę
Antonowicza np. [http://arxiv.org/ftp/arxiv/papers/1209/1209.1938.pdf ].
W 1979 rozpoczęła się przygoda z tzw. nadprzewodnikami ciężkofermionowymi
(Tabele 2 i 5). W tym roku profesor Frank Steglich ze współpracownikami z Uniwersytetu w Darmsztacie odkrył nadprzewodnictwo związku CeCu2Si2 w Tc = 0.5 K [29].
Potem okazało się, że nie tylko związki międzymetaliczne 4f elektronowe ziem rzadkich, ale także i aktynowców 5f-elektronowych z różnymi innymi pierwiastkami np.
3d elektronowymi wykazują podobny typ nadprzewodnictwa. Tę klasę nadprzewodników nazwano „ciężko-fermionowymi‖ gdyż ich elektrony przewodnictwa zachowują się tak, jakby ich masy były setki razy większe niż masa elektronu swobodnego.
Ma to zasadnicze znaczenie dla wystąpienia nadprzewodnictwa [30]. Związek
CeCu2Si2 był pierwszym, w którym przyczyną nadprzewodnictwa są oddziaływania
magnetyczne elektron-elektron, a nie elektron-fonon. Po raz pierwszy teoria BCS została zakwestionowania. Tabela 5 przedstawia wybrane przykłady związków wykazujących nadprzewodnictwo ciężko-fermionowe związane z elektronami 4f. Liczba
nadprzewodzących związków ciężko-fermionowych rośnie z roku na rok, również za
sprawą polskich naukowców (zobacz Tabela 9).
Tabela 5. Wybrane nadprzewodniki ciężko-fermionowe i ich temperatury przejścia Tc.
Związek Temperatura przejścia
Tc/K
CeCu2Si2
0.1-0.7 [20]
CeoIn5
2.3
UPd2Al3
2.0
Pd2SnYb
1.8
URu2Si2
1.2
UNi2Al3
1.0
Al3Yb
0.94
UBe13
0.87
CeCo2
0.84
CePt3Si
0.75
Trzecie 25-ciolecie zaowocowało także fascynującymi odkryciami nadprzewodników zawierających różne formy węgla i nadprzewodników organicznych. W 1985
roku zespół Harry Kroto, Bob Curl, Richard Smalley i inni z Unwersytetu Oksfordzkiego zaobserwował nową „kulistą strukturę‖ węgla nazwaną ―Buckminsterfulleren‖
lub krócej fulerenem [31]. Uhonorowano to nagrodą Nobla z chemii w 1996. Nazwę
25
Andrzej Kołodziejczyk
zaczerpnięto od nazwiska amerykańskiego wynalazcy i architekta Richarda
Buckminster Fullera, którego konstrukcje dachów w formie „kopuł geodezyjnych‖
były podobne do połączeń atomów w cząsteczce węgla C60. Fulleren ma 60 atomów
węgla w wierzchołkach triacontaduohedronu o średnicy 7.1 Å. Sam fulleren C60 nie
jest nadprzewodnikiem, lecz może tworzyć kryształ molekularny tzw. fuleryt
(Rys. 15). Taki kryształ domieszkowany metalami alkalicznymi: potasem, rubidem
i cezem staje się nadprzewodnikiem A3C60 (tabelka na Rys. 15). W 1991 roku zespół
z Oksfordu [32] odkrył nadprzewodnictwo w fulerycie potasowym KxC60 (Rys. 15,
Tabela 2).
Związek
Tc
K3C60
19K
K2RbC60
22K
Rb2KC60
25K
Rb3C60
29K
Cs3C60
47K
Rys. 15. Pierwsza obserwacja nadprzewodnictwa w fulerycie potasowym KxC60 z pracy [32], struktura fulerytu oraz tabela najważniejszych fulerytów nadprzewodzących.
Nadprzewodniki wysokotemperaturowe i niekonwencjonalne
Ostatnie 25-lecie to bezsprzecznie era tzw. wysokotemperaturowych nadprzewodników (skrót WTN lub HTS od ang. High Temperature Superconductors). Nazwa
ma wskazywać, że ich temperatura przejścia do stanu nadprzewodzącego Tc jest
znacznie, nawet kilkakrotnie, wyższa niż dla nadprzewodników tzw. konwencjonalnych, dla których granica wyznaczona z teorii BCS miała nie przekraczać około
25 K. Ten ostatni okres to również era tzw. nadprzewodników niekonwencjonalnych
i „egzotycznych”.
Wysokotemperaturowe nadprzewodniki zostały odkryte przez Georga Bednorza
i Karla Müllera [33], chemików z Laboratorium IBM w Zurychu (Rys. 16). Rodzice
Bednorza pochodzą ze Śląska. On sam podkreśla swoje polskie korzenie. I znów to
odkrycie zostało dokonane przypadkiem. Badali oni oporność tzw. perowskitów
lantanowo-barowo-miedziowych. Mieli taką możliwość oraz zechciało im się zejść
z pomiarami do temperatur helowych 4.2 K. Niespodziewanie zaobserwowali nadprzewodnictwo poniżej temperatury Tc 30 K. Grupa Bernarda Raveau z Uniwersytetu Caen we Francji mierzyła wcześniej te materiały, ale tylko do temperatur azotowych 80 K. Jeszcze raz okazało się, że jak nie wiadomo z jakim zjawiskiem mamy do
czynienia to najlepiej zmierzyć próbkę do jak najniższych temperatur. Praca Bednorza i Müllera, której początek przedstawia rysunek 16, pochodzi z września 1986 roku i nosi ostrożny tytuł „O możliwości wystąpienia wysokotemperaturowego nad26
Sto lat nadprzewodnictwa
przewodnictwa w związkach Ba-La-Cu-O‖. Skąd ta ostrożność, godna polecenia niektórym naukowcom także obecnie? Chodziło o to, że autorzy nie sprawdzili drugiej
cechy definiującej stan nadprzewodzący, a mianowicie, ujemnej diamagnetycznej
podatności czy ujemnego namagnesowania. W rzeczywistości był to perowskit o stechiometrii La2-xBaxCu2O4, a nie „BaxLa5-xCu5O5(3-y) jak napisano w abstrakcie tej pracy (Rys. 16).
George
Bednorz
Alex
Müller
Rys.16. Początek słynnej pracy Bednorza i Müllera [33] „ O możliwości wystąpienia wysokotemperaturowego (High-Tc) nadprzewodnictwa w perowskicie z układu Ba-La-Cu-O‖. Wstawka pokazuje
temperaturowe zależności oporności właściwej (T) wykazujące nadprzewodnictwo poniżej 30 K
dla podanych gęstości prądu zasilającego próbkę.
To odkrycie wywołało wielkie poruszenie i rywalizację w świecie naukowym.
Zostało uhonorowane bardzo szybko, bo już w 1987 roku, nagrodą Nobla. Konferencja Amerykańskiego Towarzystwa Fizycznego w owym roku odbyła się w hotelu
Hilton w Nowym Yorku, aby pomieścić 1100 osób, które wzięły w niej udział. Została ona przez prasę nazwana „fizycznym Woodstockiem‖ w uznaniu podobnej euforii,
jaką wzbudził słynny koncert rockowy w 1969 też w Nowym Yorku.
Tylko w 1987 roku liczba prac na ten temat sięgnęła 10000!, a wśród ich odnośników literaturowych nierzadko można było znaleźć „gazetowe‖ cytowanie z datą
tej konferencji „New York Times, 16 February 1987‖. Zaczęły pojawiać się też doniesienia o bliżej niezidentyfikowanych związkach o bardzo wysokich temperaturach
przejścia, których wyników nikomu nie udawało się powtórzyć. Nazwano je oczywiście USO (od ang. ―Unidentified Superconducting Objects‖) w analogii do UFO. My
też opublikowaliśmy taki wynik w pierwszej pracy [35] dla związku ErBa2Cu3O7.
27
Andrzej Kołodziejczyk
Niektóre z nich powstały, jak się później okazało, wskutek słabego połączenia kontaktów do próbki i stąd pochodził gwałtowny lub zerowy spadek napięcia na próbce,
który miał dowodzić nadprzewodnictwa.
Cały ten rumor z czasem prowadził do bardzo intensywnych badań nadprzewodnictwa. Można to prześledzić na podstawie Tabeli 6, w której przedstawiono listę
najważniejszych WTN odkrywanych z biegiem lat. Wynika z niej, że bardzo szybko
inicjatywę w poszukiwaniu nowych WTN o wyższych temperaturach przejścia przejęły laboratoria amerykańskie i japońskie; zapewne z powodu środków, jakimi dysponują. Autor mógł się o tym przekonać podczas pobytu w Kioto University, w marcu 1987 roku, w związku z owocną współpracą z grupą prof. Masao Shimizu dotyczącą teoretycznych obliczeń struktury pasmowej nadprzewodnika Y9Co7. W laboratorium zobaczyłem 28 studentów japońskich siedzących równiutko pod dwoma ścianami. Każdy w nich w agatowym moździerzu mieszał proszki odpowiednich tlenków, aby przygotować różne nadprzewodniki WTN. Tlenki te są drogie, moździerze
agatowe, także i studencki czas jest nie do wycenienia. W naszym laboratorium dysponowaliśmy jednym moździerzem i trzema osobami.
Tabela 6. Temperatury przejścia, związki, prace i uwagi dotyczące WTN.
NADPRZEWODNIKI WYSOKOTEMPERATUROWE (WTN)
ROK
Tc(K)
MATERIAŁ
PRACA/UWAGI
1986
30
La1.85Ba0.15CuO4
J. Georg Bednorz, Karl Alex Müller, Zeitschrift für
Physik B. Vol. 64 (Sept. 1986): 189. IBM Zurich Research Lab., Nagroda Nobla w 1987 roku
1987
93
YBa2Cu3O7
Wu, Ashburn, Torng, Hor, Meng, Gao, Huang, Wang,
Chu, Univ. Alabama i Houston,PRL 58, No. 9
(March 1987): 908. (Tc powyżej ciekłego azotu!)
1988
85
Bi2Sr2CaCu2O8
H. Maeda, Y. Tanaka, M. Fukutomi, T. Asano
Tsukuba Magnet Lab.,Japan. Jour.Appl. Phys. 27
(Jan. 1988) 209
1988
120
TlBa2Ca2Cu3O10, Z. Z. Sheng, A.M. Hermann,University of Arkansas,Nature. Vol. 332 (March 1988): 138
1993
135
HgBa2Ca2Cu3O8
A. Schilling, M. Cantoni, J.D. Guo, H.R. Ott,
E.Antipov, Lab. für Festkörperphysik, Nature. 363
(May 1993) 56.
1994
164
HgBa2Ca2Cu3O8
Gao, Xue, Chen, Xiong, Meng, Ramirez, Chu, Eggert,
Mao, University of Houston, Physical Review B.
Vol. 50, No. 6 (August 1994) 4260, (pod ciśnieniem
30 GPa),
WTN odkrywane są do dzisiaj – patrz np. rys. 20 i Tabela 7
28
Sto lat nadprzewodnictwa
Na rysunkach 17 i 18 przedstawiono kolejno wzrost temperatury przejścia do stanu nadprzewodzącego w funkcji lat, listę ważniejszych nadprzewodników wysokotemperaturowych i ich strukturę krystaliczną.
Z rysunku 17 można stwierdzić, że większość WTN zaczyna nadprzewodzić powyżej temperatury ciekłego azotu. Nie oznacza to, że można je łatwo stosować na
przewody do magnesów nadprzewodzących. Wynika to z faktu, że są one nadprzewodnikami ceramicznymi zawierającymi tzw. słabe złącza międzyziarnowe, często
typu złącz Josephsona, które mocno obniżają gęstości prądów krytycznych Jc. Tym
zagadnieniem też się zajmujemy w naszym zespole [38]. Ponadto, technicznie jest to
problem typu „jak z cegły (ceramiki) zrobić drut‖. Niemniej już się udaje wytworzyć
taki przewód w formie wielowarstwowej taśmy, z których jedną z warstw jest WTN,
przeważnie YBCO lub BiSCO, który prawie bezstratnie przewodzi duży prąd [38].
Z Tabeli 6 oraz rysunku 17 wynika również, że po około 10 latach intensywnych badań, głównie doświadczalnych, maksymalna temperatura przejścia Tc zatrzymała się
w połowie drogi do temperatury pokojowej i taki stan jest do chwili obecnej. Doniesienie o najwyższej temperaturze przejścia dla Hg0.8Tl0.2Ba2Ca2Cu3O8.33 Tc = 138 K,
w warunkach normalnych, pochodzi z pracy: P. Dai, B. C. Chakoumakos, G. F. Sun,
K. W.Wong, Y. Xin, D. F. Lu z Uniwersytetu Kansas, Lawrence, USA [Physica C.
(Feb. 1995) 201]. Signum temporis! Żadne z nazwisk autorów nie brzmi po amerykańsku.
140
HgBa Ca 2 Cu 3 O 8
2
Wysokotemperaturowe
nadprzewodniki
120
Tl 2 Sr 2 Ca 2 Cu 3 O 10
Bi 2 Sr 2 Ca2 Cu 3 O 10
100
YBa 2 Cu 3 O 7
TC / K
80
temperatura wrzenia ciekłego azotu
60
La
40
2-x
Bax CuO 4
MgB 2
Nb 3 Ge
NbN
20
Hg
Pb
Nb
Na x WO 3
Ba 1-x K x BiO 3
0
1920
1940
1960
1980
2000
Rok
A.Kołodziejczyk, Wykład dla studentów
Rys. 17. Wzrost temperatury przejścia do stanu nadprzewodzącego Tc w funkcji roku odkrycia wybranych nadprzewodników klasycznych i wysokotemperaturowych do 2001 roku [34].
29
Andrzej Kołodziejczyk
Tc/K
La2-xBaxCuO4
35
La2-xSrxCuO4
38
(La2-xSrx )CaCu2O6 60
YBa2Cu3O7
92
Bi2Sr2CuO6
Bi2Sr2CaCu2O8
Bi2Sr2Ca2Cu3O10
20
85
110
TlBa2CaCu2O7
80
TlBa2Ca2Cu3O9
110
Tl2Ba2Ca2Cu3O10 120
HgBa2CuO4
HgBa2Ca2Cu3O8
94
135
HgBa2Ca2Cu3O8
Rys. 18. Lista ważniejszych nadprzewodników wysokotemperaturowych, ich temperatur przejścia
do stanu nadprzewodzącego Tc oraz schematyczna ilustracja struktury: czerwone kule to jony tlenu,
fioletowe i różowe to jony miedzi, szare to jony Ca i Ba oraz ciemno czerwone to jony rtęci.
W czerwonej ramce zaznaczono te, które badamy w naszym zespole [34].
1.3
1.48
2
1.46
YBa2Cu3O7
a)
M
M
M
A
1.2
1.0
30
DyBa2Cu3O7
C/T (J/molK )
2
C/T (J/molK )
1.4
1.1
Absorpcja mikrofal przez złącza J-J
Ciepło właściwe
1.5
teoria
20
1.44
10
1.42
1.40
0.9
80
50
85
90
100
95
100
T(K)
105
110
150
200
T(K)
250
0
300
0
2
4
6
8
10
B [mT]
30
b)
25
BCS +
fluktuacje
BCS
DMA
20
15

10
Pomiar DMA
RSJJ model
5
0
0
2
4
6
8
10
B[mT]
Rys.19. Pomiary ciepła właściwego C(T) wskazujące na istotną rolę fluktuacji termicznych
w obserwowanym wzroście ciepła ΔC(T) w przejściu nadprzewodzącym ponad to co przewiduje
teoria BCS [36]. Pomiary modulowanej (MMMA) i bezpośredniej (DMA) absorpcji mikrofal
o częstości 9.5 GHz w słabych złączach między-ziarnowych w funkcji pola magnetycznego
i porównanie z modelem absorpcji przez złącza Josephsona RSJJ (Resistively Shunted
Josephson Junctions) [37].
30
Sto lat nadprzewodnictwa
Autor wraz z zespołem uczestniczył w badaniach WTN od samego początku [35].
Wykorzystaliśmy doświadczenie, jakie uzyskaliśmy po sześciu latach intensywnych
badań nadprzewodnika Y9Co7. Także wcześniejsze nasze zainteresowania tlenkami
magnetycznymi, tzw. ferrytami, pozwoliło nam szybko opanować preparatykę
otrzymywania tych nadprzewodników, które otrzymuje się metodą spiekania odpowiednich tlenków w fazie stałej, która jest taka sama dla WTN. Na rysunku 19 przedstawiono dwa ważniejsze i ciekawsze spośród naszych wyników. Dotyczą one badania ciepła właściwego [36] oraz absorpcji mikrofal przez nadprzewodzące złącza
między-ziarnowe [37]. Te wyniki są często cytowane w literaturze przedmiotu.
Badania wysokotemperaturowego nadprzewodnictwa nabrały nowego impetu
w ostatnich latach. W 2008 roku, w grupie profesora Hideo Hosono w Instytucie
Technologicznym w Tokio, odkryto wysokotemperaturowe nadprzewodniki nie
z miedzią, lecz z żelazem [40]. W przeciągu czterech miesięcy w grupie profesora
Zhongxian Zhao w Instytucie Fizyki w Pekinie wytworzono takie materiały [41]
o rekordowej temperaturze przejścia Tc = 58 K (Rys.20). Pokonano w ten sposób
22-letnią „tyranię‖ miedziowych nadprzewodników wysokotemperaturowych.
Iron-Based Layered Superconductor La[O1-xFx]FeAs (x ) 0.05-0.12)with Tc ) 26 K
Yoichi Kamihara,*,† Takumi Watanabe,‡ Masahiro Hirano,†,§ and Hideo Hosono†,‡,§
J. AM. CHEM. SOC. 9 VOL. 130, NO. 11, 2008 3297
Rys. 20. Oporność właściwa ρ i podatność magnetyczna χ w funkcji temperatury dla wybranych
WTN z żelazem [41].
Obecnie bada się kilka rodzin nadprzewodników WTN z żelazem, które przedstawiono w Tabeli 7. Wykryto je w dużej mierze dzięki zdolności robienia szczęśliwych odkryć przypadkiem, bo w tak skomplikowanych chemicznie układach niewiele da się przewidzieć. Pierwszeństwo w odkryciu nadprzewodników z żelazem ma
grupa Hideo Hosano. Jednakże, jak widać z Tabeli 7 grupy chińskie coraz częściej
włączają się w wyścig poszukiwania nowych nadprzewodników. Duży potencjał
ludzki i pieniądze są tego przyczyną.
Zastanawialiśmy się jak żelazo, najmocniejszy ferromagnetyk pasmowy w tablicy
Mendelejewa, może tolerować nadprzewodnictwo i to wysokotemperaturowe. Miedź
– i owszem może, bo jest najmocniejszym pierwiastkiem diamagnetycznym. Ale żelazo? Okazuje się, że wszystko jest możliwe! Tym bardziej, że samo heksagonalne
niemagnetyczne żelazo pod dużym ciśnieniem rzędu 20 GPa jest nadprzewodnikiem
z temperaturą przejścia rzędu 2 K zależną od ciśnienia. Przedstawiono to na rysunku 21.
31
Andrzej Kołodziejczyk
(2001)
Rys. 21. Nadprzewodnictwo żelaza pod ciśnieniem. Wstawka: powiększony obszar fazy nadprzewodzącej.
Tabela 7. Nadprzewodniki z żelazem.
ROK
Tc(K)
MATERIAŁ
PRACA/UWAGI
2008
26
La[O1-xFx]FeAs
Kamihara Y, Watanabe T, Hirano M, Hosono H.
Iron-based layered superconductor La[O1-xFx] FeAs
(x=0.05–0.12) with Tc = 26 K. J Am Chem Soc 130:
(2008) 3296, Frontier Research Center, Tokyo Institute of Technology
2008
35-58
REFeAsO1-
Zhi-An Ren et al., and Zhong-Xian Zhao, Superconductivity and Phase Diagram in the Iron-based Arsenic- REFeAsO1- oxides (RE = La,Nd,Sm,Ce, Pr); Europhysics Letters, 83 (2008) 17002
2008
8
FexSe1-x
Fong-Chi Hsu et al., Superconductivity in the PbOtype structure –FeSe, PNAS, September 23, 105
(2008) 14262 Institute of Physics, Academia Sinica,
Taipei 115, Taiwan
2008
26
(Ca1-xNax)Fe2As2
Parasharam Maruti Shirage et al., Superconductivity at
26 K in.... 2008, The Japan Society of Applied Physics
published online August 1, 2008 Tsukuba, Ibaraki
2010
30
KxFe2Se2
Jiangang Guo et al., Superconductivity in the iron selenide KxFe2Se2 (0x1.0), Phys. Rev. B 82, 180520R
(2010), Research & Development Center for Functional Crystals, Beijing National Laboratory for Condensed Matter Physics, Institute of Physics, Chinese
Academy of Sciences,National Centre for Nanoscience and Technology.
32
Sto lat nadprzewodnictwa
Obecnie wierzymy, że to nie koniec wysokotemperaturowych nadprzewodników.
Nie ma w zasadzie żadnych powodów, aby nie zostały odkryte nowe WTN z innymi
pierwiastkami metali przejściowych niż miedź i żelazo, z innymi anionami niż tlen,
selen, fluor czy arsen oraz z metalami ziem rzadkich lub aktynowcami. Obecnie bardzo wiele grup zajmuje się nadprzewodnictwem i poszukiwaniem nadprzewodników
o wysokiej temperaturze przejścia. A jeszcze w czasie moich studiów fizyki w Uniwersytecie Jagiellońskim, których początek przypadł na 50-lecie odkrycia nadprzewodnictwa, niewiele się o nich mówiło, choć to był rok (1962) odkrycia kwantowania strumienia i tunelowania josephsonowskiego.
W tym gorączkowym wyścigu, szczególnie od początku tego wieku, odkrywane
są nowe nadprzewodniki, które jeśli nie pasują do klasycznych nadprzewodników
BCS-owskich, czy WTN, są nazywane „niekonwencjonalnymi‖ lub „egzotycznymi‖.
Ważniejsze z nich, według mojego subiektywnego wyboru, zebrałem w Tabeli 8.
Nadprzewodniki UGe2, URhGe i UCoGe już opisałem w kontekście „mojego‖
nadprzewodnika Y9Co7 (Tabela 4 i tekst tamże). O nadprzewodnictwie żelaza i litu
odkrytym w grupie Shimizu z Research Center for Materials Science at Extreme
Conditions, Osaka University, wspomniałem przy rysunku 21. Ciekawe są nadprzewodzące roztwory boru w diamencie i krzemie, choć ich temperatury przejścia są niskie. Bardzo ciekawe są wszystkie wymienione „japońskie nadprzewodniki‖:
NaxCoO2yH2O tzw. mokre nadprzewodniki, typu Ca2-xSrxRuO4 tzw. ruteniany i jeszcze kilka innych rodzajów, np. Ag5Pb2O6, wielo-pierwiastkowy nadprzewodnik
z tlenem, a mimo to pierwszego rodzaju.
Szczególnie ciekawy jest dwu-borek magnezu MgB2. Jest on nadprzewodnikiem
niekonwencjonalnym, bo ma dwie przerwy energetyczne w dwóch płatach Fermiego,
prawdopodobnie obie typu BCS-owskiego. Odsyłając do zaznaczonej literatury
przedmiotu wspomnę tu tylko o ciekawej historii związanej z MgB 2. Jest on już stosowany na druty nadprzewodzące gdyż posiada wysoką temperaturę przejścia 39 K
i największe obok YBaCuO drugie pole krytyczne rzędu 200 T w 4.2 K. Ten prosty
dwuskładnikowy związek od wielu lat był użyteczny i leżał na półkach wielu laboratoriów chemicznych. I znowu Nagamatsu z laboratorium Aoyama Gakuin University
w Tokio zechciał zmierzyć dokładnie jego opór nie tylko do temperatury ciekłego
azotu, ale i w ciekłym helu i okazało się przypadkiem, że... znamy to już znamy!
Można powiedzieć, że nauka z odkrycia wysokotemperaturowych nadprzewodników
przez Bednorza i Mullera nie poszła na marne.
Z tym związkiem wiąże się interesujący „zakręt‖ historii [42]. Już w 1957 roku
dwóch chemików z Syracuse University w Nowym Jorku zmierzyło ciepło właściwe
MgB2, a wyniki zostały opublikowane w Journal of the American Chemical Society
[43] w formie tabelarycznej. Te dane narysowane później, po odkryciu nadprzewodnictwa w tym związku w 2001 roku, pokazały niewielki skok ciepła właściwego około 39 K, wskazujący na przejście nadprzewodzące. Gdyby już wtedy w 1957 roku,
a nie w 2001 roku, stwierdzono, że MgB2 jest nadprzewodnikiem, i to tanim o bardzo
dobrych właściwościach do zastosowania na druty nadprzewodzące, to historia nadprzewodnictwa od połowy XX wieku mogłaby się potoczyć zupełnie innym kursem.
Obecnie najpopularniejsze druty nadprzewodzące byłyby z tego materiału, a nie ze
33
Andrzej Kołodziejczyk
Tabela 8. Temperatury przejścia, wzory chemiczne, prace i uwagi dotyczące „niekonwencjonalych‖
i „egzotycznych nadprzewodników‖.
Nadprzewodniki „niekonwencjonalne”, „egzotyczne”
ROK
Tc(K)
MATERIAŁ
PRACA/UWAGI
Superconductivity in oxygen?, K. Shimizu, Nature
393 (June 1998) 767
1998
2000
0.4
UGe2
S. S. Saxena et al., Superconductivity on the border of
itinerant-electron ferromagnetism in UGe2, Nature
406, 587, 2000
2001
0.25
URhGe
D. Aoki et al., Coexistence of superconductivity and
ferromagnetism in URhGe, Nature 413, 613, 2001
2001
40
MgB2
J. Nagamatsu et al, Nature 410, 63 (2001), nadprzewodnik dwuprzerwowy; bardzo duże drugie pole krytyczne
2001
2
Fe pod cisnieniem
K. Shimizu et al., Superconductivity in the non- magnetic state of iron under pressure, Nature 412, 316318 (2001)
2002
20
Li
Superconductivity in compressed lithium at 20 K, K.
Shimizu et al., Nature 419, 597-599 (10 Oct 2002),
2003
5
NaxCoO2yH2O
mokre nadprzeodniki
Takada et al., Nature 422, 53(2003); J.Cava et al.,
Phys.Rev.Lett., (2004) 247001
2004
4
C:B diament
pod ciś.100 atm
E. A. Ekimov et al., Nature 428 (2004)542
2006
0.35
Si+11%B
E. Bustarret et al., Superconductivity in heavily doped
silicon, Nature 444 (2006) 465
2004
1
Ca2-xSrxRuO4
Ruteniany
S.Nakatsui et al., Phys.Rev.Lett 93 (2004)
2005
45
Ag5Pb2O6
S. Yonezawa, and Y. Maeno, cond-mat/0509018,
1 Sep 2005 – Type I dirty superconductor
2007
0.5
UCoGe
N. T. Huy et al., Phys.Rev.Lett., 99 (2007) 067006
stopu Nb-Ti, czy Nb3Sn. Magnesy nadprzewodzące np. przy Wielkim Zderzaczu
Hadronów LHC w Cernie byłyby dużo tańsze i efektywniejsze w działaniu. Nauka
z tego jest jasna: jeśli uważasz, że masz nowy materiał o niezwykłych strukturalnych
i fizyko-chemicznych właściwościach, zrób to co zrobili Kammerlingh Onnes, Bednorz i Nagamatsu zmierz do jak najniższych temperatur. Także, Michel i Raveau
z Uniwersytetu Caen we Francji badali podobne materiały co Bednorz i Müller 4 lata
wcześniej, ale tylko do temperatury ciekłego azotu 80 K i zaprzepaścili odkrycie.
34
Sto lat nadprzewodnictwa
Polski wkład do odkrywania nowych nadprzewodników z ostatnich lat to pierwsze obserwacje nadprzewodnictwa w związkach wymienionych w Tabeli 9, dokonane
głównie w Instytucie Niskich Temperatur i Badań Strukturalnych PAN we Wrocławiu, w grupie profesora Dariusza Kaczorowskiego. Dzięki bardzo dobrej aparaturze
technologicznej i niskotemperaturowej oraz wielkiej pracowitości i naukowemu
szczęściu zaobserwowano tam po raz pierwszy nadprzewodnictwo niekonwencjonalne w bardzo ciekawych związkach, w tym ciężko-fermionowych. Warto także podkreślić teoretyczne prace doktora Wiendlochy z naszego wydziału dotyczące nadprzewodników Mo3Sb7 i już wspominanego Y9Co7 [43].
W ostatnich latach, niemal co roku, odkrywane są nowe nadprzewodniki. Wyścig
do nadprzewodnictwa w temperaturze pokojowej, a może i wyższej, trwa.
Tabela 9. Temperatury przejścia, wzory chemiczne, prace i uwagi dotyczące „niekonwencjonalnych‖ i „egzotycznych‖ nadprzewodników‖- wkład polski.
Wkład polski z ostatnich lat
ROK
Tc(K)
MATERIAŁ
PRACA/UWAGI
2002
2.2
Mo3Sb7
Z. Bukowski, D. Badurski, J. Stępień-Damm,
R. Troć, Solid State Commun 123 (2002) 283 + kilka
późniejszych prac z INT i BS PAN we Wrocławiu; B.
Wiendlocha, J. Tobola, M. Sternik, S. Kaprzyk, K.
Parliński, A. M. Oleś, Superconductivity of Mo3Sb7
from first principle,s Phys.Rev.B. 78 (2008) 060507;
doktorat B. Wiendlochy (2009), AGH Kraków
2008
4.6
ThPt4Ge12
D. Kaczorowski, V. H. Tran, Superconductivity in
filled skutterudite ThPt4Ge12, Phys.Rev.B 77 (2008)
180504 + kilka prac
Ce2PdIn8
D. Kaczorowski, D. Gnida, A. P. Pikul, V. H. Tran,
Superconductivity in Ce2PdIn8, Phys.Rev.Lett 103
(2009)
2009
0.68
Na koniec warto spróbować odpowiedzieć na pytanie czy możliwe jest wystąpienie nadprzewodnictwa w temperaturze pokojowej. Wtedy nastąpiłby okres „wiecznej
szczęśliwości‖, choćby ze względu na możliwość bezstratnego przepływu prądu.
Spodziewamy się, że w wysokich temperaturach odległość elektronów w parze
Coopera, (tzw. zasięg koherencji ), zmniejszy się, a większe fluktuacje termiczne
mogą łatwiej powodować utratę fazowej koherencji (spójności) funkcji falowej pary,
która jest konieczna do powstania stanu nadprzewodzącego. Ten efekt jest już ważny
w nadprzewodnikach WTN w dużych polach magnetycznych. Doprowadził on do
istotnego polepszenia naszego zrozumienia zjawiska miejscowego „zamrażania‖,
a następnie „topnienia‖ i ruchu linii strumienia pola magnetycznego blisko Tc, który
daje wkład do opornościowej dyssypacji energii. Innym ograniczeniem jest fakt, że
parowanie elektronów występuje w stanach elektronowych d a nie s i symetria funk35
Andrzej Kołodziejczyk
cji falowej stanów d powoduje, że prąd nadprzewodzący płynie łatwo tylko w płaszczyźnie miedziowo-tlenowej. Stąd między-płaszczyznowe sprzężenie par wzdłuż kierunku c w krystalicie lub między-ziarnowe w polikryształach jest bardzo słabe. Dodatkowo, w polikrystalicznych WTN dla małych rozmiarów pary Coopera bariera
między-ziarnowa jest istotną przeszkodą. Tak więc rokowania nie są optymistyczne.
Ale w historii nadprzewodnictwa wielokrotnie okazywało się, często przypadkiem, że
entuzjazm badaczy doprowadzał do nieprzewidywalnych odkryć. Zatem, ten artykuł
niech będzie pobudzeniem tego entuzjazmu do badań, szczególnie u młodych badaczy i studentów.
Obecnie, na uczelniach wykłady z nadprzewodnictwa odbywają się na równi
z wykładami na temat pozostałych materiałów z zakresu fizyki ciała stałego. Niezwykłe zainteresowanie nadprzewodnictwem wśród studentów spowodowane jest nie
tylko przez coraz to bardziej spektakularne odkrycia, ale być może i takie prace jak ta
przedstawiona poniżej na rysunku 22. Ta praca została wykonana przez studentów
japońskich z Uniwersytetu w Tsukubie. Dotyczy jak najpoważniej wpływu działania
różnych napojów alkoholowych na temperaturę przejścia nadprzewodników żelazowo-selenowych. Została opublikowana w jednym z najbardziej poczytnych czasopism naukowych poświęconych technologii nadprzewodników Superconducting
Science and Technology [44]. Stwierdzono, że wygrzewanie nadprzewodnika
w czerwonym i białym winie najwyżej podnosi temperaturę przejścia nadprzewodzącego. Nie podano przyczyny takiego zachowania. Może jest to zgodne z bardziej
zdrowotnym wpływem dobrego wina na organizm ludzki w porównaniu do wpływu
pozostałych użytych w tych badaniach alkoholi?
Rys. 22. Temperaturowa zależność znormalizowanej oporności i podatności magnetycznej χ dla
podanego nadprzewodnika wygrzewanego w różnych napojach alkoholowych: shochu = wódka
japońska, produkowana z batatów, ziemniaków, ryżu, jęczmienia, gryki, prosa lub kukurydzy, sake
= pochodzący z Japonii słaby kilkunastoprocentowy napój alkoholowy produkowany z ryżu.
Te żartobliwe, choć najzupełniej prawdziwe, wyniki są okazją aby zakończyć tę
pracę przypomnieniem definicji niezwykłego stanu materii jakim jest nadprzewod36
Sto lat nadprzewodnictwa
nictwo. W stanie nadprzewodzącym dwie właściwości muszą wystąpić: zerowy opór
R = 0 i ujemna podatność χ (diamagnetyzm stanu Meissnera-Ochsenfelda).
Podsumowanie
Obecnie znamy ponad 1500 pierwiastków, związków i stopów wykazujących
nadprzewodnictwo. Ich liczba stale rośnie. Rysunek 23 pokazuje skróconą historię
nadprzewodnictwa z żartobliwymi „epokami‖ jej rozwoju.
Krótka historia nadprzewodnictwa
epoka żelaza
epoka nowożytna
epoka
kamienia
epoka brązu
ETH Zürich
Tc
jc
Hc2
IBM Rüschlikon
Rys. 23. Żartobliwa historia epok nadprzewodnictwa w formie temperatura przejścia nadprzewodzącego Tc w funkcji roku odkrycia wybranych nadprzewodników.
Tabela 10. Nagrody Nobla związane z nadprzewodnictwem.
Rok
1913
1962
1972
1973
1987
1996
2003
Nazwiska
Heike Kamerlingh Onnes
Lew Landau
John Bardeen, Leon Cooper
John Schrieffer
Ivar Giaever, Brian Josephson
Georg Bednorz, Karl Müller
Robert Curlow, Richard Smalley, Harold Kroto
Witalij Ginzburg, Alexei Abrikosov, Anthony James Leggett
Za co
Skroplenie helu, odkrycie nadprzewodnictwa
Wiele prac poświęcił nadprzewodnictwu
Mikroskopowa teoria nadprzewodnictwa
BCS
Elektronika tunelowa nadprzewodnictwa
Nadprzewodniki wysokotemperaturowe
Odkrycie nowej odmiany węgla, prowadzące
do nadprzewodnictwa w fullerydach
Rozwój teorii nadprzewodnictwa i nadciekłości
37
Andrzej Kołodziejczyk
Za badania związane z nadprzewodnictwem przyznano siedem nagród Nobla,
(Tabela 10), włączając także zjawisko nadciekłości i skroplenie helu przez Kammerlingh Onnesa, http://pl.wikipedia.org/wiki/Nagroda_Nobla_w_dziedzinie_fizyki.
Krótkie podsumowanie istniejących zastosowań nadprzewodnictwa przedstawiłem na plakacie, który wisiał pośród kilkudziesięciu innych na krakowskich Plantach
dwa lata temu z okazji 90-lecia Polskiego Towarzystwa Fizycznego.
Rys. 24. Plakat dotyczący zastosowań nadprzewodnictwa z wystawy na Krakowskich Plantach
z okazji 90 -lecia Polskiego Towarzystwa Fizycznego (http://ptf.fuw.edu.pl/).
Jaka może być przyszłość nadprzewodnictwa? Nie ma najmniejszej wątpliwości,
że zostaną odkryte nowe materiały nadprzewodzące. Być może któryś z nich będzie
nadprzewodnikiem w temperaturze pokojowej. Doniesienia o nadprzewodnictwie
w temperaturze pokojowej w nanorurkach czy innych nanoukładach węgla, grafitu
itp. pojawiają się co pewien czas. Czy taki materiał będzie dawał szanse na praktyczne zastosowania? Trudno wyrokować, bo wciąż nie rozumiemy wszystkich właściwości nowych nadprzewodników. Jednym z ważnych kierunków badań są nadprzewodzące układy o bardzo małych rozmiarach tzw. układy nanoskopowe, rzędu mikro- lub nawet nanometra. Badania takich nadprzewodzących kropek kwantowych
mogą zakończyć się ich niespodziewanymi zastosowaniami.
38
Sto lat nadprzewodnictwa
Literatura
[1] H. K. Onnes, The resistance of pure mercury at helium temperatures; The disappearance
of the resistivity of mercury; On the sudden change in the rate at which the resistance of
mercury disappears; Comm. Leiden, (1911).
[2] R. B. Ouboter, Heike Kamerlingh Onnes’s Discovery of Superconductivity, Scientific
American, (1997).
[3] D. Delft, P. Kes, The discovery of superconductivity, Phys. Today, 63, no. 9, 38, (2010).
[4] D. Delft, Little cup of helium, big science, Physics Today, 36, (2008).
[5] D. Delft, H. K. Onnes, Een biografie De man van het absolute nulpunt.
[6] H. K. Onnes, Investigations into the properties of substances at low temperatures, which
have led, amongst other things, to the preparation of liquid helium, Nobel Lecture, (1913).
[7] Z. Gołąb-Meyer, Foton 101, 17, (2008).
M. Kucharski, Zygmunt Florenty Wróblewski, szkic o życiu i twórczości, Wyd. Uniwersytetu Jagiellońskiego, Kraków, (1997).
[8] H. K. Onnes, Commun. Phys. Lab. Univ. Leiden, 133d, (1913), reprinted in Proc. K. Ned.
Akad. Wet. 16, 113, (1913).
[9] W. Meissner , R. Ochsenfeld, Naturwissenschaften 21, 787, (1933).
[10] F. London, H. London, The Electromagnetic Equations of the Supraconductor, Proc. Roy.
Soc. A ,149, 71, (1935).
[11] S. Blundell, Physics World 24, no. 4, 26, (2011).
[12] V. L. Ginzburg, L. D. Landau, On the theory of superconductivity, Zh. Eksp. Teor. Fiz.,
20, 1064, (1950).
[13] A. A. Abrikosov, On the magnetic properties of superconductors of the second group, Soviet Physics JETP 5, 1174, (1957), Zh. Eksp. Teor. Fiz. 32, 1141, (1957).
[14] L. P. Gor’kov, Soviet Phys. – JETP 9, 1364, (1959); 10, 998, (1960); LP Gorkov, On the
energy spectrum of superconductors, Sov. Phys. JETP, Bd. 7, 505, (1958), (JETP Bd.34,
412, 1958); L. P. Gorkov, Microscopic derivation of the Ginzburg Landau equations in the
theory of Superconductivity, Sov. Phys. JETP, Bd. 9, 1364, (1959), L. P. Gor'kov, Sov.
Phys. JETP 36, 1364, (1959).
[15] J. Bardeen, L. N. Cooper, J. R. Schrieffer, Microscopic Theory of Superconductivity, Phys.
Rev. 106, 162, (1957); Theory of superconductivity, Phys. Rev. 108, 1175, (1957).
[16] K. I. Wysokiński, Postępy Fizyki 62, z. 5, 222-231, (2011); Acta Phys. Polon. A 121, 721,
(2010),
P. M. Grant, Down the path of least resistance, Physics World 24, no. 4, 18, (2011).
[17] B. S. Deaver, W. M. Fairbank, Experimental evidence for quantized flux in superconducting cylinders, Phys. Rev. Lett., 7, 43, (1961); R. Doll, M. Nähbauer, Experimental Proof of
Magnetic Flux Quantization in a Superconducting Ring, Phys. Rev. Lett. 7, 51, (1961).
[18] K. V. Klitzing, G. Dorda, M. Pepper, Phys. Rev. Lett., 45, 494, (1980).
[19] H. E. Hall, W. F Vinen, The Rotation of Liquid Helium II. II. The Theory of Mutual Friction in Uniformly Rotating Helium II, Proceedings of the Royal Society A: Mathematical,
Physical and Engineering Sciences 238, no. 1213, 215, (1956).
[20] A. A. Abrikosov, L. P. Gor’kov, Soviet Phys. – JETP 15, 752, (1962); W. A. Little, R. D.
Parks, Observation of quantum periodicity in the transition temperature of a superconducting cylinder, Phys. Rev. Lett. 9, 9, (1962).
[21] B. D. Josephson, Possible new effects in superconductive tunnelling, Physics Letters 1,
251, (1962); B. D. Josephson, The discovery of tunnelling supercurrents,. Rev. Mod. Phys.
46 (2), 251–254, (1974); B. D. Josephson, The Discovery of Tunneling Supercurrents, Nobel Lecture, (1973).
[22] I. Giaever, Energy Gap in Superconductors Measured by Electron Tunneling, Physical Review Letters 5 (4), 147–148, (1960).
39
Andrzej Kołodziejczyk
[23] T. Skośkiewicz, Phys. Stat. Solidi (a) 11, K123 (1972); T. Skośkiewicz, A. W. Szafrański,
W. Bujnowski, B. Baranowski, J. Phys. C: Solid State Phys. 7, 2670, (1974).
[24] A. Kołodziejczyk, B. V. Sarkissian, B. R. Coles, J. Phys. F 10, L333, (1980).
[25] Referat Prezesa PAN na I Kongresie Nauki Polskiej we Wrocławiu w 1985, Postępy Fizyki 36 (6), 1, (1985).
[26] K. Antonowicz, Possible superconductivity at room temperature, Nature 247, 358, (1974).
[27] A. Kołodziejczyk, Physica B 130, 189, (1985), A. Kołodziejczyk - habilitacja „Magnetism
and superconductivity of Y9Co7, Zesz. Nauk. AGH, Physics 2, 1046, 1-92, (986) i prace cytowane tamże, B. Wiendlocha, J. Tobola, S. Kaprzyk, A. Kołodziejczyk, Electronic structure, magnetism, and spin fluctuations in the superconducting weak ferromagnet Y4Co3,
Physical Review B, 83, 094408, (2011).
[28] N. T. Huy et al., Superconductivity on the border of weak itinerant ferromagnetism in
UCoGe, Phys. Rev. Lett., 99, 067006, (2007).
[29] F. Steglich, J. Aarts, C. D. Bredl, W. Lieke, D. Meschede, W. Franz, H. Schäfer, Superconductivity in the Presence of Strong Pauli Paramagnetism: CeCu2Si2, Physical Review
Letters 43, (25), 1892, (1979).
[30] F. Steglich , Twenty-five years of heavy-fermion superconductivity, Physica B: Condensed
Matter 359-361, 326–332, (2005).
[31] H. W. Kroto, J. R. Heath, S. C. O’Brien, R. F. Curl, R. E. Smalley, C60 Buckminster fullerene, Nature 318, 162, (1985).
[32] A. F. Hebard et al., Superconductivity at 18 K in potassium-doped C60, Nature 350, 600,
(1991).
[33] J. G. Bednorz, K. A. Müller, Zeitschrift für Physik B. 64, 189, (1986).
[34] A. Kołodziejczyk, Nadprzewodnictwo, Wykład dla studentów:
http://www.ftj.agh.edu.pl/doc/pl/seminarium/kolodziejczyk2011.pdf
http://www.fis.agh.edu.pl/kfcs/department/research_activity/superconducting-andmagnetic-materials
[35] J. Chmist, A. Lewicki, Z. Tarnawski, A. Kozłowski, J. Żukrowski, W. Woch,
A. Kołodziejczyk, K. Krop, Resistivity, Electron Spin Resonance, Mössbauer Effect and
Specific Heat of High- temperature Superconductors REBa2 Cu3O1-x with RE=Y,Eu and
Er, Acta Physica Polonica, A 74, 757, (1988).
[36] A. Kozłowski, Z. Tarnawski, A. Kołodziejczyk, J. Chmist, T. Ściężor, R. Zalecki, Physica
C, 184, 113, (1991).
[37] J. Niewolski, A. Kołodziejczyk, W. M. Woch, Mechanism of microwave absorption for ceramic high-temperature superconductors, Molecular Physics Report, 20, 199-205, (1997).
[38] Fantastic five , Check out our top five applications of superconductivity with the biggest
impact on society to day, Physics World 24, no. 4, 23, (2011).
[39] Y. Kamihara , T. Watanabe , M. Hirano, H. Hosono, J. Am. Chem. Soc. 130, 3296, (2008).
[40] Zhi-An Ren, Guang-Can Che, Xiao-Li Dong, Jie Yang, Wei Lu, Wei Yi, Xiao-Li Shen,
Zheng-Cai Li, Li-Ling Sun, Fang Zhou, Zhong-Xian Zhao, Superconductivity and Phase
Diagram in the Iron-based Arsenic-oxides (Re = rare earth metal) without F-Doping, Europhysics Letters, 83, 17002, (2008).
[41] P. M. Grant, Down the path of least resistance, Physics World 24, no. 4, 18, (2011).
[42] M. R. Swift, D. White, J. Am. Chem. Soc., 79, (14), 3641, (1957).
[43] B. Wiendlocha, J. Tobola, S. Kaprzyk, A. Kołodziejczyk, Electronic structure, magnetism,
and spin fluctuations in the superconducting weak ferromagnet Y4Co3, Physical Review B
83, 094408, (2011).
[44] K. Deguchi, Y. Mizuguchi, Y. Kawasaki, T. Ozaki, S. Tsuda, T. Yamaguchi, Y.Takano,
Alcoholic beverages induce superconductivity in FeTe1−xSx, Superconductor Science and
Technology. 24, 055008, (2011).
40
Sto lat nadprzewodnictwa
Polecane strony o nadprzewodnictwie:
http://www.superconductors.org/News.htm
http://supraconductivite.fr/en/
http://en.wikipedia.org/wiki/High-temperature_superconductivity
http://en.wikipedia.org/wiki/History_of_superconductivity
Video wykłady z okazji 100-lecia nadprzewodnictwa:
http://www.msm.cam.ac.uk/ascg/lectures/
41
42
Część II
(komunikaty naukowe)
Znaczenie obserwacji prowadzonych przy użyciu bardzo małych
i małych teleskopów
Tomasz A.J. Banyś1*, Tomasz Kisiel2
1
Katedra Prawa Rzymskiego, Wydział Prawa i Administracji, Uniwersytet Łódzki,
ul. Kopcińskiego 8/12, 90-232 Łódź
2
Katedra Luminescencji i Biofotoniki, Instytut Fizyki, Wydział Matematyczno-Przyrodniczy,
Akademia Jana Długosza, Al. Armii Krajowej 13/15, 42-200 Częstochowa
* [email protected]
Abstract
A wide network of small educational observatories, such as the Pope Silvester
II’s Astronomical Observatory in Bukowiec, Community Astronomical Observatory
in Koszecin or observatories of the Astrobase project located in the KuyavianPomeranian Voivodeship, could have much more significance than the public outreach and educational projects, or local scientific observations. Small telescopes are
excellent instruments also for full-scale astronomical observations, while remaining
an interesting alternative to bigger instruments due to being very cost-effective and
they allow such stations to enter ongoing international collaborative projects. The authors propose their definition of a very small and small telescope and present a number of observational projects that utilise such instruments in order to show their possible applications in practice.
Streszczenie
Szeroka sieć małych obserwatoriów dydaktycznych, takich jak Obserwatorium
Astronomiczne im. Papieża Sylwestra II w Bukowcu, Gminne Obserwatorium Astronomiczne w Koszęcinie czy funkcjonujące w województwie kujawsko-pomorskim
Astrobazy, miałaby znaczenie daleko wykraczające poza popularyzację astronomii
oraz projekty dydaktyczne i edukacyjne, a nawet obserwacyjne, funkcjonujące obecnie na szczeblu lokalnym. Małe teleskopy nadają się również doskonale do prowadzenia pełnowartościowych obserwacji astronomicznych, stanowiąc przy tym interesującą alternatywę dla większych instrumentów obserwacyjnych z uwagi na bardzo
dobrą relację jakości do ceny oraz umożliwiają takim placówkom włączenie się do
już funkcjonujących projektów na szczeblu międzynarodowym. Autorzy wysuwają
propozycję definicji bardzo małych i małych teleskopów oraz przedstawiają przegląd
45
Tomasz A. J. Banyś, Tomasz Kisiel
projektów obserwacyjnych wykorzystujących tego rodzaju instrumenty w celu wskazania możliwości ich praktycznego zastosowania.
Wstęp
Dwudziesty pierwszy wiek przyniósł z sobą znaczący wzrost udziału w astronomii programów badawczych wykorzystujących bardzo małe i małe teleskopy, a uzyskane przez nie wyniki wyraźnie wskazują na przydatność małych teleskopów, jako
instrumentów badawczych w astronomii. Prekursorem w dziedzinie wykorzystania
małych teleskopów (obiektywów) do uprawiania współczesnej astronomii byli
J. E. Gaustad wraz z zespołem, którzy skutecznie wykorzystali do przeglądu nieba
obiektyw od aparatu Canon o ogniskowej 52 mm [1], oraz R. Reynolds z zespołem,
którzy prowadzili udane obserwacje spektrometryczne przy użyciu 60 cm teleskopu
[2]. Od tego czasu znaleziono zastosowanie nawet dla wykorzystywanych głównie
w fotografii artystycznej obiektywów typu rybie oko (8 mm) [3], a obiektywy o typowych dla fotografii parametrach (ogniskowa 80 mm, f/1.9) wykorzystywane są
z powodzeniem do wykrywania planet [4]. Nic zatem dziwnego, że postuluje się coraz szersze wykorzystanie niewielkich instrumentów optycznych [5], zdaniem autorów słusznie.
Chcąc opisać obserwacje prowadzone przy użyciu bardzo małych i małych teleskopów należałoby pokusić się o próbę zdefiniowania pojęcia małego, jak i bardzo
małego teleskopu. W literaturze przyjmuje się umownie, że małymi teleskopami są
instrumenty o aperturze poniżej 2 m, choć wskazuje się na płynność tej definicji [6],
autorzy zdecydowali się sprecyzować stosowane w nauce pojęcia.
W tym celu należy wskazać, co należałoby rozumieć pod pojęciem bardzo małych teleskopów. Mając praktycznie ciągłe spektrum możliwych do uzyskania
w praktyce apertur trzeba zastanowić się, jakie czynniki ograniczają zdolność rozdzielczą. W praktyce jest ona ograniczona zarówno przez dyfrakcję fali światła na
szczelinie będącej obiektywem, jak i parametr związany z atmosferą, tzw. seeing.
Opisując turbulentne zakłócenia atmosfery Fried wprowadził parametr r0 pozwalający na, upraszczając, określenie skali minimalnego rozmiaru turbulencji. Dokonując przekształceń wynikających z rozważań nad modelem turbulencji Kołmogorowa
można za Hardym wprowadzić jego ścisłą definicję:
(1)
gdzie: Cn2 (z) stała struktury dla indeksu refrakcji,
k = 2π/λ liczbą falową,
ζ kątem zenitalnym teleskopu.
Czynnik r0 wyraża się w jednostkach długości i na ogół przyjmuje on wartość
pomiędzy 5 cm a 20 cm dla idealnego seeingu.
46
Znaczenie obserwacji prowadzonych przy użyciu bardzo małych i małych teleskopów
Można zatem uznać ten przedział wielkości za graniczny dla bardzo małych teleskopów, ponieważ dla apertur poniżej rozmiaru r0 głównym czynnikiem ograniczającym zdolność rozdzielczą będzie dyfrakcja, natomiast efekty turbulencji można pominąć. W efekcie można zdefiniować górną granicę 20 cm, jako wartość największej
apertury bardzo małych teleskopów.
Dla większych rozmiarów teleskopów efekt seeingu będzie zróżnicowany w zależności od apertury. Jeżeli wielkość apertury wynosić będzie niewiele ponad r0, to
na linii widzenia teleskopu znajdzie się mała liczba komórek konwekcyjnych, czego
efektem będzie drgający obraz gwiazdy.
Jeśli natomiast rozmiar teleskopu będzie wystarczający, by na jego linii patrzenia
znalazła się statystycznie znacząca liczba komórek konwekcyjnych, efekt seeingu
pochodzący od każdej z nich ulegnie uśrednieniu. Skutkować to będzie stabilnym
obrazem gwiazdy, aczkolwiek w znaczącym stopniu rozmytym – tym bardziej, im
mniej spokojna jest atmosfera. Można więc przyjąć co najmniej jeden więcej rząd
wielkości dla skali apertury. W efekcie za wielkość graniczną uznalibyśmy 10r0
(2 m), powyżej której można by mówić o dużych teleskopach.
Zarówno bardzo małe, jak i małe teleskopy posiadają szereg cech, które czynią je
z perspektywy osoby chcącej zajmować się naukowo astronomią przydatnymi instrumentami badawczymi. Podstawową zaletą obu grup jest szersze pole widzenia,
które umożliwia szybkie dokonywanie przeglądu nieba, jak również zdecydowanie
ułatwia mniej zorientowanym obserwatorom odnalezienie poszukiwanych obiektów
na niebie. W tym zakresie wydaje się, że najmniejsze spośród bardzo małych teleskopów mogą konkurować z lornetkami, w szczególności z uwagi na możliwość zdecydowanie łatwiejszego, niż w wypadku tych drugich podłączania instrumentu do
toru wizyjnego, umożliwiającego rejestrację wyników badań. Jednakże bardzo małe
teleskopy posiadają dodatkowo dwie zalety, jakimi są względna przenośność, umożliwiająca teoretycznie prowadzenie obserwacji przy ich pomocy poza terenem obserwatorium, a przede wszystkim stawiająca mniejsze wymogi co do zastosowanego
w obserwatorium montażu, oraz zdecydowanie niższa cena, plasująca je w zasięgu
budżetu zdecydowanej większości prywatnych obserwatoriów, klubów astronomicznych czy jednostkowych miłośników astronomii. Niewątpliwie ma znaczenie także
ich dostępność; pełne spektrum gotowych modeli bardzo małych teleskopów znajduje
się bowiem w ofercie każdego producenta sprzętu astronomicznego.
Jak każde jednak narzędzie, mniejsze teleskopy są bardziej przydatne przy jednych, a zdecydowanie mniej przy innych rodzajach projektów obserwacyjnych.
Wśród możliwych pól ich zastosowania można wymienić obserwacje gwiazd zmiennych, obserwacje tranzytów, mikrosoczewkowanie, obserwacje fotometryczne, poszukiwanie supernowych, poszukiwanie asteroidów oraz komet, czy wreszcie obserwacje zakryciowe. Nadają się również doskonale, z racji wspomnianego wcześniej
szerokiego pola widzenia, do obserwacji przeglądowych nieba. Jako ograniczoną należy natomiast ocenić ich przydatność w zakresie wykrywania rozbłysków gamma
z racji znacznie mniejszej siły tych rozbłysków w widzialnej części spektrum.
Z powodu konieczności prac adaptacyjnych raczej nie są wykorzystywane do obserwacji heliofizycznych, choć teoretycznie ich wykorzystanie byłoby, w ograniczonym
47
Tomasz A. J. Banyś, Tomasz Kisiel
zakresie, możliwe. Nie nadają się natomiast do prowadzenia obserwacji spektrograficznych z uwagi na niewielką ilość zbieranego światła, której nie da się zapewnić
metodą interferometryczną.
Bardzo małe teleskopy potwierdziły swoją przydatność w szczególności przy obserwacjach przeglądowych, takich jak monitorujące i katalogujące jaśniejsze gwiazdy
zmienne projekty All Sky Automated Survey (ASAS), które były wpierw prowadzone przy pomocy 7 cm teleskopu, a następnie przy użyciu teleskopu 10 cm (ASAS-N)
[5]. Ilość skatalogowanych w ten sposób gwiazd jest imponująca (wedle strony projektu w katalogu ASAS-3 ujęto ponad 15 mld krzywych zmian jasności) [7]. Instrumenty tej klasy nadają się również do poszukiwania planet pozasłonecznych metodą
obserwacji tranzytów; B. Paczyński przytacza szereg zaobserwowanych tranzytów
(TrES-1 [8], XO-1b [9], TrES-2 [10], HAT-P-1b [11], WASP-1b oraz WASP-2b
[12]) przy pomocy teleskopów 10-centrymetrowych [5]; trzeba jednakowoż wskazać,
że w wypadku poszukiwania planet pozasłonecznych konieczne jest potwierdzenie
wyników obserwacji przy pomocy większego teleskopu.
Trzeba podkreślić, że oba wskazane rodzaje projektów nadają się z powodzeniem
do przeprowadzenia przez małe obserwatoria astronomiczne, wyposażone w bardzo
małe teleskopy, takie jak wskazane na wstępie Astrobazy. W szczególności celowe
wydaje się łączenie obserwatoriów posiadających bardzo małe teleskopy w sieci naukowe, umożliwiające wymianę i weryfikację wyników obserwacji. W związku
z powyższym, na etapie planowania i budowy tego rodzaju obiektów szczególny nacisk powinien zostać położony na zapewnienie odpowiedniej infrastruktury w tym
zakresie, przede wszystkim w postaci odpowiednio szybkiego łącza internetowego
oraz niezbędnego sprzętu sieciowego.
Małe teleskopy natomiast stwarzają szersze możliwości wykorzystania, co przekłada się na liczbę projektów je wykorzystujących. John Huchra wymienia tutaj takie
projekty, jak Two Micron All-Sky Survey – 2MASS (2 x 1.3 m), ROTSE (0.45 m),
KAIT (0.76 m), LOTIS (4 x 0.111 m), WHAM (0.6 m) oraz LINEAR (1 m) [6].
Zwłaszcza ten ostatni przyniósł spektakularne rezultaty, głównie w zakresie wykrywania asteroidów i komet – wykrywając do 15 września 2011 r. 231082 obiekty,
w tym 2423 asteroidy i 279 komet [13]. Projektem wykorzystującym małe teleskopy
jest też OGLE (początkowo 1 m [14], a następnie 1.3 m [15]). Z powodzeniem do
prowadzenia obserwacji fotometrycznych i spektroskopicznych jest też używany
50 cm teleskop Carl Zeiss należący do Obserwatorium Astronomicznego UJ [16].
Należy też wspomnieć o ukraińskim projekcie UNIT (prowadząca różnego rodzaju
obserwacje przeglądowe sieć oparta początkowo o dwa teleskopy: 0.2794 m
i 0.3556 m, a następnie rozbudowana o kolejny teleskop 0.80 m) [17].
Wspólną cechą bardzo małych i małych teleskopów jest również możliwość wykorzystania ich we wstępnej części bardziej złożonych projektów obserwacyjnych,
przede wszystkim do ustalenia listy obiektów, na które warto przeznaczyć ograniczony przydział czasu obserwacyjnego na większych teleskopach.
Zdaniem autorów, nic również nie stoi na przeszkodzie, by budować sieci obserwacyjne o charakterze modułowym, składające się z obu rodzajów teleskopów, co
umożliwi wykorzystanie posiadanego przez małe obserwatoria sprzętu do prowadze48
Znaczenie obserwacji prowadzonych przy użyciu bardzo małych i małych teleskopów
nia jak największej liczby projektów obserwacyjnych. Poprzez zbudowanie lub przyłączenie do sieci obserwacyjnej, użytkownicy małych teleskopów mogą brać znaczący udział w krajowych i międzynarodowych astronomicznych projektach badawczych.
Literatura
[1] J. E. Gaustad, P. R. McCullough, W. Rosing, D. Van Buren, A Robotic Wide-Angle Hα
Survey of the Southern Sky, The Publications of the Astronomical Society of the Pacific, t.
113, z. 789, s. 1326-1348 (2001).
[2] R. J. Reynolds, S. L. Tufte, M. Haffner, K. Jaehnig, J. W.Percival, The Wisconsin H-alpha
Mapper (WHAM): A brief review of performance characteristics and early scientific results, Publications of the Astronomical Society of Australia, t. 15, z. 1, s. 14-18 (1998).
[3] L. Shamir, R. J. Nemiroff, A seemingly optical transient recorded by all-sky cameras [w:]
Publications of the Astronomical Society of the Pacific, t. 118, z. 846 (2006), s. 1180-1185.
[4] T. G. Beatty, J. Pepper, R. J. Siverd, J. D. Eastman, A. Bieryla, D. W. Latham, L. A.
Buchhave, E. L.N. Jensen, M. Manner, K. G. Stassun, B. Scott Gaudi, P. Berlind, M. L.
Calkins, K. Collins, D. L. DePoy, G. A. Esquerdo, B.J. Fulton, G. Fűrész, J. C. Geary, A.
Gould, L. Hebb, J. F. Kielkopf, J. L. Marshall, R. Pogge, K.Z. Stanek, R. P. Stefanik, R.
Street, A. H. Szentgyorgyi, M. Trueblood, P. Trueblood, A. M. Stutz, KELT-2Ab: A Hot
Jupiter Transiting the Bright (V = 8.77) Primary Star of a Binary System, Astrophysical
Journal Letters t. 756, l. 39 (2012).
[5] B. Paczyński, Astronomy with small telescopes, Publications of the Astronomical Society
of the Pacific, t. 118, z. 850, s. 1621-1625 (2006)
[6] J. Huchra, Small Telescopes in the New Millennium, Terry D. Oswalt (ed.), The Future of
Small Telescopes in the New Millennium Vol. I, Dordrecht-Boston-London 2003.
[7] Za podstroną projektu z katalogami dostępną pod adresem (dostęp z dn. 28 lutego 2013 r.)
http://www.astrouw.edu.pl/asas/?page=catalogues
[8] R. Alonso, T. M. Brown, G. Torres, D. W. Latham, A. Sozzetti, G. Mandushev,
J. A. Belmonte, D. Charbonneau, H. J. Deeg, E. W. Dunham, F. T. O'Donovan,
|R. P. Stefanik, TrES-1: The Transiting Planet of a Bright K0V Star, Astrophysical Journal
Letters t. 613, l. 153 (2004).
[9] P. R. McCullough, J. E. Stys, J. A. Valenti, C. M. Johns-Krull, K. A. Janes, J. N. Heasley,
B. A. Bye, C. Dodd, S. W. Fleming, A. Pinnick, R. Bissinger, B. L. Gary, P. J. Howell,
T. Vanmunster, A Transiting Planet of a Sun-like Star, Astrophysical Journal, t. 648,
s. 1228-1238 (2006).
[10] F. T. O'Donovan, D. Charbonneau, G. Mandushev, E. W. Dunham, D. W. Latham,
G. Torres, A. Sozzetti, T. M. Brown, J. T. Trauger, J. A. Belmonte, M. Rabus,
J. M. Almenara, R.Alonso, H. J. Deeg, G. A. Esquerdo, E. E. Falco, L. A. Hillenbrand,
A. Roussanova, R. P. Stefanik, J. N. Winn, TrES-2: The First Transiting Planet in the Kepler Field, Astrophysical Journal Letters t. 651, l. 61-64 (2006).
[11] G. A. Bakos, R. W. Noyes, G. Kovacs, D. W. Latham, D. D. Sasselov, G. Torres,
D. A. Fischer, R. P. Stefanik, B. Sato, J. A. Johnson, A. Pal, G. W. Marcy, R. P. Butler,
G. A. Esquerdo, K. Z. Stanek, J. Lazar, I. Papp, P. Sari, B. Sipocz, HAT-P-1b: A LargeRadius, Low-Density Exoplanet Transiting one Member of a Stellar Binary, Astrophysical
Journal, t. 656, s. 552-559 (2006).
[12] A. C. Cameron, F. Bouchy, G. Hebrard, P. Maxted, D. Pollacco, F. Pont, I. Skillen,
B. Smalley, R. A. Street, R.G. West, D.M. Wilson, S. Aigrain, D.J. Christian,
W.I. Clarkson, B. Enoch, A. Evans, A. Fitzsimmons, M. Fleenor, M. Gillon, C.A. Haswell,
L. Hebb, C. Hellier, S.T. Hodgkin, K. Horne, J. Irwin, S.R. Kane, F.P. Keenan, B. Loeillet,
T.A. Lister, M. Mayor, C. Moutou, A.J. Norton, J. Osborne, N. Parley, D. Queloz,
49
Tomasz A. J. Banyś, Tomasz Kisiel
[13]
[14]
[15]
[16]
[17]
50
R. Ryans, A.H.M.J. Triaud, S. Udry, P.J. Wheatley, WASP-1b and WASP-2b: Two new
transiting exoplanets detected with SuperWASP and SOPHIE, Monthly Notices of the Royal Astronomical Society, t. 375 (3), s. 951–957 (2007).
Dane za stroną programu LINEAR (dąstęp z dn. 28 lutego 2013 r.):
http://www.ll.mit.edu/mission/space/linear/; zob. też Jenifer B. Evans, Frank C. Shelly, and
Grant H. Stokes, Detection and Discovery of Near-Earth Asteroids by the LINEAR Program,Lincoln Laboratory Journal, t. 14, z. 2 (2003), s. 199-220.
A. Udalski, M. Szymański, J. Kałużny, J. Kubiak, M. Mateo, The Optical Gravitational
Lensing Experiment, Acta Astronomica, t. 42, z. 4 (1992), s. 254.
A. Udalski, M. Kubiak and M. Szymański, Optical Gravitational Lensing Experiment.
OGLE-2 the Second Phase of the OGLE Project, Acta Astronomica, t. 47, z. 3, s. 320321 (1999).
M. Siwak, S. Zola, T. Szymanski, M. Kurpinska-Winiarska, M. Winiarski, D. KozielWierzbowska, W. Waniak, M. Drahus, A photometric and spectroscopic study of WW And
an Algol-type, long period binary system with an accretion disc, New Astronomy, t. 17, z.
8, s. 692, (2012)
B. E. Zhilyaev, M. V. Andreev, Ya. O. Romanyuk, A. V. Sergeev, V. K. Tarady, Ukrainian Synchronous Network of small Internet Telescopes as rapid action instrument for
transient objects, Proceedings of the Conference "Near-Earth Astronomy - 2007, 3-7
września 2007, Rosja; V. Tarady, O. Sergeev, M. Karpov, B. Zhilyaev, V. Godunova, Observations with small and medium-sized telescopes at the Terskol Observatory, referat na
konferencji 400 Years of Astronomical Telescopes, ESTEC Noordwijk w Holandii, 29
września-2 października 2008 r.
Akceleratory jako narzędzia badań chorób nowotworowych
Kordian Chamerski , Jacek Filipecki*
Instytut Fizyki, Wydział Matematyczno-Przyrodniczy, Akademia im. Jana Długosza,
Al. Armii Krajowej 13/15, 42-200 Częstochowa
* [email protected]
Streszczenie
Akceleratory stanowią urządzenia wykorzystywane przy badaniu właściwości
materii na poziomie subatomowym, co w praktyce realizuje się poprzez przyspieszanie strumienia cząsteczek naładowanych lub pozbawionych ładunku do ogromnych
prędkości bliskich prędkościom światła, co zgodnie z równaniem Einsteina dla zależności energia-prędkość, wiąże się z ogromnym przyrostem energii cząstek. W medycynie niewielkie akceleratory zaczyna się z powodzeniem stosować do leczenia nowotworów poprzez naświetlanie ich wyprodukowanym promieniowaniem jonizującym. Celem pracy będzie opisanie klasyfikacji podziału akceleratorów, ich budowa
i zasada działania. Przedstawienie możliwości zastosowania i wykorzystania w leczeniach i terapii nowotworowej.
Wstęp
Choroby nowotworowe są, zaraz po chorobach serca, najczęstszą przyczyną
umieralności w dzisiejszej cywilizacji. Z roku na rok zachorowalność na nowotwory
złośliwe w samej Polsce jest coraz większa. Ten problem społeczny, z jakim przyszło
się zmierzyć ludzkości jest jednak możliwy do częściowego rozwiązania i dzisiejsza
medycyna przy wsparciu ze strony nauki radzi sobie z nim na różne, co raz to nowsze
sposoby.
Jedną z metod leczenia chorób nowotworowych okazuje się być radioterapia, która wykorzystuje oddziaływanie promieniowania jonizującego z tkanką nowotworową. Tę metodę można podzielić na brachyterapię oraz teleterapię. W brachyterapii
stosuje się izotopy promieniotwórcze, wprowadzane w bezpośrednie sąsiedztwo
zmiany nowotworowej, natomiast w teleterapii tkankę nowotworową naświetla się
z pewnej odległości, bez bezpośredniej styczności źródła promieniowania z ciałem
pacjenta. Ze względu na skomplikowane umiejscowienie zmian nowotworowych,
większość pacjentów jest kierowana na teleterapię. W początkach teleterapii dużą
rolę odgrywały urządzenia zwane bombami, które używały promieniowania izotopów
promieniotwórczych takich jak cez (Cs137) czy kobalt (Co60). Z czasem wynaleziono
51
Kordian Chamerski, Jacek Filipecki
układy, które umożliwiają przyspieszanie cząstek naładowanych do dużych energii
i zwrócono uwagę na możliwość ich zastosowania do terapii nowotworów. Akceleratory, bo o nich mowa, są dzisiaj powszechnie stosowane w teleterapii chorób nowotworowych na całym świecie. Pierwsze wzmianki na temat zastosowania akceleratorów w radioterapii sięgają roku 1937, kiedy to w Massachusetts General Hospital
w Bostonie zainstalowano akcelerator Van de Graaffa. Po generatorach van de
Graaffa nastała era betatronów, które zostały wyparte w latach 80-tych przez bardziej
wydajne i łatwiejsze w obsłudze układy liniowe wielkich częstotliwości. Akceleratory liniowe są dzisiaj najczęściej stosowaną aparaturą do generowania terapeutycznych wiązek elektronów oraz fotonów na całym świecie [1].
Terapeutyczne działanie cząstek naładowanych, przyspieszanych do wysokich
energii ma związek z szeregiem oddziaływań promieniowania jonizującego z materią
tkanki nowotworowej, które wywołują w komórkach nowotworowych destrukcyjne
skutki biologiczne. Dodatkowo zaletą wykorzystania promieniowania jonizującego
jest gęstość jonizacji ośrodka wywoływana przez różnego rodzaju cząstki naładowane oraz fotony, co jest odzwierciedlane w rozkładach dawek poszczególnych rodzajów promieniowania na głębokości w jonizowanym ośrodku. Aby zlikwidować
zmianę nowotworową na danej głębokości potrzebna jest wiązka promieniowania
jonizującego o określonej energii, a osiągnięcie tego zadania umożliwiają odpowiednie struktury przyspieszające, które wraz z dodatkowymi elementami i oprzyrządowaniem, zwiększają precyzję naświetlenia zadanego obszaru ciała pacjenta. Oprócz
wspomnianej struktury przyspieszającej, akcelerator terapeutyczny składa się także
ze źródła jonów, układów transportu wiązki oraz głowicy terapeutycznej, która zawiera oprzyrządowanie wspomagające odpowiednie uformowanie wiązki terapeutycznej. Całość stanowi wysoce precyzyjny, a także skomplikowany sprzęt terapeutyczny.
Przyspieszanie cząstek naładowanych przy pomocy akceleratorów liniowych
wielkiej częstotliwości
Bardzo duże znaczenie w przyspieszaniu cząstek naładowanych z punktu widzenia radioterapii mają metody wykorzystujące pole elektromagnetyczne o wielkiej
częstotliwości, a dokładnie składową elektryczną tego pola. Pierwsze struktury tego
typu służyły do przyspieszania ciężkich jonów, zatem nie były przydatne do naświetlania pacjentów. W 1928 roku Szwajcar R. Wideroe przedstawił możliwości przyspieszania za pomocą liniowej struktury wielkiej częstotliwości jonów potasu. Uzyskane przez niego wartości energii jonów wynosiły 50 keV. Przykładowa struktura
Wideroe jest przedstawiona schematycznie na Rys.1. Widać, że jest ona zbudowana
z cylindrycznych elektrod, zwanych dryftowymi, które mają różne długości. Każda
elektroda jest podłączona do generatora wielkiej częstotliwości i w danej chwili posiada przeciwną polaryzację względem sąsiednich elektrod. Przyspieszenie jonów
następuje w szczelinach pomiędzy elektrodami, natomiast wewnątrz elektrod następuje ekranowanie przyspieszanych cząstek od działania niekorzystnie zmieniającego
się napięcia przemiennego. Zmienna długość elektrod ma za zadanie spowodować, że
52
Akceleratory jako narzędzia badań chorób nowotworowych
przyspieszane jony trafią do szczelin w chwili, kiedy napięcie będzie w fazie gwarantującej przyspieszenie [1].
Rys. 1. Schemat budowy struktury Wideroe.
Około 20 lat później, w roku 1947, udało się skonstruować strukturę, która przyspieszała protony do energii 32 MeV. Nazwano ją od nazwiska konstruktora układem
Alvareza. W porównaniu z układem Wideroe, który zasilany był generatorem napięcia wielkiej częstotliwości o wartości 1 MHz, układ Alvareza wykorzystywał częstotliwość generatora radarowego równą 200 MHz. Układ ten zbudowany był z elektrod
o różnej długości zwanych rezonatorami, które na końcach miały zmienne potencjały.
W układach do przyspieszania elektronów terapeutycznych wykorzystuje się częstotliwość równą 3000 MHz. Do generowania pól elektromagnetycznych o takich wartościach służą specjalne urządzenia, takie jak magnetron czy klistron [1].
Generowanie pól elektromagnetycznych wielkiej częstotliwości
Klistrony oraz magnetrony wykorzystywane do generowania pól z zakresu mikrofal o długości 10 cm i częstotliwości 3000 MHz, są lampami, w których do wytworzenia drgań wykorzystuje się bezwładność elektronów. Z wykorzystaniem tej
właściwości można osiągnąć rezonans i odtłumienie drgań przy zmniejszeniu długości fali. Wszystko odbywa się dzięki zmianie prędkości elektronów [2]. Klistron został schematycznie przedstawiony na Rys.2. Składa się on z katody K, anody A, siatki
S, dwóch rezonatorów R1, R2, kanału sprzęgającego rezonatory l oraz wyprowadzenia
energii oscylacji na zewnątrz układu. Termoelektrony emitowane z katody zostają
przyspieszone przez pole elektryczne wytworzone między katodą a siatką i wpadają
w obszar między elementy 1, 2, gdzie indukują zmienne pole elektryczne na tych
elementach. Następuje grupowanie się elektronów polegające na spowalnianiu najszybszych elektronów oraz przyspieszaniu wolniejszych, co sprawia ujednolicenie
ich prędkości w strefie oznaczonej B. Przy wpadnięciu tak uformowanej wiązki do
obszaru ograniczonego elementami 3 i 4, następuje drganie ładunków na tych elementach, które przez linię l zostaje przeniesione do pierwszego rezonatora i wywołuje wzmocnienie drgań tam występujących. Wzmocnione drgania w pierwszym rezonatorze wzmacniają modulację prędkości, co prowadzi do wzmocnienia drgań w rezonatorze drugim. Cały proces wzajemnego wzmacniania drgań trwa aż do wytwo53
Kordian Chamerski, Jacek Filipecki
rzenia się równowagi. Wtedy energia drgań zostaje wyprowadzona przez linię współosiową w na zewnątrz [2].
Rys. 2. Schemat klistronu.
Magnetron, którego działanie jest schematycznie przedstawione na Rys. 3, jest
cylindryczną konstrukcją z umieszczoną w osi katodą oraz anodą, która jest obudową
z litego metalu. W anodzie wydrążone są współosiowe, okrągłe otwory, pełniące rolę
rezonatorów, gdzie następuje wzmocnienie fali elektromagnetycznej. Prostopadle do
rysunku skierowane są linie pola magnetycznego, których zadaniem jest zakrzywienie toru elektronów uwalnianych z katody, a które zmierzają ku anodzie dzięki polu
elektrycznemu generowanemu przez zewnętrzne źródło prądu między katodą i anodą w postaci krótkich impulsów, trwających 1 ms z częstotliwością 1000 imp/s. Podczas swojego ruchu wiązka elektronów powoduje indukowanie przeciwnych ładunków na krawędziach sąsiednich rezonatorów w danej chwili by po przyspieszeniu
w szczelinie wytworzyć indukcję przeciwną. Takie zmiany indukcji brzegów rezonatorów, wytwarzane przez przyspieszaną wiązkę elektronów poruszających się po spirali, są drganiami ładunku w wyniku których powstaje fala elektromagnetyczna
o dużej mocy i częstotliwości [2, 3].
Rys. 3. Schemat przekroju magnetronu.
54
Akceleratory jako narzędzia badań chorób nowotworowych
Metody przyspieszania elektronów z zastosowaniem wielkich częstotliwości
Wykorzystując składową elektryczną pola elektromagnetycznego o wielkiej częstotliwości, wytworzoną w magnetronie lub klistronie, przyspiesza się w radioterapii
wiązki elektronów. Wyróżnia się dwa rodzaje struktur tego typu, są to struktura z falą
bieżącą oraz z falą stojącą. Struktury przyspieszające mają cylindryczny kształt
i składają się z szeregu rezonatorów przedzielonych przesłonami, które mają na celu
dostosować prędkość fazową fali przyspieszającej do prędkości elektronów. Taki
układ rezonatorów nazywa się falowodem. Zasilanie struktury o fali bieżącej jest
podłączone punktowo w jednym końcu falowodu, natomiast w strukturze o fali stojącej może to być zarówno podłączenie na jednym z końców jak i w środku falowodu.
W strukturach z falą bieżącą wytwarzana jest fala elektromagnetyczna, której energia
niewykorzystana do przyspieszenia wiązki elektronów zostaje pochłonięta w oporze
falowym, umieszczonym na końcu struktury. W strukturach o fali stojącej opór falowy jest usunięty, aby fala mogła wielokrotnie się odbijać od końców falowodu w celu
wytworzenia fali stojącej o dwukrotnie większej amplitudzie względem fali bieżącej.
Przykładowe schematy obydwu struktur są ukazane na Rys. 4. Do zobrazowania skuteczności przyspieszania wiązek jonów daną metodą służy parametr zwany gradientem energetycznym.
Rys. 4. Schemat struktury z falą bieżącą (a) i falą stojącą (b).
Rys. 5. Budowa struktur /2. Struktura z przyspieszaniem w co drugim rezonatorze (a)
oraz struktura z rezonatorami biernymi sprzężonymi bocznie (b).
55
Kordian Chamerski, Jacek Filipecki
Określany jest on jako ilość energii, jaką uzyska cząstka na jednostkę długości toru. Wymiarem tej wielkości jest 1 keV/m lub 1MeV/m. W strukturach liniowych operuje się gradientem liniowym, a w metodach kołowych gradientem skutecznym. Gradient liniowy jest stosunkiem energii uzyskanej na całej długości struktury do długości tej struktury, natomiast gradient skuteczny jest stosunkiem całkowitej energii uzyskanej przez cząstkę w procesie przyspieszania do długości orbity struktury przyspieszającej. Dla struktur liniowych wielkiej częstotliwości wykorzystujących falę stojącą, gradienty liniowe wynoszą średnio 10-20 MeV/m. Dla porównania w strukturach
Alvareza można uzyskać gradienty liniowe rzędu 1-2.5 MeV, jednak struktury te służą do przyspieszania wyłącznie ciężkich cząstek [1]. Często wykorzystywaną strukturą przyspieszającą jest struktura o fali stojącej z rezonatorami o sprzężeniu bocznym.
Jest to zmodyfikowana struktura /2, w której gradient przyspieszenia jest osiągany
w co drugim rezonatorze struktury. W pierwotnych strukturach tego typu stosowano
układ rezonatorów umieszczanych jeden za drugim, jednak aby przyspieszanie zachodziło w każdym kolejnym rezonatorze, rezonatory nie przyspieszające umieszczono po bokach struktury. Rys. 5 przedstawia schemat budowy takiego falowodu.
Dla porównania w strukturach o fali bieżącej stosuje się struktury 2 /3, co oznacza
przyspieszanie w co trzecim rezonatorze falowodu [1]. Skuteczność procesu przyspieszania można także opisać przy pomocy dobroci układu Q, którą definiuje się
następująco:
(1)
W powyższym równaniu f0 jest częstotliwością rezonansową, f – szerokością połówkową charakterystyki częstotliwościowej. Energia zakumulowana w rezonatorze
jest całkowitą energia wytworzoną w rezonatorze, natomiast energia tracona jest wydzielana w postaci ciepła. Dobroć nieobciążonego układu rezonatorów wykonanych
z miedzi wynosi Q = 15000 [1]. Podczas przepływu elektronów maleje do Q = 104,
co przy częstotliwości rezonansowej równej 3 GHz daje szerokość połówkową równą
300 kHz. Przy wydzielaniu energii w postaci ciepła należy utrzymywać odpowiednią
temperaturę przy użyciu chłodzenia wodnego, ponieważ współczynnik rozszerzalności cieplnej miedzi powoduje zmiany częstotliwości rezonansowej równe około
60 Hz/ºC [1]. Aby dostosować częstotliwość rezonansową generatora do zmian wywołanych przez rozszerzanie się miedzi, stosuje się między generatorem napięcia
a strukturą przyspieszającą układ automatycznej regulacji częstotliwości, który dostraja częstotliwość generatora [1]. Dodatkowo między generatorem a strukturą przyspieszającą montuje się układ zwany cyrkulatorem lub izolatorem, który powoduje
wychwyt energii odbitej od struktury. Energia odbita jest niepożądanym efektem, ponieważ powoduje przestrojenie generatora. Innym parametrem konstrukcyjnym akceleratorów jest opór bocznikujący, który umożliwia obliczenie mocy wzbudzającej
pole elektryczne do przyspieszenia elektronów do konkretnej energii. Opór bocznikujący dany jest równaniem:
56
Akceleratory jako narzędzia badań chorób nowotworowych
(2)
gdzie: r – opór bocznikujący,
Ez – energia rezon sowa generatora,
dP/dz – spadek mocy wzbudzającej pole elektryczne na elemencie długości dz.
Dla częstotliwości 3 GHz opór bocznikujący zawiera się w granicach 50-120 MW/m
[1]. Konkretną wartość energii, jaką może uzyskać pakiet elektronów w danej strukturze akceleracyjnej, można wyznaczyć z zależności:
(3)
gdzie: e – ładunek elektronu,
Ex – energia kinetyczna wiazki elektronów,
V – napięcie wiązki elektronów w strukturze akceleracyjnej.
Wraz ze wzrostem natężenia wiązki elektronów maleje jednak energia kinetyczna,
jaką ta wiązka może uzyskać. Energia rzeczywista podczas obciążenia struktury wynosi:
(4)
energia zerowa przy braku obciążenia struktury wiązką elektronów, która dla struktur z falą stojącą zależy od straty mocy oraz długości struktury,
k – współczynnik redukcji energii,
I – natężenie wiązki [1].
gdzie: Ek0
Impulsy, jakimi do akceleratora są dostarczane przez źródło elektrony, posiadają
podwójną strukturę, w której można wyróżnić makro i mikrostrukturę. Makrostrukturą nazywa się ilość impulsów o czasie trwania rzędu ms, jaką zostaje dostarczona do
akceleratora w ciągu sekundy. Przy pomocy tych danych można oszacować jak długo
podczas swojego działania akcelerator pracuje z pełną mocą. Do tego celu wykorzystuje się współczynnik wypełnienia, będący iloczynem ilości impulsów w ciągu sekundy oraz czasu trwania pojedynczego impulsu. Mikrostrukturą jest ilość oscylacji,
jakie wykonuje fala elektromagnetyczna w czasie trwania pojedynczego impulsu.
Okazuje się przy tym, że każdy impuls trwający 1-10 ms posiada strukturę nanosekundową, to znaczy pojedyncza oscylacja ma miejsce w ciągu czasu rzędu 1 ns. Wyznaczanie mikrostruktury wiązki jest przydatne z punktu widzenia dozymetrii wiązki
otrzymanej, ponieważ pojedyncze impulsy mikrostruktury mają o trzy rzędy wielkości większe natężenie od średniej wartości natężenia wiązki podczas pracy akceleratora [1].
Zanim wiązka elektronów wytworzona w źródle trafi do właściwej sekcji przyspieszającej, trafia w pierwszej kolejności do układu grupowania wstępnego. Układ
ten składa się z jednego rezonatora, od którego wymaga się uzyskanie tak zwanej
kompresji wzdłużnej. Na skutek przyłożonego napięcia o amplitudzie 10-15 kV na57
Kordian Chamerski, Jacek Filipecki
stępuje ściśnięcie impulsu elektronów w jak najkrótszy pakiet. Na skutek takiej modulacji prędkości elektrony o niższych prędkościach zostają przyspieszone bardziej
niż elektrony o prędkościach wyższych. Celem grupowania jest dopasowanie fazy
elektronów rozciągniętych w impulsie do fazy drgań pola elektrycznego, do jakiej
została dostrojona struktura przyspieszająca. Następnym etapem formowania
i wstępnego przyspieszania wiązki jest właściwy układ grupujący. W nim wiązka zostaje przyspieszona do prędkości 3/4c oraz zawarta w przedziale fazowym około 30º.
W typowych rozwiązaniach terapeutycznych 30% elektronów pochodzących ze źródła zostaje zgrupowana i przyspieszona we właściwej sekcji przyspieszającej. Po
przyspieszeniu wiązka zostaje odchylona przez system magnesów w kierunku głowicy gdzie następują dalsze modyfikacje wiązki lub dodatkowo konwersja energii
wiązki na promieniowanie hamowania. Cała struktura przyspieszająca, wraz
z układami grupowania, znajduje się w próżni 109 Tr, która jest podtrzymywana
przez pompę jonowo-absorpcyjną. Podana wartość próżni jest uważana za odpowiednią dla układu, który nie pracuje [1]. Przykładowy schemat blokowy akceleratora liniowego został przedstawiony na Rys. 6.
Rys. 6. Schemat blokowy akceleratora liniowego wielkiej częstotliwości.
Elektrony dużo łatwiej przyspiesza się w strukturach liniowych wykorzystujących
generatory wielkich częstotliwości ze względu na ich małą masę. Dla ciężkich cząstek naładowanych, takich jak protony, staje się to trudne ze względu na łatwe rozogniskowanie się wiązki przy małych energiach. Aby zapobiec temu zjawisku,
wprowadzony został układ zwany kwadrupolem wielkiej częstotliwości, oznaczany
58
Akceleratory jako narzędzia badań chorób nowotworowych
skrótem RFQ (Radio Frequency Quadrupole). Układ ten został zaprojektowany przez
I. M. Kapchinkiego i V. A. Teplyakova w 1970 roku. Struktura jest zbudowana
z czterech prowadnic o falistym kształcie i łączy w sobie funkcje przyspieszania,
grupowania oraz ogniskowania wiązki. Przyspieszenie w takiej strukturze jest ciągłe,
natomiast ogniskowanie jest możliwe dzięki poprzecznemu gradientowi elektrycznemu. RFQ znajdują szerokie zastosowanie jako układy przyspieszania wstępnego
wiązki ciężkich cząstek naładowanych, na przykład jako układ poprzedzający synchrotron [1]. Schemat budowy RFQ jest przedstawiony na Rys. 7.
Rys. 7. Schemat kwadrupola wielkiej częstotliwości.
Metody kołowe przyspieszania cząstek naładowanych
W metodach kołowych przyspieszania cząstek naładowanych możliwe jest wielokrotne przyspieszenie wiązki dzięki wykorzystaniu pola magnetycznego. Istnieje
kilka metod przyspieszania, w których cząstka porusza się po okręgu. Niektóre z tych
metod ulegały na przestrzeni lat pewnym modyfikacjom zwiększającym ich skuteczność. Cyklotron można sobie wyobrazić, jako walec mający podstawę o promieniu
dużo większym od jego wysokości (r >> h), który został przecięty symetrycznie na
pół wzdłuż wysokości. Obie rozdzielone części znajdują się w niewielkiej odległości
od siebie, a pusta przestrzeń wewnątrz bryły jest miejscem ruchu cząstek przyspieszanych. Oba elementy nazywa się duantami, które po stronach podstaw obkłada się
litymi magnesami w celu wytworzenia prostopadłego pola magnetycznego. Odstęp
pomiędzy duantami jest miejscem przyspieszania cząstek, natomiast we wnętrzu duantów następuje zakrzywienie toru ruchu cząstek. Wiązka cząstek przyspieszanych
porusza się w cyklotronie po okręgach o coraz większych promieniach, tworzących
spiralę. Duanty podłączone są do generatora prądu przemiennego, a całość jest zamknięta w naczyniu próżniowym. Źródło jonów znajduje się w samym centrum akceleratora. Schemat budowy cyklotronu klasycznego jest przedstawiony na Rys. 8.
Układ wykorzystuje do przyspieszania cząstek przemienność napięcia, które generuje
pole elektryczne w szczelinie między duantami. W odstępach czasowych równych
wielokrotności połowy okresu oscylacji napięcia przemiennego następuje przebiegunowanie duantów. Jeżeli cząstka przyspieszana trafi w szczelinę przy korzystnych
warunkach biegunowości duantów, nastąpi jej przyspieszenie. Ruch cząstek jest
zsynchronizowany z częstotliwością użytego napięcia, która jest stała i zawiera się
w zakresie 10-30 MHz. Okres obiegu, zatem, też powinien być stały i można go wyznaczyć z zależności:
59
Kordian Chamerski, Jacek Filipecki
(5)
gdzie: T – okres obiegu cząstki w cyklotronie,
f – częstotliwość napięcia w cyklotronie,
mn – masa cząsteczki,
q – ładunek elektronu,
B – indukcja magnetyczna.
Rys. 8. Schemat budowy cyklotronu klasycznego.
Podczas przyspieszania cząstki naładowanej dochodzi do relatywistycznego przyrostu masy cząstki, więc cząstka, którą coraz trudniej przyspieszyć, nie nadąża za
zmianami pola elektrycznego. W związku z tym w cyklotronach klasycznych można
przyspieszać jedynie ciężkie cząstki naładowane, a energie osiągane przez cząstki
mają niskie wartości graniczne [1].
Aby warunek przedstawiony przy użyciu równania (5) był spełniony, a co za tym
idzie, można było zwiększyć możliwe do uzyskania energie cząstek, zastosowano
pewne modyfikacje w układzie cyklotronu klasycznego. Pierwszą z nich było wprowadzenie magnesów wytwarzających zmienny gradient pola magnetycznego. Efekt
można uzyskać dzięki magnesom z wgłębieniami. Dzięki temu tor cząstki zostaje
zdeformowany, cząstka w miejscach wgłębień napotyka pole o słabszej indukcji niż
w obszarach wypukłych. Tego typu magnesy w postaci litej stosuje się w cyklotronach przyspieszających do energii 100 MeV. W celu przekroczenia tej granicy stosuje się zwiększenie średnicy przyspieszającej przy pomocy zastosowania magnesów
sektorowych. Cyklotron o takich modyfikacjach nazwano cyklotronem izochronicznym [1]. Widok magnesów litych oraz sektorowych stosowanych w cyklotronach
izochronicznych przedstawia Rys. 9.
Inną modyfikacją było zastosowanie zmiennych częstotliwości napięcia przyspieszającego przy zachowaniu stałej indukcji magnetycznej. Zmienna częstotliwość napięcia powoduje synchronizację cząstki przyspieszanej ze zmianami pola przyspieszającego. Układ taki nazywa się synchrocyklotronem lub cyklotronem z modulo60
Akceleratory jako narzędzia badań chorób nowotworowych
waną częstotliwością. Zastosowanie akceleratorów wymienionych w tym paragrafie
jest w medycynie coraz szersze. Stanowią one przedmiot badań w terapii protonowej.
Najczęściej wykorzystywane są synchrocyklotrony [1].
Rys. 9. Magnesy stosowane w cyklotronach izochronicznych:
po lewej magnes lity, po prawej magnesy sektorowe.
Akceleratory kołowe, w których do przyspieszania stosuje się wiązkę elektronów,
to betatron oraz mikrotron. Betatrony były powszechnie stosowane w radioterapii do
końca lat 70-tych XX wieku, kiedy wstrzymano ich produkcję ze względu na wady,
jakie im towarzyszyły.
Rys. 10. Budowa betatronu.
61
Kordian Chamerski, Jacek Filipecki
Charakteryzowały się one małym polem napromieniowania, małym natężeniem
wiązki oraz bardzo dużą masą, co stanowiło małą poręczność tych układów. Jeżeli
chodzi o mikrotrony, te również były wykorzystywane do naświetlań pacjentów [1].
Ich rozpowszechnienie jest jednak bardzo małe w stosunku do akceleratorów liniowych wielkiej częstotliwości. Przekrój betatronu przedstawiony został na Rys. 10. Do
elementów układu zalicza się komorę przyspieszającą, która charakteryzuje się stałą
orbitą, zwaną też orbitą stabilną. Komora znajduje się pomiędzy elektromagnesami,
do których doprowadza się napięcie o częstotliwości 50-60 Hz. Wiązka elektronów
jest wstrzykiwana na stabilną orbitę i w trakcie milionów obiegów osiąga prędkości
relatywistyczne. Betatron wykorzystuje w swoim działaniu prawo indukcji Faradaya.
Pole magnetyczne pomiędzy elektromagnesami zmienia się zgodnie z okresowością
sieci i podczas narastania indukuje wirowe pole elektryczne, które jest styczne do
orbity stabilnej komory przyspieszającej. Elektrony dzięki temu doznają przyspieszenia [4].
Właściwe przyspieszanie elektronów ma miejsce jedynie w czasie równym połowie półokresu, czyli w trakcie narastania pola magnetycznego. W tym czasie musi
nastąpić przyspieszenie elektronów oraz ich wyprowadzenie ze struktury. Cykl pracy
został schematycznie ukazany na Rys. 11.
Rys. 11. Cykl przyspieszania elektronów w betatronie.
Do wyprowadzenia wiązki elektronów z układu służy uzwojenie ekspansyjne,
które pod koniec procesu przyspieszania zostaje pobudzone krótkotrwałym impulsem
o dużej amplitudzie. W wyniku zmian indukcji magnetycznej wiązka zostaje wychylona na orbitę o większym promieniu i wyprowadzona poza betatron.
W mikrotronach do przyspieszania wiązki elektronów stosuje się generatory
wielkich częstotliwości. Uzyskuje się falę elektromagnetyczną o częstotliwości
3 GHz i długości 10 cm, czyli identyczną jak w przypadku akceleratorów liniowych
wielkich częstotliwości. Cechą charakterystyczną metody mikrotronowej jest przyspieszanie wiązki w jednym punkcie jej ruchu po okręgu. Wraz ze wzrostem energii
62
Akceleratory jako narzędzia badań chorób nowotworowych
wiązki rośnie promień orbity wiązki. Wszystkie orbity są do siebie styczne w punkcie
przyspieszania, gdzie znajduje się rezonator podłączony do generatora. Zwykle mikrotrony nadają wiązce energię 0.5-1 MeV w ciągu jednego obiegu. Energie uzyskiwane na wyjściu akceleratora zawierają się w przedziale 5-50 MeV. Zaletą układu
jest możliwość wyprowadzania wiązki o konkretnej energii z dowolnej orbity [1]. Na
Rys. 12 pokazany jest schemat mikrotronu.
Rys. 12. Mikrotron.
Rys. 13. Schemat synchrotronu.
Synchrotrony są układami akceleracyjnymi, które znalazły zastosowanie zarówno
do przyspieszania elektronów jak i cięższych cząstek naładowanych. Różnica pomiędzy przyspieszaniem ciężkich i lekkich cząstek polega na wprowadzeniu modulacji
częstotliwości napięcia przyspieszającego ciężkie cząstki. Ma to związek z dużymi
zmianami prędkości tych cząstek w odróżnieniu od elektronów, które bardzo szybko
uzyskują prędkości relatywistyczne i ich dalsze przyspieszanie ma miejsce bez dużego przyrostu prędkości [1]. Przyspieszenie w synchrotronie odbywa się w komorze
o stałym promieniu. Do przyspieszenia stosuje się generatory wielkich częstotliwości,
63
Kordian Chamerski, Jacek Filipecki
które podłącza się do rezonatorów. Zakrzywienie torów cząstek gwarantują elektromagnesy rozmieszczone wzdłuż komory. Ilość elektromagnesów jest zależna od
średnicy komory, jaką chce się uzyskać. Aby utrzymać wiązkę o zwiększającej się
energii na stałej orbicie należy zastosować rosnące pole magnetyczne. Faktycznie
w trakcie procesu przyspieszania pole magnetyczne wzrasta do wartości maksymalnej dla energii uzyskiwanej w strukturze. Rys. 13 przedstawia przebieg procesu przyspieszania do energii 250 MeV w czasie. Synchrotrony umożliwiają osiągnięcie
energii protonów powyżej 1 TeV, jednak do celów radioterapeutycznych stosuje się
energie z zakresu 70-250 MeV [1]. Synchrotrony wraz z cyklotronami izochronicznymi i synchrocyklotronami znalazły zastosowanie w doświadczalnych terapiach
nowotworów.
Głowice terapeutyczne
Po przyspieszeniu wiązki cząstek naładowanych następuje jej nakierowanie przy
pomocy magnesów zakrzywiających na układ zwany głowicą. W głowicy zawarte są
elementy służące dalszej obróbce powstałej wiązki i pomiarowi jej parametrów.
Rys.14 obrazuje schemat głowic radioterapeutycznych stosowanych w akceleratorach
liniowych. W zależności czy w terapii mają być zastosowane elektrony czy fotony,
układy elementów głowic różnią się nieco od siebie. Przede wszystkim, jeżeli celem
jest osiągnięcie wiązki fotonów, należy w głowicy umieścić tarczę, na której dojdzie
do konwersji elektronów na promieniowanie hamowania. Rozkład dawki głębokościowej w radioterapii jest zależny od grubości tej tarczy. Im tarcza jest cieńsza tym
promieniowanie fotonowe jest bardziej przenikliwe. Należy także wspomnieć o niejednorodności natężenia zarówno fotonów jak i elektronów w kierunku prostopadłym
do osi wiązki. W miarę oddalania się od osi wiązki następuje spadek natężenia promieniowania, co skutkuje niejednorodnym napromienieniem danej powierzchni. Aby
zapobiec temu zjawisku stosuje się odpowiednie filtry. Dla promieniowania X jest to
filtr wyrównujący, natomiast dla strumienia elektronów folie rozpraszające. Filtry
wyrównujące konstruuje się w postaci stożka ze stali. Zadaniem filtra jest uzyskanie
pola promieniowania o dużej jednorodności i ewentualne wyeliminowanie promieniowania neutronowego, które jest efektem skażenia wiązki. Filtry stalowe nie umożliwiają utwardzania wiązki, zatem stosuje się za filtrem stożkowym folię z wolframu
absorbującą fotony niskoenergetyczne [5]. Niejednorodność wiązki elektronowej
zwiększa się wraz ze wzrostem energii wiązki. Do ujednolicenia poprzecznego natężenia wiązki elektronów można stosować układy dwóch folii. Folia pierwotna jest
wykonywana z materiału o dużej liczbie atomowej Z, z kolei folia wtórna, umieszczona od kilku do kilkunastu centymetrów niżej folii pierwotnej, jest wykonana z materiału o niskiej liczbie atomowej Z, w celu zapobieżenia wytwarzania dużej ilości
promieniowania hamowania. W celu naświetlenia ściśle określonej powierzchni, stosuje się specjalny układ przesłon zwanych kolimatorami. W starszych wersjach stosowano kolimatory, które mogły się przesuwać symetrycznie lub niesymetrycznie
względem osi wiązki [1]. W nowych rozwiązaniach stosuje się kolimatory złożone
z podwójnego szeregu prostokątnych bloczków, które przesłaniają połowę po64
Akceleratory jako narzędzia badań chorób nowotworowych
wierzchni napromienianej. Każdy bloczek jednego szeregu można przesuwać od osi
wiązki ku jej brzegowi. System taki nazywa się Multi Leaf Collimator [5]. W celu
ukształtowania profilu wiązki elektronowej stosuje się również aplikatory, dzięki którym można uzyskać przekrój kwadratowy, prostokątny lub kołowy. Aplikatory te
przeważnie mają różne wymiary, jednak istnieją także rozwiązania uwzględniające
dostosowywanie apertury do potrzeb przez pojedynczy układ o ruchomych ściankach
[1]. W radioterapii istotne jest, aby tkanka nowotworowa pochłonęła jak największą
ilość energii promieniowania przy jednoczesnym jak najmniejszym napromienieniu
tkanek zdrowych i organów szczególnie promienioczułych. Żeby w sposób kontrolowany zmienić rozkład głębokościowy dawki stosuje się filtry klinowe w kształcie
klina, który charakteryzuje się kątem rozwarcia. Fotony przechodzące przez grubszą
część klina zostają zaabsorbowane, w wyniku czego następuje w obszarze za klinem
zmniejszenie dawki, co umożliwia ochronę struktur wrażliwych. W głowicy terapeutycznej umieszcza się także układ komór jonizacyjnych do kontroli parametrów
wiązki. Za pomocą komór i połączonych z nimi układów elektronicznych stabilizuje
się takie parametry jak położenie przedniej i tylnej krawędzi strumienia, a co z tym
się wiąże, stabilizuje się energię wiązki. Stabilizacji podlegają również nierównomierności intensywności pola w osi podłużnej i poprzecznej. Dodatkowo układy dozymetryczne służą do pomiaru dawki oraz mocy dawki powstałej wiązki [1].
Rys. 14. Schemat budowy głowic radioterapeutycznych, po lewej do wytwarzania promieniowania
fotonowego, po prawej do wytwarzania wiązki elektronów.
Akceleratory jako precyzyjny sprzęt terapeutyczny
Z punktu widzenia radioterapii ważne jest aby podać dawkę, która umożliwi destrukcję tkanki nowotworowej, co dodatkowo musi iść w parze z jak najmniejszym
65
Kordian Chamerski, Jacek Filipecki
uszkodzeniem tkanek zdrowych. W praktyce ominięcie powikłań nie jest możliwe,
zatem należy dokładnie zaplanować rozkład dawki promieniowania jonizującego
w organizmie pacjenta, aby te powikłania jak najbardziej zmniejszyć. Bardzo ważne
jest, aby dysponować sprzętem, który umożliwi tak precyzyjne dostarczenie energii
do zmiany nowotworowej, aby skutecznie go zniszczyć. Na Rys. 15 ukazana jest zależność promienioczułości tkanek nowotworowych oraz tkanek zdrowych w funkcji
dawki.
Rys. 15. Charakterystyka skuteczności dawki.
Z wykresu widać, że przedział dawek, jakie uszkadzają skutecznie nowotwór,
dając przy tym jak najmniejsze powikłania jest bardzo wąski, dlatego też zaplanowanie leczenia jest trudnym zagadnieniem, wymagającym sprzętu o dużej precyzji. Bardzo ważne jest, aby sprzęt radioterapeutyczny był niezawodny i pracował stabilnie.
Ze względu na dzielenie całej terapii pojedynczego pacjenta na kilka zabiegów, zwanych frakcjami, istotna jest również powtarzalność wszelkich parametrów wiązki.
Ułożenie pacjenta także jest niezwykle ważne podczas seansu, ponieważ pozwala
precyzyjnie naświetlić zmianę nowotworową, jak również daje komfort pacjentowi.
Dużą rolę odgrywa tu stół terapeutyczny z różnego rodzaju unieruchomieniami pacjenta, a także systemy optycznego pozycjonowania pacjenta, wykorzystujące światło
laserowe. Dodatkowo na skórze chorego można odwzorować pole przy pomocy
układu optycznego zamontowanego w głowicy terapeutycznej. Wszelkie parametry
są ustalane z dużą dokładnością, aby przeprowadzić skuteczną terapię. Teleterapia
ograniczona jest zakresami energetycznymi, które kształtują się dla fotonów pomiędzy 4 a 25 MeV. Dolna granica jest stosowana przy terapii nowotworów głowy i szyi,
natomiast górna granica jest określona dla nowotworów głęboko umiejscowionych.
Zakresy energetyczne wiązki elektronów zawierają się pomiędzy 4 a 20 MeV [1].
Elektrony ze względu na swoją mniejszą przenikliwość stosuje się przy terapiach
nowotworów znajdujących się pod skórą.
66
Akceleratory jako narzędzia badań chorób nowotworowych
Rys.16. Rozkład dawki głębokiej dla promieniowania X 6 i 18 MV.
Elementem, który umożliwia poszerzenie możliwości terapeutycznych jest
wprowadzenie akceleratorów generujących wiązki o różnej energii zawartej w szerokim zakresie, a także mogących w prosty sposób przechodzić od stosowania wiązek
elektronowych do promieniowania fotonowego podczas jednego seansu. Na Rys. 16
przedstawiona jest zależność mocy dawki od głębokości w tkankach dla promieniowania fotonowego 6 i 18 MV. Jak widać dla niższej energii otrzymuje się korzystniejszy rozkład dawki na małej głębokości, natomiast dla dużej energii następuje
zmniejszenie dawki w obszarze zdrowych tkanek [1]. Na rysunku obszar docelowego
napromieniania ma grubość 8 cm. Jeżeli chodzi o znajomość rozkładu dawki, to
zgodnie z rozporządzeniami wprowadzonymi przez Międzynarodową Komisję Jednostek i Pomiarów Radiacyjnych (ICRU), powinna ona być określona w obszarach
napromienionych z dokładnością ±5% lub lepszą [1]. Jest to zadanie o tyle trudne, że
na całkowitą niepewność dla zabiegu terapeutycznego składa się wiele błędów cząstkowych, takich jak niepewność diagnozy, planowania czy kalibracji.
Istotnymi parametrami terapeutycznymi są także wielkości generowanych pól,
które dla promieniowania fotonowego osiągają wymiary 40 40 cm, a dla promieniowania elektronowego wynoszą przeważnie do 25 25 cm, a także obrót bramki
akceleratora z głowicą wokół stołu terapeutycznego, co umożliwia poszerzenie technik napromieniania. Wiązki terapeutyczne charakteryzuje się przy pomocy takich parametrów jak profil wiązki oraz rozkład głębokościowy dawki. Profil wiązki określa
obszar ograniczony dużym gradientem mocy dawki. Na Rys. 17 przedstawione są
profil wiązki oraz rozkład głębokościowy wiązki elektronów. Zjawiskiem niepożądanym na krawędzi wiązki są półcienie, które zwiększają się przy wzroście energii fotonów. W wyniku powstania półcienia krawędź wiązki ma niewielki gradient mocy
67
Kordian Chamerski, Jacek Filipecki
dawki, co uniemożliwia jednorodne napromienienie danej powierzchni. Wielkość
półcienia zależy od rozmiarów liniowych źródła oraz odległości między źródłem
i kolimatorem, a także kolimatorem a naświetlaną powierzchnią. Zależność tę można
zapisać następująco:
(6)
gdzie: S rozmiar źródła,
h odległość pomiędzy kolimatorem a naświetlaną powierzchnią,
d odległość między źródłem a kolimatorem [5].
Rozkład głębokościowy dawki definiuje się jako procentowa dawka głębokościowa, która jest stosunkiem mocy dawki na danej głębokości do mocy dawki na
głębokości odpowiadającej maksymalnej mocy dawki. Procentowa dawka na głębokości zależy w dużej mierze od energii wiązki.
Rys. 17. Po lewej profil, po prawej rozkład głębokościowy wiązki elektronowej.
Wiedza o stosowanym rodzaju promieniowania oraz jego energii jest użyteczna
podczas planowania rozkładu dawki w poszczególnych tkankach. Dla niższych energii promieniowania jonizującego dominuje w tkankach efekt fotoelektryczny, który
jest zależny od efektywnej liczby atomowej ośrodka. Przykładowo tkanka kostna posiada efektywną liczbę atomową równą 13.81, natomiast tkanka miękka liczbę równą
7.42. Różnica ta odbija się w dawce podanej na obydwie tkanki przy ekspozycji 1 R –
dla tkanki kostnej jest ona cztery razy większa niż dla tkanki miękkiej. Na skutek
powstawania większej ilości elektronów wtórnych, jakie przedostają się do tkanki
miękkiej na styku tkanek, wzrasta dawka zaabsorbowana w tkance miękkiej, co należy uwzględnić podczas planowania. W miarę zwiększania energii wiązki zaczyna
dominować efekt Comptona, co związane jest z liczbą elektronów w gramie substancji pochłaniającej promieniowanie. Dawka pochłonięta w tkance miękkiej staje się
porównywalna i nieco przewyższa dawkę pochłoniętą w tkance kostnej. Wytłumaczeniem jest to, że tkanka miękka jest zbudowana głównie z wodoru, który posiada
więcej elektronów w gramie niż inne pierwiastki.
68
Akceleratory jako narzędzia badań chorób nowotworowych
Skażenia wiązek promieniowania
Skażenie wiązek promieniowania terapeutycznego tak zwanym promieniowaniem
pasożytniczym jest często niechcianym zjawiskiem w radioterapii. Skażenie może
skutkować zmianą rozkładu dawki w obszarze terapeutycznym, a nawet może być
zagrożeniem dla pacjenta oraz personelu obsługującego akcelerator. Zarówno wiązki
fotonowe, jak i wiązki elektronowe ulegają skażeniu promieniowaniem pasożytniczym. W pierwszym przypadku dochodzi do wytworzenia się w wiązce fotonowej
wtórnych elektronów. Jest to związane ze zwiększaniem pola naświetlenia. Ma to
swoje odbicie w położeniu maksymalnej procentowej dawki na coraz mniejszych
głębokościach. Jeżeli chodzi o promieniowanie elektronowe, to w wiązce dochodzi
do wytworzenia fotonów w wyniku hamowania elektronów w materiałach, z których
wykonano poszczególne elementy głowicy terapeutycznej. Najczęściej promieniowanie hamowania powstaje w okienku wylotowym, które jest zakończeniem struktury
przyspieszającej, ale zjawisko konwersji ma także miejsce w filtrach rozpraszających,
kolimatorach i aplikatorach. Zazwyczaj stanowi od 1-3% natężenia wiązki, przy
energiach dochodzących do 15 MeV. Wraz ze wzrostem energii wiązki powyżej
15 MeV następuje wzrost udziału promieniowania hamowania w wiązce. Powstanie
fotonów X jest szczególnie niekorzystne ze względu na możliwość napromieniania
tkanek zdrowych u pacjenta. Najbardziej niekorzystnym rodzajem promieniowania,
jakim może zostać skażona wiązka terapeutyczna jest strumień neutronów. Powstałe
w wyniku reakcji elementów głowicy z promieniami X bądź wiązką elektronów, neutrony, są niebezpieczne dla pacjenta, jak również dla personelu. Tłumaczy się ten fakt
dużą względną skutecznością biologiczną neutronów, która jest w stosunku do promieniowania fotonowego czy elektronowego 10-15 krotnie większa. Ponadto powstała wiązka neutronów jest izotropowa. Neutrony powstają głównie w zakresie energetycznym 5-25 MeV i częściej dotyczą fotonów, a jest to związane z dużo większym
natężeniem wiązki elektronów potrzebnych do konwersji na promieniowanie X. Zjawiskiem odpowiedzialnym za powstawanie szybkich neutronów jest fotorozszczepienie jądra. Najczęściej miejscem powstawania neutronów są kolimatory. W mniejszym stopniu strumień neutronów powstaje w tarczy oraz filtrach wyrównujących
[1].
Systemy planowania rozkładu dawki
Do wyznaczenia rozkładu dawki w ciele pacjenta, jaka powinna być podana, stosuje się systemy komputerowe, które sprawnie przyspieszają planowanie leczenia.
System planowania 2D wykorzystuje rozkład dawki w płaszczyźnie głównej, czyli
w kierunku padania wiązki promieniowania na ciało pacjenta. W leczeniu wykorzystuje się różne techniki napromieniania, wśród których można wyróżnić naświetlenie
dwoma wiązkami przeciwległymi lub technikę obrotową. Techniki te bazują na większej ilości wiązek, stąd należy wyznaczyć w ciele pacjenta sumaryczną dawkę pochodzącą od wszystkich wiązek promieniowania. Systemy 2D tworzą siatkę dawek
rozłożonych w ciele pacjenta w celu wizualizacji rozkładu dawki. Przykład rozkładu
69
Kordian Chamerski, Jacek Filipecki
dawki został ukazany na Rys. 18 [5]. Ponieważ ciało pacjenta jest bryłą, którą rozpatruje się w trzech wymiarach, dogodnym staje się planowanie rozkładu dawki przy
pomocy systemów trójwymiarowych 3D. Systemy te pracują z wykorzystaniem skanów stworzonych za pomocą tomografii komputerowej, co umożliwia dokładne odtworzenie struktur wewnętrznych ciała pacjenta. W odróżnieniu od systemów 2D,
które są systemami współpłaszczyznowymi, systemy 3D stosują wiązki o polach
niewspółpłaszczyznowych, dlatego możliwe jest zaplanowanie naświetleń pod różnymi kątami padania wiązki na ciało pacjenta [5].
Rys. 18. Rozkład dawki zaplanowany przy użyciu systemu 2D.
Istnieje także metoda planowania leczenia zwana IMRT (Intensity-Modulated
Radiation Therapy). Wykorzystuje ona niejednorodne pola napromieniania, które po
złożeniu w całość dają jednorodne napromienienie zadanej objętości z jednoczesnym
ominięciem narządów krytycznych. W planowaniu IMRT oraz 3D stosowane są takie
parametry głowicy terapeutycznej jak jej obrót wokół izocentrum, a także obrót kolimatorów wokół osi wiązki. Użyteczne stają się też zmiany położenia stołu terapeutycznego. Ponadto IMRT wykorzystuje kolimatory MLC w celu generowania pól
o zmiennej intensywności w trakcie trwania naświetlenia. W planowaniu 3D kolimatory listkowe są jedynie statycznymi przesłonami [6].
Kontrola parametrów jakościowych akceleratorów terapeutycznych
Aby sprzęt radioterapeutyczny działał sprawnie należy przeprowadzać kontrolę
jakości wszystkich parametrów użytkowych akceleratora. Przymus przeprowadzania
kontroli jest narzucony przez odpowiednie zapisy w rozporządzeniu ministra zdrowia
w sprawie warunków bezpiecznego stosowania promieniowania jonizującego dla
wszystkich rodzajów ekspozycji medycznej z dnia 18 lutego 2011.
Konserwacji sprzętu terapeutycznego dotyczy paragraf 41 rozporządzenia ministra zdrowia. Jest w nim mowa o okresowym wyłączeniu aparatu z eksploatacji
w celu sprawdzenia jego sprawności technicznej i dozymetrycznej. Czas na przepro70
Akceleratory jako narzędzia badań chorób nowotworowych
wadzenie kontroli jakości sprzętu radioterapeutycznego musi być uwzględniony podczas przeprowadzania terapii pacjentów [7].
W załączniku 6 omawianego rozporządzenia można znaleźć, które parametry
aparatów terapeutycznych powinny podlegać kontroli oraz jaka powinna być częstotliwość przeprowadzanych kontroli. Poszczególne parametry techniczne i dozymetryczne akceleratorów są sprawdzane przez techników elektroradiologii, fizyków medycznych oraz pracowników serwisu sprzętu terapeutycznego. Kontrolę można podzielić na przeprowadzane codziennie, raz w tygodniu, raz na pół roku oraz raz do
roku. Wśród parametrów kontrolowanych codziennie przez techników lub fizyków
medycznych znajduje się pomiar dawki względnej wszystkich stosowanych wiązek
promieniowania. Raz w tygodniu sprawdzaniu podlegają kolimatory, kliny oraz centratory, a także moc dawki określana w fantomie tkankopodobnym. Nie rzadziej niż
raz na pół roku testuje się bardziej szczegółowe parametry aparatu, jak moc dawki
pod różnymi kątami ustawienia głowicy, sprawność stołu terapeutycznego, jakość
wiązek promieniowania, jednorodność pól promieniowania. W przypadku pomiarów
przeprowadzanych przynajmniej raz do roku kontroli podlegają współczynniki klinów mechanicznych, a także stabilność podawanej dawki przez akcelerator w czasie
całego dnia pracy [7].
Niekonwencjonalne metody radioterapii
Do niekonwencjonalnych metod naświetleń zalicza się terapie przy użyciu ciężkich cząstek naładowanych oraz neutronów. Metody z zastosowaniem tych cząstek są
nadal w trakcie ulepszania. Głównym problemem w rutynowym zastosowaniu metod
niekonwencjonalnych są koszty budowy szpitalnych akceleratorów generujących tego typu promieniowanie. Zainteresowanie w radioterapii ciężkimi cząstkami naładowanymi oraz neutronami wynika z ich działania biologicznego na żywe tkanki oraz
z rozkładu głębokościowego podawanej dawki, która jest zbliżona do ideału. Jako
idealną sytuację należy rozumieć maksymalną dawkę podawaną w obszar nowotworu
i jej zminimalizowanie w obszarach poza zmianą nowotworową. Jedna trzecia
wszystkich chorób nowotworowych wykazuje dużą radiooporność względem rutynowych metod fotonowych oraz elektronowych. Terapie przy użyciu ciężkich jonów
umożliwiają pokonanie radiooporności nowotworów, czyli zjawiska wynikającego
z niskiego poziomu utlenowania nowotworu [1].
Terapia przy użyciu protonów
Protony ze względu na większą gęstość jonizacji w porównaniu z elektronami
oraz większy zasięg głębokościowy, są obecnie stosowane, jako metoda naświetleń
ciężko dostępnych chorób nowotworowych z obszarów między innymi głowy i szyi.
Zakresy energetyczne wiązek protonowych stosowanych w radioterapii mieszczą się
w przedziale 70-250 MeV. Dolna granica odpowiada zasięgowi 4 cm, natomiast granica górna zasięgowi 38 cm. Pojedyncza wiązka protonów jest w stanie naświetlić
niewielką grubość ośrodka, a to na skutek bardzo krótkiej drogi, na jakiej protony
71
Kordian Chamerski, Jacek Filipecki
tracą swoją całą energię. Droga ta wynosi zazwyczaj kilka milimetrów. W celu poszerzenia omawianego obszaru napromienienia stosuje się pewne metody, które
umożliwiają dostosowanie wiązki do rozmiarów nowotworu. Taką metodą jest technika modyfikacji zasięgu, na którą składają się dwa procesy. Pierwszym z nich jest
zmiana energii wiązki, która ma na celu zmianę głębokości prążka Bragga. Drugim
jest zmiana intensywności wiązki, co umożliwia osiągnięcie wiązki jednorodnej
w całym obszarze napromieniania. Technika modyfikacji zasięgu została przedstawiona schematycznie na Rys. 19. Dużą zaletą naświetlania przy użyciu wiązki protonów jest duża precyzja przy ustalaniu rozkładu głębokościowego dawki, dzięki czemu możliwe jest mniejsze napromienienie tkanek zdrowych. Dodatkowym atutem
jest zmniejszenie czasu trwania terapii nowotworów głowy [1].
Rys. 19. Schemat techniki modyfikacji wiązki przez zmianę energii wiązki (a) i korekscję intensywności (b).
Akceleratory do przyspieszania wiązek protonów, ze względu na swoje duże ro
miary, umieszcza się poza pomieszczeniem do naświetleń pacjentów. Istotnym elementem aparatu radioterapeutycznego staje się układ transportu wiązki do pomieszczenia naświetleń. Pierwszą metodą jest użycie nieruchomego kanału, który umożliwia naświetlanie pacjenta siedzącego. Takie rozwiązanie jest dobre do terapii nowotworów głowy. Drugą metodą jest zastosowanie układu korkociągowego, który składa się z trzech magnesów zakrzywiających wiązkę, dwóch odchylających wiązkę
o kąt prosty i jednego odchylającego o kąt 135º, który nakierowuje wiązkę na izocentrum. Drugie rozwiązanie daje możliwość zastosowania głowicy terapeutycznej obra72
Akceleratory jako narzędzia badań chorób nowotworowych
cającej się o kąt pełny wokół izocentrum [1]. Na Rys. 20 ukazany jest układ typu
korkociąg.
Rys. 20. Schemat układu typu korkociąg.
Ważne jest także dopasowanie do rozmiarów nowotworu obszaru, w którym
wiązka zostaje wyhamowana. Takie dopasowanie polega na rozpraszaniu przy pomocy układów folii rozpraszających lub magnesów, które muszą być układami niezależnymi względem układów regulujących głębokość wiązki. Dzięki tym układom można
uzyskać pola o średnicach dochodzących do 30 cm. Akceleratorami stosowanymi
w terapii protonowej są synchrocyklotrony, cyklotrony izochroniczne oraz synchrotrony. W początkach wykorzystywania wiązek protonów do naświetlań pacjentów,
wykorzystywano akceleratory przeznaczone pierwotnie do badań naukowych lub
produkcji radiofarmaceutyków [1].
Terapia przy użyciu ciężkich jonów
Technika leczenia chorób nowotworowych przy użyciu ciężkich jonów jest na
bardzo wczesnym etapie. W porównaniu do metod leczenia przy użyciu protonów
i neutronów jest ona rzadziej stosowana ze względu na niedostateczne dopracowanie
tej metody oraz większe koszty budowy akceleratorów do zastosowań medycznych
[1].
Metoda leczenia przy użyciu ciężkich jonów jest jednak, pomimo dużych kosztów, bardzo perspektywiczna, a to ze względu na cechy, jakimi charakteryzuje się ten
rodzaj promieniowania. Przede wszystkim ciężkie jony posiadają większy WSB
(współczynnik szkodliwości biologicznej), a co za tym idzie umożliwiają leczenie
nowotworów radioopornych. Górna granica zakresu energetycznego dla terapii ciężkimi jonami sięga 400-500 MeV/nukleon. Jak wiadomo, każdy jon posiada inną ilość
nukleonów w jądrze, które odpowiadają za masę jonu, a zatem za skuteczność przyspieszenia jonu. Energie całego jonu są wielkościami dużo większymi w porównaniu
73
Kordian Chamerski, Jacek Filipecki
z energią podawaną na jeden nukleon. Przykładowo, aby przyspieszyć jon neonu do
energii 470 MeV/nukleon, czemu odpowiada zasięg 20 cm, należy nadać całej cząstce energię 9.4 GeV [1]. Ze względu na tak duże energie, do wytworzenia wiązki
ciężkich cząstek naładowanych wykorzystuje się synchrotrony. Obecnie metoda naświetlania przy pomocy ciężkich jonów napotyka trudności przy naświetlaniu obszarów ciała, które ulegają przemieszczeniu na skutek oddychania czy bicia serca, dlatego stosuje się ją przy terapii nowotworów głowy, szyi oraz okolic kręgosłupa [1, 8].
Terapia przy użyciu neutronów
Neutrony charakteryzują się większymi wartościami współczynników LET (Linear Energy Transfer) oraz WSB, co sprawia, że są również wykorzystywane w radioterapii. Obecnie wykorzystuje się metodę otrzymywania wiązki tych cząstek
w reakcji bombardowania tarczy berylowej protonami o energii do 66 MeV. Średnia
wartość energii neutronów generowanych przy pomocy protonów osiąga 30 MeV.
Otrzymywane wiązki neutronowe, są skażone promieniowaniem gamma, które jest
wytwarzane w tarczy berylowej oraz w ośrodku absorbującym energię wiązki. Skażenie wynosi około 15%, jednak ze względu na mniejsze WSB w porównaniu z neutronami, promieniowanie pasożytnicze nie jest brane pod uwagę [1].
Przegląd najnowszych akceleratorów medycznych
W Tabeli 1 zestawione zostały najnowsze akceleratory medyczne do teleterapii
według ich parametrów istotnych z punktu widzenia przeprowadzania leczenia. Do
tych parametrów należą energie uzyskiwanych wiązek fotonowych i/lub elektronowych, maksymalna moc dawki, przypadająca na dany rodzaj promieniowania, wielkości maksymalnych pól terapeutycznych, kąt obrotu głowicy terapeutycznej wokół
izocentrum oraz odległość źródła od izocentrum (source-axis distance). Obecnie produkcją akceleratorów liniowych przeznaczonych do teleterapii zajmują się cztery
firmy, wśród których znajduje się także polski producent. Są to firmy: Varian,
Siemens, Elekta oraz polski Zakład Aparatury Jądrowej (ZdAJ). Varian i Siemens są
cenionymi firmami w dziedzinie produkcji sprzętu do teleterapii z długą historią, natomiast Elekta jest producentem bazującym na osiągnięciach i rozwiązaniach
Philipsa. ZdAJ, z kolei, jest jednostką strukturalną Narodowego Centrum Badań Jądrowych, mieszczącego się w Świerku pod Warszawą, i również może poszczycić się
dużym doświadczeniem w produkcji sprzętu do teleterapii, które sięga lat siedemdziesiątych ubiegłego wieku [1]. W tabeli 2 zestawiono 10 aparatów terapeutycznych, z których cztery służą do uzyskiwania jedynie wiązek fotonowych o niskich
energiach. Są to dwa akceleratory Variana: Clinac 6 EX oraz Clinac 600 C/D oraz
akcelerator ZdAJ – Coline 4. Firma Varian wypuściła także model nickoenergetyczny
Clinac iX, który oprócz promieniowania X generuje także wiązkę terapeutycznych
elektronów. Jak widać z tabeli firma Siemens specjalizuje się w produkcji akceleratorów średnich i wysokich energii. W modelu Primus możliwe jest uzyskiwanie dwóch
wiązek fotonowych z zakresów 4-10 MeV oraz 6-23 MeV jednocześnie. Elekta pro74
Akceleratory jako narzędzia badań chorób nowotworowych
dukuje akceleratory wieloenergetyczne, które są bardzo uniwersalne, jeżeli chodzi
o zastosowania terapeutyczne. Polski producent wypuszcza na rynek trzy modele akceleratorów. Są to modele niskoenergetyczne, na średnie energie oraz wysokoenergetyczne. Jeżeli chodzi o maksymalną moc dawki, to uzyskiwane wartości dla akceleratorów niskoenergetycznych Variana są wyższe w porównaniu z produktem ZdAJ –
Coline 4.
Tabela 1. Zestawienie obecnie produkowanych akceleratorów medycznych wraz z ich parametrami
użytkowymi.
Producent
Model
Rodzaj
promieniowania
X
Energia
[MeV]
4
Varian
Clinac iX
e-
4, 5, 6
Varian
Clinac 6EX
Clinac 600
C/D
X
4, 6
X
4, 6
Clinac
2100 C
X
Varian
Varian
Siemens
Primus
Siemens
Oncor
Expression
Siemens
Oncor
Impression
mid-energy
40 × 40
250, 600
40 × 40
25 × 25
40 × 40
40 × 40
eX
eX
6-23
eX
6-21
10
400
250, 500
300
200-300,
300-500
300, 900
200-300
e-
5-14
300, 900
25 × 25
600
40 × 40
400
25 × 25
600
40 ×40
400
25 × 25
200
300
50, 100,
200, 300
600
30 × 30
40 × 40
ZdAJ
ZdAJ
Coline 4
Coline 10
X
X
4, 6, 10, 15,
18, 25
4, 9, 12, 15,
18, 20
4, 6, 8, 10,
15, 25
4, 6, 8, 10,
12, 15, 18,
20, 22
4
9
ZdAJ
Coline 15
e-
6, 8, 10
X
6,9
Synergy
eX
Elekta
250, 400
Dwie energie
4-23
4
4-10 i 6-23
6-21
X
Elekta
Rozmiar
pola
[cm2]
300, 400, 600 40 × 40
300, 400,
25 × 25
1000
400, 600
40 × 40
Moc dawki
[rad/min]
Precise
e-
40 × 40
25 × 25
40 × 40
25 × 25
40 × 40
75
Kordian Chamerski, Jacek Filipecki
Maksymalne moce dawek dla akceleratorów wysokoenergetycznych wszystkich
producentów oprócz Siemensa wynoszą 600 rad/min. Sprzęt Siemensa może uzyskać
moc 500 rad/min. Mocami dawek pochodzącymi od wiązek elektronowych, które
często się pojawiają w zestawieniu, są moce 300 i 400 rad/min. Maksymalne dawki
sięgają 1000 rad/min dla niskoenergetycznego Clinaca i X oraz wysokoenergetycznego Coline 15. Maksymalne rozmiary pól napromienianych wynoszą dla wszystkich
akceleratorów 40 × 40 cm w przypadku wiązki fotonów i 25 × 25 cm w przypadku
wiązki elektronów. Wyjątki stanowią tutaj sprzęt Siemens Primus generujący pole
elektronowe 40 × 40 cm oraz Coline 4, który osiąga pole napromieniania fotonami
o wymiarach 30 × 30 cm. Obrót bramki z głowicą terapeutyczną wokół izocentrum
dla akceleratorów Varian i Siemens wynosi 370º, natomiast w przypadku aparatów
Elekty 365º. Akceleratory ZdAJ charakteryzują się obrotem bramki o kąt 360º.
W przypadku odległości źródła od izocentrum niemal wszystkie aparaty cechuje odległość 100 cm. Jedynie aparat Coline 4 posiada SAD wynoszące 80 cm. Z zestawienia widać, że każdy producent jest oryginalny, jeżeli chodzi o pewne parametry swoich aparatów radioterapeutycznych, jednak istnieją parametry, takie jak rozmiar pola
napromienienia, czy odległość SAD, które są ujednolicone dla wszystkich. Na szczególną uwagę ze względu na uniwersalność zasługuje sprzęt firm Siemens oraz Elekta
[1, 9].
W Tabeli 2 przedstawione zostały parametry techniczne poszczególnych akceleratorów terapeutycznych, uwzględniające rodzaj struktury przyspieszającej aparatu
oraz jej długość, a także rodzaj zastosowanego generatora wielkiej częstotliwości
i moc jaką ten generator uzyskuje w impulsie. Poza sprzętem firmy Elekta, wszyscy
inni producenci stosują strukturę o fali stojącej w swoich rozwiązaniach. W parze za
tym idzie długość struktury, która w aparatach o fali stojącej wynosi 0.3-1.4 m, natomiast dla fali bieżącej 2.5 m. Jeżeli chodzi o generator wielkiej częstotliwości, to
wykorzystywane są zarówno magnetrony jak i klistrony. Te drugie mają zastosowanie raczej w aparatach wysokoenergetycznych. Magnetrony z kolei są częściej wykorzystywane i generują fale o mocy 2.5-5 MW, podczas gdy klistrony umożliwiają
uzyskanie fali o mocy 5.5-7.5 MW. Spośród producentów wymienionych w zestawieniu, w zakładach radioterapii w Polsce najczęściej można się spotkać ze sprzętem
Varian oraz Siemens. Nieco mniejszy udział mają urządzenia marki Elekta i ZdAJ.
Z rozwiązań firmy Varian korzystają obecnie takie ośrodki w Polsce jak Zakład Radioterapii Wielkopolskiego Centrum Onkologii w Poznaniu, Zakład Teleradioterapii
przy Centrum Onkologii Instytut im. Marii Skłodowskiej-Curie w Warszawie, który może się również pochwalić akceleratorem Coline oraz Zakłady Radioterapii
z oddziałami instytutu w Krakowie i Gliwicach. Sprzęt Siemensa używany jest przy
teleradioterapii między innymi w Zakładzie Radioterapii Szpitala im. Stanisława
Leszczyńskiego w Katowicach, Zakładzie Radioterapii Szpitala Wojewódzkiego
im. Karola Marcinkowskiego w Zielonej Górze, Zakładzie Radioterapii Centrum Onkologii Ziemi Lubelskiej w Lublinie. Sprzęt Elekty jest stosowany obecnie w Zakładzie Radioterapii Wojewódzkiego Szpitala Specjalistycznego im. Najświętszej Maryi
Panny w Częstochowie, a także Zakładzie Radioterapii przy Białostockim Centrum
Onkologii im. Marii Skłodowskiej-Curie.
76
Akceleratory jako narzędzia badań chorób nowotworowych
Tabela 2. Zestawienie akceleratorów liniowych według parametrów technicznych.
Producent
Model
Varian
Varian
Clinac iX
Clinac 6EX
Clinac 600
C/D
Clinac 2100
C
Primus
Oncor
Expression
Oncor
Impression
mid - energy
Synergy
Precise
Coline 15
Varian
Varian
Siemens
Siemens
Siemens
Elekta
Elekta
ZdAJ
z falą stojącą
z fala stojącą
Długość
struktury
[m]
1.3
0.3
z falą stojącą
klistron
magnetron
Moc
generatora
[MW]
5.5
3
0.3
magnetron
2.5
z falą stojącą
1.3
klistron
5.5
z falą stojącą
1.2
klistron
7.5
z falą stojącą
1.2
klistron
7.5
z falą stojącą
1.2
magnetron
2.6
z fala bieżącą
z fala bieżącą
z fala stojącą
2.5
2.5
1.4
magnetron
magnetron
magnetron
5
5
3.1
Rodzaj
struktury
Generator
w. cz.
Innym ośrodkiem terapii protonowej jest National Institute of Radiological
Science w Chiba (Japonia), który już w 1979 roku uruchomił pierwsze stanowisko
cyklotronowe do naświetleń protonami. W ośrodku NIRS powstał także projekt
HIMAC (Heavy Ion Medical Accelerator in Chiba), gdzie zastosowano synchrotron
do napromieniowań jonami węgla. W Europie ośrodkiem, w którym praktykuje się
leczenie przy pomocy jonów węgla jest GSI w Darmstadt (Niemcy). W Polsce, po
utworzeniu NCRH, mają ruszyć prace z budowaniem ośrodka w Warszawie, gdzie
przeprowadzane będą terapie przy pomocy jonów węgla. Produkcją synchrotronów
medycznych zajmuje się między innymi japońska firma Mitsubishi Electric.
W ofercie firmy można znaleźć projekty ośrodków do naświetleń protonami
o energiach 70-250 MeV oraz jonami węgla o energiach 380 MeV/nukleon przy
użyciu synchrotronu [10-12].
Podsumowanie
Akceleratory do zastosowań radioterapeutycznych, są bardzo skomplikowanymi
pod względem technicznym układami, jednak trud włożony w zaprojektowanie
takiego zaawansowanego technicznie urządzenia jak najbardziej się zwraca podczas
leczenia chorób nowotworowych. Można stwierdzić, że obecna skuteczność
planowania rozkładu dawki jest nadal niezadowalająca, ponieważ w dalszym ciągu
poszukiwane są lepsze, precyzyjniejsze metody planowania leczenia. Aby móc
w bardziej dokładny, równomierny sposób dostarczyć dawkę do miejsca, gdzie
zlokalizowana jest zmiana nowotworowa, potrzebne jest urządzenie generujące
77
Kordian Chamerski, Jacek Filipecki
wiązkę wywołującą odpowiednie efekty fizyczne i biologiczne w tkance
nowotworowej. Dzięki rozwinięciu się metod przyspieszania cząstek już niedługo
możliwe będzie przejście od i tak dokładnej metody naświetlania za pomocą
akceleratorów liniowych wielkiej częstotliwości do metody wykorzystującej
cyklotrony i synchrotrony, generujące wiązki protonów i jonów węgla. Obydwie
metody teleradioterapii są na razie metodami podlegającymi licznym badaniom,
a koszt wybudowania jednego centrum radioterapii protonowej czy jonowej jest dużo
większy od zainstalowania w szpitalnych pomieszczeniach małego akceleratora
liniowego. Ciągły wzrost zachorowań na nowotwory, z którymi wiążą się liczne
zgony, jest motorem napędowym do jak najszybszego dostosowania akceleratorów
jonowych do wymogów terapii, co umożliwi zwiększenie skuteczności radioterapii
i pozwoli ludzkości poradzić sobie z problemem nowotworów.
Literatura
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
78
W. Scharf, Akceleratory biomedyczne, PWN , Warszawa 1994.
A. H. Piekara, Elektryczność, materia i promieniowanie, PWN, Warszawa 1986.
J. Chmielewski, Mikrofalówka, „Młody technik”, 6, 29 (2005).
A. Strzałkowski, Wstęp do fizyki jądra atomowego, PWN, Warszawa 1979.
W. Łobodziec, Dozymetria promieniowania jonizującego w radioterapii, WUŚ, Katowice
1999.
M. Giżyńska, Analiza rozkładu dawek w radioterapii z zastosowaniem modulacji
intensywności dawki w porównaniu z radioterapią konformalną, Warszawa 2006,
Uniwersytet Warszawski, Wydział Fizyki, praca magisterska, s.22.
Rozporządzenie Ministra Zdrowia z dnia 18 lutego 2011 r. w sprawie warunków
bezpiecznego stosowania promieniowania jonizującego dla wszystkich rodzajów ekspozycji
medycznej.
R. Mould, Statystyka zachorowań na nowotwory ze szczególnym uwzględnieniem raka
prostaty, okrężnicy i odbytnicy, płuca oraz piersi i szyjki macicy, Nowotwory, Journal of
Oncology, 58, 156 (2008).
G. Kraft, Terapia nowotworów przy użyciu ciężkich jonów, Towarzystwo Popierania
Ciężkojonowej Terapii Nowotworów, Ed. V. Darmstadt 2005.
Biofizyka, pod red. F. Jaroszyka, Wydawnictwo lekarskie PZWL, Warszawa 2001.
D. J. Griffiths, Podstawy elektrodynamiki, PWN, Warszawa 2001.
W. Scharf, Akceleratory cząstek naładowanych, PWN, Warszawa 1989.
Microwave spectroscopy as a tool for studying the nuclei
of active comets
Michał Drahus
California Institute of Technology, Pasadena, USA
[email protected]
Abstract
The nuclei of active comets emit molecules anisotropically from discrete vents.
The properties of outgassing (rate and direction) of each active source continuously
change in a closed cycle over the course of nucleus rotation. A natural tool for studying these effects is microwave spectroscopy, which is sensitive to cometary molecules
through their rotational transitions and which offers unique insights into their kinematics as the spectra are velocity-resolved. Using this technique, we investigated the
HCN atmosphere of comet 8P/Tuttle, which had an unusually favorable apparition in
winter 2007/2008. We detected short-term evolution of the spectral line profile, suggesting the nucleus rotation period of 5.7 h or 11.4 h, in agreement with the results of
other studies. Subsequent modeling with a newly developed algorithm yielded several
additional properties of the nucleus, including the spin-axis orientation, the meandiurnal HCN production rate, the gas-flow velocity, and the distribution of activity
sources over the nucleus body. It also clearly favors the 11.4 h rotation period over
the shorter solution.
Introduction
8P/Tuttle is a Halley-type comet with an orbital period of 13.6 yr and perihelion
at 1.0 AU. Although known since the end of the 18th century, it had remained relatively poorly characterized until the last apparition, which was by far the most favorable since its discovery. Around the New Year’s Day of 2008, the comet approached
the Earth to only 0.25 AU and at the same time was perfectly placed in the northern
hemisphere. This prompted several observing campaigns and resulted in very rich
observational material collected across all wavelengths.
Interesting results about the nucleus rotation, unknown prior to this apparition,
came from several groups using a handful of different techniques. Schleicher &
Woodney [24] and Woodney et al. [26, 27], and independently Waniak et al. [25],
carried out narrowband optical imaging of the CN coma. Both groups observed recurrent shells from which they inferred the rotation period of 5.7 h, and concluded that
79
Michał Drahus
the structure was produced by a single active vent. However, radar observations from
Arecibo [15-17] yielded the period of 11.4 h, that is precisely twice as long, which
was supported by the nucleus photometry from the Hubble Space Telescope [21], and
both teams also reported strongly bifurcated (possibly contact-binary) nucleus shape.
An interesting possibility arises then, that perhaps the period was indeed as long as
11.4 h, but the nucleus featured two equally productive vents located symmetrically
on the opposite sides. Under certain assumptions concerning the spin-axis orientation
and/or sublimation, such a scenario might have created coma pattern barely distinguishable from what would be produced by a single jet recurring every 5.7 h.
The exceptionally close approach of comet Tuttle created a great opportunity to
seek the effects generated by nucleus rotation in the cometary molecular emission
lines. In this respect, of particular interest are rotational transitions because their low
energies are naturally accessible to microwave spectroscopy which offers the highest
spectral resolution across all wavelengths and can easily resolve the kinematics of
cometary gas. Using this technique, we can investigate the effects caused by variation
of the instantaneous outgassing rate and direction, which produce the observable periodic modulation of (i) the line area (outgassing rate), (ii) the line position (outgassing direction through the Doppler effect), and (iii) the complete line profile (both effects). Whereas such rotational modulation has been observed for decades in all kinds
of cometary images, the spectroscopic evidence is still poor. Notable exceptions include comet Hale-Bopp, observed to periodically vary in CO [5, 19] and in sulfurbearing molecules [6], periodic modulation of HCN in comets 9P/Tempel 1 [1], 73PC/Schwassmann-Wachmann 3 [12] and 2P/Encke [20], and also variation of H2O observed by Biver et al. [3] in C/2001 Q4 (NEAT) and of multiple molecules detected
by Biver et al. [4] in C/2007 N3 (Lulin). Moreover, strong quasi-periodic variation of
HCN and CH3OH was recently observed in comet 103P/Hartley 2 – the target of
NASA’S EPOXI mission – which made it possible to characterize the nucleus rotation state [13] and compositional structure [14]. In this work, however, we present the
preliminary results from our earlier approach dedicated to comet 8P/Tuttle. Conventionally, we used the HCN molecule, whose J(3–2) rotational transition is perhaps the
best tracer of nucleus rotation in this part of cometary microwave spectrum which is
accessible from the ground (cf. [9]).
The growing observational evidence for rotational modulation of cometary emission lines creates an obvious and immediate demand to establish an adequate modeling approach, which should replace the time-honored isotropic model of Haser [18].
Surprisingly, however, little was done in this matter to date. Therefore, our ambition
was also to develop a fully time-dependent construction, accounting for non-isotropic
production of molecules from a rotating nucleus, with the aim of applying it to the
spectral time series of comet Tuttle and subsequent targets. This combined observational and theoretical effort let us obtain for comet Tuttle the most complete characterization of a cometary nucleus from microwave spectroscopy before the apparition of
comet 103P/Hartley 2 in late 2010. In Section 2 we show our observations, in Section 3 explain the fundamentals of our model, in Section 4 the key results of model
application, and in Section 5 we summarize this paper and discuss possible future de80
Microwave spectroscopy as a tool for studying the nuclei of active comets
velopments and directions.
This project was coordinated with other activities of our team 1, all under the
common umbrella of a detailed characterization of comet Tuttle. The other projects
include: (i) narrowband optical imaging of the CN coma (supplemented with the C2,
C3, and dust bands) using the 2 m telescope at the Rozhen observatory [25], (ii) radio
observations of OH at 18 cm with the 32 m radio telescope in Piwnice, and (iii) optical spectroscopy with the 2 m telescope at Rozhen [7] and the 0.9 m telescope in
Piwnice. The overall observational material is very rich, but in this paper we have
focused exclusively on the microwave part of the campaign. Early results from this
part were already presented by Drahus et al. [10, 11], a more detailed analysis constitutes a chapter in Drahus [9], and a full analysis is currently in preparation.
Observations
We observed comet Tuttle on three consecutive dates: Dec. 31.0, 2007 UT, and
Jan. 1.0 and 2.0, 2008 UT, for 5.0 h, 3.2 h, and 4.6 h, respectively, using remotely the
10 m Submillimeter Telescope (Fig. 1) atop Mount Graham (Arizona, USA). The
comet was 1.10 AU from the Sun, 0.25 AU from the Earth, and the phase angle was
56○. We used the 1.3 mm sideband-separating dual-polarization SIS receiver (a prototype for ALMA) tuned consistently to the rest frequency of HCN J(3–2) equal to
265.886434 GHz. The highest spectral resolution of 250 kHz was provided by a pair
of identical Filterbanks, each connected to a different polarization channel of the receiver. Note that this resolution corresponds to 0.28 km/s at the observed frequency
(or equivalently υ/dυ = 1.1×106), which makes the spectra velocity-resolved, and
hence is sufficient to study HCN kinematics. The telescope’s half-power beam radius
was 14".5 that is 2600 km at the comet’s distance. The position of the comet was continually calculated from the orbital elements provided by the JPL Horizons system.
The spectra were taken in a position-switching mode, with 0○.5 offset in azimuth for
sky-background determination (where the coma contribution is negligible). The spectral scales were calibrated following standard procedures (cf. e.g. [12]).
Our observing strategy was the same on each date. After the initial calibrations,
the observations were arranged in a closed loop. First, two consecutive 8 min exposures of the comet were taken, and then two short (1.3 or 2 min) exposures of standard source W3(OH) followed. In each case half of the exposure was dedicated to the
target and half to the sky background. One complete cycle: Tuttle—Tuttle—
W3(OH)—W3(OH) took about 30 min (integrations + calibrations + switching), and
eventually comprised one master spectrum in our time series. Note, however, that for
each single exposure we obtain in fact two independent spectra from the two polarization channels. Thus, each master spectrum was created upon averaging four independent 8 min spectra. The only exception is master spectrum # 17 the last one
from the middle date which is a single exposure (yet still from both polarization
1
Our team consists of W. Waniak, G. Borisov, T. Bonev, C. Jarchow, P. Hartogh, K. Czart, M. Küppers, and the author
of this note.
81
Michał Drahus
Fig. 1. Submillimeter Telescope at the Mount Graham International Observatory (Arizona, USA).
channels) because there was no observing time left to obtain the second one. In total,
we obtained 27 master spectra: 10 on the first date, 7 on the middle, and 10 on the last
one. They are presented in Fig. 2.
As for the millimeter astronomy standards the quality of these spectra is exceptionally high. This is because of a few factors which fortunately coincided during our
run, most notably:
an extremely dry atmosphere (the precipitable water vapor typically of 1.5 mm)
allowed for as much as 90% zenith transmission at the observed frequency;
the newly installed ALMA-prototype receiver demonstrated excellent stability and
noise level;
tracking of the telescope was unusually stable;
we encountered nearly no technical problems, which is rare even nowadays!
82
Microwave spectroscopy as a tool for studying the nuclei of active comets
Fig. 2. Master spectra of HCN at 265.9 GHz. The three blocks correspond to the three
dates of observation ordered chronologically from top to bottom. Time increases from
left to right and the spectra from the same night are approximately 30 min apart.
The thick gray lines show the best fit of the model.
The spectra of comet Tuttle in Fig. 2 clearly show that the line profile indeed
evolved in an organized manner on a short timescale – presumably due to nucleus
rotation. The profile has two distinct components: one blueshifted at about -1 km/s
and the other one redshifted at about +0.5 km/s. The blueshifted component dominates in most of the spectra except for the last two where the redshifted one is clearly
brighter (especially in the very last spectrum). This basic observation is of a fundamental importance, as it readily implies that the nucleus rotation phases covered by
the last two spectra could not have been observed before. Consequently, this leads
to the following windows for the rotation period: 5.70-5.75 h, 7.32-7.67 h,
10.35-11.51 h, 13.95-15.35 h, etc., where the first two windows are independent and
are followed by their approximate multiples. Higher multiples are also possible, but
they suffer from insufficient overlap or/and coverage of the observed rotation phases,
83
Michał Drahus
thus it is impossible to evaluate their reliability. Overall, the obtained windows are
nicely consistent with the results from other techniques (see Section 1). Surprisingly,
however, periodographic analysis of the line area and position (cf. [12]) did not yield
any statistically-significant solution, although the above periodicities were clearly
visible. We interpret this as being caused by (i) a small number of the data points and
(ii) intrinsically small amplitudes of variability of both line parameters.
New model
To adequately interpret the data of comet Tuttle we developed a new model of
cometary microwave spectral line profiles. As the only source of activity we assumed
a spherical nucleus sublimating strictly normally to the surface. The ejected molecules continue to travel at a constant speed as purely radial gas flow. We also assumed negligible optical depth at the observed frequency and Local Thermodynamic
Equilibrium (LTE) characterized by a constant gas temperature that we assumed to be
equal to 40 K as suggested by Biver et al. [2].
The key feature of this model is how it tackles sublimation from the nucleus. The
body is divided into small elements, each parameterized by the coordinates of the
center (θ, Φ), surface area dS, and sublimation potential η. Besides these properties –
intrinsic to the element – the amount of ejected molecules also depends on the local
solar zenith angle z. That is because it is the solar radiation which activates cometary
sublimation and the efficiency of this process is introduced through the activation
function Λ(z). With all this in mind, we can now write the element’s contribution to
the instantaneous production rate Q of the whole body:
dQ( , , t )
( , ) ( z)dS ( , )
(1)
It is very difficult to properly introduce into the model the activation process, as it
requires a detailed thermal modeling of the body. Therefore, we approximated it with
a simple Λ(z) = cos(z) on the day side and zero otherwise (implying no night-side
sublimation), which results from energy balance in the sublimation-dominated regime
(e.g. [8]).
We can readily see that this approach tackles the cometary comae as anisotropic
and non-steady-state gas environments. The former concept is introduced by the nonuniform distribution of the sublimation potential and activation efficiency. The latter
comes from the time-dependence of the activation function, which changes with the
rotation phase and (typically much slower) orbital position. However, if we use
η(θ, Φ) = const, the model will reduce itself to a steady-state anisotropic construction,
and if we additionally request Λ(z) = const, it will become equivalent to the standard
isotropic model of Haser [18].
The emitted molecules are then integrated: first along their lines of motion, which
ensures constant radial velocity vr within the integration. At this step we account for
the exponential photodecay of the molecules and also for the Gaussian profile of the
beam. A sub-spectrum resulting from such integration has a Gaussian shape; it is cen84
Microwave spectroscopy as a tool for studying the nuclei of active comets
8 ln 2kT / m , where k is the Boltzmann constant, T is the
tered at vr and has FWHM
gas temperature, and m is the mass of a single molecule. Then the spectra from all
directions are co-added, and in the last step – with the aid of the JPL spectral line catalog [23] – we convert the number of molecules into their cumulative brightness.
A final spectrum accounts also for the hyperfine splitting (cf. [22]).
Application
Applied to the data of comet Tuttle (see Fig. 2), the model clearly favors the
11.4 h rotation period over the one twice as short. The spin axis appears in the Sun–
comet–Earth plane, with the northern pole shifted by 20 ○ from the Earthward direction away from the Sun and the southern pole shifted by the same amount from the
anti-Earthward direction towards the Sun. We find the mean-diurnal production rate
of HCN equal to 2 1025 molec/s and the gas flow velocity of 0.85 km/s . The nucleus has a southern polar cap 30○ in radius and η enhanced by a factor of 40, and
a small ultra-volatile vent within the cap (η enhancement of about a factor of 4000),
which is illuminated only during a short fraction of the rotation cycle. Moreover,
a large (35○ in radius) inactive spot at the same longitude as the vent appears at moderate northern latitudes. (The hemispheres are named according to the sense of rotation with the right-hand rule defining north.)
Interpretation of these parameters is very straightforward. The mean-diurnal production rate controls the average line area. The expansion velocity and (to a smaller
extent) the temperature establish its width (both through the Doppler effect, as both
represent the gas kinematics – the first one the bulk flow, the second one the superimposed random component). Finally, the rotation period controls the repeatability
of the line profile. Given that the comet’s phase angle was greater than half, most of
the illuminated part of the nucleus, including the sub-solar point, was visible from the
Earth, producing the blueshifted molecules. On the other hand, the redshifted molecules originated from a smaller region closer to the southern pole, which received
much less sunlight but featured higher volatility. At some point during the rotation
cycle, the Sunward outgassing was strongly attenuated by the inactive spot and at the
same time the sublimation from the southern polar region became further amplified
by the ultra-volatile vent, which produced the observed inversion of the line components. We note that the obtained parameters are very approximate at this point and so
is their interpretation. They will be further refined as both the obtained fit occasionally deviates from the data, and also the assumed spherical shape of the nucleus is seemingly inconsistent with the bifurcated nature of this object (cf. Section 1).
The obtained HCN production rate is unusually low for a nucleus as large as the
one of comet Tuttle, indicating substantial depletion in volatiles, probably of evolutionary nature, whereas the gas expansion velocity is typical of comets at comparable
heliocentric distances. Both results are in full agreement with the study by Biver et al.
[2], who used the same technique. Our spin-axis orientation and volatility map of the
nucleus are loosely consistent with the preliminary results from CN imaging by Waniak et al. [25], who suggested the spin axis close to the line of sight and bulk out85
Michał Drahus
gassing not far from the Earthward direction (which they associated with an active
vent located 30○ from the Earthward pole). The agreement is much worse with the
independent CN study (D. Schleicher, personal communication) and radar observations from Arecibo [16, 17], suggesting the spin axis tilted to the line of sight by 55○
to 60○.
Summary and conclusions
On three dates around the New Year’s Day of 2008 we obtained a time series of
HCN spectra of comet 8P/Tuttle. The velocity-resolved line profiles evolved with
time in an organized manner, which we interpreted as caused by nucleus rotation and
used to constrain the rotation period. Our estimates are consistent with the determinations from other techniques.
Since such effects have been reported for only a few comets before, a natural
question arises: why are not they observed routinely? Clearly, they can be best detected when the observation is limited to the inner coma. However, using large microwave telescopes, which offer beam sizes of the order of 10" at these frequencies,
this condition is satisfied for comets as distant from the Earth as 0.5 AU, which appear relatively often. We suspect that over the years these effects were routinely averaged out in hours- or even days-long effective exposures of very faint lines. Alternatively, they could be missed out due to undersampling if the goal was to detect as
many molecules as possible in a short time. The latter case is well illustrated by comet Tuttle itself: Biver et al. [2] detected several molecules including HCN, but did not
find any convincing evidence for the short-term variations. Indeed, our observations
show that the signatures of nucleus rotation were very easy to miss. This leads to the
conclusion that careful arrangement of observations is critically important for such
a study, and that one should aim at obtaining the longest possible and uninterrupted
time series. Unlike in night astronomy, this requirement can be easily satisfied by
a single microwave facility, which in many cases can observe day and night for as
long as the comet is above the horizon.
In order to interpret the spectra, we developed a new model of cometary spectral
line profiles, which is a non-steady-state anisotropic construction. Upon being applied
to our data, it yielded the spin-axis orientation and the activity pattern of the nucleus
which fall into the broad range of proposed solutions inferred using other methods
and techniques. To our best knowledge, orientation of cometary spin axis has never
been inferred from microwave spectra before, and overall, the line profiles have never
been explored so extensively before the apparition of comet 103P/Hartley 2 three
years later. In addition, we retrieved the mean-diurnal HCN production rate and the
gas expansion velocity, both in excellent agreement with the independent spectroscopic study at the same wavelengths.
We note that the current application of the model did not explore its full potential.
Future studies will take advantage of its capabilities of analyzing spectral maps and
time series collected over large arcs on the sky (easily realized for Earth-approaching
comets), which should greatly improve the retrieval. Moreover, if applied to long
86
Microwave spectroscopy as a tool for studying the nuclei of active comets
time series, the model will be sensitive to distinguish constant vs. accelerated and
simple vs. excited rotation state of the nucleus. When applied to several molecules
observed simultaneously, it will verify whether they originate from different active
vents (chemical heterogeneity) or the same gas mixture was produced globally
(chemical homogeneity). All these new applications have the potential of challenging
our current paradigms concerning the properties and physics of cometary nuclei, and
consequently, their history and role in the Solar System as the supplier of water and
organics.
Acknowledgements
This research was carried out at the Max Planck Institute for Solar System Research in the framework of the International Max Planck Research School on Physical Processes in the Solar System and Beyond. The Submillimeter Telescope is operated by the Arizona Radio Observatory, Steward Observatory, University of Arizona.
We thank the observatory director for granting us observing time and the telescope
operator for his excellent work.
References
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
[9]
[10]
[11]
[12]
[13]
[14]
[15]
[16]
[17]
[18]
[19]
[20]
[21]
[22]
Biver, N., Bockelée-Morvan, D., Boissier, J., et al. 2007, Icarus, 187, 253
Biver, N., Lis, D. C., Fray, N., et al. 2008, LPI Conf., 1405, 8151
Biver, N., Bockelée-Morvan, D., Colom, P., et al. 2009a, A&A, 501, 359
Biver, N., Bockelée-Morvan, D., Colom, P., et al. 2009b, DPS meeting, 41, 23.05
Bockelée-Morvan, D., Henry, F., Biver, N., et al. 2009, A&A, 505, 825
Boissier, J., Bockelée-Morvan, D., Biver, N., et al. 2007, A&A, 475, 1131
Borisov, G., Waniak, W., Bonev, T., Czart, K., & Drahus, M. 2008, Bulg. Astron. J., 10,
59
Cowan, J. J., & A’Hearn, M. F. 1979, M&P, 21, 155
Drahus, M. 2009, Microwave observations and modeling of the molecular coma in comets,
Ph.D. thesis (University of Göttingen)
Drahus, M., Jarchow, C., Hartogh, P., et al. 2008a, CBET, 1294
Drahus, M., Jarchow, C., Hartogh, P., et al. 2008b, LPI Conf., 1405, 8334
Drahus, M., Küppers, M., Jarchow, C., et al. 2010, A&A, 510, A55
Drahus, M., Jewitt, D., Guilbert-Lepoutre, A., et al. 2011, ApJL, 734, L4
Drahus, M., Jewitt, D., Guilbert-Lepoutre, A., Waniak, W., & Sievers, A. 2012, ApJ, 756,
80
Harmon, J. K., Nolan, M. C., Howell, E. S., & Giorgini, J. D. 2008a, LPI Conf., 1405,
8025
Harmon, J. K., Nolan, M. C., Howell, E. S., Giorgini, J. D., & Magri, C. 2008b, DPS meeting, 40, 5.01
Harmon, J. K., Nolan, M. C., Giorgini, J. D., & Howell, E. S. 2011, Icarus, 207, 499
Haser, L. 1957, Bull. Acad. R. Sci. Liege, 43, 740
Henry, F., Bockelée-Morvan, D., Crovisier, J., & Wink, J. 2002, EM&P, 90, 57
Jockers, K., Szutowicz, S., Villanueva, G., Bonev, T., & Hartogh, P. 2011, Icarus, 215,
153
Lamy, P. L., Toth, I., Jorda, L., et al. 2008, DPS meeting, 40, 5.02
Müller, H. S. P., Schlöder, F., Stutzki, J., & Winnewisser, G. 2005, J. Mol. Struct., 742,
87
Michał Drahus
215
[23] Pickett, H. M., Poynter, R. L., Cohen, E. A., et al. 1998, J. Quant. Spectrosc. & Rad.
Transfer, 60, 883
[24] Schleicher, D., & Woodney, L. 2007, IAU Circ., 8906
[25] Waniak, W., Borisov, G., Drahus, M., et al. 2009, EM&P, 105, 327
[26] Woodney, L., Schleicher, D. G., & Bair, A. N. 2008a, LPI Conf., 1405, 8316
[27] Woodney, L., Schleicher, D. G., & Bair, A. N. 2008b, DPS meeting, 40, 16.21
88
Powierzchniowo wzmocniona spektroskopia Ramana biomolekuł
usytuowanych na polimerowych podłożach
Katarzyna Filipecka
Instytut Fizyki, Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej, Politechnika
Częstochowska, Al. Armii Krajowej 19, 42-200 Częstochowa
[email protected]
Streszczenie
Technika SERS została wykorzystana w celu wykrycia przeciwciał zaabsorbowanych na cząsteczkach białka A unieruchomionych na powierzchniach polimerowych,
takich jak poliuretan i polietylen. Do wzmocnienia sygnału zostały użyte nanocząsteczki srebra. Celem pracy była bezpośrednia detekcja i szybka identyfikacja patogenów oraz stworzenie uniwersalnej metody wspierającej wykrywanie patogenów
w układach biologicznych.
Wstęp
Powierzchniowo wzmocniona spektroskopia Ramana (SERS) jest techniką badawczą wywodzącą się z klasycznej spektroskopii Ramana. Charakteryzuje się ona
znacznym wzmocnieniem natężenia rozproszonego sygnału Ramana przez cząsteczki
zaabsorbowane na powierzchni metalu. Wzmocnienie sygnału powodowane jest
głównie przez oddziaływanie fal elektromagnetycznych z metalami w zjawisku rezonansu plazmonowego. Natężenie sygnału wyjściowego zależy od rodzaju metalu,
stopnia jego chropowatości, rozmiaru i kształtu, jak również od natężenia padającego
światła. W odpowiednich warunkach SERS może spowodować wzmocnienie nawet
do 106 razy większe w porównaniu do klasycznej spektroskopii Ramana. Aby osiągnąć tak duże wzmocnienie, cząsteczki powinny być zaabsorbowane na powierzchni
podłoża metalowego lub być bardzo blisko niego (zazwyczaj około 10 nm) [2, 5].
Po raz pierwszy zjawisko SRES zostało zaobserwowane w roku 1974 dla pirydyny zaadsorbowanej na powierzchni srebra. Okazało się, że wzmocnienie sygnału jest
związane ze wzbudzeniem powierzchniowych plazmonów metalu. W kolejnych latach pojawiło się wiele wyjaśnień omawianego zjawiska, lecz żadne z nich nie opisywało go szczegółowo. W ostatnich latach zainteresowanie SERS ponownie wzrosło, co jest spowodowane rozwojem aparatury do detekcji widm Ramana. Ponadto,
udoskonalenia wdrażane w dziedzinie nanotechnologii otworzyły nowe możliwości,
szczególnie w zakresie projektowania i produkcji podłoża SERS. W rezultacie SERS
89
Katarzyna Filipecka
radykalnie rozszerzył swoją widoczność w wielu dyscyplinach. SERS odgrywa ważną rolę w poprawieniu czułości i selektywności techniki bio-analiz. Jest to jedna
z najbardziej obiecujących i bezpiecznych technik do bezpośredniego wykrywania
patogenów. Dostarcza informacji na temat struktury chemicznej i formy fizycznej,
zarówno nieorganicznych jak i organicznych materiałów we wszystkich stanach skupienia dając widma charakteryzujące się wysoką rozdzielczością. SERS może być
wykorzystana do szybkiej identyfikacji szkodliwych patogenów związanych z zatruciami pokarmowymi, zanieczyszczeniami wód i wojnami biologicznymi. Może być
to obiecujące narzędzie do wczesnego wykrywania raka i kontroli leczenia chorób [6,
7].
Materiał badawczy
Do badań zostały wykorzystane następujące materiały:
Powierzchnie polietylenowe (PE) [ CH2 CH2]n
Powierzchnie poliuretanowe (PU) [ OCONH R NHCOO R']n
Srebro koloidalne do otrzymania koloidów zostały wykorzystane nanocząsteczki
srebra o średnicy około 100 nm (Aldrich, Milwaukee, WI). Nanocząsteczki srebra
o średnicy od około 70 do 100 nm zostały opisane w literaturze, jako dające największe wzmocnienie elektromagnetyczne [1]. Koloidy srebra zostały przygotowane w stężeniach 10.8 mg/25 ml oraz 10.8 mg/50ml.
Białko A jest składnikiem błony komórkowej produkowanym przez kilka szczepów gronkowca złocistego (Staphylococcus aureus). Jest to łańcuch polipeptydowy o masie cząsteczkowej 42 kDa. W swojej strukturze zawiera cztery miejsca
o wysokim powinowactwie do regionu Fc przeciwciał kilku gatunków (fragment
Fc fragment przeciwciała odpowiadającego za różne zjawiska, które zapoczątkowuje związanie antygenu). Roztwory białka zostały przygotowane w stężeniach
50 mg/l oraz 10 mg/l [4].
Przeciwciała, immunoglobuliny są to białkowe cząsteczki o kształcie zbliżonym
do litery "Y", o masach cząsteczkowych od 150 do 970 kDa, złożone z czterech
glikozylowanych łańcuchów peptydowych. Dwa z tych łańcuchów, określane mianem łańcuchów ciężkich (H, od ang. Heavy) są dłuższe i związane ze sobą wiązaniami dwusiarczkowymi. Pozostałe dwa łańcuchy, nazywane lekkimi
(L, od ang. Light) są związane z łańcuchami ciężkimi również za pomocą mostków
dwusiarczkowych. Obydwa łańcuchy ciężkie w danej cząsteczce są identyczne,
podobnie jest z łańcuchami lekkimi. W badaniach zostały uzyte immunoglobuliny
G (IgG) [4].
Aparatura
Eksperyment został przeprowadzony za pomocą trójsiatkowego spektroskopu
ramanowskiego firmy Jobin-Yvon (model T64000) znajdującego się w Laboratorium
Fizyki w Uniwersytecie du Maine w Le Mans (Francja). Spektrometr został wyposażony w spójną argonowo-kryptonową wiązkę światła laserowego oraz sprzężony
90
Powierzchniowo wzmocniona spektroskopia Ramana biomolekuł usytuowanych na...
z mikroskopem konfokalnym Olympus BX40, wyposażonym w kilka standardowych
obiektywów ( 10, 100, w tym dalekozasięgowym 50).
W celu analizy otrzymanych widm zostały użyte programy takie jak OPUS
IDENT (Bruker Optics GmbH, Ettlingen, Niemcy) oraz Labspec (Version 5.25.15,
HORIBA Jobin-Yvon, Wielka Brytania). Są to wyspecjalizowane oprogramowania
przeznaczone do identyfikacji substancji, obróbki danych spektroskopowych i obrazów. Ponadto programy te oferują szeroki zestaw procedur przetwarzania widm, takich jak na przykład korekcja linii bazowej widma i normalizacja sygnału.
Procedura analizy
Procedura analizy, schematycznie przedstawiona na rysunku 1, została prowadzona w następujących etapach:
1) "czyste" powierzchnie polimerowe jako widma odniesienia,
2) powierzchnie polimerowe z nanocząsteczkami srebra,
3) powierzchnie polimerowe z białkami A,
4) powierzchnie polimerowe z nanocząsteczkami srebra i białkami A,
5) powierzchnie polimerowe i immuno-reakcje pomiędzy przeciwciałem i białkiem A oraz nanocząsteczki srebra.
Rys. 1. Schematyczny diagram procedury analizy.
Zagregowane nanocząsteczki
Nanocząsteczki srebra były jaśniejsze i można było łatwo je zidentyfikować za
pomocą mikroskopu konfokalnego skupiającego wiązkę światła podczas procesu analizy (Rys. 2).
Część nanocząsteczek formowała skupiska o różnej wielkości i kształtach.
W przypadku roztworów zawierających dodatkowo białko i przeciwciała skupiska te
były znacznie większe. Agregacja koloidów związana była prawdopodobnie z che91
Katarzyna Filipecka
micznymi właściwościami i różnicami w wielkości molekuł (białko składa się z polipeptydowego łańcucha o masie cząsteczkowej 42 kDa, podczas gdy rozmiar przeciwciał jest około cztery razy większy niż białka).
W zależności od stężenia białka i nanocząsteczek srebra można było dostrzec
niewielkie różnice w ilości cząsteczek izolowanych i agregacji zlokalizowanych na
powierzchni, ich wielkości oraz kształcie. Najwięcej molekuł i agregacji zawierały
próbki, gdzie roztwory zostały najpierw odwirowane, a następnie unieruchomione na
powierzchni.
Rys. 2. Obraz powierzchni polimerowych z mikroskopu konfokalnego: a) PE, b) PE + nanocząsteczki srebra, c) PE + białko A i nanocząsteczki srebra; d) PU, e) PU + nanocząsteczki srebra,
f) PU + białko A i nanocząsteczki srebra (obiektyw 100).
Spektra SERS
Widma SERS zostały wykonane na każdym etapie procedury analizy. Analiza
widm oparta była na interpretacji podobnych widm opisanych w literaturze [3, 6].
Na rysunku 3 zostały przedstawione widma białka A i przeciwciała. Obok pasm
charakterystycznych dla aminokwasów występują pasma amidowe I i III. W widmie
białka A obserwujemy I drganie amidowe około 1657 cm-1 i III drganie amidowe
około 1327 cm-1 związane z jego strukturą II-rzędową heliksalną. Widmo białka A
wykazuje również pasmo wibracyjne około 937 cm-1 związane z drganiami wahadłowymi (ρCH3) grupy CH3 struktury heliksalnej. Dominująca struktura II-rzędowa
(harmonijka beta) immunoglobuliny została zidentyfikowana przez I drganie amidowe około 1671 cm-1 i 1242 cm-1 dla III drgania amidowego. Pasmo drgań rozciągających (νCH) alifatycznych łańcuchów bocznych jest obserwowane około 2860 do 2940
cm-1. Pasmo drgań zginających (δCH2) jest obserwowane około 1445 cm-1. Pasma pochodzące od tyrozyny są obserwowane około 644, 760, 830 i 853 cm-1, fenyloalaniny
około 1002 i 1610 cm-1, natomiast pasma tryptofanu w 1421 i 1553 cm-1 [3, 4].
92
Powierzchniowo wzmocniona spektroskopia Ramana biomolekuł usytuowanych na...
Rys. 3. Widma Ramana białka A (poniżej) i przeciwciał IgG (powyżej)
(300 s, 785 nm, 10 mW, obiektyw 100) [3].
1621.12
1394.15
950.46
1018.49
4.0
4.5
Absorbance Units
5.0
5.5
6.0
6.5
7.0
801.51
835.11
Widmo ramanowskie nanocząsteczek srebra zostało przedstawione na rysunku 4.
Widmo przejawia grupę słabych pasm w regionie od 700-1600 cm-1, natomiast główne pasma występują około 1621, 1394, 1018, 950, 836, 801 cm-1.
500
1000
1500
2000
2500
Wavenumber cm-1
Rys. 4. Widma Ramana nanocząsteczek srebra w regionie 400-3200 cm-1
(100
s, 647.1F\2011-04-05\2011-04-05\silver_x100LF_100s_2acc-7.txt
nm, 100 mW, obiektyw 100).
C:\Documents and Settings\Philippe
Daniel\Bureau\Kasia
Wzbudzając niektóre próbki światłem
niebieskim bądź fioletowym
Seite 1zielonym,
von 1
możemy indukować przejścia elektronowe, które z kolei mogą wywołać świecenie
93
Katarzyna Filipecka
2909.42
2914.98
2524.50
2361.50
1865.45
1877.09
1661.13
1661.99
1311.49
1312.64
1371.47
1442.10
1444.52
1185.79
930.72
1000.81
1039.62
1091.54
788.56
0
10
20
Absorbance Units
30 40 50 60
70
80
687.37
fluorescencyjne. Powstające w ten sposób tło fluorescencyjne przysłania linie ramanowskie. Rysunek 5 i 6 przedstawia widma powierzchni polimerowych. Ze względu
na dużą fluorescencję powierzchni PU została dokonana korekcja linii bazowej
widm.
3000
2850.19
2883.56
2500
2723.40
2000
Wavenumber cm-1
1437.75
1292.99
1500
1126.96
1000
1061.49
500
Rys. 5. Widma Ramana z korektą linii bazowej powierzchni poliuretanowych w regionie
400-3200 cm (50 s, 514.53 nm, 20 mW, obiektyw 100).
C:\Documents and Settings\Philippe Daniel\Bureau\Kasia
F\2011-05-13\2011-05-13\PU-0+NHS+EDC_100LF_100s_2acc-20mW-green-4.txt
-1
30000
C:\Documents and Settings\Philippe Daniel\Bureau\Kasia F\2011-05-13\2011-05-13\PU-30+NHS+EDC_100LF_100s_2acc-20mW-green-1.txt
0
Absorbance Units
5000 10000
20000
Seite 1 von 1
500
1000
1500
2000
Wavenumber cm-1
2500
3000
Rys. 6. Widmo Ramana powierzchni polietylenowej w regionie 400-3200 cm-1
(50
s, 514.53 nm, 50 mW, obiektyw 100).
C:\Program Files\OPUS_65\WORK\Av.67
| Av. of 5
Widma powierzchni polimerowych zSeite
nanocząsteczkami
srebra lub tylko z czą1 von 1
steczkami białka A były bardzo podobne do widm odniesienia. Również w tym przypadku powierzchnia poliuretanowa wykazywała wysoką fluorescencję.
W przypadku unieruchomienia cząsteczek białek A i nanocząsteczek srebra uzyskane widma były zdecydowanie inne i wykazywały charakterystyczne drgania amidowe. Dla powierzchni PU pasmo obserwowane około 1597 cm-1 odpowiada I drganiom amidowym, natomiast pik około 1370 cm-1 przypisany jest do III drgań amido94
2926.26
1573.27
1597.97
1329.31
1370.85
1399.88
1448.66
1471.76
1169.05
580.15
Powierzchniowo wzmocniona spektroskopia Ramana biomolekuł usytuowanych na...
0
100
Absorbance Units
200
300
400
wych (Rys. 7). Dla powierzchni polietylenowej pasma amidowe miały podobną pozycję.
500
1000
1500
2000
Wavenumber cm-1
2500
3000
Rys. 7. Widma Ramana powierzchni PU z odwirowaną mieszaniną białka A i nanocząsteczkami
srebra w regionie 400-3200 cm-1 (50 s, 514.53 nm, 10 mW, obiektyw 100).
C:\Documents and Settings\Philippe Daniel\Bureau\Kasia F\2011-05-30\2011-05-30\PU30(13)+ProteinA+Ag-centrifuged_x100LF_50s_2acc-green-10mW-1.txt
1579.20
0
2000
Absorbance Units
6000
10000
14000
1356.46
1368.29
1405.82
Podobne widma SERS zostały uzyskane
dla powierzchni, gdzie został dodatkowo
Seite 1 von 1
dodany roztwór przeciwciał (Rys. 8).
Analizując różne stężenia roztworów białek A i nanocząsteczek srebra, można
dojść do wniosku, że najczęściej i najłatwiej uzyskiwano widma SERS, gdy roztwór
był najpierw odwirowany. Wzmocnienie sygnału zgadzało się z obrazem powierzchni z mikroskopu konfokalnego i potwierdziło powstanie większych agregacji cząsteczek.
500
1000
1500
2000
2500
3000
Wavenumber cm-1
Rys. 8. Widmo Raman PU z nanocząsteczkami srebra, białkiem A i przeciwciałami w obszarze
400-3200 cm-1 (50 s, 514.53 nm, 20 mW i obiektyw 100).
C:\Documents and Settings\Philippe Daniel\Bureau\Kasia F\2011-06-21\2011-06-21\PU30(18)+proteinA+Ag+Antibodyx100LF_50s_4acc-green-20mW-1.txt
Seite 1 von 1
95
Katarzyna Filipecka
Wnioski
Powierzchniowo wzmocniona spektroskopia Raman została wykorzystana w celu
wykrycia biomolekuł unieruchomionych na powierzchniach polimerowych.
Optyczne i spektroskopowe dane wykazały, że SERS jest zjawiskiem lokalnym,
tylko część cząstek jest SERS-aktywnych. W przypadku agregacji nanocząsteczek
uzyskano najsilniejsze wzmocnienie sygnału. Wzmocnienie sygnału zgadzało się
z obrazem powierzchni z mikroskopu konfokalnego i potwierdziło powstanie większych agregacji.
Wyniki potwierdziły, że technika SERS jest dobrym narzędziem do identyfikacji
cząsteczek biologicznych oraz że jest jedną z najbardziej obiecujących i bezpiecznych metod do bezpośredniego wykrywania takiego rodzaju materiałów.
Podziękowania
Wyniki przedstawione w niniejszej pracy zostały uzyskane podczas pobytu
w Uniwersytecie du Maine (Le Mans, Francja) we współpracy z prof. Philip Daniel
i dr Fabienne Lagarde-Abribat.
Literatura:
[1] M. Iosin, F. Toderas, P. L. Baldeck, S. Astilean, Study of protein-gold nanoparticle conjugates by fluorescence and surface-enhanced Raman scattering, J. Mol. Struct. 924-926,
196-200 (2009).
[2] C. L. Haynes, C. R. Yonzon, X. Zhang, R. P. Van Duyne, Surface-enhanced Raman sensors: early history and the development of sensors for quantitative biowarfare agent and
glucose detection, J. Raman Spectrosc., 36, 471–484 (2005).
[3] R. P. Kengne-Momo, Y. L. Jeyachandran, A. Assaf, C. Esnault, P. Daniel, J. F. Pilard, M.
J. Durand, F. Lagarde, E. Dongo, G. Thouand, A simple method of surface functionalization for immuno-specific immobilisation of proteins, Anal. Bioanal. Chem., 398, 1249–
1255 (2010).
[4] R. P. Kengne Momo, Mise en oeuvre des surfaces spécifiques en vue de la détection de
bactéries pathogènes par diffusion Raman, PhD thesis, 2011
[5] E. C Le Ru, P. G. Etchegoin , Principles of Surface-enhanced Raman spectroscopy and
related plasmonic effects, Elsevier, Great Britain (2009).
[6] G. Naja, P. Bouvrette, S. Hrapovic, J.H.T. Luong, Raman-based detection of bacteria using silver nanoparticles conjugated with antibodies, Royal Society of Chemistry, Analyst,
132, 679-686 (2007).
[7] A. Sengupta, M. Mujacic, E. J. Davis, Detection of bacteria by surface-enhanced Raman
spectroscopy, Anal. Bioanal. Chem., 386, 1379–1386 (2006).
96
Wpływ temperatury wygrzewania na właściwości magnetyczne
i skład fazowy taśm stopu Fe64,32Nd9,6B22,08W4
Katarzyna Filipecka*, Katarzyna Pawlik, Piotr Pawlik, Jerzy J. Wysłocki,
Piotr Gębara, Anna Przybył, Małgorzata Szwaja, Izabela Wnuk
Instytut Fizyki, Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej, Politechnika
Częstochowska, Al. Armii Krajowej 19, 42-200 Częstochowa
* [email protected]
Streszczenie
Celem pracy było zbadanie wpływu temperatury wygrzewania na właściwości
magnetyczne i skład fazowy szybkochłodzonych taśm stopu Fe 64,32Nd9,6 B22,08W4.
Wlewki stopu wytworzono z pierwiastków składowych o wysokiej czystości za pomocą metody topienia łukowego w atmosferze ochronnej Ar. Taśmy zostały wytworzone metodą szybkiego chłodzenia roztopionego indukcyjnie stopu na wirującym
bębnie miedzianym pod niskim ciśnieniem Ar. W celu otrzymania nanokrystalicznej
mikrostruktury, próbki wygrzewano w temperaturach od 958 K do 1013K w czasie
5 min każda. Właściwości magnetyczne zostały zbadane przy użyciu magnetometru
wibracyjnego, natomiast do określenia składu fazowego użyto dyfraktometrii rentgenowskiej. Rezultatem krótkotrwałego wygrzewania próbek w temperaturach 958 K
i wyższych były zmiany właściwości magnetycznych badanych materiałów.
Wstęp
Materiały magnetyczne stanowią jedną z najważniejszych grup stopów coraz szerzej stosowanych w wielu dziedzinach życia. Są wykorzystywane między innymi
w przemyśle elektronicznym, motoryzacyjnym, lotniczym i kosmicznym, medycynie,
jak również w artykułach powszechnego użytku. Chociaż materiały magnetyczne badane są od ponad stu lat, ciągle trwają poszukiwania materiałów o coraz lepszych
właściwościach magnetycznych przy stosunkowo niskich kosztach produkcji [1].
Przełomem w tej dziedzinie było odkrycie w 1984 roku związku Nd2Fe14B. Od tego
czasu trwają dalsze badania nad magnesami typu Nd-Fe-B. Podejmowano próby modyfikacji składu podstawowego otrzymując całą rodzinę nowych magnesów typu
R-(Fe,M)-B, gdzie R jest pierwiastkiem ziem rzadkich, M metalem przejściowym.
[2]. Materiały te posiadają wartości siły koercji w zakresie od 300 do 1500 kA/m
w zależności od zawartości pierwiastków ziem rzadkich oraz wartość energii magnetycznej około 100 do 170 kJ/m3 dla izotropowych stopów [3-5]. Własności magne97
Katarzyna Filipecka i inni.
tyczne zależą nie tylko od zawartości poszczególnych składników stopu, lecz również
od procesu technologicznego i warunków wytwarzania magnesu [6, 7]. Jednym z dodatków stopowych, który wpływa znacząco na mikrostrukturę stopów Nd-Fe-B jest
wolfram. Jego dodatek wpływa również na poprawę zdolności zeszklenia w stopach
żelaza [8, 9]. Dlatego istotne wydaje się określenie wpływu temperatury wygrzewania na właściwości magnetyczne i skład fazowy szybkochłodzonych taśm stopu
Fe64,32Nd9,6 B22,08W4.
Materiał i metody badawcze
Wlewki stopu o składzie Fe64,32Nd9,6B22,08W4 przygotowano z pierwiastków składowych o wysokiej czystości za pomocą metody topienia łukowego w atmosferze
ochronnej argonu. W celu ujednolicenia stopu materiał wyjściowy przetopiono kilkukrotnie. Taśmy wytworzono metodą szybkiego chłodzenia roztopionego indukcyjnie
stopu na wirującym bębnie miedzianym w atmosferze ochronnej Ar. Prędkość liniowa powierzchni koła podczas procesu odlewania wynosiła 30 m/s. Dla zachowania
odpowiedniej czystości atmosfery obróbki cieplnej, taśmy zostały zatopione w ampułach kwarcowych w atmosferze Ar. Próbki były wygrzewane w temperaturach 958 K,
973 K, 993 K 1003 K oraz 1013 K w czasie 5 min każda, a następnie szybko chłodzone w wodzie. Skład fazowy próbek zbadano za pomocą dyfraktometru rentgenowskiego D8 ADVANCE (Bruker) z zastosowaniem promieniowania CuK . Natomiast właściwości magnetyczne próbek zbadano przy użyciu magnetometru wibracyjnego LakeShore VSM 7303 w polu magnetycznym do 2T w temperaturze pokojowej.
Wyniki badań i dyskusja
Dyfraktogramy rentgenowskie taśm stopu Fe64,32Nd9,6B22,08W4 w stanie po odlaniu
oraz po wygrzaniu przedstawiono na rysunku 1.
Taśmy po odlaniu (Rys. 1a) mają budowę amorficzną, o czym świadczy brak pików odpowiadających fazom krystalicznym. Wygrzewanie próbek w temperaturach
685 K i wyższych w czasie 5 min powoduje zmiany struktury fazowej badanego materiału, które polegają na rozroście ziaren faz krystalicznych.
Przeprowadzona analiza fazowa dyfraktogramów (Rys. 1) pozwala na identyfikację fazy magnetycznie twardej Nd2Fe14B, metastabilnej Nd2Fe23B3 oraz fazy magnetycznie miękkiej α-Fe. Ze względu na bliskie położenie pików pochodzących od tych
faz, ich obecność należałoby potwierdzić innymi metodami.
Dla wszystkich badanych próbek przeprowadzono pomiary pętli histerezy magnetycznej w temperaturze pokojowej (Rys. 2).
Pętla histerezy magnetycznej próbki w stanie bezpośrednio po odlaniu ma kształt
zbliżony do pętli mierzonych dla materiałów magnetycznie miękkich. Wraz ze wzrostem temperatury wygrzewania próbek rośnie udział objętościowy fazy magnetycznie
twardej w składzie stopów, czego rezultatem są szerokie pętle histerezy magnetycznej.
98
Wpływ temperatury wygrzewania na właściwości magnetyczne i skład fazowy taśm...
Na podstawie analizy wyników badań właściwości magnetycznych próbek stopu
Fe64,32Nd9,6B22,08W4 stwierdzono, że wraz ze wzrostem temperatury wygrzewania
wzrasta wartość polaryzacji nasycenia Js od wartości 0.51 T dla 958 K do 0.61 T dla
1013 K oraz wartość remanencji polaryzacji Jr od 0.33 T dla 958 K do 0.39 T dla
1013 K. Podobne zmiany zachodzą w przypadku maksymalnej gęstości energii magnetycznej (BH)max, która osiąga wartość maksymalną (18 kJ/m3) dla próbki wygrzewanej w temperaturze 1013 K. Natomiast maksymalną wartość pola koercji jHc
(587 kA/m) posiada próbka wygrzewana w temperaturze 958 K.
Nd2Fe14B
-Fe
Nd2Fe23B3
Względna intensywność [j.u.]
973K/5min
958K/5min
po odlaniu
30
40
50
60
70
80
2 [deg]
Nd2Fe14B
-Fe
Względna intensywność [j.u.]
Nd2Fe23B3
1013K/5min
1003K/5min
993K/5min
30
40
50
60
70
80
2 [deg]
Rys. 1. Dyfraktogramy rentgenowskie taśm stopu Fe64,32Nd9,6B22,08W4 w stanie po odlaniu
oraz wygrzewanych w temperaturach od 958 K do 1013 K w czasie 5 min.
99
Katarzyna Filipecka i inni.
0,8
a)
0,6
0,4
J [T]
0,2
0,0
-0,2
-0,4
po odlaniu
958K/5min
973K/5min
-0,6
-0,8
-2000
-1500
-1000
-500
0
500
1000
1500
2000
H [kA/m]
0,8
0,6
b)
0,4
J [T]
0,2
0,0
-0,2
-0,4
993K/5min
1003K/5min
1013K/5min
-0,6
-0,8
-2000
-1500
-1000
-500
0
500
1000
1500
2000
H [kA/m]
Rys. 2. Pętle histerezy magnetycznej taśm stopu Fe64,32Nd9,6B22,08W4 w stanie po odlaniu,
wygrzewanych w temperaturach 958 K i 973 K w czasie 5 min. (a),
oraz 993 K, 1003 K i 1013 K w czasie 5 min. (b).
Wnioski
Badane taśmy w stanie bezpośrednio po wytworzeniu mają budowę amorficzną
oraz charakteryzują się miękkimi właściwościami magnetycznymi. Obróbka cieplna
tych taśm prowadzi do wzrostu ziaren faz krystalicznych: fazy magnetycznie twardej
Nd2Fe14B, metastabilnej Nd2Fe23B3 oraz fazy magnetycznie miękkiej α-Fe. Fazą kry100
Wpływ temperatury wygrzewania na właściwości magnetyczne i skład fazowy taśm...
staliczną decydującą o własnościach magnetycznych taśm wygrzewanych w temperaturze powyżej 958 K jest faza magnetycznie twarda Nd2Fe14B.
Badania właściwości magnetycznych wykazały, że wraz ze wzrostem temperatury wygrzewania obserwuje się wzrost wartości polaryzacji nasycenia Js, remanencji
polaryzacji Jr oraz maksymalnej gęstości energii magnetycznej (BH)max.
Projekt został sfinansowany ze środków Narodowego Centrum Nauki (nr N N507
240840 w latach 2011 2014).
Literatura
[1] A. Przybył, I. Wnuk, P. Gębara, J. J. Wysłocki, Effect of grain size and tungsten addition
on microstructure and magnetic properties of Nd-Fe-B type magnets, AMME, 49/2, 210214 (2011).
[2] M. Leonowicz, Nowoczesne materiały magnetycznie twarde. Wybrane zagadnienia, Oficyna wydawnicza Politechniki Warszawskiej, Warszawa 1996.
[3] G. C. Hadjipanayis, J. F. Liv, A. Gabay, M. Marinescu, Current status of rare-earth permanent magnet research in USA, Proceedings of 19th international workshop on rare earth
permanent magnets and their applications, Journal of Iron and Steel Research, Beijing
2006, s 2.
[4] S. Hirosawa, Magnets: remanence enhanced, Buschow KHJ, editor. Concise encyclopedia
of magnetic & superconducting materials, Amsterdam, Elsevier, 2005, s 877.
[5] D. C. Jiles, Recent advances and future directions in magnetic materials, Acta. Mater., 51,
5907-5939 (2003).
[6] J. F. Herbst, J. J. Corat, Neodymium-iron-boron permanent magnets, J. Magn. Magn. Matter., 100, 57-78 (1991).
[7] M. Sagawa, S. Fuijmura, M. Togawa, M. Yamamoto, Y. Matsuura, New material for permanent magnets on a base of Nd and Fe, J. Appl. Phys., 55, 2083-2087 (1984).
[8] B. Xiaoqian, Z. Jie, L. Wei, G. Xuexu, Z. Shouzeng, Influence of zirconium addition on
microstructure, magnetic properties and thermal stability of nanocrystalline
Nd12.3Fe81.7B6.0 alloy, J. Rare Earths 27, 843-487 (2009).
[9] S. Hirosawa, H. Kanekiyo, Y. Shigemoto, T. Miyoshi, Nd-Fe-B-Based Nanocomposite
Permanent Magnets Suitable for Strip Casting, Proc. 18th Inter. Work. High Performance
Magnets and their Applications, Annecy, 655-666 (2004).
101
102
Оптимизация конструкции сварной конструкции
автомобильного полуприцепа с помощью экспериментальнорасчѐтного метода
Аnatolij V. Konoplev
Department "Theory of Mechanisms, Machines and Details of Machines"
Odessa National Maritime University, ul. Mechnikova, 34, 65029 Odessa, Ukraine
[email protected]
С помощью программного комплекса ANSYS проведено исследование
напряжѐнно-деформированного состояния сварного соединения лонжерон
поперечина металлоконструкции грузового полуприцепа. Предложены
варианты
замены
обычной
жѐсткой
конструкции
конструкциями
с демпфирующим промежуточным элементом – косынкой. С помощью метода,
основанного на гипотезе о равенстве функций распределения, определены
пределы выносливости каждой конструкции.
Постановка проблемы
Автомобильные полуприцепы относятся к классу сложных транспортных
изделий, к которым предъявляются повышенные требования к надѐжности,
безопасности движения и снижению удельной материалоѐмкости. В связи
с этим на стадии проектирования, изготовления экспериментального образца
и его доработки, важной задачей является выявление узлов и деталей,
лимитирующих ресурс полуприцепа, установление причин их перехода
в предельное состояние и разработке рекомендаций для повышения ресурса
этих элементов конструктивными и технологическими методами.
В металлоконструкциях полуприцепов крепление задней поперечины
к лонжеронам несущей рамы осуществляется сваркой с помощью промежуточных деталей – косынок, как правило, прямоугольной формы (рис. 1).
103
A. V. Konoplev
1
2
3
Рис. 1. Схема крепления задней поперечины к лонжерону
1 – поперечина; 2 – косынка; 3 – лонжерон.
Места приварки косынки к лонжерону и поперечине на рис. 1 показаны
тѐмным тоном.
При движении полуприцепа нагрузка на данный узел носит случайный
характер, вызывая в нѐм сложное напряжѐнное состояние. Деформации
лонжеронов при движении полуприцепа имеют большую вертикальную
составляющую, вызывая в верхней и нижней части косынки значительные
напряжения изгиба, приводящие к появлению усталостных трещин (рис.2).
Рис. 2. Характер усталостного разрушения поперечины.
Цель исследования – разработать конструкции соединения лонжерон –
поперечина, обеспечивающие повышение сопротивления усталости за счѐт
демпфирующих свойств промежуточного элемента
косынки. Провести
исследование напряжѐнно – деформированного состояния предложенных
вариантов с помощью метода конечных элементов. Для выявления
оптимального варианта конструкции определить их пределы выносливости при
104
Оптимизация конструкции сварной конструкции автомобильного полуприцепа...
изгибе, используя экспериментально-расчѐтный метод, основанный на сокращѐнном эксперименте.
Изложение основного материала исследований
Для повышения долговечности узла были предложены три конструктивных
варианта, основанные на базовом варианте сварной конструкции рамы. При их
проектировании решалась задача обеспечения необходимой прочности на
сопротивление усталости с одновременным снижением массы и сохранением
присоединительных размеров. Такие свойства можно получить на основе
применения косынки с демпфирующими свойствами, позволяющими
перераспределить напряжения в узле за счѐт переменной жѐсткости косынки по
вертикали, догружая менее напряжѐнные объѐмы косынки. Для оценки
сравнительной циклической прочности предложенных конструктивных
решений по отношению к базовому варианту были изготовлены их модели
в натуральную величину (рис. 3) с учѐтом возможности их закрепления на
испытательной установке резонансного типа ИУ – 500. Материал моделей
и технология их изготовления соответствовали реальной конструкции. С целью
получения демпфирующих свойств в косынках были сделаны выкружки
диаметром 10 и 20 мм, причѐм в одном из вариантов (вариант г) была удалена
часть материала, сверху и снизу до сопряжения с выкружкой.
а)
б)
в)
г)
Рис. 3. Варианты изготовления косынки и еѐ крепление к задней поперечине
а – исходный вариант; б – косынка с выкружками 10 мм; в – косынка с выкружками
20 мм; г - косынка с выкружками 20 мм и удалѐнной сверху и снизу частью металла.
С помощью программного комплекса ANSYS методом конечных элементов
определим эквивалентные истинные напряжения, возникающие при
вертикальном изгибе моделей нагрузкой, приложенной к рабочему столу
машины (800 Н), которая вызывает номинальное напряжение в опасном
сечении 81.5 МПа. Для анализа напряжѐнного состояния моделей составим их
трѐхмерные модели (рис. 4) [1].
105
A. V. Konoplev
1
1
AREAS
AREAS
DEC 16 2012
20:01:11
TYPE
DEC
16NUM
2012
14:19:36
TYPE NUM
Y
Z
X
Y
Z
X
Radius 10 mm
а
Without damping
б
1
1
AREAS
DEC 16 2012
20:09:46
TYPE NUM
AREAS
DEC 16 2012
10:18:17
TYPE NUM
Y
Z
X
Y
Z
X
Fillet radius - 20 mm
в
Fillet radius - 20 mm
г
Рис. 4. Трѐхмерные модели соединения лонжерон – поперечина
а – исходный вариант; б – косынка с выкружками 10 мм; в – косынка с выкружками
20 мм; г – косынка с выкружками 20 мм облегчѐнной конструкции.
Эквивалентные поля напряжений определяли в предположении упруго –
пластической деформации конструкции, принимая во внимание, что предел
прочности Стали 20 составляет 550 МПа, напряжение 02 =230 МПа и модули
E2 2.1 10 9 Па
E1 2.1 10 11 Па и
E2
упругости
(модуль упругости
характеризует вторую часть идеализированной диаграммы напряжения –
деформации и учитывает упрочнение материала).
В расчет была заложена билинейная изотропная модель пластичности Хубера - Мизеса.
106
Оптимизация конструкции сварной конструкции автомобильного полуприцепа...
1
NODAL SOLUTION
JAN 19 2013
23:01:44
STEP=1
SUB =1
TIME=1
SEQV
(AVG)
DMX =.861E-03
SMN =6561.62
SMX =.249E+09
MX
MN
Y
X
Z
6561.62
.277E+08
.554E+08
.111E+09
.830E+08
.138E+09
.166E+09
.194E+09
.221E+09
.249E+09
Without damping.
Рис. 5. Поля напряжений соединения косынка – поперечина (вариант а).
1
NODAL SOLUTION
JAN 19 2013
23:14:00
STEP=1
SUB =1
TIME=1
SEQV
(AVG)
DMX =.001168
SMN =7959.36
SMX =.237E+09
MN
Y
Z
X
MX
7959.36
.263E+08
.526E+08
.788E+08
.105E+09
.131E+09
.158E+09
.184E+09
.210E+09
.237E+09
Radius 10 mm
Рис. 6. Поля напряжений соединения косынка – поперечина (вариант б).
107
A. V. Konoplev
1
NODAL SOLUTION
JAN 19 2013
23:22:51
STEP=1
SUB =1
TIME=1
SEQV
(AVG)
DMX =.001701
SMN =6172.34
SMX =.243E+09
MN
Y
X
Z
MX
6172.34
.270E+08
.541E+08
.811E+08
.108E+09
.135E+09
.162E+09
.189E+09
.216E+09
.243E+09
Fillet radius - 20 mm
Рис. 7. Поля напряжений соединения косынка – поперечина (вариант в).
1
NODAL SOLUTION
JAN 19 2013
23:30:55
STEP=1
SUB =3
TIME=1
SEQV
(AVG)
DMX =.002009
SMN =18034.3
SMX =.246E+09
Y
Z MN X
MX
18034.3
.547E+08
.273E+08
.109E+09
.820E+08
.164E+09
.137E+09
.219E+09
.191E+09
.246E+09
Fillet radius - 20 mm
Рис. 8. Поля напряжений соединения косынка –поперечина (вариант г).
108
Оптимизация конструкции сварной конструкции автомобильного полуприцепа...
Визуальный анализ полей напряжений показывает, что максимальные
эквивалентные напряжения для жѐсткой конструкции занимают небольшую
зону. В варианте с демпфирующей косынкой (радиус выкружки 10 мм) эта зона
несколько больше, однако их величина на 5% меньше. Соединение косынкой
с радиусом выкружки 20 мм качественно отличается от двух предыдущих
вариантов. В этом случае напряжения в зоне сварного шва верхней и нижней
части косынки
стали на 22% меньше напряжений, действующих
в околошовной зоне поперечины и косынки. В четвѐртом варианте наблюдалась
аналогичная картина, и напряжения также на 22% оказались ниже
максимальных (рис. 9)
270
1
250
230
210
2
190
170
150
0
1
2
3
4
Номер модели5
Рис. 9. Распределение эквивалентных напряжений в соединении косынка – поперечина
1 – максимальные напряжения в деталях соединения; 2 – напряжения в верхней
и нижней части косынки, прилегающей к поперечине.
Приведенная картина распределения полей эквивалентных напряжений не
может быть основанием для определения рационального варианта конструкции,
поскольку эти напряжения не являются критерием еѐ расчѐта на циклическую
прочность. Действительно, если ориентироваться на величину максимальных
напряжений, то лучшим вариантом будет 2 модель (радиус выкружки 10 мм).
С другой стороны, если судить о напряжѐнном состоянии конструкции по
напряжениям в зоне сварного шва, где и происходит разрушение, то
предпочтение следует отдать 4 модели.
Тем не менее, расчѐт дал
представление о том, как перераспределяются напряжения в зависимости от
изменения геометрии конструкции.
В настоящее время нет надѐжных критериев для расчѐта деталей
и конструкций с демпфирующими элементами, кроме того, также отсутствуют
109
A. V. Konoplev
надѐжные расчѐтные методы прогнозирования ресурса циклической прочности
других классов деталей, например, прессовых соединений. Такое положение
дел заставляет обращаться к экспериментально-расчѐтным методам, как
наиболее надѐжным.
Определим пределы выносливости всех конструкций соединения
с помощью метода, основанного на гипотезе о равенстве функций
распределения предела выносливости и долговечности до разрушения [2].
В качестве эталона для сравнения примем результаты длительных
испытаний моделей жѐсткой конструкции (тип а), которые проводили по стандартному методу (табл.6.1).
Таблица 1. Результаты испытаний моделей соединений лонжерон – поперечина (тип а) по
стандартному методу
, МПа
N , цикл.
160
39800
140
63100
120
102300
100
182000
80
478600
60
2089300
Путѐм обработки экспериментальных данных, приведенных в табл. 1 по
методу наименьших квадратов определим средневероятное значение предела
выносливости
а также стандартные отклонения долговечности до
R ,
наступления предельного состояния и предела выносливости S N и S ( R
= 60 МПа; S N = 63508 циклов и S =1.34 МПа).
Используя результаты испытаний моделей на изгиб при постоянном
номинальном напряжении в сечении приварки косынки к поперечине (табл. 2),
проведѐм расчѐты их индивидуальных пределов выносливости Ri , по формуле
[2, 3]
R
R
S
Ri
R
R
( Ni
N)
SN
где: N i долговечность до разрушения i – той модели,
N средняя долговечность на соответствующем уровне напряжений.
Таблица 2. Результаты испытаний соединения косынка – поперечина
№
Амплитуда
Тип
моде
деформации
модели
ли
, мм
1
2
3
1
а
0.36
2
3
110
Номинальное
напряжение
, МПа
4
81.5
Долговечность
N, (цикл.) до увеличения
амплитуды на 30%
5
426100
436200
540800
(1)
Оптимизация конструкции сварной конструкции автомобильного полуприцепа...
Продолжение табл. 2
1
4
5
6
7
8
9
10
11
12
2
3
4
б
0.38
81.5
в
0.42
81.5
г
0.57
81.5
5
631200
746800
776000
916800
1002300
1054200
1432700
1589900
1626400
Результаты расчѐта представлены в табл. 3 и на рис. 10.
Таблица 3. Результаты расчѐта индивидуальных значений пределов выносливости
№
1
2
3
4
5
6
7
8
9
10
11
12
модели
R,
59.1 59.3 61.5 63.4 65.9 66.5 69.5 71.3 72.4 74.0 82.0 82.9
МПа
85
80
75
70
65
60
Тип а
Тип б
Тип в
Тип г
55
1
3
5
7
9
11
13
Рис. 10 Динамика изменения индивидуальных пределов выносливости.
Выводы
При отсутствии обоснованных критериев расчѐта демпфирующих
конструкций экспериментально-расчѐтные методы, основанные на сокра111
A. V. Konoplev
щѐнном эксперименте являются надѐжным и достоверным
способом
совершенствования этих конструкций. В статье проблема выбора наиболее
рациональной конструкции соединения лонжерон – поперечина решена
с помощью экспериментально-расчѐтного метода, который отличается высокой
достоверностью результата и является наиболее рациональным в данной
ситуации. Применение конструкции косынки с демпфирующими элементами
позволили повысить предел выносливости узла более чем на 30%
с одновременным снижением массы.
Литература
[1] А. М. Красильников, А. В. Коноплѐв, Л. А. Гайошко, Эффект выносливости или
демпфирующие соединения, передачи, детали, Одесса: Астропринт, 2006, 424.
[2] А. В. Коноплѐв, Определение индивидуальных характеристик сопротивления
усталости, Вісник ОНМУ, 2007, №21, 89 – 96.
[3] А. В. Коноплѐв, Повышение точности построения кривой усталости при
использовании трехпараметрического уравнения Вейбулла, Вісник ОНМУ, 2007, №
22, 131-136.
112
Czy wibroakustyka może być metodą uzupełniającą leczenie chorych
z przewlekłą niewydolnością żylną?
Piotr Korzekwa1, 2*, Witold Korzekwa2, Justyna Zych2, Żaneta Braska2, Jarosław
Miszczuk2
1
Instytut Fizyki, Wydział Matematyczno-Przyrodniczy, Akademia im. Jana Długosza, Al. Armii
Krajowej 13/15, 42-200 Częstochowa
2
Klinika Komed, ul. Sobieskiego 54, 42-200 Częstochowa
* [email protected]
Abstract
Physical methods, which exploit vibrations of variable frequencies, have been
applicable for health care for many years. Constantly developing electronics enables
improvement of equipment, which produces vibrations as well as introduces a number of new effective methods, such as acoustic effects. Chronic venous insufficiency
requires complex procedures and its treatment creates a serious methodological problem. Supplementary therapy, which uses sound of particular acoustic wave can influence organs affected by the disease.
The aim of our study is to introduce and discuss results of the intense treatment
phase of advanced chronic venous insufficiency. 19 patients (27 lower limbs) were
exposed to supplementary therapy applying full vibroacustics program. Treatments
were performed every day for four to six weeks in out-patient surgery conditions.
As a result of applied treatment we observed improvement manifested as 60% decrease in lower limb oedema. In two cases full recovery of chronic ulcers was reported. Vibroacustics as a part of complex therapy for chronic venous insufficiency is
an effective way of treatment in selected cases. The phase of four- to six-week long
supplementary treatments contributes to decrease in lower limb oedema. Successful
treatment is only possible when complex therapies are employed.
Wstęp
Akustyka jest tą dziedziną nauki, która zajmuje się badaniem istoty fal akustycznych. Czym innym jest akustyka mowy, czy akustyka ultradźwiękowa. Inaczej postrzegana jest akustyka muzyczna, która dotyczy fizycznych zjawisk powstawania
dźwięków w instrumentach muzycznych. Jeszcze innymi zjawiskami zajmuje się
akustyka wnętrz lub akustyka środowiskowa. Zadaniem elektroakustyki jest łączenie
113
Piotr Korzekwa i inni.
elementów elektroniki i akustyki oraz przetwarzanie prądu elektrycznego na fale akustyczne i na odwrót [1, 2].
Bioakustyka i wibroakustyka dotyczy wpływu fal akustycznych na organizmy
żywe i opisuje zjawiska związane z drganiami układów mechanicznych, które wykorzystuje się nie tylko w budownictwie czy przemyśle, ale także w medycynie.
Tony i dźwięki wytwarzane przez różne źródła mają określone cechy fizyczne
w postaci natężenia i wysokości. Infradźwięki mają negatywny wpływ na organizm
człowieka, natomiast ultradźwięki stanowią prężnie rozwijającą się dziedzinę badań,
przez co znajdują wielorakie zastosowanie [2].
Procesy wibroakustyczne są zjawiskami dynamicznymi, w których drgania zachodzą w bardzo szerokim zakresie częstotliwości. Lecznicze oddziaływanie mikrowibracji na organizm człowieka znane jest od 1994 roku. Istotą tej metody terapeutycznej jest wpływ drgań dźwiękowych o zmieniającej się częstotliwości na patologiczny narząd, którego zasoby mikrowibracyjne stanowią podłoże fizjologii. Mikrowibracje obecne w każdym żywym organizmie stanowią nieodłączny składnik procesów fizjologicznych i biochemicznych. Nasycenie mikrowibracją chorej struktury,
pozbawionej mikrowibracji, doprowadza do poprawy przepływu krwi i chłonki w naczyniach tkanki [2, 3]. Przewlekła niewydolność żylna jest ważną przyczyną długoterminowej chorobowości, a jej najgroźniejsze powikłanie w postaci zatoru tętnicy
płucnej pociąga za sobą wiele zgonów wśród osób hospitalizowanych na całym świecie. We wczesnym okresie rozwoju objawy kliniczne zakrzepicy żylnej rozwijają się
najczęściej w żyłach głębokich podudzi i są zazwyczaj niewielkie. Opóźnienie wdrożenia odpowiedniego postępowania terapeutycznego niejedno-krotnie stwarza poważne zagrożenie dla życia i zdrowia chorego [1, 12]. Duża część powikłań przewlekłej niewydolności żylnej, zwłaszcza u osób alergicznych, ma istotny wpływ na koszty opieki medycznej. Uwzględniając częstość występowania przewlekłej niewydolności żylnej i jej powikłań oraz wynikające z tego koszty, wprowadzenie nowych metod terapeutycznych o dobrych właściwościach, niewymagających monitorowania
laboratoryjnego, stwarza uzasadnioną nadzieję na znaczne zmniejszenie częstości
występowania konsekwencji tej choroby. Przewlekła niewydolność żylna wymaga
postępowania kompleksowego i leczenie jej stanowi poważny problem metodologiczny. Uzupełnienie leczenia tego schorzenia terapią wibroakustyczną, stanowiącą
szczególny rodzaj mikrowibracji, wpływa na zmienione chorobowo narządy poprawiając przepływ krwi, zmniejszenie obrzęków i zwiększenie efektywności farmakoterapii.
Celem naszej pracy była ocena kliniczna przydatności mikrowibracji w formie
wibroakustyki w kompleksowym leczeniu chorych z zaawansowanymi postaciami
przewlekłej niewydolności żylnej.
Materiał i metody
Badaniem zostało objętych 19 chorych (27 kończyn dolnych) w wieku 28-68 lat,
z zaawansowanymi objawami przewlekłej niewydolności żylnej i potwierdzonym
rozpoznaniem w badaniu ultrasonograficznym z podwójnym obrazowaniem. Chorzy
114
Czy wibroakustyka może być metodą uzupełniającą leczenie chorych z przewlekłą...
zgłaszali bóle i obrzęki kończyn dolnych, żylaki z refluksem w obrębie żyły odpiszczelowej lub odstrzałkowej. Wielokrotnie pacjenci zgłaszali zagojone owrzodzenia
podudzi. W badaniach USG potwierdzono niewydolne perforatory na podudziach,
z zespołami pozakrzepowymi, a także zmianami troficznymi i niezagojonymi, bolesnymi owrzodzeniami. U większości chorych wymienione objawy występowały
łącznie, powodując znaczne pogorszenie jakości ich życia. Nasi chorzy nie byli
wcześniej operowani na układzie żylnym kończyn dolnych. U 8 chorych zmiany
w naczyniach żylnych dotyczyły jednocześnie obu kończyn dolnych, a ich zaawansowanie było prawie symetryczne. Kryteria wyłączenia chorych kwalifikowanych do
terapii wibroakustycznej obejmowały ciążę, miażdżycę tętnic kończyn dolnych,
czynne stany zapalne skóry, podwyższoną temperaturę ciała, obecność implantów
kończyn dolnych i choroby nowotworowe.
Metodyka terapii wibroakustycznej
Pacjenci zostali poddani zabiegom wibroakustycznym, gdzie czas mikrowibracji
początkowo był kilkuminutowy (5-10 minut) i stopniowo podczas kolejnych zabiegów ulegał wydłużeniu (do 20 minut).
Poprawę ukrwienia żylnego kończyn dolnych można było zauważyć niejednokrotnie po kilkuminutowej aplikacji mikrowibracji. Czas zabiegu jednorazowo nigdy
nie przekraczał 20 minut. W bardziej zaawansowanych stadiach choroby czas trwania
zabiegów początkowych był krótszy. Każdy pacjent podczas zabiegów wibroakustycznych traktowany był indywidualnie. Zabiegi wykonywane były codziennie
z przerwą niedzielną w okresie od 4 do 6 tygodni w warunkach ambulatoryjnych,
o jednakowej porze dnia. Pacjenci mieli wykonywane zabiegi na leżąco aparatem
Vitafon 2 (Rys. 1). Urządzenie to składa się z modułu sterowania i podłączonych
do niego wymiennych przetworników (wibrofonów). Powierzchnię roboczą w wibrafonie tworzą membrany, a ich pracy towarzyszy ciągły dźwięk o częstotliwości
zmieniającej się w zakresie fal dźwiękowych. Podczas pracy urządzenia zmiany częstotliwości membran są cyklicznie powtarzane. W zależności od wagi i wzrostu pacjenta dobierana była energia amplitudy mikrowibracji. Na owrzodzenia zakładano
opatrunki specjalistyczne, a następnie bandażowano kończyny od palców stóp z zastosowaniem opasek półelastycznych o szerokości 10 mm. Innych specjalistycznych
artykułów kompresyjnych nasi pacjenci nie mogli mieć zaaplikowanych. Bandażowano kończyny pojedynczo, tak, aby pacjent nie odczuwał dyskomfortu. W terapii
przewlekłej niewydolności żylnej wykorzystano tryb oddziaływania wibroakustycznego 3, 4 i 6, wskazany, jako najlepszy do stosowania w przypadkach patologii naczyniowej kończyn dolnych. Podczas wykonywania zabiegów pacjenci nie odczuwali
żadnych nieprzyjemnych doznań. Przetworniki umieszczane były na kończynach
dolnych i przytwierdzane za pomocą specjalnego paska mocującego tak, aby między
skórą i membraną nie było szczeliny. Odległość między przetwornikami nie przekraczała 10 cm.
115
Piotr Korzekwa i inni.
Rys. 1. Vitafon – 2 (aplikacja wibrafonu typu materac na kończynie dolnej).
Wyniki
W odniesieniu do wszystkich 19 pacjentów zastosowano kompleksową terapię
przewlekłej niewydolności żylnej, która obejmowała leczenie farmakologiczne, dbałość o higieniczny stan skóry oraz kontrolowane działanie mikrowibracji urządzeniem Vitafon 2.
W grupie chorych poddanych zabiegom wibroakustycznym zaobserwowano poprawę stanu klinicznego w postaci zmniejszenia obrzęków kończyn o ponad 60%
rozległości zmian. U 2 chorych uległy wyleczeniu przewlekłe owrzodzenia. U chorych z owrzodzeniami podudzi już po upływie 2 tygodni terapii wibroakustycznej
obserwowano ustąpienie wysięku. Dwóch z nich następnie zakwalifikowano do leczenia chirurgicznego. Najlepszy efekt terapeutyczny uzyskaliśmy w 3 i 4 tygodniu
leczenia. Zakres poprawy leczenia był odwrotnie proporcjonalny do długości wywiadu chorobowego przewlekłej niewydolności żylnej. Masa ciała pacjenta nie miała
znaczenia. U chorych z owrzodzeniami podudzi wdrażanie leczenia wibroakustycznego było utrudnione, a postęp leczenia wolniejszy. Chorzy ci wymagali każdorazowo modyfikacji ułożenia membran akustycznych na chorej kończynie (Rys. 2).
Wszyscy nasi chorzy odczuwali wyraźną poprawę samopoczucia bez doznania objawów ubocznych. Nastąpiło całkowite cofnięcie subiektywnego odczucia bólu kończyn dolnych. Trzech chorych poddanych terapii wibroakustycznej odczuwało podczas zabiegu uczucie ciepła w okolicy poddanej leczeniu.
116
Czy wibroakustyka może być metodą uzupełniającą leczenie chorych z przewlekłą...
Rys. 2. Wibrafony (ułożenie prawidłowe).
Dyskusja
Wibroakustyka, jako jeden z elementów kompleksowej terapii przewlekłej niewydolności żylnej, stanowi skuteczną formę leczenia w wybranych przypadkach. Faza leczenia uzupełniającego trwająca od 4 do 6 tygodni umożliwia zmniejszenie
obrzęku. Warunkiem uzyskania korzystnych rezultatów jest kompleksowe stosowanie różnych form terapii. Przewlekła niewydolność żylna spotykana często w postaci bardzo zaawansowanej, zarówno pod względem rozmiarów obrzęku kończyny jak
i towarzszących powikłań, w postaci zmian skórnych i epizodów zapalnych, jest często bagatelizowana przez chorego. Postęp i skuteczność leczenia uzależnione są od
odpowiedniej terapii [1]. Znacznie zaawansowane postacie tej choroby mogą stanowić poważny problem terapeutyczny wynikający z ograniczonej świadomości pacjentów odnośnie wymogów leczenia, ale także personelu leczącego chorego, w związku
z ograniczeniem dostępności do jednostek specjalistycznych zajmujących się leczeniem kompleksowym [2, 3]. W przypadku chorych z zaawansowanymi obrzękami
kończyn dolnych, u których nie można zastosować artykułów kompresyjnych, możliwość niesienia pomocy jest tym bardziej ograniczona. Tylko skojarzona, prawidłowo wprowadzona terapia, daje pozytywne efekty [3]. Wybiórcze stosowanie poszczególnych metod leczniczych, bez jednoczesnego stosowania metod fizykalnych
nie doprowadzi do uzyskania sukcesu terapeutycznego [4-7]. Leczenie chorego, które
nie przynosi oczekiwanych efektów, zniechęca go do kontynuacji postępowania terapeutycznego, a dodatkowo deformacje kończyny i niegojące się owrzodzenia prowadzą do utrwalenia i nasilenia niekorzystnych zmian [8, 9]. Niezależnie od stosowanej
codziennie fizykoterapii pacjenci mieli dostarczane informacje o sposobie i celu leczenia, a także możliwościach zapobiegania powikłaniom. Terapia obejmowała stosowanie leków wenoaktywnych w postaci tabletek lub kapsułek. Po zakończeniu intensywnej fazy leczenia uzupełniającego, kontynuowano okresowe zabiegi wibroakustyczne [10]. Przewlekła niewydolność żylna rzutuje głęboko na sprawność fizyczną
i psychiczną chorych. Chory, u którego nie można zastosować właściwej i prawidłowej kompresjoterapii cierpi na narastające dolegliwości ze strony kończyn dolnych,
117
Piotr Korzekwa i inni.
a świadomość powikłań jest przyczyną coraz większego stresu. Wśród angiologów
panuje duża zgodność poglądów dotyczących podstawowej formy leczenia w postaci
kompresjoterapii, ale nadal występują przypadki, w których zastosowanie tej formy
leczenia jest niemożliwe. Między flebologami występują nadal różnice zdań, co do
przydatności poszczególnych metod zabiegów fizykalnych u chorych z przewlekłą
niewydolnością żylną [10-12].
Nasze wyniki potwierdzają przydatność wibroakustyki w wybranych postaciach
przewlekłej niewydolności żylnej. W stosunkowo krótkim czasie uzyskaliśmy
znaczną poprawę stanu klinicznego naszych chorych w postaci zmniejszenia obrzęków i wygojenia ran na podudziach. Wyniki oparte są na obserwacjach stosunkowo
małej grupy chorych, dlatego podchodzimy do uzyskanych wyników bardzo krytycznie. Ważną regułą stosowaną u naszych pacjentów, a niestety przez niektórych pomijaną, jest uaktywnienie, w pierwszej kolejności, ruchu u tych chorych.
Wykonanie prawidłowego zabiegu wibroakustycznego jest zadaniem bardzo pracochłonnym. Według naszych obserwacji, chorzy z przewlekłą niewydolnością żylną
i rozległym obrzękiem kończyn wymagają codziennie ponad 60 minutowego poświęcenia. Czas ten jest potrzebny do uzyskania dobrego efektu mikrowibracji na zmienione chorobowo tkanki. Mechanizm biologicznego oddziaływania wibroakustycznego na poziomie tkankowym doprowadza do uzyskania zwiększonej aktywności
mikrodrgań mięśni kończyn dolnych oraz zmniejszenie obrzęku, co wpływa korzystnie na naczynia żylne poprawiając miejscowy przepływ krwi. Efekt przeciwbólowy
tego typu czynników fizycznych może być związany ze zmniejszeniem przewodzenia
bodźców bólowych we włóknach nerwowych na skutek dekompresji błon komórkowych [4, 13-15].
Od intensywności mikrowibracji, w obszarach zmienionych chorobowo, zależy
wzrost pracy mięśni otaczających naczynia żylne. Terapia wibroakustyczna stosowana u chorych z przewlekłą niewydolnością żylną jest w stanie przywrócić wyjściowe
rozmiary kończyny poprzez rozbudowę masy mięśniowej [4, 5].
Istotnym warunkiem powodzenia terapii uzupełniającej jest czas, w jakim jest
ona prowadzona. Leczenie powinno się charakteryzować intensywnością, związaną
z codziennym wykonywaniem zabiegów. Na podstawie obserwacji własnych oraz
doświadczeń zdobytych w innych ośrodkach wydaje nam się, że optymalny czas tej
terapii to 4 do 6 tygodni. Dopiero po upływie 4 tygodni kończyna stopniowo zmienia
swój stan na bardziej fizjologiczny.
Codzienne wykonywanie czasochłonnych procedur wiąże się z ponoszeniem
przez chorego kosztów terapii, dlatego tylko w warunkach ambulatoryjnych jest możliwe prowadzenie tego typu leczenia. Warunkiem uzyskania korzystnych rezultatów
u tych chorych jest kompleksowe stosowanie różnych form terapii.
Przedstawione w pracy wyniki wstępnych badań stanowić mogą potwierdzenie
korzystnego działania terapeutycznego wibroakustyki, jako metody uzupełniającej
leczenie pacjentów z przewlekłą niewydolnością żylną. Terapia skojarzona wykazuje
działanie synergistyczne, które prowadzi do poprawy efektu leczenia i skrócenia czasu terapii w porównaniu z metodami klasycznymi. Mikrowibracja wywiera głównie
118
Czy wibroakustyka może być metodą uzupełniającą leczenie chorych z przewlekłą...
działanie lokalne na tkanki, a szersze nieco spektrum działania akustycznego wspomaga leczniczy efekt miejscowy.
Literatura
[1] W. Olszewki, Obrzęki limfatyczne kończyn-klasyfikacja, diagnostyka, leczenie, PZWL,
2005, 56-64.
[2] M. Gabriel, K. Pawlaczyk, Kompleksowa terapia fizykalna obrzęków kończyn w : Ambulatoryjne leczenie chorób żył kończyn dolnych, Red. S. Zapalski, G. Oszkinis, Via Medica,
2001, 323-343.
[3] K. Pawlaczyk, M. Gabriel, Z. Krasiński, Kompresjoterapia w zapobieganiu i leczeniu zakrzepicy żylnej kończyn dolnych, Predl. Ginek. Położ., 2006, 41-46.
[4] A. Kowielenow, Wibroakustyka w medycynie, Vita Nova, 2003, 240.
[5] A. Kurtow, Oddziaływanie wibroakustyczne w kompleksowym leczeniu chorych, Vita
Nova, 2003, 96.
[6] A. Sęk, Biofizyka zmysłu słuchu , Biofizyka, Red. F. Jaroszyk, PZWL, 2001, 386-390.
[7] J. Cielichowski, E. Bichler, Pomiary i analiza zjawisk akustycznych, Biopomiary. Red. M.
Nałęcz, Exit, 2001, 288-292.
[8] D. Aujesky et al., Outpatient versus inpatient treatment for patients with acute pulmonary
embolism: an international, open-label, randomised, non-inferiority trial, Lancet, 2011;
378: 41-48.
[9] W. Zondag et al., Outpatient treatment in patients with acute pulmonary embolism, The
Hestia Study, Journal of Thrombosis and Haemostasis, 2011.10. 1538-7836.
[10] J. E. Dalen, Pulmonary embolism: what have we learned since Virchow? Natural history,
pathophysiology, and diagnosis, Chest 2002, 122, 1440-1456.
[11] Y. Zhang, T. Sun, B. He et al., Thrombolutic therapy with urokinase for pulmonaryembolism in patients with stable hemodynamics, Med Sci Monit 2007, 13, 20-23.
[12] W. Z. Tomkowski, B. L. Davidson, J. Wiśniewska et al., Accuracy of compression ultrasound In screening for deep vein thrombosis in acutely ill medical patients, Thromb Haemost 2007, 97, 191-194.
[13] C. Cempel, Wibroakustyka stosowana, PWN, Warszawa, 1989.
[14] Z. Engel, C. Cempel, Vibroacoustics and its Place in Science, Bulletin of the Polish
Academy Sciences. Tch. Sc.Vol. 49, 2, 2001, 185-198.
[15] Z. Engel, Geneza techniki wibracyjnej i wibroakustycznej, X Konferencja Naukowa WIBROTECH 2003, Kraków 2003.
119
120
Badanie stopnia zdefektowania struktury hydrożelowych
i silikonowo-hydrożelowych polimerowych soczewek kontaktowych
metodą spektroskopii czasów życia pozytonów PALS
Katarzyna Kotynia1, Agnieszka Kocela1, Katarzyna Filipecka2, Jacek Filipecki1*,
Piotr Korzekwa1, Edmund Golis1
1
Instytut Fizyki, Wydział Matematyczno-Przyrodniczy, Akademia im. Jana Długosza, Al. Armii
Krajowej 13/15, 42-200 Częstochowa
2
Instytut Fizyki, Wydział Inżynierii Procesowej, Materiałowej i Fizyki Stosowanej, Politechnika
Częstochowska, Al. Armii Krajowej 19, 42-200 Częstochowa
* [email protected]
Streszczenie
Badania zmian wolnych objętości przeprowadzono na polimerowych soczewkach
hydrożelowych i silikonowo-hydrożelowych wykonanych w technologii PC (Phosphoryl Choline). Do badań zastosowano metodę czasów życia pozytonów PALS.
W wyniku przeprowadzonych pomiarów otrzymano krzywą, opisującą zależność
liczby zliczeń aktów anihilacyjnych w funkcji czasu. Przeprowadzone badania wykazały istnienie trzech składowych τ1, τ2 i τ3. Składowa τ1 jest odpowiedzialna za anihilację swobodną pozytonów i anihilację z elektronami defektów punktowych typu wakans. Składowa τ2 związana jest z występowaniem defektów objętościowych powstających na granicach międzyziarnowych, dyslokacji lub skupisk wakansów. Wyniki
obliczeń średnich wartości czasów życia pozytonów badanych próbek, wykazały istnienie długożyjącej składowej w widmie czasów życia pozytonów. Składowa τ3
przypisywana jest do anihilacji pick-off pułapkowanie o-Ps przez wolne objętości,
dającej informację o geometrycznych parametrach wolnych objętości. Wyniki są analizowane i dyskutowane na bazie strukturalnego modelu wolnych objętości.
Wprowadzenie
Siłą napędową ewolucji materiałów wykorzystywanych do produkcji soczewek
kontaktowych jest potrzeba ograniczenia do minimum wpływu materiału na fizjologię rogówki. Pomimo znacznego postępu, ciągle istnieje problem związany z ograniczeniem poziomu tlenu dostępnego dla rogówki, czego następstwem są zmiany patologiczne w rogówce. Istnieje potrzeba prowadzenia nowych badań nad własnościami
fizycznymi materiałów polimerowych stosowanych do produkcji soczewek kontaktowych tak, aby zapewnić pacjentowi jednocześnie dobrą zwilżalność i odpowiednie
parametry optyczne, a także komfort przez odpowiednio długi czas noszenia [1-4].
121
Katarzyna Kotynia i inni.
Badanym materiałem były dwa rodzaje soczewek kontaktowych: hydrożelowe
oraz silikonowo-hydrożelowe, wyprodukowane przez firmę CooperVision.
Do pierwszych z nich należy Proclear 1 Day. Przy produkcji soczewek Proclear
zastosowano technologię PC, dzięki której w skład soczewki wchodzi unikalny materiał komórki phosphorylcholine (substancja naturalnie występującą w komórkach
ludzkich). Komórki te mają zdolność do otaczania się wodą, utrzymując soczewkę
w ciągłej wilgotności. Materiał Omafilcon A, z którego wykonane są soczewki, charakteryzuje się wysoką zawartością wody (60%). Materiał ten jest hydrożelem o wyższej transmisyjności tlenu (Dk/t = 36.6).
Drugim rodzajem badanych soczewek kontaktowych to soczewka Biofinity. Soczewki Biofinity są zbudowane z nowoczesnego materiału silikonowo hydrożelowego. Monomer silikonu doskonale przepuszcza tlen, a komponenty hydrofilne i silikonowe zapewniają naturalnie nawilżony materiał, który w sposób równomierny
utrzymuje wodę w całej soczewce. Szkła kontaktowe Biofinity wykonane są z materiału Comfilcon A i posiadają uwodnienie 48% [5].
Anihilacją pozytonów nazywamy proces polegający na zmianie całej masy obu
cząstek oraz ich energii kinetycznej w energię fotonów promieniowania elektromagnetycznego.
2me c 2
E
E
h
i
(1)
i
gdzie:
energia powstających fotonów,
me masa spoczynkowa elektronu i pozytonu,
c
prędkość światła,
E+E- odpowiednia energia kinetyczna pozytonu i elektronu.
h
Dlatego też badanie fotonów powstałych w procesie anihilacji, dostarcza informacji o stanie anihilującej pary elektron pozyton. Anihilacja cząstki z antycząstką
jest możliwa tylko wtedy, gdy spełnione są wszystkie prawa zachowania, czyli prawo
zachowania energii, pędu, momentu pędu, ładunku i parzystości. W czasie anihilacji
cząstki z antycząstką następuje jednocześnie emisja parzystej (2 ) lub nieparzystej
(3 ) liczby kwantów gamma.
Poza anihilacją swobodną może istnieć jeszcze anihilacja w stanie związanym,
gdy pozyton utworzy z elektronem atom wodoropodobny zwany pozytem Ps. Anihilację wysokoenergetycznych pozytonów w materii poprzedza zjawisko termalizacji,
polegające na szybkiej stracie energii pozytonów na skutek rozproszeń oraz wzbudzenia ośrodka. Termalizacja ma ogromne znaczenie w przypadku, gdy źródłem pozytonów jest rozpad + jąder atomowych. Pozyton przy wytracaniu ostatnich
10-50 eV swojej energii, przebywa drogę tego samego rzędu, co elektron i wtedy
może nastąpić reakcja tworzenia pozytu z jednym z uwolnionych elektronów towarzyszących niejako pozytonowi [6, 7].
122
Badanie stopnia zdefektowania struktury hydrożelowych i silikonowo-hydrożelowych...
Z uwagi na różne ustawienia spinów pary e+e-, wyróżniamy dwa rodzaje pozytu:
parapozyt p-Ps o antyrównoległym ustawieniu spinów (anihilacja na 2 ) oraz ortopozytu o-Ps o równoległym ustawieniu spinów (anihilacja na 3 ).
Rys. 1. Odmiana singletowa i tripletowa powstającego pozytonu [8].
Własności pozytonów i pozytu ulegają zmianom na skutek oddziaływania z otaczającym ośrodkiem. Jednym z obserwowanych zjawisk jest skrócenie średniego
czasu życia anihilującego w próżni trójfotonowo orto-pozytu, zwane gaszeniem o-Ps.
Podstawowym procesem gaszącym jest proces „pick-off‖. Polega on na tym, że pozyton wchodzący w skład orto-pozytu może anihilować dwufotonowo z elektronem
o przeciwnym spinie pochodzącym z jednego ze znajdujących się w otoczeniu pozytu
atomów. Przyjmuje się zgodnie z pomiarami czasu życia pozytonów, że anihilacja
o-Ps poprzez proces „pick-off‖ nastąpi po czasie 10-9 s [9, 10].
Aby pozyt mógł przetrwać w ośrodku skondensowanym nie ulegając gaszeniu ze
średnim czasem życia o dwa rzędy wielkości krótszym niż w próżni, konieczne jest
istnienie wolnej objętości – obszaru o zerowej gęstości elektronowej. Lokalne objętości swobodne pojawiają się na wskutek nieregularnego upakowania molekularnego
w materiałach. Zmiany strukturalne łączą się ze zmianami objętości swobodnej [11,
12].
W niniejszej pracy do opisania zależności pomiędzy czasem życia orto-pozytu
o-Ps, a rozmiarem wolnej objętości posłużono się modelem Tao-Eldrupa. Zakłada on,
że pozyt jest zlokalizowany w pojedynczej kulistej studni potencjału. Aby uprościć
rachunki Tao zaproponował zastąpienie skończonej studni potencjału studnią nieskończoną poszerzoną o wartość R. Wartość parametru R musi zostać dobrana tak,
aby nie została zmieniona wartość prawdopodobieństwa znalezienia pozytu na zewnątrz kuli o promieniu R (Rys. 1).
Następne rozważania teoretyczne wykazały, że czas życia 3 o-Ps , wyrażony jako
funkcja objętości swobodnej promienia R, wyraża się wzorem:
3
gdzie:
(ns) 0.5 1
R
R
R
1
2 R
sin
2
R
R
1
(2)
R = 0.166 nm jest empirycznym określeniem grubości warstwy elektronowej.
123
Katarzyna Kotynia i inni.
Po empirycznym rozwiązaniu powyższego równania i wyznaczeniu R, możemy obliczyć rozmiar wolnej objętości Vf zgodnie ze wzorem [14-17]:
Vf
4
3
R
3
(3)
Stosunek objętości swobodnej polimeru do objętości makroskopowej, czyli objętość
swobodna, jest wyznaczona z półempirycznego wzoru:
fv
CVf I 3
(4)
gdzie: Vf – rozmiar wolnej objętości,
I3 – natężenie składowej długo żyjącej w widmie czasów życia pozytonów
wyrażone w [%],
C – jest parametrem empirycznym wyznaczanym doświadczalnie.
V
V
U0
W
Z
0
R R+
0
R
r
Rys. 2. Schemat przybliżenia skończonej studni potencjału studnią nieskończoną,
poszerzoną tak, aby odtworzyć kształt funkcji falowej pozytu [13].
Eksperyment
Celem niniejszej pracy było podjęcie próby analizy porównawczej pomiędzy soczewką kontaktową hydrożelową a silikonowo-hydrożelową za pomocą anihilacji
pozytonowej (PALS). Do badań wykorzystano soczewki kontaktowe jednodniowe
nowe. Bardziej szczegółowe parametry przedstawiono w tabeli poniższej.
Tabela 1. Tabela przedstawia parametry hydrożelowej soczewki kontaktowej Procelar 1 Day oraz
silikonowo-hydrożelowej Biofinity [5].
Parametry
Materiał
Zakres mocy
Zawartość wody
Tlenoprzepuszczalność Dk/t
124
Proclear 1 Day
Omafilcon A
+5.00
60%
28
BIOFINITY
Comfilcon A
+5.00
48%
160
Badanie stopnia zdefektowania struktury hydrożelowych i silikonowo-hydrożelowych...
Rys. 3. Schemat blokowy spektrometru do badań czasów życia pozytonów firmy ORTEC.
1 – źródło pozytonów 22Na, 2 – badana próbka, 3.1, 3.2 – liczniki scyntylacyjne RCA – 8575,
4.1, 4.2 – zasilacz wysokiego napięcia Ortec – 456, 6 – linia opóźniająca Ortec – 425A,
8 – przedzwacniacz Ortec 113, 9 – wzmacniacz Ortec – 471, 5.1, 5.2 – stałofrakcyjny dyskryminator Ortec – 473A, 10 – jednokanałowy analizator amplitudy Ortec – 455,
7 – konwertor czas – amplituda Ortec – 467, 11 - wielokanałowy analizator amplitudy
TUKAN 8USB, 12 – komputer.
Pomiary czasów życia pozytonów PALS wykonano w temperaturze pokojowej za
pomocą spektrometru firmy ORTEK, opartego na zasadzie „start-stop‖ (Rys. 3).
Rozdzielczość czasowa układu wynosiła 0.270 ps (szerokość w połowie wysokości).
Każdą próbkę tworzyły warstwy soczewek kontaktowych o średnicy 10 mm i grubości 1.2 mm. Badana próbka wraz ze źródłem pozytonów, którym był izotop sodu Na22
o aktywności 4 105 Bq, tworzyła układ tzw. „sandwich‖.
Przykładową krzywą doświadczalną widma czasów życia pozytonów w próbce
soczewki kontaktowej przedstawia rysunek 4.
125
Katarzyna Kotynia i inni.
Rys. 4. Przykładowa krzywa widma czasów życia pozytonów mierzonych próbek
soczewek kontaktowych.
Wyniki
Widma czasów życia pozytonów zostały przeanalizowane z wykorzystaniem programu komputerowego LT [18]. Podobnie jak w poprzednich publikacjach [15-17]
dotyczących tego tematu, zajmiemy się analizą trzeciej składowej czasu życia pozytonów 3.
Interpretacja składowych 1 i 2 będzie przedmiotem kolejnej publikacji dotyczącej dwustanowego schematu pozytonowej anihilacji.
Obliczone wartości czasów życia 3 są odzwierciedleniem średnich rozmiarów
występujących wolnych objętości. Wartości czasów życia pozytonów 1, 2, 3 o-Ps
(proces „pick-off) i ich natężenia I1, I2, I3 podane są w Tabeli 2.
Tabela 2. Wartości czasów życia pozytonów
1, 2, 3
o-Ps (proces „pick-off) i ich natężenia I1, I2, I3.
Soczewka τ1 [ns]
I1 [%]
τ2 [ns]
I2 [%]
τ3 [ns]
I3 [%]
Proclear 1 0.172
Day
±0.047
Biofinity 0.270
±0.075
75.06
±0.98
82.51
±0.16
0.555
±0.098
0.725
±0.109
19.15
±1.57
10.16
±0.71
1.83
±0.35
3.27
±0.52
5.77
±0.28
7.32
±0.55
126
Badanie stopnia zdefektowania struktury hydrożelowych i silikonowo-hydrożelowych...
Tabela 3. Średnie wartości czasów życia pozytonów 3 ich natężenia I3 o-Ps, promienie R, rozmiar
wolnej objętości Vf oraz ilość wolnych objętości dla badanych soczewek kontaktowych.
Soczewka
τ3 [ns]
Proclear 1
1.83
Day
Biofinity
3.27
I3 [%]
R [nm]
Vf [10-30m3] fV/C [a.u.]
5.77
0.269
82.13
473.89
7.32
0.381
231.27
1695.21
Otrzymane błędy są wynikiem analizy matematycznej. Wielkości wolnych objętości Vf i ilość wolnych objętości V f I 3 f V / C dla wszystkich przebadanych próbek
są przedstawione odpowiednio na rycinach 4 i 5. Wielkości wolnych objętości Vf
i ilość wolnych objętości f V / C V f I 3 dla wszystkich przebadanych soczewek kontaktowych przedstawią rysuneki 5 i 6.
Rys. 5. Średnie rozmiary wolnych objętości Vf dla badanych próbek soczewek
kontaktowych: (1) hydrożelowej, (2) silikonowo hydrożelowej.
Rys. 6. Wartości ilości wolnych objętości fv Vf I3 dla badanych próbek
soczewek kontaktowych: (1) hydrożelowej, (2) silikonowo hydrożelowej.
127
Katarzyna Kotynia i inni.
Wartości błędów są mniejsze niż rozmiary punktów pomiarowych. Ilość wolnej
objętości fv jest proporcjonalna do V f I 3 , ponieważ C w równaniu 4 jest stałą.
Dyskusja
Zmiany wartości czasów życia 3 i ich natężeń I3 są reprezentowane jako zmiany
wolnych objętości Vf i ilości wolnych objętości fv (Rys. 4 i 5). Z rycin tych wynika,
że wartości Vf w badanych soczewkach kontaktowych różnią się pomiędzy próbkami
znacznie. Rozmiary wolnych objętości dla soczewki silikonowo-hydrożelowej są
większe niż w przypadku soczewki hydrożelowej o 113.8 %. Można by było połączyć to z przepuszczalnością tlenu, która dla soczewki silikonowo-hydrożelowej
również jest znacznie wyższa. W przypadku wielkości fv także otrzymujemy większe
wartości dla soczewki silikonowo hydrożelowej niż hydrożelowej, tym razem o prawie 16%. Biorąc pod uwagę zdefiniowane wartości Vf (równanie 3) i fv (równanie 4)
możemy stwierdzić, że różnice Vf odpowiadają za zmiany rozmiarów wolnych objętości, natomiast różnice fv odpowiadają za zmiany ilości występujących wolnych objętości.
Na podstawie przeprowadzonych pomiarów możemy stwierdzić, że rozmiary
i ilość wolnych objętości są większe dla soczewki silikonowo-hydrożelowej. Wysoki
współczynnik przepuszczalności tlenu dla soczewki silikonowo-hydrożelowej być
może również mówi o większych rozmiarach wolnych objętości Vf i ilości występujących wolnych objętości fv dla soczewki silikonowo-hydrożelowej. Z punktu widzenia fizjologii oka współczynnik przepuszczalności tlenu jest najistotniejszym parametrem charakteryzującym soczewkę kontaktową. Im więcej tlenu dotrze do oka, tym
oko będzie zdrowsze. Soczewki przepuszczające najwięcej tlenu do rogówki znacznie zmniejszają ryzyko zakażenia, są bezpieczniejsze dla użytkownika soczewek
i dają większy komfort użytkowania.
Wnioski
W niniejszej pracy przeprowadzono badania strukturalne zmian wolnych objętości
w dwóch różnych soczewkach kontaktowych: hydrożelowej jednodniowej i silikonowo-hydrożelowej jednodniowej, wykorzystując metodę spektroskopii czasów życia
pozytonów. Przeprowadzone pomiary pozwoliły na wyodrębnienie i obliczenie wartości składowej długo żyjącej czasu życia pozytonów 3 i jej natężenia I3, które to wielkości są związane z tworzeniem się ortopozytu (o-Ps) i są miarą rozkładu gęstości
tworzenia się wolnych objętości.
Wyniki tych pomiarów wskazują, że tworzenie się luk wolnych objętości ma miejsce zarówno w soczewce hydrożelowej jak i silikonowo-hydrożelowej. Jednak rozmiary wolnych objętości Vf i ilości występujących wolnych objętości fv dla soczewki
silikonowo-hydrożelowej są większe niż dla soczewki hydrożelowej.
Powiązanie naszych wyników badań z przepuszczalnością tlenu, jako parametrem
bardzo istotnym w charakterystyce soczewki zwiększającym komfort i bezpieczeństwo użytkowania, sugeruje kontynuacje i rozszerzenie pomiarów.
128
Badanie stopnia zdefektowania struktury hydrożelowych i silikonowo-hydrożelowych...
Podziękowania
Autorzy nie czerpią żadnych korzyści z materiałów użytych w tej publikacji
i pragną podziękować firmie Vision Cooper za przekazanie bezpłatne soczewek wykorzystywanych do badań w tej pracy.
Literatura
[1] I. Tranoudis, N. Efron, In-eye performance of soft contact lenses made from different materials, Cont Lens Anterior Eye., 27, 133-148, (2004).
[2] M. Guillon, C. Maissa, Bulbar conjunctival staining in contact lens wearers and non lens
wearers and its association with symptomatology, Cont. Lens Anterior Eye., 28, 67-73
(2005).
[3] H. Pult, C. Purslow, M. Berry, P. J. Murphy, Clinical tests for successful contact lens
wear: relationship and predictive potential, Optom. Vis. Sci., 85, E924-929 (2008).
[4] J. S. Wolffsohn, O. A. Hunt, A. K. Basra, Simplified recording of soft contact lens fit,
Cont. Lens Anterior Eye., 32, 37-42 (2009).
[5] K. Kotynia, Badanie stopnia zdefektowania struktury polimerowych soczewek kontaktowych metodą spektroskopii czasów życia pozytonów PALS, Praca magisterska, Wydział
Matematyczno- Przyrodniczy AJD, Częstochowa 2012.
[6] R. A. Pathrick, Positron annihilation – a probe for nanoscale voids and free volume, Prog.
Polymer Sci., 22, 1-47, (1997).
[7] Y. C. Jean, NATO Advanced Research Workshop, Advances with Positron Spectroscopy
of Surfaces, Yarenna, Italy, July 16&17 (1993).
[8] B. Jasińska, Badanie ośrodków porowatych metodą anihilacji pozytonów, Wydział Matematyki, Fizyki i Informatyki UMCS (2005).
[9] W. Shao-jie, T. Zhong-Xun and T. De-Chong, Positron Annihilation, edited by P. C. Jain,
R. M. Singru & K. P. Gopinathan, (World Scientific Publishing Co. Pte. Ltd., Singapore
1985).
[10] J. Dryzek, Wstęp do spektroskopii anihilacji pozytonów w ciele stałym, Wydawnictwo
Uniwersytetu Jagiellońskiego, Kraków 1997.
[11] W. Brandt, S. Berko, W.W. Walker, Positronium decay in molecular substances, Phys.
Rev., 120, 1289-1295 (1960).
[12] W. Shao-jie, T. Zhong-Xun and T. De-Chong, Positron Annihilation, edited by P. C. Jain,
R. M. Singru & K. P. Gopinathan, (World Scientific Publishing Co. Pte. Ltd., Singapore
1985).
[13] S. J. Tao, Positronium annihilation in molecular substances, J. Chem.Phys., 56, 5499
(1972).
[14] M. Eldrup, D. Lighbody, J. N. Sherwood, Positron annihilation in polymers, Chem. Phys.,
63, 51-62 (1981).
[15] M. Hyla, J. Filipecki, Z. Mandecki, R. I. Mervinskii, Positron annihilation and X-ray diffraction studies of the photopolymers based on the acrylate oligomers, Journal of NonCrystalline Solids, 232-234, 446-452 (1998).
[16] M. Hyla, J. Filipecki, J. Świątek, Positron annihilation study of the free volume changes in
thermally treated polymers based on acrylate oligomers, Journal of Non-Crystalline Solids, 352, 2726-2730 (2006).
[17] A. Kocela, J. Filipecki, P. Korzekwa, E. Golis, Badanie zmian wolnych objętości w strukturze polimerowych soczewek kontaktowych jednodniowej hydrożelowej i jednodniowej si-
129
Katarzyna Kotynia i inni.
likonowo-hydrożelowej metodą spektroskopii czasów życia pozytonów, Polimers in Medicine, 42, 62-68 (2012).
[18] J. Kansy, Microcomputer program for analysis of positron annihilation lifetime spectra,
Nucl. Instr. and Meth. Phys. Res. A, 374, 235-244 (1996).
130
Mathematical modeling of photometric variability of semiregular pulsating stars at the asymptotic giant branch and classification
Larisa S. Kudashkina
Deptartment of Higher and Applied Mathematics, Odessa National Maritime University, Odessa,
Ukraine
[email protected]
Аннотация
В работе приведен современный обзор звезд, занимающих положение на
асимптотической ветви гигантов на диаграмме Герцшпрунга-Рессела. Отмечены наиболее интересные проблемы, связанные с этими объектами, а также
уделено внимание классификации и эволюционному статусу. Методами математического моделирования получена средняя кривая блеска полуправильного
сверхгиганта S Персея. Показано, что с помощью периодограммного анализа
можно выделить период главного колебания и провести дальнейшую детальную классификацию полуправильных пульсирующих звезд, аппроксимируя их
средние кривые блеска тригонометрическим полиномом. Предлагается использовать фотометрический период для оценки физических параметров пульсирующих звезд.
Abstract
In this paper, we present a current review on stars at the position at the asymptotic
giant branch at the Hertzsprung-Russell diagram. Underlined are most interesting
problems associated with these objects, and we also focus on classification and evolutionary status. Using the methods of mathematical modeling, we obtained a smoothed
light curve of the semiregular supergiant S Persei. It is shown, that using the periodogram analysis, we can distinguish between the main variations and conduct further
detailed classification of semi-regular pulsating stars, approximating their average
light curves using a trigonometric polynomial. It is proposed to use the photometric
period to estimate the physical parameters of pulsating stars.
131
Larisa S. Kudashkina
Введение
Звезды образуются из материи, которая существует в космосе. Межзвездные облака газа и пыли служат областями, где рождаются звезды.
Первоначальное состояние – протозвезда – это огромное, вращающееся,
сжимающееся газообразное облако. Гравитационное сжатие приводит к быстрому повышению температуры и давления.
Когда температура в центре протозвезды превысит 10 млн. К, начинаются
реакции ядерного синтеза, в результате которых высвобождается огромное количество энергии. Когда направленная наружу сила давления горячих газов
приходит в равновесие с силами гравитации, стягивающими вещество в центр,
протозвезда перестает сжиматься и начинает излучать свой свет в космос.
Протозвезда становится звездой. Подобным образом 5 млд. лет назад образовалось наше Солнце.
Облака, в которых образуются звезды, имеют неодинаковые массы и различное соотношение химических элементов. А цикл жизни звезды – время, которое необходимо звезде, чтобы пройти все стадии эволюции, - зависит от ее массы и первоначального химического состава.
Звезды, начинающие жизнь с приблизительно одинаковой массой и химическим составом, проходят одни и те же стадии эволюции, примерно за одно и то
же время. Звезды такого же химического состава, но с намного большей
массой, проходят стадии эволюции быстрее.
Большую часть своей жизни звезда не меняет температуру и светимость
благодаря почти равномерному выделению энергии термоядерного синтеза.
Температура и плотность газа монотонно убывают от центра к поверхности,
и в каждой точке звезды отрицательный градиент газового давления уравновешивает силу тяжести всех вышележащих слоев вещества.
Однако при гидростатическом равновесии могут возникать звездные пульсации – периодические движения слоев звездного вещества около положения
равновесия. Несколько пульсирующих звезд были известны уже в древности,
но природа переменности их блеска стала понятна лишь в XX веке.
Способность звезды совершать тот или иной вид колебаний определяется ее
внутренним строением, то есть распределением вещества от центра к поверхности. Поэтому теория звездных пульсаций неразрывно связана с теорией внутреннего строения и эволюции звезд.
Все звезды эволюционируют примерно одинаково, хотя им нужно разное
время для того, чтобы вещество их ядра превратилось из водорода в гелий,
а затем в кислород и углерод.
Последняя стадия эволюции до окончательного умирания сильно зависит от
массы. Маленькие звезды, масса которых не превышает 1, 2 солнечной, окончательно умирают без каких либо катаклизмов, спокойно угасают, теряясь во
тьме космоса. Очень массивные звезды заканчивают свой жизненный путь мощным взрывом - взрывом Сверхновой.
132
Mathematical modeling of photometric variability of semiregular pulsating stars at...
Итак, звезда, эволюционируя с момента своего рождения и до самой смерти,
проходит следующие этапы:
1) Гравитационное сжатие газопылевого облака и превращение его в звезду.
2) Стабильное положение звезды на главной последовательности диаграммы
3) Герцшпрунга – Рессела (Г–Р), когда она светит за счет реакции ядерного
синтеза.
4) Выделение гелиевого ядра и превращение в красного гиганта.
5) Красный гигант, светящийся за счет ―горения‖ гелия.
6) Переменная пульсирующая звезда, образование углеродного ядра.
7) Планетарная туманность, водородная оболочка которой сбрасывается
в космос.
8) Белый карлик.
9) Черный карлик.
Каждая точка на диаграмме Герцшпрунга – Рессела (Г–Р) представляет
зbезду, чья температура (спектральный класс) отложена по горизонтальной оси,
светимость (абсолютная звездная величина) – по вертикальной. Существует
сbязь между светимостью звезды и ее температурой. В противном случае точки
были бы разбросаны по всему графику.
Примерно 90% звезд лежат вдоль полосы, называемой главной последовательностью, которая пересекает график из верхнего левого угла,
в правый нижний. Большая часть оставшихся звезд попадает в верхнюю правую
часть (холодные яркие гиганты и сверхгиганты) или в левый нижний угол (горячие, с низкой светимостью белые карлики).
Главная последовательность – это последовательность звезд разной массы,
от наиболее массивной, в верхней части до наименее массивных, обладающих
наименьшей светимостью, в нижней части. Светимость звезды примерно
пропорциональна ее массе, в степени 3.5. Если известно абсолютная температура и светимость звезды, то ее размер может быть вычислен на основании закона Стефана – Больцмана:
L
4 R2 Tef4
(1)
где: σ – постоянная Стефана – Больцмана.
Таким образом диаграмма Г–Р показывает изменение звезды при прохождении ею этапов эволюции [8].
После выгорания водорода в центре образуется гелиевое ядро. Его сжатие
вызывает повышение температуры на границе гелиевого ядра и возникновение
слоевого источника горения водорода. При этом оболочка звезды расширяется.
Звезда становится последовательно субгигантом и красным гигантом.
Сжатие невырожденного гелиевого ядра ведет к постепенному повышению
его центральной температуры. Горение гелия начинается в тот момент, когда
центральная температура достигает ~1.5·108 К, и звезда перемещается на горизонтальную ветвь.
133
Larisa S. Kudashkina
После того, как в центре выгорит гелий, образовав углеродно-кислородное
ядро, реакции переместятся в слой вокруг ядра, где гелий еще сохранился,
а в более высоких слоях продолжается горение водорода. На этой стадии звезды
вновь превращаются в красные гиганты, образуя на диаграмме Герцшпрунга –
Рессела асимптотическую ветвь гигантов.
Рис. 1. На диаграмме Герцшпрунга-Рессела показано, как Солнце в стадии протозвезды
«садилось» на главную последовательность, затем, последовательно, оно будет
превращаться в красный гигант и планетарную туманность [11].
Цель работы
исследование звезд асимптотической ветви гигантов с полуправильным типом переменности блеска методами математического моделирования и их последующая классификация. Для анализа фотометрических сигналов использовались алгоритмы и программы, разработанные И.Л. Андроновым. Их обзор
приведен в работах И.Л. Андронова [13-15].
Все звезды асимптотической ветви являются пульсирующими.
Пульсационная неустойчивость возникает на определенных стадиях звездной эволюции, поэтому классификация пульсирующих переменных звезд по
продолжительности периода, форме кривой блеска, виду спектра и другим наблюдательным признакам отражает их эволюционный статус, то есть принад134
Mathematical modeling of photometric variability of semiregular pulsating stars at...
лежность к группе звезд с определенными значениями массы, возраста и химического состава.
По сравнению со временем прохождения звездной стадии неустойчивости,
промежуток времени раскачки колебаний достаточно короток, поэтому практически все наблюдаемые нами пульсирующие звезды находятся на стадии автоколебаний.
Рис. 2. Эволюция звезды умеренной массы. Стадия главной последовательности (ГП) – водородное горение в ядре (0–1); стадия красного гиганта – водородное горение в оболочке (1–
2); стадия горизонтальной ветви (ГВ) – гелиевое горение в ядре и водородное в оболочке (2–
3); асимптотическая ветвь гигантов (АВГ) –двойной слоевой источник (3–4) [7].
Актуальность работы
В отличие от теории пульсаций классических пульсирующих звезд, которая
была подробно разработана уже к середине XX века С.А. Жевакиным [4], детальной модели пульсаций долгопериодических переменных звезд (ДПП) пока не
существует. Это связано с проблемами теории развития конвекции во времени,
а также с определением мод пульсаций (что в свою очередь связано с неточностью определения радиусов, так как на поздней стадии эволюции звезд они
135
Larisa S. Kudashkina
имеют протяженную атмосферу, плавно переходящую в околозвездную оболочку). В результате многие наблюдательные проявления, такие, как скачкообразные изменения периодов, изменения амплитуды и формы кривой блеска
не получили теоретического объяснения. Однако, некоторые наблюда-тельные
эффекты, например, "прогрессивное" уменьшение периодов, получили приемлемое объяснение, или, по крайней мере, были высказаны гипотезы, хорошо согласующиеся с наблюдениями. Можно предположить, что развитие теории в
существенной мере тормозится недостаточной класси-фикацией наблюдаемых
явлений. Например, мало изучено изменение кривых блеска от цикла к циклу,
так как требует длинных рядов наблюдений и их тщательного анализа. Изучение закономерностей изменения кривых блеска от цикла
к циклу, а также
вековых изменений на протяжении длительных интервалов времени, а также их
классификация, могли бы стать наблю-дательным фундаментом для развития
теории пульсаций ДПП.
Основные решаемые в настоящее время проблемы, касающиеся звезд асимптотической ветви гигантов, это – построение динамических моделей атмосфер,
определение моды пульсации, изучение механизма потери массы и дальнейшая
эволюция звезд.
Одним из главных вопросов теории звездных пульсаций является мода,
в которой пульсируют звезды асимптотической ветви.
У каждой звезды существует свой набор периодов радиальных колебаний,
который задается распределением вещества внутри звезды. Самый длинный из
всех возможных периодов принадлежит колебаниям в фундаментальной моде.
При пульсациях в первом обертоне внутри звезды имеется слой газа – узел обертона, который остается неподвижным на протяжении всего пульсационного
цикла [9].
Для решения вопроса о типе звездной пульсации необходимо сначала классифицировать наблюдательные проявления звездной активности, то есть изменения блеска звезд.
Постановка задачи
Любые способы классификации звезд по типам переменности опираются на
общий вид кривой блеска и спектральный класс. Однако, такой подход не всегда удачен, если речь идет о полуправильных переменных (SR). Для них часто
нельзя рассматривать общую кривую блеска, так как она содержит участки, характерные для звезд различных типов. Происходит это, вероятно, потому что
SR-звезды (от английского semiregular) в большинстве своем, во-первых, мультипериодичны и все компоненты этой мультипериодичности проявляют себя
очень активно, то есть имеют сравнимую амплитуду с главным колебанием. А,
во-вторых, период основного колебания также меняется [7].
На сегодняшний день имеется очень грубая классификация SR-звезд, которую можно обобщить, используя три фундаментальные работы "Пульси136
Mathematical modeling of photometric variability of semiregular pulsating stars at...
рующие звезды" [4], "Общий каталог переменных звезд" [10], "Переменные звезды" [5], следующим образом.
Подклассы SR-звезд сильно смешаны. Особенно это касается звезд подтипов SRb. Деление их на "красные" и "голубые" предложили Kerschbaum и Hron
[20], основываясь на статистических исследованиях периодов, амплитуд, температур, темпов потери массы, присутствию околозвездной пыли и осо- бенностей спектров. В работе были использованы свойства звезд в визуальной и инфракрасной областях спектра. Эти же авторы указывают, что SRa-звезды являются промежуточными объектами между долгоперио- дическими звездами типа
Миры Кита и SRb-звездами.
Звезда AF Лебедя вполне может быть прототипом отдельного класса звезд
(как, например, RV Тельца). Этот объект показывает последовательное "переключение" колебаний, значения периодов которых никак не зависят друг от друга [2].
Таблица 1. Обобщенная классификация полуправильных переменных звезд.
Тип Характеристики звезд
Яркие представители
указанного типа переменности
Z Aqr 136.d9 M1e-M3e
SRa M, C, S спектры
P≈const, Δm мало
форма кривой блеска сильно меняется имеют
эмиссионные линии, очень похожи на звезды
типа Миры Кита
SRb M, C, S спектры
RR CrB
P-? цикл разной продолжительности
AF Cyg
три вида поведения: квазипериодическое,
постоянное, хаотическое
SRc поздние спектры сверхгиганты
μ Cep
RS Cnc 1700d
SRd F, G, K спектры
UU Her
отличаются от остальных отсутствием
AG Aur
или очень слабыми полосами окиси титана,
большими скоростями и светимостями; гиганты и сверхгиганты
137
Larisa S. Kudashkina
Рис. 3. Участок кривой изменения блеска SRb-звезды RX Волопаса по материалам французской ассоциации наблюдателей переменных звезд (AFOEV). Крестиками показаны наблюдения, усредненные за несколько дней. Характерное значение периода около года (P=369 d)
получено И.Л. Андроновым и Л.С. Кудашкиной [16].
Рис. 4. Кривая изменения блеска полуправильной переменной звезды AF Лебедя. Видны
участки регулярной синусоидальной переменности разной длительности.
Следует заметить, что SRc-класс фактически отмечает только звездысверхгиганты, иногда с переменностью типа SRa, но чаще тип переменности
никак не определен. Рассмотрим представителя SRc-класса звезду S Персея.
138
Mathematical modeling of photometric variability of semiregular pulsating stars at...
S Персея – звезда-сверхгигант, отнесена к звездам с гармонической переменностью. Для периодограммного анализа использовалась наблю- дательная база
данных Французской Ассоциации Наблюдателей Переменных Звезд (AFOEV)
и методы анализа мультипериодических колебаний, изложе- нные в работах
И.Л. Андронова [13, 14].
Период определен P = 809.d91 [17]. На самом деле, на периодограмме присутствует не один пик, а два. Первый соответствует периоду
P = 16173d ± 158d, с которым меняется средний блеск (заметим, что интервал
наблюдений составляет более 20000 дней), а второй пик является сдвоенным
P1 = 809.d6 ± 0.d22 и P2 = 768.d8 ± 0.d31.
Более подробные исследования периода показывают следующее. Разделив
всю имеющуюся кривую блеска примерно за сто лет на шесть интервалов, по
каждому интервалу проведен периодограммный анализ. Результаты его даны
в таблице 2. Каждое следующее значение периода на одном интервале получено по остаткам после вычитания предыдущего, S(f) высота пика на периодограмме по сравнению с единицей.
Таблица 2. Результаты периодограммного анализа для S Персея.
Интервал (Юлианская дата 24.....)
23500-25000
(1500d)
25000-29000
(4000d)
29000-32000
(3000d)
39400-43200
(3800d)
43200-47000
(3800d)
47000-51000
(4000d)
Значения периодов
991.d46±18.d64
431.43± 9.84
643.99±45.50
834.15± 3.26
489.88± 2.08
1631.76±25.04
768.91± 7.16
544.26± 4.04
998.83±15.20
909.40± 6.52
787.89± 8.45
1090.17±15.31
759.33± 5.48
599.31± 6.07
298.55± 1.65
816.82± 1.55
2463.06±40.01
1106.98±8.90
S(f)
0.94
0.48
0.40
0.44
0.36
0.33
0.75
0.53
0.39
0.83
0.55
0.45
0.42
0.35
0.33
0.77
0.44
0.38
В последнем временном интервале кривая блеска S Персея имеет правильную форму с устойчивым периодом 816.8 дней (рис. 5). Будем считать, что звезда пульсирует в фундаментальной моде.
139
Larisa S. Kudashkina
Рис. 5. Фазовая кривая блеска звезды S Персея по наблюдениям AFOEV
и ее аппроксимация тригонометрическим полиномом [3, 13].
Используя зависимость "период - абсолютная болометрическая величина",
полученную Feast [19] для сверхгигантов, оценим Mbol для S Персея.
M bol
7.20 lg( P) 12 .8
(2)
имеем, Mbol ≈ -8.17.
Абрамян [1] получил следующие параметры для S Персея, используя ИКнаблюдения и соотношения между светимостью, массой, эффективной температурой и периодом (пульсационная константа принималась равной 0.06):
MV = -6.1, Mbol = -8.7, M/M = 26.3, Tef = 2950 K. Спектральный класс звезды
М4Ia-M4.5Iab.
Воспользуемся его значениями массы и эффективной температуры для оценки радиуса звезды.
Используем классические соотношения,
lg( L L0 )
где: L – светимость Солнца.
Имеем отсюда L = 140605L.
Для абсолютно черного тела
140
0.4( M bol
4.7)
(3)
Mathematical modeling of photometric variability of semiregular pulsating stars at...
4 R2 Tef4
L
(4)
получаем R = 1.0·1014 см или, примерно, 1400R.
Что касается Tef, то по оценкам Alvarez and Mennessier (1997) 2900 К соответствует примерно спектральному классу M8. Правда, у них речь идет о звездахгигантах типа Миры Кита. Тем не менее, оценка радиуса S Персея кажется нам
завышенной. В связи с этим, интересно подставить полученное значение в известную формулу из теории звездных пульсаций [6]
P0
Q
( R R0 ) 3
(M M 0 ) 2
(5)
где: R, M – радиус и масса солнечные.
Получим для нашего периода P0 = 816.d8 соответственно Q ≈ 0.077, что, вообще говоря, согласуется с теоретическими значениями (Q от 0.06 до 0.08) для
полуправильных переменных.
Выводы
Таким образом, обширный и неоднородный класс полуправильных переменных требует внимательного подхода и ревизии, которую вполне успешно можно провести, используя современные математические методы и уже имеющийся наблюдательный материал.
В настоящей работе показано, что определенный из кривой блеска период
пульсаций может служить для оценки физических параметров звезды.
Все изменения фотометрических параметров, присущие рассматриваемым
звездам, например, форма кривой изменения блеска в визуальной области, несомненно, связаны с физическими свойствами звезды. Поэтому можно провести классификацию полуправильных переменных звезд по этим параметрам.
Подобная работа была проделана Чинаровой и Андроновым [18]. В результате
получены средние значения параметров кривых блеска 173 SR-звезд различных
подтипов. Этот результат может служить основой для математического моделирования сложных процессов, идущих в звезде и ее оболочке, влияющих на
форму кривой блеска.
Благодарности
Автор благодарит профессора И.Л. Андронова за постановку задачи и полезные обсуждения.
141
Larisa S. Kudashkina
ЛИТЕРАТУРА
[1] Г. В. Абрамян, О периодах, амплитудах и светимостях красных сверхгигантов,
Астрофизика, 1984, 20, № 2, 239-243.
[2] И. Л. Андронов, О переменности продолжительности цикла AF Лебедя, Астрон.
цирк.,1989, № 1538,18-19.
[3] И. Л.Андронов, А. В. Бакланов, Алгоритм искусственной звезды сравнения для ПЗС
фотометрии, Вестник Астрономической Школы, Одесса, 2004, т. 5, 264-272.
[4] Пульсирующие звезды (Под ред. Б. В. Кукаркина), Наука, 1970, 372.
[5] К. Гоффмейстер, Переменные звезды, Наука, 1990, 360.
[6] Дж. П. Кокс, Теория пульсирующих звезд, Мир, 1983, 326.
[7] Л. С. Кудашкина, Долгопериодические переменные звезды, КФНТ, 2003, т.19, № 3,
193-233.
[8] Физика космоса: (ред. Р.А. Сюняева) Сов. энциклопедия, 1986, 783.
[9] Ю. А. Фадеев, Пульсации звезд, Природа, 2006, № 8, 16-23.
[10] П. Н. Холопов и др., Общий каталог переменных звезд, Наука, 1985, 376.
[11] Л. Л. Чинарова, Двойные звезды и их эволюция, Учебн.-метод.пособие, Одесса: Издво ОНУ, 2009, 58.
[12] R. Alvarez et. al., Determination of Miras temperatures from TiO and VO bands. Estimates
of distances, A&A, 1997, Vol. 317, 761-768.
[13] I. L. Andronov, Multi frequency variations of stars. Some methods and results, Odessa Astron.Publ., 1994, Vol. 7, part 1-2, 49-56.
[14] I. L. Andronov, Method of running parabolae: Spectral and statistical properties of the
smoothing function, A&A Suppl. Ser., 1997, Vol. 125, 207-217.
[15] I. L. Andronov, Multiperiodic versus noise variations: mathematical methods, Astron. Soc.
Pacif. Conf. Ser., 2003, Vol. 292, 391-407.
[16] I. L. Andronov, Semiregular variable RX Bootis: double-period optical variations of a
cosmical maser?, Astronomische Nachrichten, 1988, Vol. 309, № 5, 323-325.
[17] L. S. Kudashkina, The character of variability and possible subdivision of the SRc class,
The Imp.of Large-Scale Surv.on Puls.Star Res. ASP Confer.Ser.(L. Szabados & D.W.
Kurtz, eds.), 2000, Vol. 203, 119.
[18] L. L. Chinarova, Catalogue of main characteristics of pulsations of 173 semi-regular stars,
Odessa Astron. Publ., 2001, Vol. 13,116-176.
[19] M. W. Feast, A period-luminosity-color relation for Mira variables, MNRAS, 1989,
Vol. 241, 375-392.
[20] F. Kerschbaum et. al., Semiregular variables of type SRa and SRb. Basic properties in the
visual and the IRAS-range, A&A, 1992, Vol. 263, 97-112.
142
Preparation and characterization of Liposomes
(Small Unilamellar Vesicles, SUV, made of pure phospholipid
molecules and real biological membranes)
Anna Majtyka
Institute of Physics, Department of Mathematics, Physics and Chemistry, University of Silesia,
12 Bankowa Street, 40-007 Katowice
School of Chemical Technology, Department of Materials Science and Engineering,
Aalto University, P.O. Box 11000 FI-00076 AALTO, Helsinki, Finland
[email protected]
Summary
The main goal of this work was to obtain small unilamellar vesicles and a structural characterization of thin membranes involved in the mechanisms of olfaction in
mammals. Uni-lamellar vesicles of small size (nanosomes) were prepared via sonication and filtration of membranes containing olfactory receptors. First we determined
the real amount of membranes in the product provided by the biologist from INRA
laboratory. After that we performed a comparative study of the membrane fraction
from different preparation routes and sample lots, from sample FMP124 and FMP32,
respectively, to characterize and compare different amounts and sizes of vesicles. The
main methods of research was Static (SLS) and Dynamic Light Scattering (DLS).
These methods allowed us to obtain the vesicles sizes and their amount.
Introduction
We mainly used Static and Dynamical Light Scattering techniques. These techniques allow determining the sizes, distributions and the organization of vesicles according to the methods and steps of preparation. Static light scattering is a technique
that measures the intensity of the scattered light to obtain for example: Molecular
weight, Radius of Giration (root mean square radius), Form and Structure Factor,
Virial Coefficient (by measuring the scattering intensity for many samples of various
concentrations). Dynamic Light Scattering is also known as quasi-elastic laser light
scattering. If the light source is monochromatic and coherent we can observe a timedependent fluctuation in the scattering intensity. These fluctuations result from
Brownian motion of small molecules and the distance between them in the solution is
changing with time. In dynamic diffusion we study the intensity at a fixed angle and
take into account local fluctuations in concentration over time, not average intensity
143
Anna Majtyka
over time like in static diffusion. Diffusion of molecules in volume cause spatial fluctuations of the local concentration, associated with spatial fluctuations of the local
amplitude of the electric field of scattered light. The interference of waves is the
source of fluctuations on the detector and give a value of distribution intensity. If the
particles are large and move slowly to their initial location, the signal change slowly
over time and the correlation persists long positions (Fig. 1). In the opposite case
where the particles are small and move quickly or over long distances, the autocorrelation is lost more rapidly [1-6].
Fig. 1. Correlation curves of the samples FMP132 at different steps.
The received information from the Dynamic and Static Light Scattering techniques can be used in medicine, cosmetology and many other areas.
The investigated material
It is work with real membrane fractions (FM) from yeast, in which there are olfactory receptors of mammals (RO, humans or rats). Membrane fraction was prepared
by biologists from INRA (Paris collaboration). FM also includes the all of the proteins used in the yeasts. Was studied also pure phospholipid liposomes from lipids
purchased from Avanti [5] in order to compare with fraction membrane. The main
components of the lipid are DPPC mixture (1,2-dipalmitoyl-sn-glycerine-3phosphocholine). DPPC mixture has the formula C40H80NO8P, molar mass:
734.039 g/mol. In experiment was used several mixtures of phospholipids. These diluted samples were stored in chloroform at a concentration of 25 mg/ml. First we collected the desired amount of molecules in the solution (the quantity we need to hydrate) and evaporated the chloroform. In the next step we added pure water to obtain
the desired dilution.
144
Preparation and characterization of Liposomes...
Laboratory apparatus
The experiment was carried out using Thermogravimetric analysis (TGA). It is
a technique that allows analysis of the mass variation of a sample as a function of
temperature. It is a differential analysis between β alumina in a platinum crucible and
the sample considered. The device used in the Laboratory LdOF from the University
of Maine contains an oven, a sealed chamber to monitor the atmosphere of the sample
with a regulated flux of air, a high precision module weighed (microbalance), a thermocouple for temperature measurement and a computer to monitor and record all data.
The main research techniques used in this work are Static and Dynamic Light
Scattering. Equipment (Fig. 2) consists of a laser beam directed onto the sample liquid in a glass tube of 8 mm internal diameter, positioned in a thermostated solution.
The laser beam does not undergo refraction because thermostated solution has the
same index as glass (toluene or decalin, indices n = 1.4954, 632.8 nm). As a sample
standart were use solution of toluene. It is necessary for calibrating the scattered intensity. Detector is mounted on a motorized goniometer (where was choose the angle)
and measure the scattered intensity. The photomultiplier is connected to optical correlator and the detector is set to retrieve only the broadcast signal of the position of the
sample
Fig. 2. Pictures of light scattering instrument in PCI Lab at the University of Maine.
It was used supporting technique such as UV-Vis spectrometry. UV-Vis spectroscopy refers to absorption spectroscopy in the ultraviolet-visible spectral region. We
can measure the concentrations of absorbing species and it is useful to estimate the
proteins concentration that is constant in the membrane fraction used, so that it is
a way to measure the total membrane concentration of a solution. It was also tried to
use the Thurax technique to homogenise the size distribution of vesicles.
145
Anna Majtyka
Analysis procedure
The solutions were prepared of different concentrations of fraction membrane
(FM). The solutions have undergone different treatments needed to make liposomes
of yeast membranes of small sizes and to study their stability and evolution over time.
The analysis procedure was carried out in the following stages:
Samples sonicated at low temperature (4°C)
Samples re-sonicated at higher temperature (60°C)
Sample after filtration. They were filtered with different filter types:
Whatman Anatop 25 PLUS 200 nm
Micro Sard 200 nm
Whatman GMF w/GMF 0.45 μm
In order to homogenize our membrane dispersion and to reduce turbidity, we used
the sonication at 4°C to keep membrane proteins intact and at 60°C that might damage the proteins but that gives a high fluidity to all phospholipid chains since this
temperature is well above the melting temperature of most of phospholipids molecules. After this steps large aggregates remained in the solutions and might correspond to aggregated small vesicles or larger vesicles. So liposome solutions needed to
be filtered to take away aggregates of liposomes which are a problem for light
scattering techniques.
For the first experiment we used two different filters that cut above 200 nm (Fa is
from Whatman Anatop 25 PLUS 200 nm and filter Fb is from Micro Sard 200 nm)
on a 0.1% w/w solution of FMP124 (first sample) after sonication at 4°C for Fa; and
after sonication at 60°C for Fb. In order to know how much we loose with filtration
and to measure the membrane concentration after filtration, we used UV-Visible absorption of protein membranes. After filtration with Fa, we lost 92.24% of the membrane concentration, and 78.6 % with filter Fb from the same starting solution respectively. This huge lost of material from 200 nm pores filtration shows that a large fraction of vesicles and aggregates have a diameter larger than 200nm. This was confirmed from the fact that the static light scattering curve (SLS, I/KC = function(q)) of
the starting solution does not reach a plateau at small angles due to the presence of
very large objects (red curve 3a), but clearly show a plateau at small angles (small
q values) after filtration, once the large aggregates have been removed (Figure 3a).
The size distribution measured from DLS shows the presence of large aggregates at
sonication at 4°C (red curve 3b).
The DLS curves measured at 30°, 90° and 150° over 300 seconds for the starting
sample before filtration were fitted (Fig. 4). For this it was used a REPES algorithm
with a regularization parameter ( Reg). This parameter controls the width of authorized peaks in the distribution. The distribution seen at small angles (30°) is much
more sensitive to the presence of large aggregates than the ones measured at 90° or
150°.
146
Preparation and characterization of Liposomes...
Fig. 3. Static light scattering (SLS) curves of the three solutions compared in experiment 1 (red is
the starting solution, green after filtration with filter Fa, and blue with filter Fb (a), correlation
curves measured from DLS at 90° of the same samples (b).
147
Anna Majtyka
Fig. 4. Correlation curves (DLS) measured at 30° (red), 90° (green) and 150° (blue) of the starting
solution of experiment one (a), distribution curves obtained from the analysis of the DLS curves
with same colors (REPES algorithm with regularization parameter of 0.0001 for dotted curve and
0.5 or 0.95 for solid lines) (b).
Because of large scattering objects, we cannot see the small ones that scatter less,
since scattering for vesicles is proportional to the mass of vesicles. The molar mass of
vesicles MVes, increases with the square of the radius. To know below which angle
148
Preparation and characterization of Liposomes...
the size distribution curves become representative of the sample, one should be
measuring the DLS curve on the SLS plateau that appears for monodisperse solutions
(in our case – filtered solution). After filtration with 200 nm pores, the distribution
curves measured at different angles are more similar and all show a population
around 100-120 nm (Fig. 5).
Fig. 5. Correlation curves (DLS) measured at 30° (red), 90° (green) and 150° (blue) of the solution
after filtration with filter Fb (a), distribution curves obtained from the analysis of the DLS curves
with same colors (REPES algorithm with regularization parameter of 0.0001 for dotted curve and
0.5 or 0.95 for solid lines) (b).
149
Anna Majtyka
The blue curve measured at larger angle, that is less sensitive to large objects of
the real population, gave a distribution of small vesicles, the so-called nanosomes
(47 nm). The fact that we can see their presence, is a proof that the number of large
aggregates or vesicles is very low in the solution after filtration, so nanosomes do not
aggregate after filtration and are stable.
Also was estimated the size of the nanosomes from the static light scattering using the Guinier analysis. The construction obtained from the blue curve of Figure 3a.
From the slope fitted at smaller angles, we measured a mean gyration radius of
63.4 nm.
Fig. 6. Guinier construction on the Static light scattering (SLS) curve of sample
FMP124_3Fb_T20_J1_w0u1 (blue curve of Figure 3a).
For the second set of experiments, we wanted to increase the quantity of small
vesicles prepared, so we filtered after sonication at 60°C the FMP32 (second sample)
lot that was prepared at smaller membrane concentration (w = 0.026 % w/w so at
0.266 mg/ml). The first used a filter with large pores (Fc, Whatman GMF w/GMF
0.45 μm) and then we filtered a second time (after Fc) with the 200nm filter Fa
(Whatman Anatop 25 PLUS 200 nm) since it is more selective than Fb.
The SLS curves show that sonication homogeneized the sample (black to red
curve) but that large membrane aggregates are already present just after dilution and
steering for few hours (black curve). One can see the disruption of large aggregates
from sonication from the reduction of long correlation times between the black and
red DLS curves of Figure 8b.
Filtration at 0.45 m gave the green SLS curve that is more flat than the red one
before filtration and the size of the nanosomes estimated from the static light scattering using the Guinier analysis is equal to 84.2 nm. Large aggregates were lost with
this filtration and 33.65% of the membrane material was lost (measured from UV-Vis
at 272.5 nm absorption level) so we obtained a solution at 0.1765 mg/ml (0.01765%
w/w). Filtration at 200 nm gave another 59.35% lost of material (green curve to blue),
150
Preparation and characterization of Liposomes...
corresponding to a 73.1% total lost from the starting solution (red to blue curve).
Thus, the two filtration gave a 0.072 mg/ml nanosomes solution at the end (so
w = 0.0072% w/w). From the Guinier analysis were obtained on filtrated samples,
radii of 84.2 nm and 58.6 nm from filtration with Fc (green curve on the plot 7a) and
after second filtration with Fa (blue curve on the plot 7a), respectively. It was compare the results of the two experiments, in terms of proteins concentration levels
(measure from UV-Visible absorption) and SLS scattering analysis.
Fig. 7. Static light scattering (SLS) curves of the samples FMP32 at different steps (black is the
starting solution, red after sonication at 60°C, green after sonication at 60°C and filtration with
filter Fc (450nm), and blue after sonication at 60°C with filtration with Fc and after Fa
(200nm)) (a),correlation curves (DLS) measured at 90° from same samples (b).
151
Anna Majtyka
Fig. 8. Static light scattering (SLS) curves of filtrated samples, from FMP124 (black filtered with
Fa and red with Fb) and from FMP32 (green filtered with Fc and blue refiltered with Fa).
Table 1. The values of the radius of gyration.
Sample
FMP124_3Fb_T20_J1_w0u1
FMP124_2Fa_T20_J1_w0u1
FMP124_3Fc_T20_J0_w0u026
FMP124_3FcFa_T20_J0_w0u026
Rg (nm)
63.4
Not SUV
84.2
58.6
Conclusion
As showed that stable solutions of small unilamellar vesicles of natural membranes can be obtained from simple preparation routes (ultracentrifugations of yeast
and extraction of membrane done by biologists, dilution, sonication and filtration
steps).
Commonly known that phospholipids nanosomes may have many applications.
These can be used to obtain an experimental system adapted to scattering experiments and to deposition on a solid electrode to prepare olfactory receptors in a natural
membrane.
The size distribution of the nanosomes elaborated at sufficient concentration is
surprisingly narrow. It was showed the use of combining several techniques such as
ATG combined to UV-Vis spectrometry to measure the absolute membrane concentration, including solutions after filtration steps. Light scattering techniques (DLS and
SLS) were used to determine the sizes and distribution of the small unilamellar vesicles.
152
Preparation and characterization of Liposomes...
Acknowledgements
The results presented in this paper were obtained during a stay at the University
du Maine (Le Mans, France) in collaboration with Dr. Guillaume Brotons.
Literature
[1] C. S. Chong, K. Colbow, Light scattering and turbidity measurements on lipid vesicles,
Biochim. Biophys. Acta., 436(2), 260-282 (1976).
[2] Wyznaczanie rozmiarów makrocząsteczek biologicznych metodą dynamicznego rozpraszania światła, Wydział Fizyki Uniwersytet im. Adama Mickiewicza w Poznaniu,
www.staff.amu.edu.pl/~zbm/ZSFBiofizyka/Opis_nowy3.doc
[3] J. O’M. Bockris, S.U.M. Khan, Surface Electrochemistry. A Molecular Level Approach,
Plenum Pubishing Corporation, New York (1993).
[4] K. Bacia, J. Schweizer, Practical Course: Giant Unilamellar Vesicles (2005).
https://www.biotec.tudresden.de/cms/fileadmin/research/biophysics/practical_handouts/guv.pdf
[5] http://www.avantilipids.com
[6] http://www.wikipedia.pl
153
154
Czasoprzestrzenie sferycznie symetryczne:
jednorodna Robertsona-Walkera
i niejednorodna Lemaitre’a-Tolmana-Bondiego
Piotr Plaszczyk
Obserwatorium Astronomiczne, Wydział Fizyki, Astronomii i Informatyki Stosowanej,
Uniwersytet Jagielloński, ul. Orła 171, 30-244 Kraków
[email protected]
Streszczenie
W niniejszej pracy zaczynam od otrzymania za pomocą równań Killinga ogólnej
postaci tensora metrycznego
czasoprzestrzeni sferycznie symetrycznej. Następnie zadając warunek jednorodności dla ogólnej postaci metryki sferycznie symetrycznej, otrzymuję postać metryki Robertsona-Walkera opisującą Wszechświat jednorodny i izotropowy.
W kolejnym rozdziale dotyczącym modelu niejednorodnej czasoprzestrzeni sferycznie symetrycznej Lemaitre’a-Tolmana-Bondiego znajduje się wyprowadzenie
postaci tej metryki przy założeniu najprostszego równania stanu
. Przedstawione są również modele ewolucji wszechświata z czasoprzestrzenią LTB oraz FLRW,
a także są omówione zastosowania metryki LTB w kosmologii. Na końcu zamieszczam spis literatury, z której korzystałem przy pisaniu niniejszej pracy. Do wyliczenia składowych tensora Einsteina
użyłem pakietu ccgrg (Copernicus Center General Relativity Package for Mathematica 8) dostępnego na stronie:
www.copernicuscenter.net/ccgrg
1. Metryka Robertsona - Walkera
1.1. Sferycznie symetryczna 4-wymiarowa przestrzeń Riemanna
Metryka Robertsona-Walkera opisuje wszechświat, który jest jednorodny i izotropowy, jest więc ona sferycznie symetryczna wokół każdego punktu tej przestrzeni.
Żeby korzystać z założenia o symetrii sferycznej do wyprowadzenia postaci metryki
R–W można najpierw opisać symetrie w formie kowariantnej, która nie zależy od
wyboru układu współrzędnych. Tego opisu dostarczają równania:
(1)
155
Piotr Plaszczyk
które musi spełniać każde pole wektorów stycznych do trajektorii, wzdłuż której tensor
jest niezmienniczy względem transformacji oraz każde rozwiązanie równań
(1) generuje grupę transformacji, dla której
jest niezmienniczy [1].
Jeżeli tensor
jest metryką określoną na rozmaitości, wtedy własności
geometryczne tej przestrzeni są własnościami metrycznymi. Symetrie tensora metrycznego, które mogą występować, mają fundamentalne znaczenie. Symetrie te nazywamy izometriami, ich generatory – wektorami Killinga, a równania (1) definiujące te wektory nazywamy równaniami Killinga [2].
Korzystając z równań Killinga można znaleźć tensor metryczny przestrzeni Riemanna, której symetrie są zapostulowane. Przestrzeń Riemanna jest przestrzenią sferycznie symetryczną, gdy istnieje grupa obrotów O(3) wokół pewnego punktu p na
rozmaitości różniczkowej. Tensor metryczny musi spełniać równania Killinga dla
każdego z trzech generatorów grupy rotacji O(3). Rozważmy więc sferę, której równanie można zapisać w 3-wymiarowej przestrzeni euklidesowej E3:
(2)
gdzie: R – promień sfery,
x, y, z – wsp. kartezjańskie.
Żeby wyznaczyć generatory obrotu trzeba rozważyć obroty sfery o kąt α w płaszczyznach:
płaszczyzna (yz):
płaszczyzna (xz):
–
płaszczyzna (xy):
–
[1, 2].
Wektory Killinga odpowiadające powyższej transformacji to:
Dowolna transformacja sfery na siebie może być opisana złożeniem trzech kolejnych
obrotów wokół trzech różnych osi. Wygodnie jest przedstawić wektory Killinga
przez odpowiadające im operatory różniczkowe nazywane generatorami obrotów:
I po przetransformowaniu generatorów obrotu do współrzędnych sferycznych:
156
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera...
można teraz rozwiązać równania Killinga dla tensora metrycznego
z danymi wektorami Killinga:
Równanie Killinga dla wektora Killinga odpowiadającego transformacji wokół osi
„z‖:
To oznacza, że tensor metryczny
jest niezależny od
Równania Killinga dla pozostałych wektorów Killinga:
.
(3)
(4)
Mnożąc równanie (3) przez
oraz korzystając z tożsamości:
, a równanie (4) przez
i odejmując stronami,
otrzymuje się równanie:
(5)
Mnożąc równie (3) przez
czeniu:
, a równanie (4) przez
, otrzymuje sie po uprosz-
(6)
Z równań (5) otrzymujemy:
157
Piotr Plaszczyk
Z równań (6) otrzymujemy:
Z powyższego wynika ogólna postać metryki sferycznie symetrycznej:
Zapostulowane symetrie dotyczą podprzestrzeni
rej metryka ma postać:
, dla któ-
W tej podprzestrzeni
, a centrum symetrii jest w miejscu gdzie
. Można tak zdefiniować współrzędną radialną, żeby
. W ogólności
nie ma jednak bezpośredniej relacji pomiędzy r, a odległością od centrum sfery do jej
powierzchni. Punkt będący centrum sfery nie musi nawet należeć do rozmaitości,
może zawierać osobliwość.
Po skorzystaniu ze swobody wyboru układu współrzędnych otrzymamy najprostszą formę metryki sferycznie symetrycznej czasoprzestrzeni:
(8)
1.2. Czasoprzestrzeń jednorodna i izotropowa, metryka Robertsona-Walkera
Tensor metryczny reprezentujący model wszechświata jednorodnego i izotropowego musi odzwierciedlać własności tych symetrii. Obserwatorzy fundamentalni we
wszechświecie spadają swobodnie w kosmicznym (globalnym) polu grawitacyjnym,
czyli poruszają się po geodetykach czasowych. Za obserwatorów fundamentalnych
można uznawać takie galaktyki, które nie oddziaływują z sąsiednimi galaktykami.
W układzie współrzędnych związanym z tymi galaktykami, współrzędna czasowa
jest czasem własnym dla każdej takiej galaktyki, a współrzędne przestrzenne tych
galaktyk się nie zmieniają. Taki układ współrzędnych jest układem współporuszającym. Ekspansja Wszechświata, czyli wzrost odległości własnych między galaktykami, jest reprezentowana przez zależny od czasu współczynnik występujący w metryce. Żeby rozważana ekspansja była zgodna z Zasadą Kosmologiczną, potrzeba aby te
współczynniki nie zależały od zmiennych przestrzennych, czyli rozszerzanie wszechświata było niezależne od miejsca w przestrzeni. Taki wszechświat jest jednorodny
i tensor metryczny musi spełniać równania Killinga dla translacyjnych wektorów Killinga. Wektory Killinga, które reprezentują translacje w 3-wymiarowej przestrzeni
euklidesowej w układzie kartezjańskim to:
158
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera...
Komutatory dla tych pól Killinga wynoszą:
Rozwiązując równania Killinga dla tensora metrycznego gαβ(t, r, θ, υ) otrzymuje się:
Powyższy wynik oznacza, ze metryka płaskiej czasoprzestrzeni jednorodnej we
współrzędnych kartezjańskich nie może zależeć od zmiennych przestrzennych.
Jeśli w pewnej chwili t0 hiperpowierzchnia stałego czasu ma element długości
to ekspansja hiperpowierzchni może być przedstawiona
jako
. Taki zapis oznacza, że
wszystkie współczynniki
wzrastają w tym samym tempie ze względu na jednorodność Wszechświata i ekspansję hiperpowierzchni można zapisać ogólnie [3]:
(9)
jest czynnikiem skali, który przyjmujemy, że jest równy 1 w chwili obecnej.
Dla hiperpowierzchni
metryka czasoprzestrzeni sferycznie symetrycznej
(8) sprowadza się do następującej postaci:
(10)
Forma współczynników
ze wzoru (9) musi zapewniać symetrię sferyczną dla hiperpowierzchni stałego czasu, więc powinna być zgodna ze współczynnikami występującymi we wzorze (10):
(11)
Element liniowy dla całej czasoprzestrzeni można teraz zapisać zgodnie ze wzorem
(8) dla metryki sferycznie symetrycznej:
(12)
159
Piotr Plaszczyk
Ponieważ t jest czasem własnym wzdłuż stałych współrzędnych
,
więc
. Definicja równoczesności w układzie współrzędnych współporuszających musi być zgodna z założeniem o możliwości foliacji czasoprzestrzeni na
hiperpowierzchnie stałego czasu
, które są jednorodne i izotropowe, więc
w tym układzie współrzędnych
i stąd otrzymujemy taką postać metryki:
(13)
Nieznaną funkcję
można zastąpić funkcją
pod warunkiem, że
(warunek na sygnaturę metryki
jest spełniony wszędzie poza obszarami horyzontu czarnych dziur). W rezultacie otrzymujemy następującą postać
metryki jednorodnej i z tego względu skoro izotropowej w jednym punkcie, to również izotropowej wokół każdego punktu:
(14)
Aby wyznaczyć funkcję
występującą w metryce trzeba skorzystać z warunku
koniecznego na to, żeby metryka była jednorodna na całej hiperpowierzchni stałego
czasu. Takim warunkiem koniecznym jest stałość wartości skalara Ricciego
w każdym punkcie hiperpowierzchni
(w dalszej części będzie pokazane,
że jest to warunek wystarczający):
Całkując powyższe równanie otrzymujemy:
(15)
gdzie C jest stałą całkowania. Lokalnie czasoprzestrzeń jest płaska i mały okrąg
o promieniu
ma obwód
i promień własny
. Dostatecznie mały
okrąg wokół punktu
ma stosunek obwodu do promienia równy
.
Jeśli przestrzeń jest lokalnie płaska w r = 0, ten stosunek musi być równy .
160
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera...
Stąd
i stała całkowania
zapisać równanie (14) w formie:
. Oznaczając
można
(16)
Powyższa metryka jest metryką Robertsona-Walkera. Możemy w niej, bez straty
ogólności wyskalować współrzędną radialną r w ten sposób, żeby k przyjmowało
jedną z trzech wartości:
.
Dla przykładu rozważmy
, przeskalowując
,
otrzymamy element liniowy:
Takim przeskalowywaniem współrzędnej r nie możemy zmienić znaku . Aby pokazać, że stałość skalara Riemanna na hiperpowierzchni
jest wystarczającym
warunkiem na to, żeby izotropowa metryka (14) była jednorodna, wystarczy rozważyć 3 przypadki dla których
.
: w każdej chwili t0 element liniowy ma postać:
gdzie
. To jest metryka
przestrzeni euklidesowej, która jest jednorodna i izotropowa. To jest płaska metryka
R-W.
: definiując nową współrzędną
taką, że
, a następnie całkując:
otrzymujemy r = sinχ. Element liniowy dla hiperpowierzchni t = t0 ma postać:
, jest to metryka sfery S3 i jest ona metryką jednorodną i izotropową.
: definiując nową współrzędną
stępnie całkując:
taką, że
, na-
. Element liniowy dla hiperpowierzchni
ma postać:
, jest to metryka trójwymiarowej przestrzeni Łobaczewskiego, która również jest jednorodna i izotropowa.
otrzymujemy
161
Piotr Plaszczyk
2.
Metryka Lemaitre’a – Tolmana – Bondiego
2.1. Model czasoprzestrzeni sferycznie symetrycznej i niejednorodnej
Metrykę czasoprzestrzeni sferycznie symetrycznej (8), można zapisać w układzie
współrzędnych współporuszajacych się i synchronicznych, w którym składowa czasowo-przestrzenna tensora metrycznego
[1]:
–
Przy sygnaturze metryki
–
(17)
tensor energii – pędu dla cieczy doskonałej:
(18)
Czteroprędkość cieczy doskonałej w tych współrzędnych ma postać:
(19)
Dla tej metryki równania pola Einsteina z uwzględnieniem stałej kosmologicznej Λ:
(20)
gdzie
, oraz
, mają postać:
(do wyliczenia składowych tensora Einsteina
użyłem pakietu ccgrg, Copernicus
Center General Relativity Package for Mathematica 8, dostępnego na stronie:
www.copernicuscenter.net/ccgrg , a równania zapisuję w postaci jak w [1])
(21)
(22)
162
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera...
(23)
(24)
Aby wyznaczyć
występujące w równaniach Einsteina trzeba
założyć równanie stanu dla materii. Najprostszym założeniem jest
i dynamika
wszechświata zależy jedynie od grawitacji, materia porusza się po geodetykach czasowych. Wtedy czteroprzyspieszenie musi być równe zero:
Stąd wynika niezależność parametru C od współrzędnej radialnej. Dodatkowo transformacja współrzędnej czasowej
prowadzi do tego, że w nowym układzie współrzędnych składowa czasowa metryki
. Wobec tego równanie (22)
uprości się do postaci:
(25)
Po pomnożeniu równania (25) przez
można je zapisać w ten sposób:
163
Piotr Plaszczyk
Zgodnie z powyższym równaniem zaznaczam, że wyrażenie
być zależne jedynie od współrzędnej r:
Z tego równania można wyznaczyć funkcję
:
może
(26)
Wyrażenie (26) nie może być ujemne, co jest zgodne z przyjętą sygnaturą metryki.
Nieznaną funkcję
można zapisać w innej formie, pomocnej w dalszych obliczeniach, w których pojawia sie funkcja
(27)
Ostatecznie można równanie (26) zapisać w poniższy sposób:
(28)
Zapisuję równania pola Einsteina (21)-(24) z uwzględnieniem wyznaczonych powyżej postaci funkcji występujących w metryce i przyjętej postaci równania stanu dla
materii
:
(29)
(30)
(31)
(32)
164
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera...
Składowe pozadiagonalne tensora Einsteina, w tym składowa
teraz tożsamościowo równe zero.
Mnożąc równanie (31) przez
otrzymuje się równanie:
z równania (30) są
które po scałkowaniu wyznacza zależność
od
i od kolejnej dowolnej
funkcji
, która pojawia się jako stała całkowania niezależna od współrzędnej t:
(33)
Ostatecznie można zapisać metrykę Lemaitre’a-Tolmana-Bondiego w postaci:
(34)
2.2. Model ewolucji wszechświata z metryką RW oraz LTB
Równanie (33) opisujące ewolucję w czasie parametru skali
czasoprzestrzeni LTB dla ustalonej współrzędnej r, ma przy założeniu, że
algebraicznie
identyczną postać jak dobrze znane równanie Friedmana opisujące ewolucję czynnika
skali
dla czasoprzestrzeni RW:
gdyż po skorzystaniu z równania ruchu cieczy kosmicznej
oraz po skorzystaniu z założenia
, wynika:
Friedmanna można zapisać w poniższy sposób [1]:
, a równanie
(35)
(36)
Wobec tego ewolucja czynnika skali
dla ustalonej współrzędnej r jest opisywana podobnymi równaniami, jak ewolucja czynnika skali
w modelu czasoprzestrzeni Robertson-Walkera [1, 4], w którym modele ewolucji opisujące wszechświat
165
Piotr Plaszczyk
jednorodny i izotropowy, a więc również wypełniony jednorodnie i izotropowo materią kosmiczną, zależą od parametru k określającego krzywiznę wszechświata:
– model wszechświata płaskiego,
model wszechświata o geometrii sferycznej,
model wszechświata o geometrii hiperbolicznej. W tym kontekście metryka
RW jest nazywana metryką Friedmana-Lemaitre’a-Robertsona-Walkera. Dla przypadku
modele ewolucji wszechświata FLRW można przedstawić na wykresie
parametru skali
:
Rys. 1. Modele ewolucji Wszechświata dla parametru
jest proporcjonalne do t dla dostatecznie dużych t:
. Dla
.
,
Z porównania wzorów (33) i (35) wynika, że wartość parametru krzywizny
w modelu FLRW odpowiada wartości
w modelu LTB. Oraz wartość
odpowiada wartości
, oraz
odpowiada
.
Na hiperpowierzchni stałego czasu
przestrzeni LTB, funkcja R zależy tylko od współrzędnej radialnej, dlatego może być ona używana jako zmienna niezależna zamiast zmiennej oraz może być traktowana jako współrzędna radialna. Wybierając ortonormalną bazę zdefiniowaną przez metrykę hiperpowierzchni
:
po obliczeniu w niej tensora
krzywizny Riemanna
otrzymuje się następujące niezależne składowe:
Stąd gdy
, każdy punkt hiperpowierzchni
jest płaski. Jeśli
, to krzywizna jest stała. W przeciwieństwie do modelu FLRW, krzywizna
z leży od współrzędnej radialnej , w szczególności może byś dodatnia w jednym
miejscu, a ujemna w innym. Z tego względu modele ewolucji przedstawione na rysunku 1 (uwzględniając odpowiedniość parametru k w modelu FLRW do wartości
funkcji
w modelu LTB) nie muszą opisywać różnych modeli kosmologicznych,
lecz mogą być właściwe w różnych obszarach tej samej czasoprzestrzeni.
166
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera...
2.3. Metryka LTB w kosmologii
Najbardziej bezpośrednie przesłanki dla przyspieszenia ekspansji Wszechświata
pochodzą z obserwacji supernowych SNIa o dużym przesunięciu ku czerwieni
.
Obserwowana zależność odległość jansnościowa – redshift jest w modelu FLRW
najlepiej dopasowana przy parametrze gęstości materii (ciemna materia oraz materia
barionowa)
i parametrze gęstości „ciemnej energii‖
(ujemna
energia próżni).
Mała wielkość fluktuacji w promieniowaniu reliktowym rzędu
wskazuje, że jednorodny model FLRW jest dobrym przybliżeniem dla wczesnego
Wszechświata. Dla mniejszych redshiftów kontrast gęstości materii
wzrasta do
wartości rzędu 1. Dla rozmiarów rzędu 60/h Mpc średni kontrast gęstości ~ 1 i maleje
do wartości ~ 0.1 dla skal rzędu ~ setek Mpc. [5]
Niejednorodna metryka LTB dostarcza możliwości dopasowywania relacji odległość jasnościowa – redshift dla supernowych typu Ia bez uwzględniania w równaniach pola Einsteina stałej kosmologicznej Λ.
Równanie Friedmana dla metryki FLRW razem ze stałą kosmologiczną i z sygnaturą metryki
można zapisać w ten sposób [6]:
(36)
Porównując to równanie z równaniem (33) dla metryki LTB:
można używając poniższych definicji:
zapisać zależny od współrzędnej czasowej i radialnej odpowiednik stałej Hubble’a
dla czasoprzestrzni LTB:
(37)
167
Piotr Plaszczyk
Równanie (37) dla LTB różni sie tym od równania (36) dla FLRW, że każda występująca w nim wartość zależy dodatkowo od współrzędnej radialnej. W obecności
niejednorodności, wartość „stałej‖ Hubble’a oraz gęstość materii mogą zmieniać się
w zależności od współrzędnych przestrzennych i pyłowy model niejednorodny jest
wtedy zdefiniowany przez dwie funkcje:
oraz
. Konsekwencją tego
są dwa możliwe rodzaje niejednorodności: niejednorodność w rozmieszczeniu materii oraz niejednorodność ekspansji przestrzeni. Chociaż dynamika tych dwóch rodzajów niejednorodności jest związana ze sobą przez równania pola Einsteina, to jednak
ważną rolę odgrywają również warunki brzegowe, które nie są znane. Możliwy jest
model wszechświata, w którym obecnie
, lecz fizyczny rozkład
materii
jest zmienny, natomiast może on być jednorodny pod warunkiem, że
.
Całkując równanie (37) otrzymuje się relację między czynnikiem skali
,
a współrzędnymi r i t:
(38)
(39)
(40)
Dla każdego punktu czasoprzestrzeni powyższe równanie (40) określa funkcję
oraz jej pochodne. Aby porównywać model niejednorodny LTB z obserwacjami supernowych potrzebne jest równanie łączące redshift i obserwowaną jasność z niejednorodnościami występującymi w modelu. Aby otrzymać takie równanie rozważa się
propagację światła przyjmując
, światło porusza się po geodetykach
zerowych
, jest parametrem opisującym jego ruch wzdłuż geodetyki zerowej, więc dla przypadku, gdy promień świetlny zbliża się do obserwatora można zapisać:
(41)
Następnie rozważając dwa promienie świetlne oddzielone od siebie w czasie o
168
:
Czasoprzestrzenie sferycznie symetryczne: jednorodna Robertsona-Walkera...
(42)
(43)
(44)
Z porównania prawych stron równań (43) i (44) wynika równość:
(45)
Różniczkując równanie opisujące redshift otrzymuje się
(46)
czyli:
(47)
Stosując do równania (41) równanie (47) otrzymuje się:
(48)
Odległość jasnościowa wyraża się wzorem:
(49)
w którym zależność współrzędnych i od redshiftu jest określona wzorami (47)
i (48), a funkcja
jest określona wzorem (40). W każdej z tych relacji swój
udział mają niejednorodności. Do różnych danych obserwacyjnych można dopasować odpowiadający profil niejednorodności w modelu LTB, taki który wykluczałby
stałą kosmologiczną ; ponadto dla tych samych danych obserwacyjnych można dopasować wiele takich modeli niejednorodności. W tym kontekście, interesującym
aspektem jest to, co model LTB demonstruje: iż istnienie ciemnej energii nie jest nieuniknioną konsekwencją danych obserwacyjnych, lecz ich interpretacja zależy od
użytego w tym celu modelu.
169
Piotr Plaszczyk
Literatura
[1] J. Plebański, A. Krasiński, An Introduction to General Relativity and Cosmology, Cambridge University Press, (2006).
[2] L. M. Sokołowski, Elementy analizy tensorowej, Wyd. Uniwersytetu Warszawskiego,
(2010).
[3] B. F. Schutz, A First Course in General Relativity, 2nd Edition, Cambridge University
Press, (2009).
[4] S. Weinberg, Gravitation and cosmology: principles and applications of the General
Theory of Relativity, John Wiley & Sons, Inc.; (1972).
[5] T. Biswas, A. Notari, ”Swiss-Cheese” Inhomogeneous Cosmology & the Dark Energy
Problem, arXiv:astroph/0702555v1
[6] K. Enqvist, Lemaitre-Tolman-Bondi model and accelerating expansion, arXiv:0709.2044v1 [astro-ph]
170
Analiza statystyczna wybranych parametrów średnich pEMG,
uzyskanych podczas oceny diagnostycznej zwieracza zewnętrznego
odbytu
Paulina Trybek1, Michał Nowakowski2, Łukasz Machura1
1
2
Zakład Fizyki Teoretycznej, Instytut Fizyki, Uniwersytet Śląski, Bankowa 10, 40-006 Katowice,
Zakład Dydaktyki Medycznej, Wydział Lekarski, Uniwersytet Jagielloński, Collegium Medicum,
Łazarza 16, 31-530 Kraków
* [email protected]
Streszczenie
Typowe metody diagnostyczne wykorzystywane przy ocenie dysfunkcji zwieracza zewnętrznego odbytu bazują na technikach manometrycznych bądź wykorzystujących ultrasonografię endoskopową i następujących po nich testach statystycznych
pre-post, które umożliwiają automatyczną klasyfikację. W tej pracy opisujemy szeroko zakrojone testy zarówno parametryczne jak i nieparametryczne, które potwierdzają znaczenie nieinwazyjnej techniki, jaką jest elektromiografia powierzchniowa, jako
istotnej techniki diagnostycznej. W szczególności zaprezentowane testy nieparametryczne wydają się być wysoce obiecującymi metodami, pozwalającymi na grupowanie pacjentów w zależności od rodzaju dysfunkcji.
Abstract
The typical diagnostic evaluation of the dysfunction of the external anal sphincter
is based on manometry or endoscopic ultrasound techniques and following pre-post
statistical tests which enables the semi-automated classification. Here we discuss the
extensive statistical parametric and nonparametric tests which support the importance
of the non-invasive surface electromyography as a significant diagnosis tool. Especially presented nonparametric tests seem to constitute the promising methodology
which allow grouping of the patience according to the certain dysfunction type.
Interpretacja wyników szeroko pojętych badań medycznych (od wspomagania
decyzji diagnostycznych po analizy dotyczące badań klinicznych) bez zastosowania
narzędzi statystycznych, bezdyskusyjnie nie jest możliwa we współczesnej medycynie. Problem dotyczy raczej wyboru optymalnych procedur obliczeniowych, spośród
coraz szerszej gamy dostępnych pakietów i programów, konkurujących ze sobą na
171
Paulina Trybek, Michał Nowakowski, Łukasz Machura
poziomie specjalizacji odpowiednich metod, mających na celu jak najwierniej oddać
przebieg badanych zależności. Jako przykład zostanie przedstawiona analiza statystyczna wyników badania elektromiograficznego, konkretnie elektromiografii powierzchniowej (pEMG) [1], oparta głównie o analizę porównawczą pomiędzy grupą
zdrowych, stanowiących grupę kontrolną a grupą badaną, z dysfunkcją zwieracza
zewnętrznego odbytu.
Elektromiografia
EMG jest techniką uzyskiwania sygnałów bioelektrycznych,powstałych na skutek
zmian fizjologicznych w błonie komórkowej i składzie elektrolitowym płynu wewnątrz i zewnątrzkomórkowego, które warunkują istnienie w poprzek błony potencjału. Podstawą funkcjonowania każdej żywej komórki jest stała i odpowiednio szybka reakcja na zmiany zachodzące w jej otoczeniu. Najszybsza, wykształcona sygnalizacja opiera się na zmianie potencjałów błonowych. Sam potencjał błonowy jest charakterystyczny dla każdej komórki, jednak jego zmienność w czasie zarezerwowana
jest dla neuronów oraz komórek mięśniowych. W dużym uproszczeniu to właśnie
dzięki tej zmienności, możemy zmierzyć aktywność mięśniową, używając odpowiedniej aparatury pomiarowej. Pomijając szereg fizjologicznych i typowo biochemicznych procesów, charakteryzujących proces aktywacji komórki mięśniowej prowadzący w konsekwencji do skurczu mięśnia, w odniesieniu do rejestracji sygnału
bioelektrycznego należy wspomnieć dokładniej o wspomnianym wyżej potencjale
błonowym. Możemy mówić o trzech fazach: depolaryzacji, repolaryzacji i fazie spoczynkowej. Wszystkie uwarunkowane są zmianą przepuszczalności błony komórkowej dla konkretnych jonów, z których najważniejsze to kationy sodowe, kationy potasowe i aniony chlorkowe. W stanie spoczynku stężenie kationów potasowych wewnątrz komórki znacznie przewyższa zewnątrzkomórkowe stężenie tych jonów. Dokładnie odwrotna sytuacja rysuje się dla kationów sodowych i anionów chlorkowych.
Ich zewnętrzne stężenie jest większe. Równowagę elektrolitową dla stanu spoczynku
opisuje zależność Goldmana:
(1)
Wzór przypomina dobrze znaną fizyce i elektrochemii zależność Nernsta, gdzie odpowiednio R, F to stałe gazowa i Faradaya, P oznacza przepuszczalność dla poszczególnych jonów, natomiast w nawiasach kwadratowych przedstawiono stężenia zaindeksowane „w‖ lub „z‖ w odniesieniu do stężenia wewnątrz i zewnątrzkomórkowego. Wartość takiego spoczynkowego potencjału dla komórki mięśniowej wynosi ok.
70mV. W momencie, kiedy do komórki dociera sygnał przez złącze synaptyczne,
w wyniku szeregu procesów fizjologicznych, poprzez otwieranie się kanałów, specyficznych dla odpowiednich jonów, następuje przeorientowanie wyżej opisanego stanu
spoczynku. Do komórki gwałtownie napływa prąd sodowy i następuje depolaryzacja
172
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
błony określana jako skok potencjału czynnościowego, z wartości ujemnej ( 70 mV)
do wartości w okolicach +30 mV. Jest on wywołany nagromadzeniem wewnątrz komórki ładunku dodatniego. Natomiast podczas repolaryzacji następuje powrót do stanu wyjściowego. Z punktu widzenia pomiaru aktywności mięśniowej najważniejszy
jest etap szerzenia się fali potencjału czynnościowego wzdłuż błony komórek mięśniowych, czyli jej depolaryzacja. Bowiem do różnicy potencjałów wywołanym gradientem koncentracji jonów po obu stronach błony dochodzi różnica pomiędzy obszarami już zdepolaryzowanymi, a tymi w stanie spoczynku. Ta ostatnia tworzy swoistego rodzaju dipol, który możemy obserwować za pomocą zewnętrznej aparatury
pomiarowej w postaci zmiany sygnału w czasie.
Rejestracja sygnału
Na uwagę zasługuje fakt, że powierzchniowa elektromiografia jest techniką nieinwazyjną. Sygnał zbierany jest przy użyciu elektrod powierzchniowych w przeciwieństwie do technik igłowych, w których elektroda jest bezpośrednio wkłuwana
w mięsień. W technice powierzchniowej elektrody umieszczone są na skórze lub jak
analizowanym przypadku, gdzie badany jest specyficzny mięsień, skonstruowany
został specjalny zestaw elektrod doodbytniczych w postaci tzw. sondy anorektalnej
[2]. Zwieracz zewnętrzny odbytu należy do mięśni okrężnych, tworzących pierścień
dookoła tkanki ciała, dlatego elektrody zostały umieszczone pierścieniowo wokół
sondy po 16 par elektrod na trzech poziomach odpowiadających anatomii kanału
odbytu, według odpowiednio ustalonej geometrii (przedstawionej poniżej) [3].
Rys. 1. Sonda anorektalna.
Analizowane parametry
Podstawowymi parametrami poddanymi analizie, są średnie wartości opisujące
charakter sygnału, konkretnie jego amplituda i częstotliwość. Ponieważ ideą projektu,
w trakcie którego otrzymano dane, była ocena przydatności elektromiografii w diagnostyce nietrzymania stolca, równolegle dokonano analizy statystycznej wyników
niektórych badań wchodzących w skład standardu postępowania w takim przypadku.
Wśród badań znajdowała się m.in. manometria anorektalna, polegająca na pomiarze ciśnienia w kanale odbytu, a także ocena odruchów odbytowych, pozwalająca
173
Paulina Trybek, Michał Nowakowski, Łukasz Machura
na sprawdzenie prawidłowości unerwienia. Tę ostatnią można było sklasyfikować
poprzez dane kategorialne.
Średnia amplituda sygnału pEMG wyliczona została, jako śr RMS (Root Mean
Square), czyli średnia kwadratowa. Jak już wspomniano przy opisie konstrukcji sondy, elektrody w liczbie 16-par zostały umieszczone na trzech poziomach sondy, odpowiadając kolejno pierścieniom dystalnemu, środkowemu oraz proksymalnemu, aby
móc zarejestrować sygnał bioelektryczny z różnych głębokości kanału odbytu.
W celach diagnostycznych dokonywano pomiaru w stanie skurczu i relaksacji mięśnia. Było to możliwe z uwagi na fakt, że zwieracz zewnętrzny odbytu zalicza się do
kategorii mięśni poprzecznie prążkowanych, unerwianych przez układ somatyczny,
którego działanie w dużym stopniu podlega kontroli. Układ ten kieruje bowiem
czynnościami zależnymi od woli organizmu. W związku z tym dla każdej badanej
osoby mamy następujący zestaw parametrów opisujących wartość amplitudy: średnią
wartość (średnią kwadratową) z 16 kanałów, odpowiadających 16 parom elektrod na
konkretnym pierścieniu, czyli średnią kwadratową z wartości od K1 do K16, liczoną
osobno dla każdego pierścienia oraz stanu skurczu i spoczynku. Łącznie, dla 1 osoby
mamy zestaw 6 wartości średnich: śr RMS 1M; śr RMS 2M; śr RMS 3M; śr RMS
1R; śr RMS 2R i śr RMS 3R. Numery 1, 2, 3 odpowiadają położeniu pierścieni (1
oznacza pierścień dystalny, najbliżej wierzchołka sondy, 2-pierścień środkowy,
3-pierścień proksymalny. Oznaczenia M i R odnoszą się odpowiednio do skurczu
maksymalnego mięśnia (M) i jego stanu spoczynkowego (R). Analogiczny zestaw
parametrów występuje dla średniej częstotliwości sygnału MF (Mean Frequency).
Jeśli chodzi o wyniki już wcześniej wspomnianych pozostałych badań, to dla manometrii anorektalnej mamy dwie wartości ciśnienia: MCP- maksymalne ciśnienie podstawowe, jako ciśnienie spoczynkowe mierzone w dowolnym miejscu kanału odbytu
oraz MCS- maksymalne ciśnienie skurczowe, maksymalna wartość ciśnienia, zmierzona w tym samym miejscu, w którym uprzednio zarejestrowano MCP.
W przypadku oceny odruchów mamy podział na odruch kaszlowy OK i odruch
parcia OP. Dla OK wynik jest dodatni jeżeli odruch jest obecny (a dodatkowo wartość ciśnienia w kanale odbytu jest wyższa niż w bańce odbytnicy). Dla odruchu parcia występuje trzystopniowe kodowanie: 0-odruch nieobecny, 1-obecny odruch patologiczny, 2-obecny odruch prawidłowy. Dla sumarycznego przedstawienia wyników
z OK i OP skala rozszerza się na zakres od 0-3. Omówione parametry zostały porównane zarówno na poziomie grup chorzy-zdrowi, a także w obrębie samej grupy badanej, dokonując podziału ze względu na etiologię schorzenia. Do wykonywania potrzebnych obliczeń oraz prezentacji wyników wykorzystywany był program
STATISTICA 10 PL.
Charakterystyka grupy badanej i kontrolnej
Grupę kontrolną stanowili zdrowi ochotnicy, natomiast grupę badaną osoby ze
stwierdzeniem problemu nietrzymania stolca o różnej etiologii tego schorzenia [4, 5].
W przypadku rekrutacji do obydwu grup obowiązywały restrykcyjne zasady włącza174
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
nia, a zarazem wykluczenia z grupy, które dotyczyły głównie wskazań medycznych,
w tym także przebytych schorzeń oraz odpowiedniego przedziału wiekowego. Charakterystyka poszczególnych grup, uwzględniająca podział na płeć i średni wiek
w grupach, została przedstawiona w Tabeli 1.
Tabela 1. Podział na płeć i średnią wieku dla grupy badanej i kontrolnej.
Grupa
Badana
Grupa
kontrolna
Kobiety
Mężczyźni
Kobiety
Mężczyźni
N
ważnych
39
10
39
10
Średnia
[lata]
60.2
53.8
42.7
55.9
Minimum Maksimum Odchylenie
Standardowe
25
81
12.6
21
81
17.6
23
75
15.3
45
75
9.2
Grupy są równoliczne pod względem płci, jednak w obydwu przypadkach (grupy badanej i kontrolnej) to kobiety stanowią 80 procent. Prawie czterokrotnie wyższa liczba kobiet jest odzwierciedleniem proporcji pomiędzy zapadalnością na badaną chorobę u kobiet i mężczyzn w populacji ogólnej.
Rezultaty statystyk wstępnych
Aby analiza podążała właściwym torem, krokiem podstawowym było przeanalizowanie rozkładów badanych zmiennych. Ściślej rzecz ujmując, wymagane było
sprawdzenie, czy rozkład rozpatrywanej zmiennej możemy opisać przy pomocy rozkładu normalnego (gaussowskiego), który opisuje następująca zależność:
(2)
gdzie: Y wartość krzywej rozkładu,
µ, σ odpowiednio średnia i odchylenie standardowe.
Normalność rozkładu jest warunkiem koniecznym w przypadku analiz parametrycznych (np. grupy testówt), a także analizie wariancji, która pozwala na podział zmienności zaobserwowanej wśród otrzymanych wyników na oddzielne części oraz rozpatruje wpływ czynników na analizowaną zmienną, z osobna lub łącznie, w zależności
od modelu analizy wariancji. Można powiedzieć, że rozkład normalny jest wymagany w analizach o największej mocy wykrywania rzeczywistych efektów, dlatego test
normalności powinien stanowić etap poprzedzający właściwą analizę. W celu uzyskania empirycznego rozkładu częstości danych można utworzyć wykres danych
punktowych, histogram lub wykres łodyga-liście i sprawdzić czy kształt wykresu odpowiada rozkładowi normalnemu. Alternatywę może stanowić wykres normalności,
mianowicie wykres rozkładu częstości danych w funkcji rozkładu normalnego. Jeżeli
taki wykres będzie linią prostą, to badany rozkład w przybliżeniu jest rozkładem
normalnym [6, 7]. Ponieważ opisane wyżej metody są wysoce subiektywne i nie ce175
Paulina Trybek, Michał Nowakowski, Łukasz Machura
chuje ich duża dokładność, ocena normalności zostanie przeprowadzona z użyciem
testów Lilieforsa, Shapiro-Wilka, a także Kołmogorowa Smirnowa. Wyniki dla analizowanych parametrów przedstawia poniższa tabela, w której wyróżniono, dla jakich
parametrów wyliczona wartość p jest większa od przyjętego poziomu istotności
α = 0.05, który określa prawdopodobieństwo odrzucenia hipotezy zerowej, gdy wyliczona wartość p jest od niego mniejsza [6]. Dla p > 0.05 nie ma wystarczających
podstaw do odrzucenia hipotezy zerowej, która zakłada normalność rozkładu.
Tabela 2. Wyniki testów Lilieforsa i Shapiro Wilka.
Parametr
Śr RMS
Śr MF
MCP
MCS
Grupa badana
p > 0.05 dla 2R
-
Grupa kontrolna
p > 0.05
Razem
p > 0.05
p > 0.05
Histogram: Śr MF 2 R
K-S d=,10479, p> .20; Lilliefors p> .20
Shapiro-Wilk W=,95802, p=,07851
20
18
16
Liczba obs.
14
12
10
8
6
4
2
0
40
60
80
100
120
140
160
X <= Granica klasy
Rys. 2. Histogram dla śr MF 2R.
Z wyników przedstawionych w tabeli widać, że dla parametrów sygnału pEMG
tylko dla jednej zmiennej, przedstawionej na powyższym histogramie (średniej częstotliwości na pierścieniu środkowym w stanie spoczynku) nie mamy podstaw do odrzucenia hipotezy zerowej o normalności rozkładu. Dla parametrów manometrii anorektalnej, biorąc pod uwagę obydwie grupy łącznie, zarówno ciśnienie spoczynkowe
jak i skurczowe charakteryzuje się normalnością rozkładu. Dla grup rozpatrywanych
176
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
osobno nie możemy odrzucić hipotezy o normalności rozkładu dla maksymalnego
skurczowego ciśnienia w grupie kontrolnej. Na powyższym histogramie widać również wartość testu Kołmogorowa-Smirnowa (K-S). Wyniki dla tego testu w grupach
rozpatrywanych z osobna dają znacznie większą liczbę parametrów, dla których nie
mamy podstaw odrzucenia hipotezy o normalności.
grupa kontrolna: śr RMS 1M, śr RMS 2M, śr RMS 3M, śr MF
grupa badana: śr RMS 1M, śr RMS 2M, śr RMS 3R, śr MF1M, śr MF 2M, śr MF
3M, śr MF 2R.
Zwiększona tolerancja ostatniego testu, nie zmienia faktu, że nie wszystkie parametry cechuje normalność rozkładu, a test Shapiro-Wilka i Lilieforsa można powiedzieć zdecydowanie wykluczył rozkłady gaussowskie dla parametrów amplitudy
i częstotliwości. Zatem w związku z niespełnieniem założeń istnieje konieczność
w dalszych analizach stosowania statystyk wyłącznie nieparametrycznych.
Transformacja danych
Statystyki parametryczne oraz analiza wariancji są źródłem niezwykle cennych
informacji o zależnościach pomiędzy badanymi zmiennymi i nie można postawić
znaku równości pomiędzy wartością statystyk para i nieparametrycznych, te ostatnie
bowiem są przede wszystkim testami istotności, które nie pozwalają na uzyskanie
estymatorów interesujących nas efektów. Dlatego przed ostatecznym wykluczeniem
możliwości zastosowania statystyk parametrycznych warto przeanalizować dane np.
pod kątem możliwości ich transformacji. W analizowanym przypadku, po uprzednim
wyliczeniu współczynników asymetrii, dla których wyliczona wartość była dodatnia
i dla prawie wszystkich parametrów amplitudy oraz częstotliwości wskazywała na
silną asymetrię (wyliczony współczynnik asymetrii > 1), najodpowiedniejszą transformacją była transformacja logarytmiczna. Dodatni, współczynnik, wskazuje na
prawoskośność rozkładu. Jeżeli rozkład y jest prawo skośny, to z = log(y) posiada
w przybliżeniu rozkład normalny (6). Rezultat takiej transformacji został przedstawiony na poniższych histogramach (Rys. 3).
Z przedstawionych histogramów widać, że transformacja logarytmiczna osiągnęła
zamierzony skutek dla rozpatrywanego przypadku. Rozkład po transformacji logarytmicznej jest rozkładem normalnym. Tabela 3 przedstawia rezultaty dla wszystkich
analizowanych parametrów.
Transformacja logarytmiczna przyniosła zaskakująco obiecujące wyniki dla parametrów amplitudy i częstotliwości w przypadku grupy badanej, w której wszystkie
rozkłady za wyjątkiem śrMF 1R są rozkładami normalnymi. Ponieważ jednak nie dla
wszystkich parametrów zlogarytmowanie danych pozwoliło na uzyskanie normalności rozkładów, ostatecznie zachodzi konieczność zastosowania statystyk nieparametrycznych w dalszych etapach analizy.
177
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Rys. 3. Rezultat transformacji logarytmicznej (po lewej stronie rozkład po transformacji).
Tabela 3.
Grupa badana
p > α dla wszystkich
Grupa kontrolna
p > α dla 1M, 3M
p<α
MCP
p > α dla wszystkich z wyjątkiem 1R
p<α
MCS
p>α
p>α
śr
RMS
śr MF
p>α
Razem
p > α dla
1M,2M,3M,1R
p > α dla 3R
p > α przed transformacją
p > α przed transformacją
Testowanie hipotez na podstawie statystyk nieparametrycznych
Istnieje wiele grup testów nieparametrycznych, dostosowanych tak jak ich parametryczne odpowiedniki do rodzaju zależności, którą chcemy zbadać, charakteru
zmiennej, liczebności grup etc. Ogólnie przyjęty podział obejmuje grupy testów
zgodności, weryfikujących hipotezę o postaci funkcyjnej rozkładu zmiennej w populacji, testy losowości badające charakter losowy próby oraz testy wnioskujące o niezależności dwóch zmiennych losowych. Najczęściej stosowanymi testami na poziomie analizy porównawczej (np. przypadek-kontrola) są nieparametryczne odpowiedniki testów t oraz analizy wariancji [6].
Poniżej zostaną przedstawione wyniki wybranych analiz nieparametrycznych dla
odpowiednich zmiennych w wybranych grupach. W zależności od stosowanego testu
dla określonych parametrów badano różnice na poziomie stanu zdrowia, poziomu
1, 2, 3 odpowiadającemu danemu pierścieniowi na sondzie (anatomicznie odpowied178
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
niemu poziomowi w kanale odbytu) oraz etiologii schorzenia. W przypadku ostatniego kryterium, w grupie chorych, liczącej 49 osób znajdowały się 24 osoby o nieokreślonej przyczynie nietrzymania stolca (idiopatyczne); 19 osób o pochodzeniu neurogennym, oraz 6 osób z uszkodzeniem aparatu zwieraczowego. Brak zatem grup równolicznych dla wyżej wymienionych etiologii. Rodzaj zastosowanych statystyk wraz
z przyporządkowaniem badanej zależności został przedstawiony w Tabeli 4.
Tabela 4.
Test/
statystyka
Sumy Rang
Wilcoxona
Stan zdroKryterium
wia/etiologie
porównawcze
KruskalaWalisa
Anova Friedmana
Etiologia
Stan mięśnia
Zdrowi-Chorzy Neurogenne
Porównywane
Idiopat.uszkodzenie
Grupy
neurogenne
idiopatyczne
skurcz – stan
spoczynkowy
U Manna
Whitneya
Stan zdrowia
z jednoczesnym
względnieniem
etiologii
Zdrowi-Chorzy
(idiopatyczne)
Zdrowi-Chorzy
(neurogenne)
Zdrowi-Chorzy
(uszkodzenie)
Pierwszy z wymienionych w tabeli testów jest nieparametrycznym odpowiednikiem testu t studenta dla zmiennych niepowiązanych. Oparty jest na rangowaniu obserwacji, a jego prosta postać statystyki testowej zależna jest od liczebności grup i dla
analizowanego przypadku wynosi:
(3)
gdzie: T oznacza sumę rang, natomiast
T, T odpowiednio wyliczone liczebności porównywanych grup [6, 8].
Z użyciem tej statystyki zweryfikowana została hipoteza o równości mediany porównywanych parametrów w odpowiednich grupach. Parametry amplitudy, częstotliwości oraz ciśnienia porównano pomiędzy grupą kontrolną i badaną, a także grupą
kontrolną i wybranych etiologiach. Wyniki zawierają poniższe tabele, w których zawarto wartość wyliczonej statystyki Z, oraz p dla przyjętego poziomu istotności
α = 0.05.
179
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Tabela 5.
Zmienna
Grupa
MCP
Chorzy
Idiopatyczne
Chorzy
Idiopatyczne
RMS
Zdrowi
neurogene
Zdrowi
neurogene
N
ważnych
49/49
24/19
49/49
24/19
Z
P
-6.6
-2.091
-5.6
-3.852
0
0.037
0
0
Dla parametrów ciśnienia istnieją wystarczające podstawy dla odrzucenia hipotezy zerowej i przyjęcia hipotezy o istotnych statystycznie różnicach w medianach dla
wszystkich porównywanych grup. W związku ze zbyt małą liczebnością grup, niemożliwe było porównanie grup: chorzy (idiopatyczne)-chorzy (uszkodzenie) oraz
chorzy (neurogenne)-chorzy (uszkodzenie).
W tabeli pogrubione zostały wartości p > α, dla których nie mamy wystarczających podstaw na odrzucenie hipotezy zerowej, wnioskującej o równości mediany
w analizowanych grupach. Zatem porównując całą grupę badaną z grupą kontrolną,
dla śrRMS na trzech poziomach kanału odbytu, wykazano istotnie statystycznie różnice w stanie skurczu. Brak wykrytych różnic dla stanu spoczynkowego. W zestawieniu idiopatyczne-neurogenne różnice dla pierścienia dystalnego i proksymalnego
w fazie skurczowej oraz dystalnego w fazie spoczynkowej. Dla średniej częstotliwości różnice istotne statystycznie dla pierścienia środkowego i proksymalnego w stanie
skurczu, tylko dla porównania na poziomie chorzy-zdrowi.
Tabela 6.
Parmetr
Grupa
N
cho- Zdro 49 49
śrRMS
rzy
wi
M
Idiop Neu- 24 19
.
rog.
cho- Zdro 49 49
śrRMS R rzy
wi
Idiop Neu- 24 19
.
rog.
cho- Zdro 49 49
śrMF M rzy
wi
Idiop Neu- 24 19
.
rog.
śrMF R cho- Zdro 49 49
rzy
wi
Idiop Neu- 24 19
.
rog.
Nr pierścienia (poziom kanału)
180
Z
3.016
P
2.327 4.316 0.002
56
-2.446 -1.271 -2.372 0.014
46
-0.876 -1.744 -0.089 0.380
0.019
97
0.203
5
0.081
0
0.017
7
0.929
-2.128 -1.125 -1.418 0.033 0.260 0.156
-1.039 -2.390 -3.321 0.301 0.016 0
8
0.514 1.516 0.391 0.608 0.129 0.696
1.453
-0.124 -1.808 0.146 0.901 0.071
0.196
0.033
1.492
0.845 0.067 0.136
1
2
3
1
2
3
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
Test Kruskala-Walisa (dla wielu prób niepowiązanych)
Test Kruskala-Walisa tanowi rozszerzenie testu sumy rang Wilcoxona [6]. Statystyka testowa podlega rozkładowi χ2 i jest postaci:
(4)
gdzie: n
liczebność grup,
suma rang.
Testowi prawdziwości została poddana hipoteza o równości rozkładów wśród porównywanych grup etiologicznych. Poniżej zostały przedstawione wykresy punktowe
przykładowych parametrów częstotliwości i amplitudy z zaznaczoną medianą w poszczególnych grupach etiologicznych.
Wykres zmienności RMS 2M
0,050
0,045
0,040
0,030
0,025
0,020
0,015
0,010
0,005
0,000
Uszkodzenie ZZO
Neurogenne NS
Idiopatyczne NS
Dane surowe
Mediany w grupach
Etiologia
Wykres zmienności MF 3M
160
140
120
MF 3M
RMS 2M
0,035
100
80
60
40
Uszkodzenie ZZO
Neurogenne NS
Idiopatyczne NS
Etiologia
Dane surowe
Mediany w grupach
Rys. 4. Wykresy z zaznaczoną medianą.
181
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Wyniki testu zostały przedstawione w tabeli, gdzie zamieszczono wartość statystyki testowej i wyliczoną wartość p.
Tylko w dwóch przypadkach wyliczona wartość p jest mniejsza od przyjętego
poziomu istotności α = 0.05. Dla śr RMS na pierścieniu proksymalnym w stanie
skurczu maksymalnego oraz dla średniej częstotliwości w stanie spoczynkowym
(pierścień dystalny) mamy wystarczające podstawy do odrzucenia hipotezy zerowej
o równości rozkładów w porównywanych trzech grupach etiologicznych.
Tabela 7.
Parametr Poziom
kanału
1
Śr RMSM 2
3
1
Śr RMS R 2
3
h
p
5.937
1.923
6.905
4.446
1.258
2.085
0.514
0.382
0.032
0.108
0.533
0.353
parametr Poziom
Kanału
Śr MF M 1
2
3
Śr MF R 1
2
3
h
p
3.273
4.775
0.991
3.150
6.580
5.032
0.195
0.092
0.609
0.207
0.037
0.081
Wyniki dla parametrów ciśnienia przedstawione są poniżej w Tabeli 8.
Tabela 8.
Ciśnienie
MCP
MCS
h
5.478
16.964
p
0.065
0.0002
Tylko dla maksymalnego ciśnienia skurczowego możemy mówić o istnieniu statystycznie istotnych różnic w porównywanych grupach etiologicznych.
Statystyka Anova Friedmana
Statystyka Anova Friedmana dotyczy zmiennych zależnych. Stosujemy ją wtedy,
gdy pomiaru analizowanej zmiennej dokonujemy kilkukrotnie w różnych warunkach
(k ≥ 2) [6]. W analizowanym przypadku zmienność warunków będzie dotyczyła stanu skurczu i spoczynku mięśnia. Zatem testowana będzie hipoteza o równości mediany badanego parametru w kolejnych pomiarach. Porównywane parametry to pary
średnich parametrów amplitudy i częstotliwości dla odpowiadających sobie poziomów kanału w stanach skurczu i spoczynku np. śr RMS 1M-śr RMS 1R.
H0: Brak istotnej różnicy dla porównywanych parametrów w stanie skurczu maksymalnego (M) i stanie spoczynkowym (R).
H1: Istnieje istotna statystycznie różnica dla odpowiadających sobie parametrów
w stanie skurczu i spoczynku.
182
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
Wynik przeprowadzonej analizy dla wszystkich porównywanych parametrów
wskazuje na istotnie statystycznie różnice na poziomie skurcz-spoczynek. Dla każdego z porównywanych przypadków (śr RMS 1-śr RMS 1R; śr RMS 2M-śr RMS 2R; śr
RMS 3M-śr RMS 3R; śr MF 1-śr MF 1R; śr MF 2M-śr MF 2R; śr MF 3M-śr MF 3R)
wyliczona wartość p > α = 0.05. Poniżej przy użyciu wykresów pudełkowych zobrazowano te różnice dla wybranych przypadków.
Wykres pudełkowy
160
140
120
100
80
60
40
Śr MF 3 M
Śr MF 3 R
Średnia
Średnia±Odch.std
Średnia±1,96*Odch.std
W y k res pudełk ow y
0,025
0,020
0,015
0,010
0,005
0,000
-0,005
-0,010
Śr RMS 3 M
Śr RMS 3 R
Średnia
Średnia±Odch.std
Średnia±1,96*Odch.std
Rys. 5. Wykresy pudełkowe lewej śrMF 3M - śr MF 3R, po prawej śrRMS 3M-śrRMS 3R.
Test U Manna-Whitneya
Test U Manna-Whitneya dotyczy porównania zmiennych zależnych i wnioskuje
o równości median w porównywanych grupach [6, 9]. Jego statystyka uzależniona
jest od liczebności grup i dla analizowanego przypadku przedstawia się jako:
183
Paulina Trybek, Michał Nowakowski, Łukasz Machura
(1)
gdzie: n1, n2 liczebność grup,
R1 suma rang przyznawanych wartościom pierwszej próby.
Weryfikacji została poddana hipoteza o równości mediany w porównywanych grupach: grupy kontrolnej z odpowiednią etiologią, a także dla porównania grupy badanej z kontrolną. Rezultaty wyliczeń przedstawia poniższa tabela, w której dla wyróżnionych parametrów, w postaci numeru odpowiadającego odpowiedniemu pierścieniowi sondy, odrzucono hipotezę zerową o równości mediany dla porównywanych
przypadków.
Tabela 9.
Porównywane grupy
zdrowi chorzy
zdrowi idiopatyczne
zdrowi Neurogenne
Zdrowi uszkodzenie
N ważnych
49
49
49
24
49
19
49
6
śr RMS M
1, 2, 3
3
1, 2, 3
3
śr RMS R
1, 2
-
śr MF M
2, 3
3
2, 3
2, 3
śr MF R
2, 3
Z wyników przedstawionych w tabeli widać, że analogiczna sytuacja występuje
dla parametrów śrRMS i śrMF w stanie skurczu maksymalnego dla porównania grup
chorzy-zdrowi oraz zdrowi-chorzy (neurogenne). Dla tych grup dokładnie na tych
samych poziomach występują statystycznie istotne różnice.
Analiza odruchów odbytowych
Analiza wcześniej opisanych odruchów zostanie przeprowadzona z użyciem testu
χ dla tablic wielodzielczych [7]. Poniżej została przedstawiona Tabela 10 liczności
dla odruchu kaszlowego, w której zamieszczono ilości prawidłowych odruchów-1
i braku odruchu-0 w poszczególnych etiologiach.
2
Tabela 10.
Ok.
0
1
Ogół
Uszkodzenie
ZZO
1
5
6
Idiopatyczne
NS
9
15
24
Neurogenne
NS
12
7
19
Razem
22
27
49
Zależności obecności odruchów, w odniesieniu to etiologii zostały poniżej zobrazowane, jako rozkład dwuwymiarowy.
184
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
Rys. 6. Histogram dwóch zmiennych OK względem Etiologia.
Dla odruchu parcia (OP), gdzie kodowanie obejmuje trzy wartości: 0- odruch
obecny, 1-obecny odruch patologiczny, 2-obecny odruch prawidłowy, tabela liczności oraz wykres dwuwymiarowy przedstawiają się następująco:
Tabela 11.
OP
0
1
2
Ogół
Uszkodzenie
ZZO
0
3
3
6
Idiopatyczne
NS
2
12
10
24
Neurogenne
NS
12
3
4
19
Razem
14
18
17
49
Dla sumarycznego efektu, biorąc pod uwagę odruchy OP i OK razem:
Tabela 12.
OP
0
1
2
3
Ogół
Uszkodzenie
ZZO
0
1
2
3
6
Idiopatyczne
NS
2
2
15
5
24
Neurogenne
NS
11
2
2
4
19
Razem
13
5
19
12
49
185
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Rys. 7. Histogram dwóch zmiennych OP względem Etiologa
Rys. 8. Histogram dwóch zmiennych. Odruchy względem Etiologa.
Przedstawione zostały także wykresy interakcji [7]. O efekcie interakcji możemy
mówić wtedy, gdy łączny wpływ czynników powoduje skutek, którego nie można by
186
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
było przewidzieć na podstawie sumowania efektów czynników z osobna. Badaną interakcją jest zależność pomiędzy występowaniem odruchów (w tym także prawidłowych lub nie), a etiologią schorzenia. Wykresy zostały przedstawione osobno dla OP
i OK oraz dla przypadku gdzie badamy efekt sumaryczny odruchów.
W ykres interakcji: O K x Etiologia
18
16
14
Liczności
12
10
8
6
4
2
0
-2
Uszkodzenie ZZO
Neurogenne NS
Idiopatyczne NS
Etiologia
OK
0
OK
1
Wykres interakcji: OP x Etiologia
14
12
Liczności
10
8
6
4
2
0
-2
Uszkodzenie ZZO
Neurogenne NS
Idiopatyczne NS
Etiologia
OP
0
OP
1
OP
2
Rys. 9. Wykresy interackji dla OK i OP.
Poniżej został przedstawiony efekt sumaryczny.
187
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Wykres interakcji: Odruchy x Etiologia
18
16
14
Liczności
12
10
8
6
4
Odruchy
0
Odruchy
1
Odruchy
2
Odruchy
3
2
0
-2
Uszkodzenie ZZO
Neurogenne NS
Idiopatyczne NS
Etiologia
Rys. 10. Odruchy
efekt sumaryczny.
Przy braku interakcji krzywe, opisujące wpływ jednego czynnika przy danym poziomie drugiego czynnika, są równoległe, z dopuszczalnymi niewielkimi odchyleniami. Wystąpienie interakcji prezentuje natomiast przecięcie się łamanych. Dla odruchu OK brak interakcji pomiędzy etiologią a wystąpieniem prawidłowego odruchu
na poziomie uszkodzenia zwieracza oraz dla grupy o niezdiagnozowanym pochodzeniu NS, natomiast krzywe przecinają się, zbliżając do grupy o poziomie etiologii neurogennej NS. W przypadku OP brak interakcji dla idiopatyczne NS, dla efektu sumarycznego interakcja na każdym poziomie etiologii, jednak dla odpowiednich odruchów (brak punktu przecięcia wszystkich krzywych). Poniżej przedstawiono tabelę
wynikową odpowiednich statystyk testowych dla odruchów OP i OK branych pod
uwagę łącznie.
Tabela 13.
Statystyka
χ2 Pearsona
χ2 NW
Wsp.
Kontyngencji
V Cramera
R. Spearmana
χ2
21.21901
22.78706
0.5497120
0.4653177
-0.438270
df
6
6
P
0.00168
0.00087
0.00163
Statystyka χ2 Pearsona i NW (największej wiarygodności) wykorzystuje liczebności
oczekiwane obliczone dla tabeli dwudzielczej. Test χ2 NW oparty jest o teorię największej wiarygodności. Pozostałe, zamieszczone w tabeli, współczynniki (kontyn188
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
gencji, V Cramera, rang Spearmana) są miarami zależności i ich wartość mówi o sile
korelacji. Wartość p, wyliczona dla statystyk χ2 Pearsona oraz NW, pozwala na przyjęcie hipotezy o istnieniu zależności odruchów w poszczególnych grupach etiologicznych.
Korelacje
Ponieważ dla badanych zmiennych założenia o normalności rozkładu nie zostały
spełnione, istniała potrzeba stosowania nieparametrycznych odpowiedników współczynników korelacji. Nieparametrycznym odpowiednikiem współczynnika korelacji
Pearsona jest współczynnik korelacji rangowej Spearmana (6) (7), który opisany jest
zależnością:
(6)
gdzie: di to różnica rang dla cechy X i Y
Interpretacja współczynnika dotyczy, tak jak dla Pearsona, jego wartości i znaku.
Dla większych wartości dodatnich lub ujemnych zależność pomiędzy zmiennymi jest
silniejsza, znak dotyczy zależności rosnącej (+) lub malejącej(-). Gdy współczynnik
jest bliski zeru należy wykluczyć zależność monotoniczną, spodziewając się np. sinusoidalnej. Analiza współczynników korelacji została przeprowadzona pomiędzy odpowiadającymi sobie pierścieniami dla stanu skurczu i spoczynku, dla grupy chorych
i zdrowych łącznie, a także oddzielnie, oraz z podziałem na poszczególne etiologie
schorzenia. Współczynnik został wyliczony również pomiędzy parametrami amplitudy i częstotliwości, badając czy istnieje korelacja pomiędzy tymi dwoma zmiennymi.
Dla grupy badanej i kontrolnej łącznie, biorąc pod uwagę stan napięcia mięśnia, czyli
korelacje pomiędzy skurczem a spoczynkiem, w przypadku odpowiadających sobie
parametrów, wyniki prezentują się następująco:
Tabela 14.
śrRMS
1M-1R
2M-2R
3M-3R
Śr MF
1M-1R
2M-2R
3M-3R
r
0.6952
0.4121
0.4446
błąd r
0.07336
0.09229
0.09142
statystyka t
9.4769
4.4312
4.8628
P
<0.000001
0.000025
0.000005
0.6071
0.6741
0.6650
0.08110
0.07539
0.07623
7.4855
8.9411
8.7233
<0.000001
<0.000001
<0.000001
189
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Wyniki dla grupy badanej:
Tabela 15. Wyniki dla grupy badanej.
śrRMS
1M-1R
2M-2R
3M-3R
Śr MF
1M-1R
2M-2R
3M-3R
r
0.9689
0.9524
0.8874
błąd r
0.0361
0.4444
0.0672
statystyka t
23.8331
21.4299
13.2001
P
<0.000001
<0.000001
<0.000001
0.8058
0.9046
0.7811
0.08638
0.06218
0.09108
9.3291
14.5482
8.5767
<0.000001
<0.000001
<0.000001
Tabela 16. Wyniki dla grupy kontrolnej.
śrRMS
1M-1R
2M-2R
3M-3R
Śr MF
1M-1R
2M-2R
3M-3R
r
0.53890
0.00603
0.03838
błąd r
0.1229
0.1459
0.1458
statystyka t
4.3854
0.0414
0.2633
P
0.000065
0.9672
0.7935
0.4620
0.4122
0.4450
0.1293
0.1329
0.1303
3.5712
3.1014
3.4544
0.000883
0.003253
0.001179
Przedstawione wyniki wskazują na to, że siła korelacji dla odpowiadających parametrów pomiędzy stanem skurczu i spoczynku w grupie badanej jest znacznie
większa niż w grupie kontrolnej (dla wszystkich analizowanych przypadków), co obrazują również wykresy poniżej; po lewej zależność śr RMS 1R-1M dla grupy badanej, natomiast po prawej śr RMS 2R-2M dla grupy kontrolnej.
Taka sama analiza została przeprowadzona w grupie chorych z podziałem na
etiologię, aby zbadać, w której grupie istnieje najsilniejsza korelacja.
Tabela 17.
Śr RMS
1M-1R
2M-2R
3M-3R
Śr MF
1M-1R
2M-2R
3M-3R
190
Idiopatyczne
0.98087
0.9478
0.9052
Neurogenne
0.9386
0.9439
0.9614
Uszkodzenie
0.9429
1.0000
-0.02857
0.6617
0.8809
0.6983
0.8579
0.9105
0.8439
0.8258
0.8286
0.8286
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
Rys. 11. Korelacja: grupa badana(po lewej) i kontrolna.
Współczynniki korelacji w porównywanych grupach są zbliżone, nieco silniejsze
dla wartości odpowiadających sobie amplitud w porównaniu ze średnią częstotliwością. Odchylenie stanowi (ujemna i bardzo słaba) zależność, występująca dla porównania śrRMS 3M-3R w grupie z uszkodzeniem ZZO.
Korelacje badano również na poziomie odpowiadających sobie kanałów pomiędzy amplitudą i częstotliwością, ale dla wszystkich porównanych przypadków. Tylko
w dwóch wykryto bardzo słabe zależności.
191
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Ocena jakości klasyfikatora z użyciem krzywych ROC
Przeprowadzone dotychczas analizy pozwoliły na zbadanie istnienia efektu (korelacja) lub ocenę jego istotności w przypadku testów nieparametrycznych.
Jednak szczególnie cenne dla analiz medycznych jest badanie i konstruowanie
modeli, które klasyfikują przypadki ze względu na zmierzony parametr do grupy:
chory lub zdrowy. Krzywa ROC (Reciver Operating Characteristic) służy do oceny
poprawności klasyfikatora, zapewniając łączny opis jego czułości i specyficzności.
Czułość jest definiowana, jako stosunek ilości przypadków trafnie przypisanych do
klasy, do wszystkich przypadków w niej obecnych. Natomiast specyficzność, jako
ilość przypadków błędnie przypisanych do klasy do liczby przypadków do niej nienależących. Konstrukcja krzywej opiera się na wyznaczeniu dla każdego punktu czułości i specyficzności i odznaczeniu wartości na wykresie (9). Poniżej został przedstawiony zbiorczy wykres krzywych ROC dla parametrów ciśnienia MCP, MCS i CS
(będącego różnicą pomiędzy MCP i MCS).
Rys. 12. Krzywa ROC dla wartości ciśnienia.
Pole powierzchni pod krzywą AUC (Area Under Curve), mieści się w przedziale
[0,1]. Im jego wartość jest bliższa jedynce tym wybrana zmienna może być stosowana jako klasyfikator z lepszym skutkiem. Optymalnym punktem odcięcia jest punkt,
znajdujący się najbliżej punktu o współrzędnych (0,1). Czułość takiego punktu wynosi 1, czyli nie sklasyfikowano błędnie żadnego przypadku (8). Zatem dla przedstawionego po lewej przypadku, najlepszym klasyfikatorem będzie MCP. Poniżej zostały przedstawione krzywe porównujące ze sobą wszystkie parametry RMS, MF, MCP,
MSC odpowiednio dla stanów skurczu i spoczynku.
192
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
Wykres ROC porównanie
1,0
0,8
0,8
Czułość
Czułość
Wykres ROC porównanie
1,0
0,6
0,4
0,6
0,4
0,2
0,2
0,0
0,0
0,0
0,0
0,2
0,4
0,6
0,8
0,2
1,0
0,4
0,6
0,8
1,0
1-Specyficzność
1-Specyficzność
RMS 1R
MF 1R
MCP
Linia odniesienia
RMS 1M
MF1M
MCS
Linia odniesienia
Rys. 1. Krzywe ROC porównujące wszystkie parametry.
Tabela przedstawia wyliczone pola powierzchni pod krzywymi, odpowiadające poszczególnym parametrom:
Tabela 18.
Parametr
MCS
RMS 1M
MF 1M
MCP
RMS 1R
MF 1R
AUC
0.828
0.672
0.439
0.887
0.450
0.585
SE
0.848
0.055
0.058.
0.035
0.06
0.063
Z przedstawionych krzywych ROC i wyliczonych pól powierzchni pod tymi
krzywymi wynika, że zarówno dla stanu skurczu jak i spoczynku najbardziej trafny
model klasyfikacji opiera się na parametrach ciśnienia. To wartości ciśnienia najlepiej przyporządkowują osobę do grupy chory-zdrowy. Dużo trudniej zadecydować
w kwestii, który z parametrów pEMG, średnia amplituda czy częstotliwość jest lepszym klasyfikatorem, gdyż dla śrRMS w stanie skurczu pole powierzchni pod krzywą
jest większe niż dla śr MF, jednak dla stanu spoczynku sytuacja jest odwrotna. Dlatego dodatkowo przeprowadzono statystykę testową, która wskaże czy istnieje statystycznie istotna różnica w modelach generowanych przy pomocy analizowanych
zmiennych. Wyniki testu przedstawiono w tabeli 19.
193
Paulina Trybek, Michał Nowakowski, Łukasz Machura
Tabela 19.
Parametry
RMS 1M-MF 1M
RMS 1R-MF 1R
RMS 2M-MF 2M
RMS 2R-MF 2R
RMS 3M-MF 3M
RMS 3R-MF 3R
Z
-2.9601
1.3974
-3.6456
1.1829
-6.2518
-1.2313
P
0.0031
0.1623
0.0003
0.1548
0.0000
0.0792
Z wyników przedstawionych w tabeli wynika, że istotne statystycznie różnice dla
parametrów amplitudy i częstotliwości występują tylko w stanie skurczu.
Podsumowanie i wnioski
Przeprowadzone analizy z użyciem testów nieparametrycznych, korelacji, krzywych ROC pozwoliły na ocenę parametrów badania elektromiograficznego i relacji
między nimi w grupie z problemem nietrzymania stolca, grupie kontrolnej, a także
w poszczególnych etiologiach tego schorzenia. W przypadku tych ostatnich ocena
zależności była najtrudniejsza z uwagi na znaczną nierówno liczność w grupach. Dla
odpowiednich testów statystycznych wykazano istotne statystycznie różnice między
określonymi parametrami stosując różne kryteria porównawcze. Analiza korelacji
wykazała jednoznaczną różnicę w sile korelacji w grupie kontrolnej i badanej. Równolegle dokonano także porównania innych badań wykonywanych podczas diagnostyki NS (manometrii i oceny odruchów odbytowych). Ostatnia analiza z użyciem
krzywych ROC pozwoliła na ocenę, który z porównywanych parametrów najlepiej
klasyfikuje osobę do grupy chory lub zdrowy, dokonując porównania wyników
pEMG i manometrii anorektalnej łącznie. Na poziomie porównania parametrów samej elektromiografii różnice istotne statystycznie w wielu przypadkach istnieją. Nie
można jednak wnioskować o ogólnej zależności dla konkretnych zmiennych i poziomach kanału odbytu, ze względu na zbyt małą próbę i przede wszystkim duże różnice
we wspomnianych już wyżej liczebnościach poszczególnych grup etiologicznych.
Literatura
[1] R. Merletti, A. Rainoldi, D. Farina, Surface electromyography for noninvasive
characterization of muscle, Exerc Sport Sci Rev., 2001, 29, 20.
[2] J. Sałówka, M. Nowakowski, P. Wałęga, E. N. Kamavuako, D. Farina, A. Korczyński, R.
M. Herman, Wpływ zakresu resekcji odbytnicy na zapis elektromiogramu
powierzchniowego zwieracza zewnętrznego odbytu u chorych z rakiem odbytnicy,
Proktologia, 2008, 9, 237.
[3] C. Cescon, L. Mesin, M. Nowakowski, R. Merletti. Geometry assessment of anal sphincter
muscle based on monopolar multichannel surface EMG signals, J. Electromyogr.
Kinesiol, 2011, 21, 394.
[4] R. M. Herman, M. Nowakowski, Chirurgiczne leczenie nietrzymania stolca, Polish
Gastroenterology, 2009, 16, p. 171.
194
Analiza statystyczna wybranych parametrów średnich pEMG, uzyskanych podczas...
[5] R. Herman, M. Nowakowski, Choroby okolicy anorektalnej. [ed.] J. Kużdżał J. Szmidt.
Podstawy chirurgii, Kraków, Wydawnictwo Medyczyna Praktyczna, 2010, Vol. 2, p. 829.
[6] A. Petrie, C. Sabine, Statystyka Medyczna w Zarysie, Warszawa , Wydawnictwo
Lekarskie PZWL, 2006, 22-27; 49-56.
[7] A. Stanisz, Przystępny kurs statystyki z zastosowaniem Statistica Pl na przykładach z
medycyny, Kraków, StatSoft, 2007, 123-127, 202-210, 263-279, Vol.1, Statystyki
Podstawowe.
[8] A. Łomnicki, Wprowadzenie do statystyki dla przyrodników, Warszawa, Wydawnictwo
naukowe PWN, 2005, 127-136.
[9] G. Harańczyk, Krzywe ROC, czyli ocena jakości klasyfikatora i poszukiwanie optymalnego
punktu odcięcia, 2010, 79.
195
196
Część III
(artykuły dydaktyczne i popularno naukowe)
Komputer i Internet w procesie zdobywania wiedzy przez
studentów I roku Wydziału Matematyczno-Przyrodniczego
Akademii Jana Długosza w Częstochowie
Magdalena Biernacka1*, Hubert Dróżdż2, Ewa Mandowska1
1
Instytut Fizyki, Wydział Matematyczno-Przyrodniczy, Akademia im. Jana Długosza,
Al. Armii Krajowej 13/15, 42-200 Częstochowa
2
Instytut Edukacji Technicznej i Bezpieczeństwa, Wydział Matematyczno-Przyrodniczy,
Akademia im. Jana Długosza, Al. Armii Krajowej 13/15, 42-200 Częstochowa
* [email protected]
Streszczenie
Wśród studentów pierwszego roku Wydziału Matematyczno-Przyrodniczego
Akademii Jana Długosza (WMP AJD) przeprowadzono ankietę. Celem badania była
analiza poziomu dostępu studentów do komputerów i Internetu, ilości czasu spędzanego przed komputerem, głównych sposobów wykorzystania Internetu przez respondentów, trudności napotykanych podczas wykorzystywania komputera i Internetu
oraz uzyskania odpowiedzi na pytanie czy w opinii studentów umiejętność korzystania z komputera i Internetu ma wpływ na zdobywanie wiedzy. Badania dostarczyły
także informacji na temat deklarowanego przez studentów poziomu wiedzy z zakresu
Technologii Informacyjnych (TI) zdobytej w trakcie edukacji ponadgimnazjalnej,
a także stawianych oczekiwań w stosunku do kursu TI prowadzonego w AJD.
Wstęp
Zagadnienia dotyczące Technologii Informacyjnych realizowane są w szkołach
ponadgimnazjalnych na bardzo zróżnicowanym poziomie. Przeprowadzona ankieta
wykazała, że do egzaminu maturalnego z informatyki nie przystąpił żaden z ankietowanych studentów, włączając także studentów Informatyki.
Z obserwacji, prowadzonych przez nauczycieli akademickich, na różnych kierunkach WMP wynika, że poziom wiedzy i umiejętności studentów rozpoczynających
naukę z Technologii Informacyjnych, jest stosunkowo niski. Jednocześnie zauważalny jest spory rozrzut pomiędzy ich umiejętnościami w obszarze tego samego kierunku, a nawet jednej grupy laboratoryjnej.
W dobie tzw. globalizacji nauczania, sprawne i efektywne wykorzystanie technik
teleinformatycznych w procesie samokształcenia staje się absolutną koniecznością.
Dlatego też celem nauczania Technologii Informacyjnych na poziomie akademickim
199
Magdalena Biernacka, Hubert Dróżdż, Ewa Mandowska
jest przygotowanie studentów do Europejskiego Certyfikatu Umiejętności Komputerowych (ECDL) nazywanego europejskim komputerowym prawem jazdy. Jest to
ambitny cel i może okazać się trudno osiągalny dla nauczyciela akademickiego
w ramach 30 godz. kursu TI w perspektywie pracy ze studentami o słabym stopniu
zaznajomienia z obsługą komputera i wykorzystaniem Internetu do efektywnego pozyskiwania informacji. Istnieje potrzeba sprawdzania umiejętności komputerowych
studentów pierwszego roku oraz konieczność poszukiwania rozwiązań pozwalających na zwiększenie wydajności nauczania Technologii Informacyjnych.
Należy podkreślić, że wnioski oparte na analizie przeprowadzonych ankiet mogą
być niepełne z powodu braku weryfikacji uzyskanych rezultatów przy pomocy obserwacji, wywiadów oraz innych metod. Rezultaty przedstawione w niniejszej pracy
mają na celu rozpoznanie problemów edukacyjnych studentów.
Wyniki badań
Badania ankietowe przeprowadzono w roku akademickim 2011/2012 na Wydziale Matematyczno-Przyrodniczym AJD. Wzięło w nich udział 113 studentów pierwszego roku studiów stacjonarnych I stopnia, przed rozpoczęciem kursu TI. Liczbowy
oraz procentowy udział studentów z poszczególnych kierunków studiów w stosunku
do całkowitej liczby ankietowych osób przedstawia Tabela 1. W badanej populacji
liczebność młodzieży mieszkającej w miastach powyżej 100 tys. mieszkańców była
nieznacznie większa w porównaniu z liczebnością studentów mieszkających na wsi
oraz w mniejszych miastach.
Tabela 1. Tabela przedstawia liczbowy (L) oraz procentowy (P) udział studentów z poszczególnych
kierunków studiów WMP AJD w stosunku do całkowitej liczby ankietowych osób w przeprowadzonym badaniu.
L.p.
Kierunek
1 Inżynieria Bezpieczeństwa
2
Biotechnologia
3
Matematyka
4
Fizyka
5
Chemia
6
Informatyka
7
Ochrona Środowiska
SUMA
L
54
14
13
11
11
6
4
113
P
48%
12%
12%
10%
10%
5%
4%
100%
Celem początkowej części ankiety było zbadanie czy student ma własny komputer z dostępem do sieci Internet oraz jaki wpływ na ten fakt ma jego miejsce zamieszkania.
Na pytania czy posiadasz własny komputer, czy masz możliwość swobodnego dostępu do komputera (niekoniecznie własnego) i czy masz dostęp do Internetu wszyscy
ankietowani odpowiedzieli twierdząco, niezależnie od miejsca zamieszkania. Stwier200
Komputer i Internet w procesie zdobywania wiedzy przez studentów I roku...
dzono w badanej grupie brak korelacji między miejscem zamieszkania a dostępnością
do infrastruktury teleinformatycznej jak również bardzo dobre możliwości korzystania z komputera i Internetu.
Istotną kwestią jest, czy student chce i potrafi korzystać z możliwości, jakie daje
komputer i Internet w procesie samokształcenia oraz jakie przeszkody napotyka podczas korzystania z nich w praktyce. Problem ten staje się szczególnie istotny w dobie
tzw. globalizacji nauczania stwarzającej szanse przygotowania się do pracy zawodowej np. inżyniera o podobnym standardzie jakościowym, bez względu na kraj
i uczelnię, którą ukończył [1].
W celu uzyskania odpowiedzi na tak postawiony problem opracowano kolejną
grupę pytań między innymi: jakie jest najczęstsze miejsce użytkowania komputera,
w jakim celu jest on najczęściej wykorzystywany, ile czasu średnio spędzasz przed
komputerem oraz jakie problemy najczęściej napotykasz podczas korzystania z komputera.
Z przeprowadzonych badań wynika, że najczęstszym miejscem korzystania
z komputera przez studentów jest dom (90% ankietowanych), podczas gdy tylko 6%
badanej grupy wskazało jako takie miejsce uczelnię (Rys. 1). Może to świadczyć
o małej dostępności lub/i niewiedzy studentów na temat możliwości korzystania
z pracowni komputerowych, braku informacji na temat oferowanego oprogramowania na terenie uczelni i/lub braku umiejętności jego wykorzystania.
dom
praca
2%
uczelnia
inne
2%
6%
90%
Rys. 1. Najczęstsze miejsca, w których badani respondenci korzystają z komputera.
Z analizy Rys. 2 wynika, że 49% badanych studentów deklarowało, że korzysta
z komputera 2-3 godzin dziennie, natomiast 20% z badanej populacji spędza przed
komputerem więcej niż 3 godziny dziennie. Zaledwie 3% respondentów wykorzystuje komputer jedną godzinę w tygodniu. Wyraźnie można zaobserwować, że komputer
stał się codziennym narzędziem używanym przez studentów.
201
Magdalena Biernacka, Hubert Dróżdż, Ewa Mandowska
60%
49%
Liczba studentów
50%
40%
30%
20%
19%
20%
10%
10%
0%
3%
0 h/ tydzień
1 h/ tydzień
0%
2-3 h/ tydzień
1 h/ dzień
2-3 h/ dzień
więcej niż 3 h/
dzień
Czas wykorzystywania komputera i Internetu
Rys. 2. Procentowa liczba studentów w funkcji czasu wykorzystywania przez nich komputera
i Internetu.
Z Rys. 3 wynika, że dla 60% ankietowanych głównym sposobem wykorzystania
Internetu jest rozrywka, przy czym tą formę wybierają trochę częściej mężczyźni
(Rys. 4). Zaledwie, co piąty student wykorzystuje Internet w procesie uczenia się
(trzy razy częściej są to kobiety) (Rys. 4). W bardzo niewielkim stopniu Internet jest
używany w celu komunikowania się przez mężczyzn i kobiety. Również zastosowanie Internetu w życiu codziennym w ankiecie osiągnęło niski poziom (6%), przy
czym trzy razy częściej z tej możliwości korzystają mężczyźni (Rys. 4).
Liczba studentów
80%
60%
60%
40%
18%
20%
9%
6%
6%
praca
życie codzienne
komunikacja
0%
rozrywka
uczenie się
Główne sposoby wykorzystania internetu
Rys. 3. Główne sposoby wykorzystania Internetu przez studentów.
Uzyskane wyniki w dwóch ostatnich pozycjach nie są do końca miarodajne, ponieważ nie uwzględniono w pytaniu możliwości korzystania z urządzeń typu smartphone oraz iPod, mających obecnie możliwości komputera osobistego z podłączeniem do globalnej sieci.
202
Komputer i Internet w procesie zdobywania wiedzy przez studentów I roku...
80%
71%
Liczba studentów
mężczyźni
kobiety
55%
60%
40%
23%
13%
13%
20%
8%
6%
4%
0%
8%
0%
rozrywka
uczenie się
życie codzienne
praca
komunikacja
Główne sposoby wykorzystania internetu
Rys. 4. Główne sposoby wykorzystania Internetu przez studentów z podziałem na płeć.
Na pytanie dotyczące najczęściej napotykanych przeszkód podczas użytkowania
komputera i Internetu aż 30% ankietowanych zadeklarowało, iż nie napotyka na żadne trudności (Rys. 5). Jest to optymistyczny wynik. Zastanawiające jest natomiast, że
aż 17% studentów wskazało na utrudniony dostęp do infrastruktury teleinformatycznej, podczas gdy wcześniej każdy ankietowany student deklarował, że taki dostęp
posiada.
Istotne jest, że co szósty badany student zdaje sobie sprawę, iż wiele godzin spędzonych w pozycji siedzącej przy komputerze może szkodzić zdrowiu. Ta liczba powinna mieć tendencje zwyżkowe i wydaje się konieczne zwrócenie uwagi na ten
aspekt w procesie kształcenia.
W dobie konieczności funkcjonowania w społeczeństwie informacyjnym dziwi
fakt, że 5% ankietowanych studentów stwierdziło brak umiejętności wykorzystywania komputera i Internetu w nauce bądź w pracy.
Brak trudności
30%
Utrudniony dostęp do komputera/ Internetu
17%
Praca na komputerze szkodzi zdrow iu
16%
Brak czasu na pozyskiw anie informacji w Internecie
9%
Nie lubię pracow ać na komputerze
9%
Praca na komputerze jest męcząca
7%
Praca na komputerze izoluje od ludzi
7%
5%
Brak umiejętności w ykorzystyw ania komputera
Inne
0%
1%
10%
20%
30%
Liczba studentów
Rys. 5. Przeszkody napotykane przez studentów podczas korzystania z komputera i Internetu.
203
Magdalena Biernacka, Hubert Dróżdż, Ewa Mandowska
40%
34%
Liczba studentów
30%
25%
20%
16%
7%
10%
0%
0%
1%
1%
1
2
3
4
10%
6%
0%
5
6
7
8
9
10
Wpływ umiejętności obsługi komputera i korzystania z Internetu na
zdobywanie wiedzy i wykonywanie pracy
Rys. 6. Wpływ umiejętności obsługi komputera i korzystania z Internetu na zdobywanie wiedzy
i wykonywanie pracy. Przyjęto skalę 1-10, gdzie 1 i 10 oznaczają odpowiednio, umiejętności nieprzydatne, cenne.
Zaproponowano respondentom skalę od 1 do 10 celem określenia wpływu umiejętności obsługi komputera oraz sprawnego wyszukiwania informacji w Internecie na
zdobywanie wiedzy i wykonywanie przyszłej pracy gdzie 1 i 10 oznaczają odpowiednio, umiejętności nieprzydatne i cenne. Wyniki przedstawia Rys. 6. Znaczna
część respondentów (75%) wybierając wskaźniki 8-10 uznała, że wykorzystanie
komputera i Internetu to cenne umiejętności. Uzyskany wynik jest istotnym z punktu
widzenia samokształcenia.
Przeprowadzono również badania mające na celu poznanie samooceny umiejętności teleinformatycznych studentów oraz ich oczekiwań stawianych przedmiotowi
Technologie Informacyjne (TI) na poziomie akademickim.
Analizując Rys. 7 ponad 70 % studentów stwierdziło, że posiada już umiejętności
związane z tworzeniem dokumentów tekstowych, prezentacji multimedialnych oraz
zarządzaniem informacją. Na zajęciach TI należałoby zwrócić szczególną uwagę na
poszerzenie wiadomości ogólnych dotyczących komputerów, tworzenie stron WWW,
obsługę arkuszy kalkulacyjnych oraz tworzenie i obsługę baz danych. Wyżej wymienione obszary osiągnęły najniższe wskaźniki poziomu wiedzy w samoocenie studentów oraz najwyższe wskaźniki wskazujące na chęć poszerzenia wiedzy.
Wnioski
Wszyscy badani respondenci mają dostęp do komputera i Internetu. Najczęściej
korzystają z niego w domu. Przed komputerem, co drugi student spędza od 2 do 3
godzin dziennie. Czas ten poświęca głównie rozrywce, a w następnej kolejności wykorzystuje komputer i Internet do zdobywania wiedzy. Nie potrafi wykorzystywać
komputera, co dwudziesty badany student. Ponad 75% respondentów uważa, że
umiejętność obsługi komputera i korzystanie z Internetu ma wpływ na zdobywanie
204
Komputer i Internet w procesie zdobywania wiedzy przez studentów I roku...
wiedzy i pracę. Ponad 70% badanych studentów uważa, że najlepiej opanowało tworzenie dokumentów tekstowych, prezentacji multimedialnych oraz zarządzanie informacją, natomiast w ich opinii konieczne jest poszerzenie umiejętności tworzenia
stron WWW, obsługi arkuszy kalkulacyjnych oraz tworzenia i obsługi baz danych.
100%
chęć poszerzenia posiadanej
wiedzy
samoocena aktualnego stanu
wiedzy
80%
72%
70%
Liczba studentów
75%
79%
59%
60%
42%
40%
31%
21%
14%
20%
17%
15%
11%
6%
9%
0%
wiadomości
ogólne
dokumenty
tekstowe
arkusze
bazy danych prezentacje zarządzanie tworzenie
kalkulacyjne
multimedialne informacją stron WWW
Zagadnienia omawiane na zjęciach TI
Rys. 7. Zestawienie stopnia samooceny wiedzy i umiejętności teleinformatycznych studentów oraz
ich oczekiwań względem przedmiotu Technologia Informacyjna na studiach.
Literatura
[1]
B. L. Crynes, The computer is critical for globalisation of engineering education, Global
Congress on Engineering Education, Kraków, 6-11 September (1998).
205
206
Tzolkin
święty kalendarz Majów
Kinga Raczyńska
Instytut Historii, Wydział Filologiczno-Historyczny, Akademia im. Jana Długosza,
Al. Armii Krajowej 36a, 42-200 Częstochowa
[email protected]
Streszczenie
W dżunglach Ameryki Środkowej możemy napotkać pozostałości jednej z najbardziej tajemniczych kultur świata. Cywilizacja Majów może poszczycić się dużym
dorobkiem naukowym. Jednym z wielu jej osiągnięć jest opracowany system kalendarzowy. Niniejsza praca ma na celu objaśnienie zasad funkcjonowania Tzolkin
jednego z kalendarzy Majów. Przez wiele lat reguły działania "świętej matrycy" były
niejasne. Dopiero w latach osiemdziesiątych ubiegłego wieku, dokonano ujednolicenia znaków Tzolkin. Kalendarz w swej prostocie wyraża genialność twórców.
Tzolkin
Klasyczna cywilizacja Majów rozwinęła się w strefie centralnej obejmującej Peten, podzielony dziś między Gwatemalę, Honduras i Meksyk. W środku dziewiczej
dżungli, powstały między II a VIII w. n. e., najpiękniejsze miasta Majów, a ich rozwój cywilizacyjny osiągnął dojrzałą postać [1].
Majowie to jeden z najbardziej tajemniczych ludów w historii. Niektórzy badacze
utrzymują, że przybysze pojawili się 50-60 tys. lat przed naszą erą, inni liczniejsi
stwierdzają, że stało się to później, około 35-40 tys. lat temu [2]. Niewielka cząstka
wiedzy, jaką obecnie posiadamy na temat Majów, pochodzi z zachowanych Kodeksów oraz kamiennych kolumn z napisami, które przetrwały w ruinach miast. Należy
zwrócić uwagę, że nie było i nie ma może z wyjątkiem żydowskich kabalistówżadnej innej kultury na świecie, która, jak Majowie, kochałaby liczby.
Do czego potrzebowali tak wysoko rozwiniętej matematyki i astronomii, a co za
tym idzie, obliczeń kalendarzowych? Stereotypowa odpowiedź naukowców brzmi:
dla ustalania pór roku i dokładnego określania czasu siewu i żniw. W przypadku Majów wspomniane wyjaśnienie jest kompletnie absurdalne. Zamieszkiwali oni tereny
dżungli tropikalnej, gdzie nie ma pór roku. W przeciwieństwie do cywilizacji europejskiej Majowie nie mieli systemu dziesiętnego, lecz dwudziestkowy, tzn. ich liczbą
podstawową było dwadzieścia. Do zilustrowania systemu liczbowego potrzebowali
tylko trzech cyfr: zera, jedynki i piątki.
Hieroglify liczbowe przedstawiają w sposób graficzny, pozycyjny system dwudziestkowy, stosowany przez Majów [2].
207
Kinga Raczyńska
Pod koniec VIII wieku n.e. Majowie doszli do szczytowego punktu swych osiągnięć intelektualnych i artystycznych. Inskrypcje kalendarzowe ciągną się nieprzerwanie, od najwcześniej datowanych stel z Uaxactun, aż po okres największych
osiągnięć z końca VIII wieku. Kolejny etap z IX wieku nie znalazł już odzwierciedlenia w datowanych stelach, których wznoszenia zaniechano od tej pory na całym
rozległym obszarze zajmowanym przez Majów. Jakby powodowane aktem dobrowolnego samounicestwienia, urwało się nagle pasmo dążeń, dzięki którym Majowie
doszli do swych wspaniałych osiągnięć. Stało się to niespodziewanie i bez żadnych
konkretnych przyczyn, w każdym razie archeologia nie potrafi ich wyjaśnić. Dążenia
intelektualne zatrzymały się w miejscu, wyszukana obrzędowość stanowiąca pożywkę dla rozwoju kultury Majów, nagle zamarła. Nawet obliczenia czasu drogowskaz
kierujący wszelkimi czynami i wydarzeniami utraciły swe znaczenie. Majowie porzucili swe pielęgnowane przez całe wieki ośrodki obrzędowe [1].
Rys. 1. Pozycyjny system liczbowy [8].
Majowie korzystali najprawdopodobniej z siedemnastu kalendarzy, tyle odkrył
świat nauki. Starszyzna majańska mówi dziś o dwudziestu systemach kalendarzowych. Były to kalendarze astronomiczne lub astrologiczne (wróżbiarskie). Wśród
kalendarzy o charakterze astronomicznym najbardziej znane to Tzolkin, Haab i Długa
Rachuba. Cywilizacja rozwijająca się w Ameryce Środkowej stworzyła kalendarz
dokładniejszy od tego, którym posługiwała się ówczesna Europa. Kalendarz Tzolkin
jest bardzo stary. Najprawdopodobniej pochodzi z czasów Olmeckich. Istnieje hipoteza mówiąca, iż kalendarz Majów nie jest ich dziełem jak wskazuje nazwa. Niektórzy uczeni badający starożytne cywilizacje Mezoameryki, są zdania, że kalendarz jest
tworem "Kultury Matki", która rozwijała się w I tysiącleciu p.n.e. i dała początek
późniejszym cywilizacjom Tolteków, Majów, Azteków, Olmeków. Zachowane pozo208
Tzolkin
święty kalendarz Majów
stałości po "Kulturze Matce" odkryto w południowej części meksykańskich stanów
Vera Cruz i Tabasco [3].
Wierzono, że każdy dzień posiada magiczną moc, ponieważ patronuje mu jeden
z bogów. Pierwszy kalendarz Majów liczył 18 miesięcy 20-dniowych (łącznie 360
dni). Wprowadzono również 5 dni dodatkowych nazywanych Uayeb. Uważane były
za pechowe [4].
Majowie posługiwali się także kalendarzem Tzolkin. Wierzono w jego ogromną
moc. Nazywano go świętym, posiadał bowiem charakter sakralny, wróżebny. Kombinacja 13 liczb i 20 symboli nie powtarzała się nigdy w całym roku. Rachuba czasu
w Tzolkin opiera się na równoczesnym odliczaniu 13 liczb i 20 znaków (nazw dni).
Tzolkin w swojej rachubie posługuje się dwudziestoma pieczęciami, kolejno: imix, ik,
akbal, kan, chicchan, cimi, manik, lamat, muluk, oc, chuen, eb, ben, ix, men, cib,
caban, eznab, cahuac i ahau, oraz liczbami od 1 do 13 [3]. Kalendarz Haab i Tzolkin
nie funkcjonowały oddzielnie. Splatały się w jeden cykl, uzupełniały się wzajemnie.
Majańskie datowanie było precyzyjne. Data składała się z czterech elementów (dwa
zaczerpnięte z kalendarza Haab i dwa z kalendarza Tzolkin).
Chcąc zrozumieć jak najlepiej wzajemną relację w funkcjonowaniu wyżej wspomnianych kalendarzy należy pojąć prosty sposób ich działania. Upływ czasu
w Tzolkin opiera się na równoczesnym odliczaniu dwudziestu nazw dni i liczb od
1 do 13. Porównując majańską rachubę do kalendarza gregoriańskiego można wyobrazić sobie następującą sytuację: jeśli rozpoczniemy odliczanie od 1 stycznia, to
następny dzień nie będzie nazywał się 2 stycznia, lecz 2 luty, kolejny to 3 marzec,
4 kwiecień itd. aż do 12 grudnia, po którym nastąpi 13 stycznia [4].
Hieroglify kalendarzowe służyły do przeprowadzania pomiaru czasu. Jak wiemy,
upływ czasu dla cywilizacji majańskiej był niezwykle ważny. Dwadzieścia hieroglifów w Tzolkin, początkowo posiadało charakter piktograficzny, z czasem jednak,
kiedy usiłowano przedstawić idee odpowiadające poszczególnym dniom, przemienił
się w ideograficzny. W „księgach lat‖ zapisywano odpowiednią liczbę i hieroglif,
które oznaczały główne wydarzenia charakterystyczne dla danego okresu [5].
Rys. 2. Rachuba czasu w cyklu 260 - dniowym [4].
209
Kinga Raczyńska
Tabela 1. Nazwy dni i ich symbole [3].
Nazwa
Imix
Ik
Symbol
Smok
morski
Woda
Wino
Powietrze
Życie
Ikona
Nazwa Symbol
Chuen
Małpa
Eb
Miotła
Akbal
Noc
Ben
Trzcina
Kan
Kukurydza
Ix
Jaguar
Chicchan Wąż
Men
Ikona
Ptak
Orzeł
Mędrzec
Sowa
Sęp
Cimi
Śmierć
Cib
Manik
Jeleń
Chwyt
Caban
Siła
Ziemia
Lamat
Królik
Etznab
Krzesiwo
Nóż
Muluc
Deszcz
Cauac
Burza
Kadź
Oc
Pies
Ahau
Pan
Wynalezienie zera i wykorzystywanie go umożliwiało obliczanie długich odcinków czasu. Niektóre z majańskich inskrypcji odnoszą się do dat sprzed milionów lat.
Błędem, byłoby rozumowanie, iż w tak odległych czasach istniała ich cywilizacja. Te
daty są jedynie zapisem, z którego wynika, że Majowie wierzyli, iż już wtedy zachodziły zjawiska astronomiczne mające wpływ na ich epokę [7].
Biorąc za wzór cykliczność zjawisk astronomicznych, wysnuli teorię, że również
historia powtarza się cyklicznie, a znajomość minionych wydarzeń daje wiedzę
o przyszłości.
Dostrzegali korelację pomiędzy zjawiskami zachodzącymi na niebie, a życiem
psychicznym człowieka i biegiem jego spraw [7].
W czasach współczesnych kalendarz Tzolkin jest nadal używany przez niektóre
plemiona, mające korzenie majańskie. Wykorzystywany jest do celów magicznych.
210
Tzolkin
święty kalendarz Majów
Rys. 4. Tzolkin [6].
211
Kinga Raczyńska
Literatura:
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
212
Ch. Ga Ch. Gallenkamp, Majowie, Warszawa 1968, s.13, 195-196.
T. Łepkowski, Historia Meksyku, Wrocław 1986, s. 17, 55-56.
Z. Zwoźniak , Kalendarze, Warszawa 1980, s. 49-52.
A.G. Gilbert, M.M. Cotterell, Prorocza wiedza Majów, Londyn 1997, s 30-32.
M. L. Portilla, Dawni Meksykanie, Kraków 1976 , s. 56-58.
www.maya.net.pl (stan z 3.1.2013r.).
T. Dickey, V. Muse, H. Wincek, Boscy królowie Meksyku, Warszawa 1997, s. 48.
www.swiatmatematyki.pl/index.php?p=131 (stan z 3.1.2013r.).
W przyjaźni z Wenus ku lepszej przyszłości
Bogdan Wszołek
Instytut Fizyki, Wydział Matermatyczno-Przyrodniczy, Akademia im. Jana Długosza,
Al. Armii Krajowej 13/15, 42-200 Częstochowa
[email protected]
Wstęp
Grecka Afrodyta, a rzymska Wenus – cudowna bogini piękna i miłości – użycza
imienia niezwykłej planecie, która swoim mocnym białym blaskiem zdobi nocne niebo i zawsze ściąga na siebie uwagę. Wenus, będąc po Księżycu najjaśniejszym obiektem nocnego nieba, była od najdawniejszych czasów w centrum zainteresowania filozofów, astronomów i innych miłośników spraw niebieskich. Współcześnie, nie mniej
niż kiedyś, obserwacje Wenus mogą przysparzać ogromnej radości i dawać wiele satysfakcji, rozbudzając przy tym zamiłowanie do przyrody oraz chęć zgłębiania jej
tajemnic. Wenus, swym niepowtarzalnym wdziękiem, zawsze inspirowała do podejmowania różnorakich, często bardzo trudnych, zadań o charakterze naukowym i dydaktycznym w zakresie astronomii.
Wenus jako planeta
Wenus obiega Słońce po orbicie eliptycznej o bardzo małym spłaszczeniu. Żadna
inna planeta w Układzie Słonecznym nie posiada tak zbliżonego do okręgu kształtu
orbity. Chociaż pod względem rozmiarów i masy Wenus jest bardzo podobna do
Ziemi to wbrew temu, co uważano jeszcze przed kilkudziesięciu laty, planety te drastycznie różnią się między sobą. Wenus jest najwolniej rotującą planetą w Układzie
Słonecznym. Na jeden pełny obrót dookoła własnej osi potrzebuje ona aż 243.01 doby ziemskie. Rotacja Wenus jest prawie idealnie zsynchronizowana z jej ruchem orbitalnym. Okres obiegu dookoła Słońca wynosi dla Wenus 224.68 doby i jest zbliżony do okresu jej rotacji. Okres synodyczny Wenus wynosi około 584 doby. Oznacza
to, że dla obserwatora ziemskiego Wenus powraca do tego samego położenia względem Słońca dopiero po 584 dobach. Kierunek rotacji Wenus jest przeciwny do kierunku jej ruchu orbitalnego. Spośród planet Układu Słonecznego podobną rotacją
"pod prąd" charakteryzuje się jeszcze tylko Uran, chociaż w jego przypadku nachylenie płaszczyzny równika do płaszczyzny orbity wynosi około 90 stopni i efekt odwrotnego kierunku rotacji jest wyraźnie stonowany. Doba słoneczna na Wenus trwa
prawie 117 dób ziemskich, czyli około połowy wenusjańskiego roku.
213
Bogdan Wszołek
Tabela 1.Wybrane charakterystyki planety Wenus.
Średnia odległość od Słońca: 0.72333199 j.a.
Spłaszczenie orbity (mimośród): 0.0067
Nachylenie płaszczyzny orbity do płaszczyzny ekliptyki: 3°.39471
Rok gwiazdowy: 224.70096 dób ziemskich
Okres synodyczny obiegu: 583.92 dób ziemskich
Średnia prędkość orbitalna: 35.020 km/s
Doba gwiazdowa: 243.0185 dób ziemskich
Maksymalna jasność: - 4.6 magnitudo
Maksymalna elongacja: około 47°
Bogate szczegóły powierzchni Wenus ukryte są pod grubymi warstwami chmur
spowijających planetę. Górny pułap chmur wenusjańskich sięga 70 km. Badania radarowe, z Ziemi oraz z użyciem sond kosmicznych, wskazują na bardzo urozmaicony
krajobraz planety. Występują tam liczne kratery uderzeniowe, masywy wulkaniczne,
rozległe płaskowyże i góry. Czwarta część powierzchni Wenus jest górzysta, a jej
dalsze 16 % zajmują wysokie stożki wulkaniczne. Resztę powierzchni zajmują pofałdowane obszary równinne. Cały glob jest suchy i zupełnie pozbawiony ciekłej wody.
Zaskakujące jest też to, że Wenus praktycznie nie posiada własnego pola magnetycznego. Stawia ją to w osobliwej sytuacji na okoliczność oddziaływania z wiatrem słonecznym. Naładowane cząstki tego wiatru nie napotykają przeszkody w postaci magnetosfery tylko oddziałują bezpośrednio z atmosferą. Sama zaś atmosfera Wenus
jest o wiele masywniejsza i bardziej rozległa niż ziemska. Jej skład jest zdominowany
dwutlenkiem węgla (96.4%). Cząsteczkowy azot dodaje się do składu atmosfery
w około 3.4%. W charakterze domieszek występują jeszcze para wodna, tlenek węgla, argon, dwutlenek siarki, kwas siarkowy, kwas solny, hel, tlen cząsteczkowy i inne. Dwutlenek węgla w atmosferze wywołuje tzw. efekt cieplarniany. Cząsteczki
CO2 mają tę właściwość, że łatwo absorbują promieniowanie cieplne, podwyższając
przy tym swoją energię wewnętrzną. Promieniowanie słoneczne w swojej części podczerwonej bezpośrednio ulega absorpcji przy wejściu w atmosferę. Widzialna, bardziej energetyczna, składowa promieniowania Słońca jest z kolei wydajnie absorbowana przez grunt planety oraz przez pył zawarty w atmosferze. Od nagrzanego tym
sposobem gruntu i pyłu podgrzewa się gaz atmosferyczny. Podgrzany gaz wypromieniowuje energię, ale nie w postaci fotonów światła widzialnego, lecz w postaci fotonów promieniowania podczerwonego. Te zaś nie mogą łatwo penetrować atmosfery
o dużej zawartości CO2. W takiej sytuacji równowaga pomiędzy energią przyjmowaną przez planetę w jednostce czasu, a energią oddawaną, ustala się dla temperatury
znacznie wyższej niż w przypadku atmosfery o znikomej zawartości gazów cieplarnianych. Temperatura na powierzchni Wenus przyjmuje wartość aż 472 C, czyli
około dwa razy tyle, co w piecu podczas pieczenia chleba. W dodatku temperatura
pozostaje równie wysoka w nocy jak w dzień.
Gęstość atmosfery przy powierzchni Wenus prawie stukrotnie przewyższa gęstość atmosfery przy powierzchni Ziemi. Współczynnik załamania dla dolnych
214
W przyjaźni z Wenus ku lepszej przyszłości
warstw atmosfery Wenus wynosi około 1.45. Obecna atmosfera Wenus jest nadzwyczaj sucha, choć istnieją argumenty wskazujące, że kiedyś na Wenus było więcej wody. Zaobserwowano np., że stosunek deuteru do zwykłego wodoru jest w atmosferze
Wenus około 150 razy większy niż w atmosferze Ziemi. Przypuszcza się, że pod
wpływem ultrafioletowego promieniowania Słońca, wobec braku na Wenus ochronnej warstwy ozonowej, cząsteczki wody ulegały dysocjacji. Zwykły wodór łatwiej
opuszcza atmosferę, dyfundując w przestrzeń międzyplanetarną, niż cięższy od niego
deuter. Długotrwały proces ustawicznej dysocjacji cząsteczek wody nieuchronnie
prowadzi do wzrostu procentowej obfitości deuteru. Obliczenia modelowe pozwalają
stwierdzić, że w dalekiej przeszłości mogło na Wenus być dostatecznie dużo wody by
pokryć planetę globalnym oceanem o głębokości 25 metrów. Dla porównania, na
Ziemi dzisiaj jest tyle wody, że globalny ocean miałby głębokość 3000 metrów.
W obecnej atmosferze Wenus jest zaledwie tyle pary wodnej, że po jej skropleniu
powstałby ocean globalny o głębokości 30 centymetrów. Ze względu na wysoką
temperaturę nie dochodzi na Wenus do skroplenia pary wodnej i nie ma tam żadnych
akwenów.
Dwutlenek węgla bardzo łatwo rozpuszcza się w wodzie. Na Ziemi prawie wszystek CO2 jest zawarty w wodach oceanicznych i dlatego w atmosferze jest go zaledwie około 0.03 %. Istnienie warstwy ozonowej w atmosferze ziemskiej i prawie półtora razy większa odległość od Słońca sprawiają, że na Ziemi proces dysocjacji cząsteczek wody jest znacznie mniej wydajny niż na Wenus. Niemniej, z czasem ubywa
i na Ziemi wody. Wraz z jej ubytkiem przybywa w atmosferze dwutlenku węgla
i narastający efekt cieplarniany powoduje ocieplenie globalne atmosfery. Emisja CO 2
do atmosfery, w wyniku działalności człowieka, może istotnie przyspieszać ten proces. Tu działa dodatnie sprzężenie zwrotne. Ocieplenie klimatu powoduje większe
parowanie wód oceanicznych i uwalnianie się do atmosfery większej ilości dwutlenku węgla, a ten wzmaga efekt cieplarniany, powodujący dalsze ocieplenie. Badanie
fizyki atmosfery Wenus przysparza wiedzy koniecznej dla ochrony ziemskiej atmosfery przed jej galopującą degradacją.
Atmosfera Wenus jest bardzo niespokojna. Występują w niej liczne i potężne wyładowania elektryczne towarzyszące opadom skroplonych kwasów (głównie siarkowego). Poza tym na Wenus ciągle wieją wiatry. Wiatry te mają charakter globalny,
wieją w kierunku zgodnym z ruchem wirowym planety, a ich prędkość w górnych
warstwach atmosfery przyjmuje wartość około 300 km/s.
Obserwacje Wenus
Wenus nie oddala się zbytnio od Słońca, toteż może królować na niebie albo na
początku nocy po stronie zachodniej albo, w innych okresach roku, pod koniec nocy
na wschodzie. Podobnie jak Księżyc, Wenus wykazuje fazy. Gdy Wenus znajduje się
po przeciwnej stronie Słońca wtedy jest w pełni i jej kątowa średnica wynosi około
10 . Gdy Wenus przybliża się do Ziemi wtedy staje się coraz mniej oświetlona, aż do
bardzo wąskiego sierpa. Wtedy jej średnica kątowa osiąga wartość około 60 . Potrzeba wielu miesięcy, żeby faza Wenus przybrała wszelkie możliwe wartości. Gdy
215
Bogdan Wszołek
Wenus jest wąskim sierpem, kiedy widoczne jest około 20% oświetlonej powierzchni, fazę można zaobserwować nawet przy pomocy dobrej lornetki na sztywnym statywie. Doświadczeni obserwatorzy wolą obserwować Wenus w czasie dnia. Jest ona
na tyle jasna, że można ją w pogodny dzień widzieć na niebie nawet gołym okiem.
Trzeba jednak wiedzieć gdzie skierować wzrok. Jasność powierzchniowa Wenus jest
bardzo duża, co daje możliwość wydobycia dużych powiększeń przy obserwacjach
teleskopowych. Szczególnie efektownie wygląda wąski sierp Wenus oglądany przez
teleskop na niebieskim niebie w czasie, gdy Słońce znajduje się blisko horyzontu.
Warunki obserwacji Wenus są zmienne w czasie. Są kilkumiesięczne okresy dobrej widoczności planety wczesnymi wieczorami (po stronie zachodniej nieba), kiedy
jej wschodnie elongacje (kątowe odległości od Słońca, liczone wzdłuż ekliptyki) zawierają się w przedziale od kilkunastu stopni do około 47 stopni (maksymalna możliwa elongacja Wenus). Podobnie, występują kilkumiesięczne okresy widoczności
Wenus po stronie wschodniej (przy odpowiednio dużych elongacjach zachodnich)
pod koniec nocy. W obu przypadkach, im elongacja planety większa, tym dogodniejsze warunki obserwacji. Są też niestety okresy utrudnionej, czasem wręcz nie możliwej, obserwacji Wenus. Przy małych elongacjach planeta znajduje się tak blisko
Słońca, że trzeba by jej szukać albo tuż po zachodzie Słońca, na bardzo jasnym tle
nieba nad zachodnim horyzontem, albo w podobnych warunkach o świcie, nad
wschodnim horyzontem.
Rys. 1. Ilustracja graficzna położeń i wyglądu Wenus dla obserwatora ziemskiego
w różnych momentach jej cyklu synodycznego.
Dla celów dydaktycznych najlepiej jest wykorzystywać okres występowania Wenus, jako „Gwiazdy Wieczornej‖. Można jeszcze przed zachodem Słońca próbować
gołym okiem odnaleźć Wenus na błękitnym niebie. Czasem się to udaje i przysparza
sporej satysfakcji. Przy odpowiednio dużych elongacjach z pomocą teleskopu można
obserwować Wenus w ciągu dnia, nawet w samo południe. Najbardziej ekscytujące
są teleskopowe obserwacje Wenus w okresie pomiędzy jej maksymalną elongacją
wschodnią, a koniunkcją dolną (zerowa elongacja, Wenus pomiędzy Słońcem i Ziemią). Z tygodnia na tydzień idzie zauważyć istotną zmianę rozmiaru tarczy Wenus
oraz zmianę fazy (Rys. 1 i 4). Przy maksymalnej elongacji widoczna jest połowa tarczy Wenus. W miarę zbliżania się do koniunkcji dolnej, tarcza Wenus rośnie, a jej
oświetlona przez Słońce część przyjmuje kształt coraz węższego sierpa. Bardzo dydaktyczne jest wykonanie serii obserwacji w kilkudniowych odstępach.
216
W przyjaźni z Wenus ku lepszej przyszłości
Rys. 2. Przykład fotografii Wenus i Księżyca, wykonanej przy pomocy zwyczajnego aparatu
cyfrowego. Wenus, jeśli jest widoczna na niebie w pobliżu Księżyca, to Księżyc jest zawsze
w fazie wąskiego sierpa. Daje się wtedy dodatkowo zauważyć tzw. światło popielate
Księżyca (widoczne na zdjęciu). (fot. B.Wszołek)
Rys. 3. Przykład teleskopowej obserwacji Wenus. W polu widzenia, oprócz wąskiego
sierpa Wenus, widnieje szczyt wieży jasnogórskiej (styczeń 2006). (fot. B.Wszołek)
217
Bogdan Wszołek
Rys. 4. Fotografie Wenus wykonane w taki sam sposób, lecz w różnych terminach, bezpośrednio
poprzedzających tranzyt 6 czerwca 2012 roku. Rosnącym datom (28 marca, 20 kwietnia,
25 kwietnia, 8 maja) odpowiadają coraz większe rozmiary kątowe oraz coraz węższy sierp.
(fot. A.Leśniczek)
Rys. 5. Obserwacje wąskiego sierpa Wenus przez częstochowskich miłośników astronomii
na placu Biegańskiego w Częstochowie 26 marca 2012. (Fot. A.Leśniczek)
218
W przyjaźni z Wenus ku lepszej przyszłości
Tranzyty Wenus
Na podobieństwo zaćmień Słońca przez Księżyc, zdarzają się czasem przejścia
(tranzyty) Wenus na tle tarczy słonecznej. Zjawisko to występuje zaledwie cztery razy na 243 lata, w odstępach 121.5, 8, 105.5 i 8 lat. Przed wynalezieniem lunety
i przed odkryciem przez Keplera praw rządzących ruchami planet, obserwacje tranzytów były praktycznie niemożliwe. Wprawdzie istnieje możliwość zaobserwowania
tranzytu Wenus gołym okiem (gdy blask Słońca jest stłumiony przez cienką warstwę
chmur lub mgłę, albo gdy Słońce jest na tyle nisko nad horyzontem, że można na nie
patrzeć bezpośrednio), ale jest bardzo mało prawdopodobne, by ktoś przypadkowo
zobaczył i poprawnie zinterpretował zjawisko. Przyjmuje się, zatem, że ludzkość
miała przyjemność oglądać tranzyt Wenus dopiero siedem razy (w latach 1639, 1761,
1769, 1874, 1882, 2004 i 2012). W Europie zjawisko mogło być w pełni obserwowane dopiero dwa razy: 6 czerwca 1761 oraz 8 czerwca 2004. Następna podobna okazja
nadarzy się w Europie 11 czerwca 2247. Obserwacjom tranzytów Wenus zawsze towarzyszą niezwykłe emocje na okoliczność pogody. W przypadku chmur zakrywających Słońce, obserwacja tranzytu staje się z natury rzeczy niemożliwa.
Obserwacje tranzytów Wenus odegrały bardzo ważną rolę, jeśli chodzi o rozwój
kulturowy ludzkości. Przede wszystkim obserwacje tych tranzytów pozwoliły ustalić
wartość jednostki astronomicznej, a tym samym ustalić odległości wszystkich planet
Układu Słonecznego od Słońca. Trzeba nam wiedzieć, że chociaż Johannes Kepler
z dużą dokładnością obliczył względne odległości planet od Słońca, to astronomowie
tamtych czasów nie znali wartości absolutnych tych odległości. Nikt nie wiedział,
jaka jest wartość jednostki astronomicznej, czyli średniej odległości Ziemi od Słońca.
Uczeni XVI i XVII wieku przyjmowali, że jednostka astronomiczna wynosi najwyżej
16 mln km (dziś wiemy, że ma ona 149.6 mln km, czyli o rząd wielkości więcej).
Już pierwsza obserwacja tranzytu Wenus (4 grudnia 1639), wykonana tylko przez
dwóch ludzi na świecie (Jeremiah Horrocks i William Crabtree), i to tuż przed zachodem Słońca, a nagłośniona przez Heweliusza dopiero w 1661 roku, sprawiła, że
trzeba było drastycznie zmienić wyobrażenia o rozmiarach świata, w którym żyjemy.
Okazał się on być, co najmniej kilka razy większy, niż wcześniej sądzono. Dwa tranzyty osiemnastowieczne spowodowały początek naukowej współpracy międzynarodowej. Wielkie wyprawy naukowe, w tym zorganizowana przez kapitana Jamesa
Cooka, na obserwacje tranzytu Wenus przyniosły korzyści nie tylko dla astronomii,
ale także dla geografii i innych ważnych dziedzin. Zarysowała się wtedy wyraźnie
konieczność wypracowania technik ścisłego wyznaczania współrzędnych geograficznych w skali globalnej. W konsekwencji tego mamy dzisiaj GPS. Tranzyt Wenus obserwowany w Petersburgu przez Łomonosowa w roku 1761 pozwolił uczonemu odkryć atmosferę Wenus. Ożywiło to wyobrażenia uczonych o możliwości występowania życia na Wenus i tym samym przyspieszyło badania Układu Słonecznego, w tym
rozwój astronautyki. Dziś wiemy, że Wenus znajduje się w stadium rozwoju bardzo
odległym od wcześniejszych oczekiwań i zupełnie nie sprzyja podtrzymaniu życia.
Wiedza o warunkach na Wenus, zwłaszcza o tym, do czego może doprowadzić efekt
cieplarniany, pomaga jednak lepiej zabezpieczać życie na samej Ziemi, choćby po219
Bogdan Wszołek
przez rozporządzenia zapobiegające nieodpowiedzialnej emisji gazów cieplarnianych
do atmosfery. Wymieniając korzyści wynikające z dawniejszych tranzytów Wenus
należy wspomnieć i o tym, że współczesne metody masowego wykrywania egzoplanet podobnych do Ziemi (kosmiczna misja „Kepler‖ zapoczątkowana w roku 2009)
wykorzystują właśnie zjawisko tranzytu tych planet na tle ich macierzystych gwiazd.
Tabela 2. Oczekiwane tranzyty w przyszłości. Z tabeli wynika, że w Polsce najwcześniej będzie
szansa zaobserwować końcową fazę tranzytu Wenus na godzinę przed zachodem Słońca w dniu
8 grudnia 2125. W roku 2247 będzie najbliższa szansa zaobserwowania całego tranzytu, podobnie
jak było to możliwe w roku 2004 (o ile dopisze pogoda i żadna katastrofa kosmiczna w międzyczasie nie zaburzy porządku w ruchach planet).
data
11 grudnia 2117
8 grudnia 2125
11 czerwca 2247
9 czerwca 2255
13 grudnia 2360
10 grudnia 2368
12 czerwca 2490
10 czerwca 2498
czas (UTC)
początek maksimum
23:58
13:15
08:42
01:08
22:32
12:29
11:39
03:48
02:48
16:01
11:33
04:38
01:44
14:45
14:17
07:25
koniec
05:38
18:48
14:25
08:08
04:56
17:01
16:55
11:02
Obserwacje tranzytów Wenus w Częstochowie
Para tranzytów z XXI wieku przypadła na 8 czerwca 2004 oraz 6 czerwca 2012.
Wszędzie tam, gdzie był dzień podczas przebiegu zjawiska zorganizowano akcje obserwacyjne, ale, po raz pierwszy w historii, już bez oczekiwań jakichś rewelacji naukowych. Wcześniejsze obserwacje tranzytów Wenus (również Merkurego) wspaniale stymulowały rozwój astronomii i astronautyki i przyczyniły się do wypracowania
precyzyjnych metod wyznaczania odległości między ciałami Układu Słonecznego,
a także na samej Ziemi (geodezja satelitarna). W odróżnieniu od poprzednich, ostatnie dwa tranzyty Wenus mogły już być obserwowane praktycznie przez każdego
ziemianina i zostały w całym świecie wykorzystane dla celów dydaktycznych oraz
dla globalnej promocji astronomii. Tak było również w Częstochowie, gdzie oba
tranzyty Wenus udało się zaobserwować. Każdy z tranzytów miał zupełnie inny
przebieg i oddźwięk, toteż w opisie potraktujemy je oddzielnie.
Tranzyt Wenus 2004
Oficjalna akcja obserwacyjna została zorganizowana na tarasie widokowym Instytutu Fizyki Wyższej Szkoły Pedagogicznej w Częstochowie przez autora niniej220
W przyjaźni z Wenus ku lepszej przyszłości
szego artykułu. Była poprzedzona kilkumiesięcznym okresem wyczekiwania oraz
działania przygotowawczego. W tym czasie wielokrotnie obserwowano Wenus podczas jej zbliżania się do koniunkcji dolnej, podczas której miał nastąpić tranzyt. Rozpoczęto cotygodniowe spotkania samokształceniowe w nowo zawiązanej grupie częstochowskich sympatyków astronomii. Kiedy zbliżał się dzień tranzytu, i gdy
wszystko było już idealnie przygotowane, zaczął narastać niepokój odnośnie pogody.
Kulminacja tego niepokoju miała nastąpić o poranku 8 czerwca. Rozpoczęcie zjawiska miało nastąpić około 7:20, a jeszcze o godzinie 7:00 całe niebo było idealnie zakryte gęstymi chmurami. Bezpośrednio poprzedzające, wielogodzinne, intensywne
modlitwy organizatora obserwacji, o ukazanie się Słońca choćby na chwilkę na przestrzeni kilku godzin trwania zjawiska, zanoszone głównie do Matki Bożej i do świętej
Jadwigi Królowej, zostały zwieńczone zdarzeniem, które wypada kwalifikować
w kategoriach cudu. Kilkanaście minut przed rozpoczęciem tranzytu, dokładnie nad
wieżą kościoła pod wezwaniem św. Jadwigi Królowej (oglądanego z tarasu obserwacyjnego) ukazał się maleńki błękitny prześwit między gęstymi chmurami. Dla działającego jeszcze w samotności organizatora (osoby wyznaczone do pomocy, po przestudiowaniu prognoz pogody i po upewnieniu się, że niebo nad Częstochową jest całkowicie zachmurzone, przedłużyły sobie poranną drzemkę i dotarły na miejsce obserwacji z dużym opóźnieniem) był to znak, że Królowa Jadwiga „wie, o co chodzi‖
(sam jeszcze sobie wtedy nie uświadamiał, że dokładnie siedem lat wcześniej, też
8 czerwca, Królowa Jadwiga została w jego obecności kanonizowana). Była nadzieja,
że podczas przebiegu zjawiska Słońce, choć na chwilkę, się pokaże. Jednak sprawy
wzięły zupełnie nieoczekiwany obrót. Na przestrzeni kilku minut całe niebo stało się
błękitne i Słońce w pełnej krasie ukazało się na niebie, dokładnie na dwie minuty
przed rozpoczęciem tranzytu. Całe instrumentarium obserwacyjne było na wszelki
wypadek przygotowane jeszcze przed godziną siódmą, dlatego można było, w nieopisanej euforii, przystąpić do obserwacji, poczynając od rejestracji momentu pierwszego kontaktu. Tranzyt Wenus w Częstochowie trwał od godziny 7:20:43 do
13:22:32 (przez 6 godzin 1 minutę i 49 sekund), a chmury nie przeszkodziły w jego
obserwacji ani na moment.
Tranzyt obejrzało około tysiąca ludzi, głównie z Częstochowy. Uchwycono momenty wszystkich czterech kontaktów oraz wykonano w sumie około 30 dokumentalnych fotografii. Obserwacja tranzytu Wenus przez Prezydenta Częstochowy zaowocowała przyznaniem rok później przez Urząd Miasta funduszy pozwalających
uruchomić w Instytucie Fizyki pierwsze polskie planetarium cyfrowe. (Dla wtajemniczonych, powstanie tego planetarium również należałoby traktować, jako cud).
Otwarte w 2006 planetarium częstochowskie stało się najbardziej widocznym i najłatwiej rozpoznawalnym rezultatem zorganizowanej w Częstochowie akcji obserwacyjnej tranzytu Wenus 6 czerwca 2004 roku.
221
Bogdan Wszołek
Rys. 6. Początkowa faza obserwacji tranzytu Wenus 8 czerwca 2004 roku. Przy teleskopie autor.
(Archiwa Częstochowskiego Oddziału Polskiego Towarzystwa Miłośników Astronomii)
Rys. 7. Ilustracja przebiegu zjawiska tranzytu. Współrzędne geograficzne miejsca obserwacji ustalono przy pomocy GPS. Pomierzono momenty poszczególnych kontaktów oraz w oparciu o nie
wyznaczono wartość jednostki astronomicznej. Dla każdego z kontaktów podano tu wyznaczony
moment oraz błąd ustalenia jednostki astronomicznej w oparciu o to wyznaczenie: I(5:20:43,
0.315%), II(5:39:06, 0.100%), III(11:03:15, 0.055%), IV(11:22:32, 0.054%).
222
W przyjaźni z Wenus ku lepszej przyszłości
Ożywienie zainteresowań astronomią, jakie nastąpiło w Częstochowie po tym tranzycie, zaowocowało m.in. tym, że wiele młodych osób z Częstochowy podjęło studia
astronomiczne na renomowanych uczelniach, krajowych i zagranicznych. Nadto
w roku 2009 reaktywowano Częstochowski Oddział Polskiego Towarzystwa Miłośników Astronomii oraz powołano do życia Stowarzyszenie Astronomia Nova, o zasięgu międzynarodowym, zrzeszające już ponad sześćdziesiąt astronomów zawodowych i zaawansowanych miłośników astronomii. Od roku 2009 odbyło się w Częstochowie siedem astronomicznych konferencji naukowych, z czego trzy miały charakter międzynarodowy. Od roku 2005 odbyło się dziesięć konkursów astronomicznych
URANIA, urastających powoli do rangi ogólnopolskiej. Od roku 2011 odbyły się trzy
konkursy artystyczno-astronomiczne Ars Astronomica. Wymieniono tylko niektóre
przejawy aktywności astronomicznej w naszym mieście, napędzane w istocie tym
wszystkim, co zdarzyło się za sprawą Wenus dnia 8 czerwca 2004 roku.
Rys. 8. Przykłady wykonanych w Częstochowie fotografii upamiętniających przebieg tranzytu
Wenus w dniu 8 czerwca 2004 roku. (fot. M.Nowak i B.Wszołek)
Tranzyt Wenus 2012
Jest bardzo prawdopodobne, że nikt, z pośród ludzi obecnie żyjących na Ziemi,
nie zobaczy już nigdy tranzytu Wenus. Świadomość tego faktu w sposób szczególny
motywowała częstochowskich miłośników astronomii do podjęcia akcji obserwacyjnej końcowej fazy tranzytu z dnia 6 czerwca 2012. Dla tych, którzy mieli okazję zobaczyć tranzyt w 2004 roku, nadarzała się super wyjątkowa okazja, przeżycia zjawiska tranzytu Wenus aż dwa razy w życiu!
W stosunku do obserwacji w 2004 roku pojawiły się niesprzyjające okoliczności.
W Częstochowie tranzyt mógł być potencjalnie obserwowany maksymalnie tylko
przez 2 godziny i 22 minuty, poczynając od wschodu Słońca (4:32). Miejsce obserwacji musiało być, zatem, położone odpowiednio wysoko oraz trzeba było wstać bardzo wcześnie. Z inicjatywy autora zorganizowano w Częstochowie trzy punkty obserwacyjne dla podziwiania i dokumentowania zjawiska:
1. Na tarasie obserwacyjnym w Instytucie Fizyki Akademii im. Jana Długosza – teleskop Zeissa „Meniskas‖ (D=150 mm, F=225 cm) wraz z firmowym filtrem słonecz223
Bogdan Wszołek
nym (SFS 63) oraz cyfrowy aparat fotograficzny firmy Canon (lustrzanka 450D);
stanowisko tylko fotograficzne. Z tego miejsca w roku 2004 prowadzono obserwacje
i pokaz publiczny. Tym razem było to niemożliwe w związku z prowadzonym
remontem.
Rys. 9. Różne fazy tranzytu Wenus 6 czerwca 2012 udokumentowane fotograficznie na pierwszym
stanowisku obserwacyjnym. W przypadku pierwszej fotografii rolę filtru odegrały chmury.
(fot. A.Leśniczek, B.Wszołek)
2. W holu budynku Instytutu Fizyki AJD (obserwacja przez okno) – luneta astronomiczna Zeissa „Telementor‖ (D=63 mm, F=83 cm) wraz z ekranem słonecznym,
druga taka sama luneta, lecz z filtrem obiektywowym wykonanym we własnym zakresie z folii mylarowej, camera obscura oraz stanowisko do podglądu zjawiska na
żywo drogą transmisji internetowych; obserwacjom towarzyszył publiczny pokaz
zjawiska.
Rys. 10. Obserwacje tranzytu Wenus metodą projekcji okularowej prowadzone
na drugim stanowisku obserwacyjnym. (fot. M.Gonera)
3. W punkcie widokowym na Złotej Górze w Częstochowie – wiekowa luneta
„Metlera‖ firmy Zeiss (D=110 mm, F=203 cm) wyposażona w obiektywowy filtr
słoneczny wykonany z folii mylarowej oraz ekran i dwa aparaty fotograficzne
(cyfrowa lustrzanka Nikon D5100 oraz Praktica z filmem FUJI 200), luneta Zeissa
„Telementor‖ wraz z ekranem do projekcji okularowej; stanowisko służyło dokumentacji fotograficznej oraz pokazom publicznym tranzytu.
224
W przyjaźni z Wenus ku lepszej przyszłości
Rys. 11. W trakcie przeprowadzania obserwacji i publicznego pokazu tranzytu Wenus
6 czerwca 2012 roku na Złotej Górze w Częstochowie. (fot. J.Jaskulski)
Rys. 12. Paweł Ficek i Bogdan Wszołek podczas fotografowania tranzytu
Wenus lunetą Metlera ze Złotej Góry. (fot. J.Jaskulski)
225
Bogdan Wszołek
Rys. 13. Luneta Metlera i wykonane przez nią pierwsze zdjęcie tranzytu Wenus, jeszcze
z chmurami w roli filtru. Złota Góra, 6 czerwca 2012. (fot. B.Wszołek)
Rys. 14. Seria trzech fotografii tranzytu Wenus wykonanych na Złotej Górze z pomocą
lunety Metlera dnia 6 czerwca 2012. (fot. P.Ficek i B.Wszołek)
Złota Góra leży na wschodnich obrzeżach miasta, daleko od centrum. Została
pospiesznie obrana na główny częstochowski punkt obserwacyjny unikalnego zjawiska astronomicznego po tym jak władze klasztoru na Jasnej Górze odmówiły udostępnienia wałów jasnogórskich dla przeprowadzenia obserwacji tranzytu Wenus
oraz jego publicznego pokazu. Historyczna luneta, podarowana w 1928 roku księdzu
Metlerowi przez majora Wincentego Skrzywana, przez kilkadziesiąt lat służyła
częstochowskim miłośnikom astronomii w Obserwatorium Astronomicznym w parku
jasnogórskim. Potem przez wiele lat była poza Częstochową (głównie w Potarzycy)
i dopiero w roku 2009 wróciła, w stanie mocno zdezelowanym, do Częstochowy.
Z należnego szacunku dla osoby ks. Bonawentury Metlera, który z ogromnym zapałem szerzył wiedzę o Wszechświecie, autor dokonał kapitalnego remontu lunety.
W roku 2012 posłużyła ona obserwacjom tranzytu. Wielka szkoda, że odmówiono jej
miejsca na wzgórzu jasnogórskim, skąd przez dziesiątki lat tysiące razy była kierowana w stronę nieba przez częstochowskich miłośników astronomii. Rejestracja tranzytu Wenus była bez wątpienia najcenniejszą obserwacją astronomiczną, jakiej
dokonano kiedykolwiek z pomocą tej lunety. Przez następne stulecia będzie się ją
wspominać już nie tyle, jako mającą związek ze sławnym księdzem Metlerem, co
właśnie dlatego, że w roku 2012 przy jej pomocy obserwowano i dokumentowano
w Częstochowie tranzyt Wenus.
226
W przyjaźni z Wenus ku lepszej przyszłości
Rys. 15. Stanowisko polowe wydawania certyfikatów. (fot. J.Jaskulski)
Akcji obserwacyjnej towarzyszył ogromny niepokój w związku z początkowo
fatalnym stanem pogody. Prognozowany i faktyczny stan zachmurzenia nie dawał
nawet cienia nadziei na udane obserwacje. Mógł jednak zdarzyć się cud, w który
główny organizator mocno wierzył, i którego wszyscy zaangażowani w akcję bardzo
pożądali. Osoby bezpośrednio zaangażowane w przygotowanie stanowisk obserwacyjnych zebrały się pod Instytutem Fizyki AJD już o 3:30. Zniesiono w kawałkach
lunetę Metlera oraz wiele akcesoriów i zapakowano do samochodów jadących na
Złotą Górę. W Instytucie Fizyki organizowano stanowiska 1 i 2. Stanowisko na
Złotej Górze było gotowe na kwadrans przed planowanym wschodem Słońca. Kilkadziesiąt osób z utęsknieniem czekało tam na ustąpienie chmur. Niestety, nad wschodnim horyzontem zachmurzenie zamiast ustępować, ciągle się powiększało. Po godzinie oczekiwań niektórym zaczął mocno dokuczać chłód mglistego poranka. Bez nadziei na rozchmurzenie, poczęli wracać do domów. Jednak zdarzył się cud i około
5:49 Słońce wyszło zza chmur. Od tego czasu do końca trwania zjawiska (6:55) tranzyt był intensywnie obserwowany przez dziesiątki wytrwałych osób (stanowiska
2 i 3) oraz skrupulatnie dokumentowany fotograficznie (około 1000 wspaniałych
zdjęć ze stanowisk 1 i 3). Uchwycono momenty trzeciego (6:37) i czwartego (6:55)
kontaktu. Częstochowska akcja obserwacji tranzytu Wenus została publicznie podsumowana wykładem autora w Ratuszu Miejskim. Mimo szerokiego nagłośnienia
medialnego, ze względu na wspominane niedogodności, tranzyt Wenus 6 czerwca
227
Bogdan Wszołek
2012 oglądało w Częstochowie, w sposób zorganizowany, zaledwie około 100 osób,
czyli dziesięć razy mniej niż w roku 2004. Osobom tym wydano pamiątkowe certyfikaty. Ledwie kilka osób w Częstochowie posiada dwa certyfikaty, z roku 2004
i 2012, potwierdzające obserwacje tranzytów. Nieokreślona ilość częstochowian
oglądała tranzyt Wenus samodzielnie, według wcześniej nagłośnionego medialnie
instruktażu. Naturalne filtrowanie blasku tarczy słonecznej przez chmury umożliwiało oglądanie zjawiska nawet nieuzbrojonym okiem.
Rys. 16. Pełna treść oraz forma odpowiedzi przeora klasztoru jasnogórskiego na prośbę o pozwolenie przeprowadzenia obserwacji i pokazu publicznego tranzytu Wenus z wałów jasnogórskich.
Bogatym uzupełnieniem opisanych obserwacji były, mniej lub bardziej zainspirowane przez autora, obserwacje indywidualne prowadzone przez miłośników astronomii w samej Częstochowie i daleko poza nią. Na szczególną uwagę zasługują udane obserwacje i pokaz publiczny tranzytu przeprowadzone przez Koło Astronomii
Novej w Wieruszowie (tam prowadzono obserwacje od samego wschodu Słońca).
Przynajmniej dwóch Częstochowian podjęło nawet trud wyjazdu na Syberię w nadziei udokumentowania całego zjawiska. Wobec zmiennego zachmurzenia odnieśli
jednak sukces tylko połowiczny. Na przygotowanych starannie, w kręgach Stowarzyszenia Astronomia Nova, stanowiskach obserwacyjnych w Małopolsce, wobec panującego tam ciągłego zachmurzenia podczas tranzytu, nie zdołano niczego zaobserwować.
Uwagi końcowe
Współcześnie, głównych korzyści płynących z obserwacji tranzytów Wenus, jak
wcześniej zauważono, należy upatrywać w zakresie edukacji i budowania społecznej
przychylności dla spraw dotyczących astronomii i astronautyki. Trzeba ludzkości
powrócić do korzeni sprzed tysięcy lat i obudzić na nowo miłość do świata przyrody,
tak wspaniale wyrażającego się w rozgwieżdżonym niebie. Rzetelną wiedzę
o Wszechświecie, jego Stwórcy i o samym człowieku, możemy posiąść tylko poprzez
228
W przyjaźni z Wenus ku lepszej przyszłości
zdrową pracę ludzkiego umysłu, wolnego od przesądów i obciążeń ideologicznych.
Zdewaluowane systemy, prowadzące do sytuacji krytycznych, często znajdujących
tragiczny upust w wojnach i dyskryminacji całych narodów, dawno by już musiały
ustąpić przed pożądaną harmonijną organizacją społeczeństw, gdyby ludzie w większym stopniu pojmowali kosmiczny kontekst swojej egzystencji. Świetlana przyszłość ludzkości jest poza Ziemią, o czym mocno przekonują racje rozumowe oraz
prawdy objawiane na przestrzeni tysiącleci. Należy dołożyć wszelkich starań, by
w krainy niebieskie wybiegać nie tylko marzeniami, ale też w sposób rzeczywisty.
Cały Wszechświat stoi przed człowiekiem otworem i należy się z nim oswajać i mierzyć ku najdalszym jego zakątkom. Potencjał gospodarczy i intelektualny ludzkości
od dawna pozwala realnie myśleć o podboju kosmosu, jako priorytetowym zadaniu
mieszkańców Ziemi. Zadanie to jest na tyle wymagające, że pod jego ciężarem ustałyby wszelkie konflikty, a potencjał ludzki przestałby być marnotrawiony. Każda
głowa i każde ręce byłyby na wagę złota.
Tymczasem jednak, pozostaje ciężka praca u podstaw. W Polsce tym cięższa, że
przestało się nauczać w szkołach astronomii, za to Kopernika pochowano po raz
wtóry. Wiedzę astronomiczną zdobywają przeważnie różni samoucy. Pomagają im
w tym czasami, co chwalebne, nauczyciele, którzy z własnej woli tworzą kółka astronomiczne, przygotowują uczniów do konkursów astronomicznych, organizują wycieczki do planetarium itp. Szczęściem w nieszczęściu jest to, że przynajmniej obecne władze państwowe, choć z wielkim opóźnieniem w stosunku do innych krajów
europejskich, a nawet afrykańskich, zdają się sprzyjać rozwojowi polskiej astronomii
i astronautyki. Tu warto wspomnieć, że w 2012 roku Polska przystąpiła do Europejskiej Agencji Kosmicznej (ESA). Z nadzieją na sukces, po kilku latach zastoju, znowu rozpoczęto negocjacje w sprawie przystąpienia Polski do Południowego Obserwatorium Europejskiego (ESO).
Proste doświadczenia astronomiczne, zwłaszcza, jeśli są to obserwacje jakichś
wyjątkowych zjawisk, mogą wzbogacać wiedzę astronomiczną, zwłaszcza wśród
młodych Polaków. W takim kontekście należy postrzegać przede wszystkim opisane
wyżej obserwacje Wenus. Trzeba sobie jednak zdawać sprawę z tego, że środowisko
częstochowskie jest bardzo odporne na jakiekolwiek próby oddziaływania w zakresie
astronomii. Wyczuwa się również cichą wrogość ku astronomii w niektórych wpływowych kręgach. Wymownym tego wyrazem była wspomniana już odmowa wstępu
dla chcących obserwować Wenus ze wzgórza jasnogórskiego. Na obserwacje tranzytów Wenus w Częstochowie zapraszano wiele osób, reprezentujących różne środowiska. Reakcje na zaproszenie były w większości przypadków negatywne. Najbardziej
przykre doświadczenie tego rodzaju miało miejsce 8 czerwca 2004 roku, kiedy dyrektorzy większości częstochowskich szkół nie zezwolili uczniom i nauczycielom
uczestniczyć w pokazach tranzytu Wenus. Za to na tarasie obserwacyjnym pojawiały
się osoby, które z USA i innych odległych krajów przyjechały tu specjalnie po to, aby
obejrzeć tranzyt, który w ich ojczyznach nie był wtedy widoczny. Ci, którzy w duchu
Chrystusowym ciążą ku światłu, nie boją się oświaty w zakresie astronomii.
Podwójna udana obserwacja tranzytu Wenus w Częstochowie, choć dotyczy bezpośrednio zaledwie garstki osób, istotnie podnosi poziom zainteresowania astronomią
229
Bogdan Wszołek
wśród mieszkańców miasta i okolic. Godnym przywołania przykładem materializowania się takich zainteresowań jest budujący się w Częstochowie radioteleskop, który
otworzy tu nie tylko nowy rozdział rozwoju astronomii i astronautyki, ale posłuży
przede wszystkim pięknej promocji wiedzy astronomicznej. Instrument ten z jednej
strony ma służyć celom naukowym, z drugiej zaś ma, nawet samym swoim wyglądem, stymulować społeczne zainteresowanie astronomią i astronautyką. Cała dyskoteka „RAY‖, tworząca harmonijną całość z radioteleskopem, będzie służyć promocji
astronomii. Spełnia się, po latach, marzenie księdza Metlera o zbudowaniu w Częstochowie obserwatorium z dużym profesjonalnym teleskopem i o dużym oddziaływaniu na społeczeństwo, jeśli chodzi o właściwe kierowanie uwagi ludzi na sprawy dotyczące nieba. Na znanym zegarze słonecznym w parku jasnogórskim widnieje mało
znany, a tak ważny dla Częstochowy i świata, zapis księdza Bonawentury Metlera:
Quam Virgo Dilexit
Hic Urbem Ad Astra
Appellat Et Gentem
Buona Ventura
(Jakże bardzo Panna umiłowała to miasto, że aż ku gwiazdom je
przyzywa, ku lepszej chcąc przeznaczyć przyszłości – tłum. B.Wszołek).
Po podwójnym sukcesie obserwacji w Częstochowie tranzytu Wenus warto podjąć refleksję nad tą myślą Metlera i starać się ją godnie krzewić i urzeczywistniać.
Rys. 17. Zegar słoneczny Metlera zawierający cytowaną w tekście sentencję.
Został wykonany z podstawy pomnika cara Aleksandra II. (fot. B.Wszołek)
230
W przyjaźni z Wenus ku lepszej przyszłości
Rys. 18. Częstochowski radioteleskop o średnicy czaszy 13 metrów. Budowniczowie isnstrumentu,
Marek Pelian i Bogdan Wszołek, w otoczeniu „kapłanek Wenus‖. (fot. A.Leśniczek)
231
Bogdan Wszołek
Rys. 19. W dniu 11 maja 2013 roku odbyła się w dyskotece RAY specjalna sesja naukowa
w ramach międzynarodowej V Częstochowskiej Konferencji Naukowej Młodych
„Astrophisica Nova‖. Pan Marek Pelian, właściciel dyskoteki i radioteleskopu RT-13,
dał pokaz ogromnych możliwości dyskoteki dla propagowania treści astronomicznych
oraz ugościł uczestników konferencji prawdziwie po polsku. (fot. A.Leśniczek)
232

Podobne dokumenty