Ślady Ŝycia będą poszukiwane na Europie Przed lotem na

Transkrypt

Ślady Ŝycia będą poszukiwane na Europie Przed lotem na
10.02.2009
Ślady Ŝycia będą poszukiwane na Europie
W Rosji rozpoczyna się praca nad projektem przewidującym łagodne lądowanie aparatu kosmicznego na
Europie - satelicie olbrzymiej planety Jowisz.
Celem tego projektu jest poszukiwanie na Europie śladów Ŝycia, rozszyfrowanie tajemnicy jego pochodzenia i badanie
historii Systemu Słonecznego.
Dyrektor Instytutu Badań Kosmicznych Lew Zielienyj powiedział, Ŝe Europa jest najbardziej interesująca ze wszystkich
satelitów Jowisza poniewaŜ uwaŜa się, Ŝe na niej pod warstwą lodu grubości kilku kilometrów znajduje się ocean słonej
wody. Głębokość oceanu Europy wynosi dziesiątki kilometrów.
- Podgrzewanie tego oceanu - zdaniem naukowców - zapewniają przypływowe siły potęŜnego pola przyciągania Jowisza
i innych jego satelitów - poinformował Zielienyj. "Przy czym - dodał - jak juŜ wiemy na przykładzie połoŜonych na dnie
ziemskich oceanów tak zwanych czarnych palaczy, Ŝycie przystosowuje się do bardzo szerokiego zakresu warunków;
nie jest niezbędne dla niego światło słoneczne i całkowicie moŜe mu wystarczyć ciepło wulkaniczne".
Źródło: www.onet.pl
12.02.2009
Przed lotem na Marsa, eksperyment z małpami
W Instytucie Problemów MedycznoBiologicznych (IPMB) Rosyjskiej Akademii
Nauk (RAN) rozpoczął się eksperyment
dotyczący badania oddziaływania
promieniowania kosmicznego na organizm
człowieka podczas lotów
międzyplanetarnych.
- Oddziaływanie promieniowania to jedna z
kluczowych spraw podczas długiego lotu na Marsa
i ten problem zostanie rozwiązany - powiedział
wiceprezes RAN Anatolij Grigoriew, który przez
prawie 20 lat kierował IPMB.
Instytut ten poinformował, Ŝe badania
oddziaływania radiacji na organizm człowieka - to
jeden z elementów składowych przygotowań do
lotu na Marsa, które potrwają kilka dziesięcioleci. PoniewaŜ badań takich na ludziach nie naleŜy przeprowadzać, w
eksperymencie wykorzystuje się małpy.
Odtworzenie na Ziemi czynnika promieniowania kosmicznego jest bardzo powaŜnym zadaniem technicznym, dlatego
przeprowadzonych zostanie kilka faz eksperymentu - początkowo krótkotrwałych, a następnie długich - wyjaśnił
Grigoriew.
W trakcie krótkotrwałych faz - 14-30 dób - naukowcy w drodze eksperymentalnej dobierać będą odpowiednią dawkę
promieniowania, by następnie badać zmiany w organizmach zwierząt. - Zmiany te mogą pojawić się nie od razu,
moŜliwe nawet, Ŝe dopiero w następnym pokoleniu, dlatego eksperyment będzie trwał nie jedno dziesięciolecie wyjaśnił Grigoriew.
Źródło: www.onet.pl
24.02.2009
Zaginiony satelita NASA odnalazł się w oceanie
Satelita amerykańskiej agencji kosmicznej NASA, który
miał badać emisję dwutlenku węgla na Ziemi, nie trafił na
orbitę, gdyŜ jego osłona ochronna nie oddzieliła się
prawidłowo - podał portal SPACE.com.
Według źródeł w bazie Vandenberg w Kalifornii, skąd NASA
wystrzeliła rakietą Taurus XL swego satelitę, rakieta wylądowała w
oceanie w pobliŜu Antarktydy.
- Awaria polegała na tym, Ŝe osłona nie oddzieliła się od pojazdu
kosmicznego - powiedział sprawozdawca misji George Diller,
którego cytuje SPACE.com.
Misją satelity miało być stworzenie mapy geograficznego rozłoŜenia
źródeł emisji dwutlenku węgla, które uwaŜa się za główną
przyczynę ocieplenia klimatu na Ziemi, i analizowanie ich zmian na
przestrzeni czasu. Zgromadzone przez niego dane miały ułatwić
naukowcom opracowywanie prognoz dotyczących zmian
klimatycznych.
W styczniu Japonia wystrzeliła satelitę z podobną misją.
Źródło: www.onet.pl
Satelita NASA nie dotarł na orbitę
Satelita NASA, który miał badać emisje dwutlenku węgla, nie trafił na orbitę, gdyŜ jego osłona ochronna
nie oddzieliła się prawidłowo - podał portal SPACE.com.
Amerykańska agencja kosmiczna NASA wystrzeliła rakietą Taurus XL z bazy Vandenberg w Kalifornii swego pierwszego
satelitę do obserwacji emisji dwutlenku węgla, które uwaŜa się za główną przyczynę ocieplenia klimatu na Ziemi.
- Awaria polegała na tym, Ŝe osłona nie oddzieliła się od pojazdu kosmicznego - powiedział sprawozdawca misji George
Diller, którego cytuje SPACE.com.
Misją satelity miało być stworzenie mapy geograficznego rozłoŜenia źródeł emisji dwutlenku węgla i analizowanie ich
zmian na przestrzeni czasu. Zgromadzone przez niego dane miały ułatwić naukowcom opracowywanie prognoz
dotyczących zmian klimatycznych.
Źródło: www.onet.pl
Technologie kosmiczne to komputerowe starocie
Technologie kosmiczna - to brzmi dumnie. Wszak aby uciec z Ziemi trzeba osiągnąć prędkość 11,2 km/s! A jeśli do
tego się wliczy skomplikowane manewry, jakie rakieta musi wykonać, to zdawałoby się, Ŝe bez najnowocześniejszej
aparatury nic w kosmos polecieć nie moŜe. Nic bardziej mylnego - technologie kosmiczne to komputerowe starocie.
Pierwszym statkiem kosmicznym, który miał na pokładzie maszynę liczącą był bezzałogowy Gemini II, który w
przestrzeni znalazł się 19 stycznia 1965 roku. Było to prawie 4 lata po wystrzeleniu pierwszego człowieka w kosmos.
Tak, tak... Na pokładzie pierwszego Wostoka nie było komputerów (rozumianych jako maszyny liczące), bo nie były
potrzebne. Lot Gagarina był w pełni sterowany z Ziemi. Obawiano się reakcji ludzkiego organizmu na kosmiczne
warunki.
Pierwszy komputer w kosmosie - 26-kilogramowy Gemini Guidance Computer mógł wykonywać ok. 7000 operacji
na sekundę. Pamięć operacyjną stanowiły tu rdzenie ferrytowe, czyli ręcznie nawleczone koraliki zrobione z materiału
ferromagnetycznego. Przepływający prąd zmieniał w nich biegun namagnesowania, co odpowiadało bitom informacji.
Pamięć ROM wykorzystywała stare poczciwe taśmy magnetyczne. Cały ten sprzęt był dość drogi, ale w tamtych
czasach na loty kosmiczne nie skąpiono, bo miały one charakter propagandowy (w USA teŜ była propaganda). IBM
dostał na jego wybudowanie 26,6 miliona dolarów. Nic dziwnego, Ŝe gdy John Watts Young wniósł na pokład Gemini
III kanapkę z wołowiną dla swojego kolegi Virgila Ivana Grissoma centrum dowodzenia dało przemytnikowi ostrą
reprymendę. Jeden okruch dla aparatury mógł okazać się zabójczy. Zresztą, nie tylko dla niej.
W czasach misji Gemini, a później Apollo, budowano wydajniejsze komputery, ale były one zbyt duŜe i zbyt
energochłonne. Z biegiem czasu dystans między komputerami kosmicznymi, a ziemskimi pogłębiał się na korzyść
tych drugich. W 1973 na przykład na pokładzie stacji Skylab zainstalowano specjalnie przystosowany IBM 360.
Pierwsze komputery tego typu pojawiły się juŜ w 1964 roku (czyli w czasie trwania programu Gemini). Dystans między
technologią kosmiczną a ziemską wynosił tu 9 lat. Pierwszy wahadłowiec, który swój dziewiczy lot odbył w 1977 roku
miał na pokładzie komputer IBM AP - 101. Komputer ten nadal uŜywał pamięci rdzeniowej z lat 60. Wymieniono ją na
półprzewodnikową dopiero w 1991 roku. Wtedy teŜ wstawiono nowe procesory IBM 80386 (o ile nowym procesorem
moŜna nazwać urządzenie sprzed 5 lat). Są one stosowane do dziś.
Fot. - InŜynierowie IBM sprawdzają Gemini Computer Guidance. Źródło: IBM
Jak to moŜliwe, Ŝe tak stare urządzenia są uŜywane w dziedzinie, która, jak się wydaje, powinna wykorzystywać
najnowocześniejsze technologie? OtóŜ robi się to głównie ze względów bezpieczeństwa. Starsze procesory
przetestowano juŜ wiele razy, dlatego są pewne. Po drugie, najnowocześniejsze procesory zbudowane są z bardzo
małych tranzystorów, niewiele większych od kwantów promieniowania kosmicznego, które poza ziemską atmosferą
jest wszechobecne. Im procesor jest bardziej zminiaturyzowany i im więcej zawiera w sobie tranzystorów, tym większe
jest prawdopodobieństwo, Ŝe "cząstka" promieniowania wybije go z rytmu.
Po trzecie, nowsze procesory są niezwykle energochłonne, a w przestrzeni kosmicznej na nadmiar prądu nikt nie
narzeka. Z tym wiąŜe się teŜ problem wytwarzanego ciepła, które bardzo trudno odprowadzić. Cały statek zawieszony
jest bowiem w próŜni, która ciepła nie przewodzi.
Kolejnym problemem jest ciśnienie, które w kosmosie jest niŜsze niŜ na Ziemi. MoŜe to utrudniać prawidłową pracę
twardych dysków, gdyŜ działają one dzięki poduszce powietrznej, na której głowica unosi się nad dyskiem.
Zmniejszenie ciśnienia mogłoby rozrzedzić poduszkę, przez co głowica spadłaby na delikatną powierzchnię. Z tego
powodu wszystkie dane mają swoje kopie zapasowe na taśmach magnetycznych.
Mimo tych zabezpieczeń, komputery pokładowe i tak popełniają błędy, które mogą okazać się katastrofalne w
skutkach. Z tego powodu na promach kosmicznych jest aŜ 5 komputerów. Cztery wykonują te same obliczenia,
które są następnie porównywane przez piąty. Jeśli którykolwiek komputer popełni błąd, jest wyłączany. W sytuacji
krytycznej, w której wszystkie maszyny wykonały błędne obliczenia, decyzję podejmuje "większość", choć komputer
nadzorujący ma głos decydujący. Ten system zapobiegł katastrofie Columbii w 1981 roku (wyłączono komputer
generujący błędne wyniki).
Historia podboju wszechświata uczy, Ŝe kosmiczne technologie nie muszą być nowoczesne. WaŜne, Ŝeby były
sprawdzone i niezawodne.
Źródło: www.gazeta.pl