nowe wyzwania - DT Studio sc

Transkrypt

nowe wyzwania - DT Studio sc
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
NOWE WYZWANIA
P
rzedsięwzięcie Virgin
Galactic: kosmodrom Spaceport
America, zaprojektowany przez
Normana Fostera (pyt. s. 93)

Jak działa
Internet?
T
Jak to się dzieje, że po wpisaniu np. www.intel.com nasze
pakiety idą tam, gdzie powinny? Przecież nie wpisujemy adresu IP? Ponieważ adresy IP (czyli np. 192.198.164.158)
są raczej trudne w użyciu, aby łatwiej było korzystać z zasobów sieci, IETF w 1982 r. stworzył system nazw domenowych,
czyli odwzorowań nazwaÖadres IP. Ogólny nadzór nad całą
strukturą nazw sprawuje IANA na mocy nadanej przed Departament Handlu USA. Pierwszy, najwyższy poziom to domeny krajowe, takie jak .pl, oraz funkcyjne typu: .com, .org
itp. Przydzielanie tych pierwszych pozostawiono poszczególnym krajom (w Polsce robi to NASK na mocy umowy z polskim rządem), natomiast resztą zajmują się wyznaczone firmy
czy organizacje. Ciekawostką może być fakt, że domeny .fm czy
.tv, wykorzystywane często przez stacje radiowe i telewizyjne
należą odpowiednio do Tuvalu i Mikronezji. Przykładowymi
domenami drugiego rzędu są com.pl czy nasa.gov.
W momencie wpisywania do przeglądarki www.intel.com
kompu­ter wysyła do serwera DNS (Domain Name Server),
skonfigurowanego w ustawieniach sieciowych, zapytanie,
jaki jest adres IP przypisany do tego adresu. On z kolei prze-
81
Wizualizacja sieci połączeń
internetowych, z rozbłyskami węzłów
n i e zb ę d n i k i n t e li g e n ta
o pytanie z gatunku oczywistych, na które nie każdy
potrafi odpowiedzieć. Idźmy po kolei.
Skąd się wziął Internet? Internet, jaki znamy dziś,
ukształtował się w latach 90. XX w., jednak jego początki sięgają końca lat 60. Wtedy to DARPA (Agencja Zaawansowanych Obronnych Projektów Badawczych Departamentu Obrony USA) sfinansowała budowę pierwszych węzłów eksperymentalnej, zdecentralizowanej sieci rozległej ARPANET, które
znajdowały się na wybranych uniwersytetach w USA. Nietrudno domyślić się, jaki był cel tego eksperymentu. W środku zimnej wojny posiadanie takiej rozproszonej sieci telekomunikacyjnej stanowiło niebagatelny argument militarny. Na szczęście
wojna ta pozostała zimna, a wraz z kolejnymi uniwersytetami
dołączającymi się do sieci, ARPANET zaczęto wykorzystywać
do celów naukowych. Do połowy lat 80. wprowadzono standard komunikacji wewnątrz sieci tak, aby poprawnie wysyłać
i odbierać informacje. Dziś procedury te, zwane protokołami
komunikacyjnymi, nadal są wykorzystywane w Internecie prawie w niezmienionej formie. Z czasem sieć ARPANET została
otwarta dla wszystkich i stała się Internetem.
Kto jest właścicielem Internetu, kto nim zarządza? Wbrew
pozorom – to jest dość skomplikowane pytanie. W ramach wprowadzania ładu w sposobach komunikacji w ARPANET, DARPA
powołała grupę naukowo-badawczą IETF (ang. Internet Engi­
neering Task Force), która do dziś definiuje standardy i zalecenia
w dokumentach RFC (Request for Comments). Forum to ustaliło
w 1981 r. Internet Protocol ver. 4, na którym opiera się komunikacja w dzisiejszym Internecie. Jednym z wymagań tego standardu jest to, aby każdy komputer w Internecie posiadał unikatowy
adres IP. Przydziałem tych adresów do poszczególnych podmiotów zajmuje się kilka organizacji. Nadrzędną jest IANA (Internet
Assigned Numbers Authority) wyłoniona z IETF, która w 1998 r.
przejęła od rządu USA nadzór nad adresacją w Internecie. Organizacja ta oddelegowała część swoich obowiązków związanych z przydzielaniem numerów IP do pięciu regionalnych organizacji (Regional Internet Registries). W Europie jest nią RIPE
(fr. Réseaux IP Européens) z siedzibą w Amsterdamie.
Jak komputery fizycznie się komunikują ze sobą? Każdy
komputer jest podpięty do dostawcy usługi dostępu do Internetu. On z kolei jest połączony w innymi dostawcami i operatorami w punktach styku IXP (Internet Exchange Point). Jest
ich bardzo wiele w każdym kraju, z czego te o największym
obciążeniu są zwykle w stolicach. To w tych właśnie punktach
ruch przechodzi z sieci jednego dostawcy do drugiego. Trasę,
jaką dany pakiet musi pokonać, aby dojść do celu, ustala protokół trasowania (routing). W Internecie jest nim BGP (Bor­
der Gateway Protocol). Przy jego użyciu operatorzy i dostawcy
wymieniają się informacjami, jakie pule adresów IP posiadają.
Dzięki temu oraz dzięki adresowi IP przeznaczenia w pakiecie
wysłanym przez komputer-nadawcę routery, czyli urządzeniami fizycznie przesyłające dane, wiedzą, gdzie przesłać dany pakiet, aby dotarł do adresata. Specyficznymi aspektami dotyczącymi parametrów wysyłania pakietu, takimi jak typ, rozmiar
i prędkość, zajmuje się inny protokół – TCP (Transport Control
Protocol). To dzięki niemu wysyłający wie np., jak szybko może
przysłać dane, a komputer odbierający jest w stanie rozróżnić
prośbę o stronę WWW od wiadomości e-mail.
kazuje je dalej do światowej infrastruktury DNS opartej
na 13 głównych serwerach (tzw. Root Servers) umieszczonych
w różnych miejscach na świecie odpowiedzialnych za wszystkie 248 domen najwyższego poziomu. Te z kolei przesyłają je do kilku z tysięcy innych serwerów odpowiadających
za domeny niższego rzędu (w tym przypadku za domenę intel.com). Serwer odpowiedzialny za tę nazwę odpowiada serwerowi DNS, od którego na początku wyszło zapytanie, a ten
przekazuje odpowiedź do komputera. Jak widać, proces ten
jest dość złożony, dlatego komputery jak również serwery
DNS przechowują w pamięci podręcznej ostatnio używane odwzorowania adresÖIP, żeby przyspieszyć odpowiedź
na najbardziej popularne zapytania.
Wizualizacja sieci połączeń
z zaznaczeniem krajów o największej
liczbie użytkowników Internetu
Tomasz Sikorski
Inżynier ds. sieci w Intel Technology Poland
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
Pliki cookies są bezpieczne, nie stanowią zagrożenia dla komputera
– nie są to żadne programy komputerowe charakteryzujące się
własną aktywnością, tak jak różnego typu wirusy, których zadaniem jest przeszukiwanie zawartości pamięci twardych dysków. Służą, jak wspomniano, identyfikacji użytkownika – dalej
cała aktywność polegająca na zbieraniu informacji o zachowaniach internauty należy do serwisu tworzącego cookie i to on
zbiera wszystkie dane na swoich serwerach budując zasób najcenniejszy – profil użytkownika.
Profil, czyli cyfrowa tożsamość internauty, służy nie tylko automatyzacji obsługi, lecz także personalizacji oferty. Sklep
Amazon.com jest doskonałym tego przykładem – z każdą kolejną wizytą ilość informacji o zainteresowaniach klienta rośnie,
co pozwala na podpowiadanie, jakie towary pasowałyby do jego
gustu. Z cookies korzystają jednak nie tylko sklepy, lecz również
takie serwisy, jak wyszukiwarka Google. Ona także, dzięki temu,
że rozpozna „starego klienta”, lepiej może dostosować wyniki wyszukiwania do konkretnych, ujawnionych podczas wcześniejszych wizyt zainteresowań. Ponadto – co najcenniejsze
– budowany mozolnie profil pozwala na dopasowanie reklam,
które wyświetlają się w sąsiedztwie wyników wyszukiwania.
Z kolei serwisy informacyjne dzięki cookies rozpoznają swoich
użytkowników i mogą dzięki temu od razu wyświetlić zestaw
spersonalizowanych informacji, np. wiadomości o pogodzie
z najbardziej prawdopodobnego miejsca pobytu lub odpowiednio wyselekcjonowanych informacji sportowych.

82
Ciasteczka, czyli
jak Internet
śledzi swoich
użytkowników?
C
iasteczka, czyli cookies – mają z nimi do czynienia wszyscy internauci, choć większość nie ma pojęcia o ich istnieniu. Bez ciasteczek korzystanie z serwisów byłoby niezwykle utrudnione, w istocie jednak cookies umożliwiają podglądanie zachowań użytkowników sieci i dlatego wywołują zaniepokojenie wszystkich zainteresowanych ochroną prywatności.
Internetowe ciasteczko to po prostu niewielki plik tekstowy przechowywany w komputerze użytkownika. Powstaje, gdy włączy on
przeglądarkę, jeden z popularnych programów służących do buszowania po WWW – może to być Internet Explorer, Netscape,
Chrome czy Safari – i połączy się za jej pomocą z jakąś witryną,
np. sklepem internetowym Amazon.com. Jeśli jest to pierwsze
w ogóle połączenie z tym serwisem, tworzy on niewielką informację tekstową i umieszcza w komputerze klienta – przy ponownych odwiedzinach posłuży ona do identyfikacji użytkownika.
Dzięki takiemu rozwiązaniu internauta nie musi za każdym razem
identyfikować się, jego komputer (de facto przeglądarka, z której korzystał) rozpoznawane są automatycznie – wspomnianemu Amazonowi umożliwia to natychmiastowe odtworzenie historii wcześniejszych wizyt konkretnego klienta. By lepiej zrozumieć ideę cookies, warto wyobrazić sobie codzienne
zakupy w osiedlowym sklepie – właściciel rozpoznaje swoich
stałych klientów, wie, co kupowali i co najbardziej lubią, może więc polecić nową ofertę, zaproponować rabat lub odłożyć
dla niego ulubioną gazetę. Internet bez cookies przypominałby supermarket, w którym klienci traktowani są bezosobowo i nie ma znaczenia, czy przyszli na zakupy po raz pierwszy
czy dwudziesty.
Cookies, niewielkie i niewinne pliki tekstowe, mają olbrzymie znaczenie dla praktycznego funkcjonowania Internetu. Ponieważ jednak służą w istocie inwigilacji internautów, od samego początku ich stosowania wywołują dyskusje i obawy. Szczególny powód do niepokoju dają
praktyki tzw. firm trzecich, różnego typu internetowych agencji
marketingowych, które starają się budować profile internautów
gromadzące informacje o ich zachowaniach na różnych serwisach. Wiadomo, że im więcej zbiorą danych – nie tylko o zakupach w Amazonie, lecz także na Allegro, w Empiku oraz o innych eskapadach w sieci – tym dokładniejszy powstanie portret
i tym lepiej będzie można dopasowywać ofertę marketingową.
Takie praktyki budzą oczywiste obawy i od lat trwa debata, jak
chronić prywatność internautów nie zabijając jednocześnie
funkcjonalności Internetu. Dotychczasowe regulacje polegały
N
o
w
e
w
na regule opt-out – użytkownik może sam ustawić swoją przeglądarkę w odpowiedni dla jego poczucia prywatności sposób.
Wybór najbardziej radykalny polega na zastosowaniu opcji
„przeglądanie prywatne”, uniemożliwiające identyfikację.
Można jednak ochronę prywatności złagodzić, wybierając opcję chroniącą przed instalowaniem ciasteczek od operatorów firm trzecich. Można także zlecić, by każda próba utworzenia ciasteczka
poprzedzona była wyświetleniem informacji na monitorze. Nowe regulacje, w tym także projekt nowelizacji polskiego prawa
telekomunikacyjnego, zmierzają w kierunku reguły opt-in – to
internauta ma świadomie zdecydować, czy chce cookies, czy nie.
Reguła ta daje rzeczywiste prawo skorzystania z możliwości wyboru – w sytuacji, gdy przeglądarki standardowo ustawione są na
obsługę cookies (jak jest obecnie), większość użytkowników nie
zdaje sobie nawet sprawy, że jest automatycznie identyfikowana.
Edwin Bendyk (EB)
Publicysta naukowy POLITYKI
z
a
n
i
a
Problem w tym, że łatwość dotarcia do potrzebnych informacji staje się pozorem rzeczywistości. Co nie istnieje w Google – nie istnieje w ogóle, bo coraz większa
liczba mieszkańców współczesności zapomniała już,
jak dotrzeć do najbliższej biblioteki. Za tym idzie utrata
zdolności lektury, jaką wykształciła kultura humanistyczna.
Niemiecki filozof Peter Sloterdijk stwierdził w wykładzie o plagiacie, wygłoszonym pod koniec 2011 r., że rosnąca popularność
plagiatu w środowiskach akademickich jest skutkiem swoistego
paktu na rzecz nieczytania – zdecydowana większość tekstów
pisanych przez humanistów powstaje ze świadomością, że nikt
ich nigdy nie przeczyta.
Nicholas Carr idzie jednak jeszcze dalej w swej analizie – esej
z „The Atlantic” rozwinął do rozmiarów książki „Shallows”
(Płycizny), bestselera z 2010 r. Przytacza w niej liczne wyniki
badań neurofizjologów pokazujących, że pod wpływem kontaktu z protezą umysłu, jaką jest Internet, zmieniły się także
same umysły – nowe bodźce i sposoby docierania do informacji spowodowały, że internauci mają inne struktury mózgu
pod względem połączeń międzyneuronalnych niż ludzie epoki
przedinternetowej.
Lepiej radzą sobie z koordynacją przestrzenno-ruchową, lecz trudniej skupić im się na dłuższych formach tekstowych. Mimo
zdolności do wielozadaniowości – wykonywania wielu czynności jednocześnie – wcale nie są wydajniejsi, bo tracą czas nieustannie rozpraszając się i nie mogąc skupić dłużej na jednym
zadaniu. Wybitna badaczka Internetu Sherry Turkle stwierdza, obserwując swoich studentów, że potrafią doskonale pisać,
ale tylko pojedyncze akapity.
A Carr dorzuca, że wiara w łatwą dostępność informacji za pomocą wyszukiwarek powoduje, iż niknie kultura erudycji, bez
której trudno wyobrazić sobie prawdziwą mądrość: co z tego,
że w sieci można znaleźć teoretycznie wszystko, skoro coraz
mniej ludzi wie, o co pytać. Bo prawdziwa wiedza polega przecież na zdolności zadawania właściwych pytań, a nie na przekonaniu, że Google zna wszystkie odpowiedzi.
W zasadzie wszystkim tym argumentom nie sposób odmówić racji
– pod względem statystycznym zgadzają się. Tyle tylko, że świata wiedzy i kultury nie napędza statystyczna masa, lecz kreatywna mniejszość. Na razie nic nie wskazuje na to, by kondycja kulturotwórczych elit była zagrożona. Tym samym istnieje szansa
na przetrwanie rozumu, choćby nawet spora część społeczeństwa z niego zrezygnowała. Nigdy nie było inaczej. (EB)
83
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
R
ównie dobrze można by zapytać, czy ogłupia Facebook lub
Twitter. Rzecz nie w konkretnej marce i firmie – sednem
pytania jest: Co z umysłami współczesnych ludzi robi Internet? Pytanie zasadne, bo nie istnieją technologie neutralne
społecznie i psychologicznie. Gdy w drugiej połowie XIX w.
upowszechnił się telegraf, świat zmienił się nie do poznania
– nowa technologia zabiła odległość, informacje o najbardziej
odległych zakątkach ówczesnych imperiów zaczęły docierać
do mediów, polityków i przedsiębiorców w ciągu minut. Życie
uległo przyspieszeniu, a zaniepokojeni lekarze przekonywali, że wzrostowi tempa należy przypisać odpowiedzialność za
próchnicę zębów, łysienie, falę nowotworów i chorób serca, nie
wspominając o chorobach psychicznych.
A przecież telegraf to niewinna zabawka w porównaniu z technologiami informatycznymi, którym już od początku towarzyszyły wielkie ambicje i świadomość, że zmienią świat w sposób niewyobrażalny. Vannevar Bush, doradca naukowy prezydenta Roosevelta, opublikował w 1945 r. głośny esej „As We
May Think” (Jak możemy myśleć). Przedstawił w nim memex
– urządzenie będące ideowym szkicem przyszłego Internetu,
czyli systemu łączącego w jeden obieg rozproszone zasoby wiedzy i dokumentów. Dwadzieścia lat później, gdy komputery już
faktycznie zmieniały rzeczywistość, Douglas Engelbart, wynalazca m.in. myszki komputerowej, opublikował kolejny ważny
tekst – „Augmenting Human Intellect” (Wzmacniając ludzki
intelekt). Przedstawił w nim komputer w innej niż obowiązującej w tamtym czasie roli – to nie szybka maszyna do liczenia,
to urządzenie będące pośrednikiem między ludzkim umysłem
a światem postrzeganym za pomocą zmysłów. Przez swą zdolność przetwarzania symboli komputer stać się musi swoistą
protezą ludzkiego umysłu, wzmacniając jego potencjał.
w
Minęło kolejnych 40 lat, komputery i Internet stały się ważną,
powszechną częścią infrastruktury, a na łamach magazynu „The Atlantic”, tego samego, w którym publikował Bush,
współczesny analityk społeczeństwa informacyjnego Nicholas Carr zadał pytanie: Czy Google nas ogłupia? Carr nie ma
wątpliwości, że technologie informatyczne stały się protezami umysłu, tak jak przewidywał Engelbart. Czy jednak wyszło
to człowiekowi na dobre?
Niewątpliwie zwiększyła się efektywność docierania do potrzebnych informacji: to, co kiedyś wymagało wielogodzinnego
ślęczenia w bibliotece, jest dziś na kliknięcie myszki. Zamiast
wertować grube tomy w poszukiwaniu źródeł cytatu, wystarczy przeszukać zasoby zdigitalizowanych przez Google księgozbiorów – wśród milionów dostępnych w ten sposób tomów
(prawie) na pewno znajdzie się odpowiedź.

Czy Google
ogłupia?
y

Skąd się wziął
układ QWERTY
na klawiaturze
komputerowej?
U
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
84
Córka twórcy klawiatury, Christophera
Lathama Sholesa, przy wynalazku ojca
sób naturalny odziedziczyła układ klawiszy po swoich poprzednikach. Przyszłość tego wynalazku nie rysuje się jednak
różowo. Pełnowymiarowa klawiatura jest relatyw-
nie dużym urządzeniem, co w czasach postępującej
miniaturyzacji stanowi pewien problem. Ponadto
sprawne posługiwanie się klawiaturą wymaga nauki i wielu godzin praktyki. Oczywiście osoby, które posiadły tę umiejętność,
np. programiści czy dziennikarze, jeszcze przez wiele lat nie
rozstaną się z tym wynalazkiem. Jednak przeciętny użytkownik komputera chętnie zastąpi klawiaturę możliwością wydawania poleceń głosem lub gestem i zamiast żmudnie wpisywać
tekst, po prostu go podyktuje.
Marcin Kolasiński
Inżynier oprogramowania w Intel Technology Poland
Czy to prawda,
że procesory
powstają z piasku?

kład klawiszy, którego nazwa bierze się od pierwszych sześciu liter w lewym górnym rogu klawiatury
– QWERTY – powstał już w XIX w. Jego twórcą był
Amerykanin Christopher Latham Sholes. Ten dziennikarz
i wynalazca w 1872 r. otrzymał patent na pierwszą użytkową maszynę do pisania. Na pomysł skonstruowania takiego
urządzenia Sholes wpadł podczas prac nad automatem do
numerowania stron książek.
Układ klawiszy zastosowany w pierwszej maszynie był alfabetyczny.
Maszyna ta jednak miała pewien defekt. Otóż podczas szybkiego pisania czcionki osadzone na osobnych dźwigniach często się zacinały. Po uderzeniu czcionki w papier dźwignia cofając się do pozycji spoczynkowej zakleszczała się o dźwignię
czcionki poruszającej się w przeciwną stronę. Było to spowodowane tym, że litery sąsiadujące ze sobą w alfabecie często stoją
obok siebie także w wyrazach różnych języków – np. ab, de, ef
itd. Sholes wpadł na genialny pomysł: aby rozwiązać powyższy
problem, wystarczy zmienić kolejność klawiszy tak, aby sąsiadowały ze sobą litery, które w języku naturalnym rzadko występują jedna po drugiej. W ten sposób powstał układ klawiatury
znany do dziś pod nazwą QWERTY.
Rozwiązał on problem zacinających się czcionek, ale również okazał
się o wiele efektywniejszy od alfabetycznego. Poprzez zmianę
kolejności klawiszy osiągnięto przyśpieszenie we wprowadzaniu znaków. Znacznie szybciej można bowiem pisać, gdy na
przemian wykorzystujemy prawą i lewą rękę. Nowy układ klawiszy statystycznie zwiększył prawdopodobieństwo zmiany ręki pomiędzy wprowadzanymi znakami.
Układ klawiszy QWERTY został opatentowany przez Sholesa
w 1878 r. Czyżby od tamtej pory nie wymyślono niczego lepszego? W 1936 r. August Dvorak – profesor Uniwersytetu Waszyngtońskiego w Seattle – opatentował nowy, ulepszony układ
klawiszy, zwany układem Dvoraka. Udoskonalił on wynalazek
Sholesa poprzez przesunięcie do środkowego rzędu i pod prawą rękę liter najczęściej używanych w języku angielskim. W ten
sposób udało mu się zwiększyć efektywność pisania w tym języku o kolejne 10 proc. Klawiatura Dvoraka nie zyskała jednak
takiej popularności jak QWERTY, bo osoby, które opanowały
już bezwzrokowe pisanie na starej klawiaturze, nie chciały ponownie uczyć się nowego układu klawiszy. Układ Sholesa zwyciężył batalię o prymat przede wszystkim dlatego, że pojawił się
pierwszy i zdobył rzesze użytkowników.
Wraz z powstaniem komputerów pojawiła się potrzeba wprowadzania do nich informacji. Klawiatura komputerowa w spo-
P
rocesor jest prawdopodobnie najbardziej skomplikowanym produktem wytwarzanym masowo przez człowieka. Zaskakujący może być fakt, że materiał potrzebny do jego produkcji jest na Ziemi bardzo rozpowszechniony.
Krzem, bo o nim mowa, stanowi ponad jedną czwartą masy
skorupy ziemskiej. Występuje głównie w postaci tlenku krzemu SiO2, który jest głównym składnikiem piasku. Żeby nie
było zbyt prosto, do produkcji procesora potrzebna jest bryła
czystego krzemu – czystego do tego stopnia, aby jeden atom
N
o
w
e
w
zanieczyszczeń przypadał na miliard atomów tego pierwiastka.
Taki materiał można uzyskać jedynie podczas długotrwałego,
wieloetapowego procesu. Ze stopionego krzemu powstaje ogromy monokryształ w kształcie walca o średnicy kilkudziesięciu
centymetrów i wadze ok. 100 kg. Walec ów cięty jest następnie
na cienkie plastry o grubości do 1 mm. Krzemowe plastry, zwane waflami, są następnie polerowane tak, aby po obu stronach
ich powierzchnia była idealnie płaska. Producenci procesorów
kupują gotowe wafle od firm specjalizujących się w ich produkcji. Z jednego można wyprodukować kilkaset procesorów.
Droga od krzemowego wafla do procesora jest bardzo długa. Produkcja trwa do 15 tygodni i wymaga nawet
500 przebiegów technologicznych. W tym czasie na po-
wierzchnie wafla nanosi się miliony tranzystorów. Po ich połączeniu za pomocą wielu warstw metalowych ścieżek wafel
można pociąć i umieścić w bezpiecznej obudowie.
W całym procesie bardzo ważne jest zachowanie możliwe największej czystości. Powietrze w pomieszczeniach, w których produkuje się procesory, poddawane jest ciągłej filtracji. Pracownicy
muszą mieć na sobie specjalne kombinezony ochronne, maski
na twarz, okulary i specjalne obuwie. Wchodząc do środka muszą przejść przez specjalne śluzy. Wewnątrz zawsze panuje nadciśnienie, aby w przypadku nieszczelności powietrze wydobywało się na zewnątrz, a nie odwrotnie. Powyższe procedury są
niezbędne. Najdrobniejszy pyłek na krzemowej strukturze procesora jest jednoznaczny z jego nieodwracalnym uszkodzeniem.
Marcin Kolasiński
Inżynier oprogramowania w Intel Technology Poland
z
a
n
i
a
ki ewoluuje moralnie, zastępując przemoc innymi,
łagodniejszymi formami relacji społecznych. Trudno
w to uwierzyć oglądając codziennie telewizyjne wiadomości,
statystyki są jednak bezwzględne. Człowiek traci apetyt na zabijanie.
Christopher J. Ferguson z Texas A&M International University,
autor przeglądu literatury naukowej poświęconej wpływowi
gier komputerowych na zachowanie, podejmuje trop wskazany przez Pinkera i stawia pytanie: może gry – również te nasycone przemocą, zamiast szkodzić, sprzyjają rozwojowi zachowań prospołecznych? Ferguson nie znajduje jednoznacznego naukowego potwierdzenia dla swej hipotezy. Analizując
jednak zgromadzone w ciągu kilkudziesięciu lat wyniki badań
nad mediami, kulturą popularną, grami i przemocą, dostrzega po prostu, że na podstawie tych danych nie sposób niczego
rozstrzygnąć.
Uczeni odwołują się do różnych koncepcji natury ludzkiej i w zależności od tych wstępnych założeń konstruują projekty badawcze, a potem interpretują wyniki. Kto przyjmuje, że człowiek
jest jak niezapisana kartka zapełniająca się pod wpływem kultury i uczenia społecznego, zazwyczaj dochodzi do wniosku,
że kontakt z obrazami przemocy, wzmaga agresję.
Zwolennicy teorii genetycznych zwracają uwagę, że predyspozycje
do agresji mają charakter dziedziczny, i dowodzą, iż ich naukowi oponenci mylą przyczynę ze skutkami. Po prostu osoby pre-
85
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
N
ie ma najmniejszej wątpliwości, że gry nasycone przemocą wychowują przyszłych zabójców” – przekonuje David Grossman, pułkownik amerykańskiej armii.
Choć sam własnoręcznie nie zabił nikogo, ma za sobą lata
żołnierskiej liniowej służby, a teraz uczy trudnej sztuki zabijania i bada psychologię tego ponurego rzemiosła. W traktacie „O zabijaniu”, podobno obowiązkowej lekturze wojskowych, policjantów i agentów służb specjalnych, zastanawia
się, dlaczego w sumie tak trudno strzelić do drugiego człowieka, a jeszcze trudniej zgładzić go z zimną krwią za pomocą noża lub gołymi rękami.
Historyczne statystyki pokazują, że nawet w najlepiej wyćwiczonej
pruskiej armii efektywność zabijania była stukrotnie mniej-
w
sza od teoretycznej, mierzonej liczbą wystrzelonych pocisków.
Po prostu większość żołnierzy strzelając, nie mierzyła we wroga. Zdaniem Grossmana, celuje w przeciwnika 15–25 proc.
strzelców, większość i tak chybia. Sytuacja zaczęła jednak
zmieniać się podczas wojny w Korei na początku lat 50. XX w.,
gdy śmiercionośna efektywność poprawiła się do 50 proc.,
a w trakcie wojny wietnamskiej wzrosła do 95 proc.
To z jednej strony efekt nowych programów szkolenia rekrutów, mających na celu zmniejszenie oporu przed zabijaniem. Programy
te jednak nie odniosłyby takiego skutku, zdaniem Gross­mana,
gdyby nie kultura popularna od dziecka otaczająca mieszkańców współczesnej cywilizacji – nasycona przemocą: „Nastolatki siedząc w kinach i oglądając w domu telewizję widzą
w szczegółach przerażające sceny cierpień i śmierci istot ludzkich, ucząc się łączyć to cierpienie i śmierć z rozrywką, przyjemnością, ulubionymi napojami, słodyczami, kontaktem z bliską osobą”.
Gry komputerowe tylko wzmagają ten proces znieczulania na cierpienie i skutki przemocy, stając się idealną szkołą przyszłych
legalnych (żołnierzy) i nielegalnych morderców. Argumenty Grossmana zdają się bardzo logiczne: kto w młodości spędzi setki godzin grając w krwawe strzelanki i wspomagając
wyniesione z gry doświadczenie tym, co zobaczy w mediach
i na ekranach kin, staje się gotowym materiałem na groźnego
przestępcę. Problem w tym, że tych oczywistości nie chcą potwierdzić statystyki – w Stanach Zjednoczonych od 1993 r. systematycznie maleje przemoc wśród młodych ludzi. A przecież
powinno być odwrotnie, wszak ostatnie dekady to czas eksplozji zainteresowania grami komputerowymi.
Ten młodzieżowy trend wpisuje się w szerszy proces zmniejszania udziału przemocy w relacjach społecznych – przekonuje
amerykański badacz Steven Pinker w głośnej książce „Better
Angels of Our Nature”. Dowodzi w niej, że gatunek ludz-

Czy gry
komputerowe
sprzyjają
zachowaniom
agresywnym?
y
dysponowane do agresji mają większą skłonność zarówno do
uczestnictwa w formach kultury nasyconych przemocą (stąd
ich zamiłowanie do krwawych strzelanek), jak i do realnych
zachowań agresywnych. Jeszcze inni badacze zwracają uwagę
na rolę czynników środowiskowych, kiedy fascynacja krwawymi grami może być symptomem patologii społecznej i formą kompensacji rzeczywistych relacji obciążonych przemocą
w rodzinie lub grupie rówieśniczej.
Ciągle więc wiemy stosunkowo niewiele, bo dyskusja o kulturze, grach komputerowych i przemocy nasycona jest ideologią i atmosferą moralnej paniki, którą wzmacniają powtarzające się co jakiś czas tragedie, gdy zdesperowany uczeń
lub student staje się autorem krwawej masakry. Christopher
J. Ferguson zauważa jednak, że pod tym względem człowiek się nie zmienia – już Platon biadał, że młodzież wystawiona na wpływ poezji straci zdolność rozróżniania faktów
od fikcji. (EB)
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
że komórka wypełniona ciekłym kryształem będzie przepuszczać światło albo stanie się nieprzeźroczysta. Jego źródłem w telewizorach LCD starszej generacji jest panel złożony
z cienkich świetlówek i folii rozpraszającej, by podświetlenie
samej matrycy LCD było jasne i równomierne.
W nowych telewizorach LCD świetlówki zastąpiono diodami LED
(Light-Emitting Diode) – półprzewodnikowymi przyrządami
optoelektronicznymi, które świecą na biało. Świecą intensywnie, a przy tym pobierają mało prądu. W telewizorach z etykietą Full LED panel podświetlający wypełniony jest takimi
diodami pod całym ekranem, zaś Edge LED oznacza, że diody
rozmieszczono tylko na krawędziach ekranu, a ich światło jest
rozpraszane po powierzchni za pomocą specjalnych dyfuzorów. Łatwo się domyślić, że pierwsze z tych podświetleń daje
lepszy obraz i taki telewizor więcej kosztuje.
Mamy więc źródło światła, mamy matrycę ciekłokrystaliczną
decydującą o tym, gdzie i ile tego światła przez nią przeniknie
– a jak powstaje kolorowy obraz? Otóż gdy przyjrzeć się przez
lupę obrazowi telewizyjnemu, to można dostrzec, że składa się
on z maleńkich kolorowych prostokącików. I występują one
w zestawach: czerwony, zielony i niebieski. Taki komplet to
piksel, który jest elementem obrazu. Gołym okiem nie widzimy na ekranie poszczególnych pikseli, ale dostrzegamy barwy,
które generują – są one wypadkową kolorów ich prostokątnych
płytek. Kolor biały to maksymalna intensywność czerwonego,
zielonego i niebieskiego, czarny – to wyłączony piksel. W telewizorach LCD poprzednich generacji był z tą czernią kłopot, ponieważ panel ciekłokrystaliczny zawsze przepuszcza
część światła i zamiast głębokiej nocy na ekranie była ciemna
szarość. W nowych odbiornikach Full LED poradzono sobie
z tym: gdy w obrazie pojawia się ciemny element lub scena
– przyciemnia się diody podświetlające matrycę i uzyskuje
w ten sposób dobry kontrast. Wszystkim tym steruje skomplikowana elektronika.

86
Czym się różnią
telewizory LCD,
plazmowe
i OLED?
obraz
w jakości HD
1080
T
radycyjne telewizory kineskopowe przechodzą bezpowrotnie do lamusa. Tu i ówdzie jeszcze dopalają się po domach, ale w sklepach już ich nie uświadczysz. Wyparły
je wszelkiej maści „płaszczaki” – a ich wybór może zwykłego oglądacza telewizji przyprawić o zawrót głowy. Wyglądają podobnie, na pierwszy rzut oka dają podobny obraz, różnią się natomiast wielkością, grubością i ceną, która w dużym stopniu zależy od mnogości oferowanych funkcji. Bo dzisiejszy telewizor nie jest już tylko urządzeniem do oglądania
programów telewizyjnych i filmów z odtwarzaczy DVD oraz
twardych dysków, lecz stanowi centrum domowej rozrywki,
do którego można podłączyć (coraz częściej bezprzewodowo) komputer, aparat fotograficzny, kamerę, konsolę do gier
i wszystkie inne urządzenia współpracujące ze sobą w domowej sieci. I Internet – ze Skype’em oraz różnymi usługami,
które są w nim dostępne. Współczesne telewizory róż-
nią się jedną zasadniczą cechą: sposobem generowania obrazu.
LCD.
Telewizor LCD (ang. Liquid Crystal Display) wykorzystuje w tym procesie ciekłe kryształy – substancje o właściwościach fizycznych zarówno ciała stałego, jak i płynu. Większość ciekłych kryształów stanowią związki organiczne złożone z molekuł, które w stanie naturalnym są chaotycznie rozmieszczone. Można jednak sterować ich ustawieniem, przykładając napięcie elektryczne. Mówiąc prościej: można sprawić,
Plazma. Na innej zasadzie pracuje telewizor plazmowy.
Nie ma w nim panelu podświetlającego ani matrycy ciekłokrystalicznej. Obraz powstaje bezpośrednio na ekranie złożonym z milionów komórek przypominających miniświetlówki. Każda taka mikrolampka wypełniona jest gazem
szlachetnym, a jej dno i ścianki boczne są wyłożone odpo-
N
obraz
standardowy
480
o
w
e
w
y
z
w
a
n
i
a
Nowe technologie przekładają się
na jakość obrazu.

Jak mierzy
się oglądalność
programów
telewizyjnych?
OLED. Telewizory LCD i plazmowe zdominowały rynek
i konkurują ze sobą. Ale już depcze im po piętach konkurent
– telewizory OLED (Organic Light Emitting Diodes). Wykorzystują one organiczne diody elektroluminescencyjne, które przetwarzają energię elektryczną bezpośrednio na światło. Mówiąc
najprościej – jasno świecą, a zrobione z nich ekrany są cienkie,
lekkie, dają barwy niezwykle żywe i nasycone. Pobierają przy
tym znikomą – w porównaniu z telewizorami plazmowymi
i LCD – ilość energii. Dlatego w pierwszym rzędzie znalazły
już one szerokie zastosowanie we wszelkiego rodzaju urządzeniach przenośnych, jako ekrany telefonów komórkowych, aparatów fotograficznych i kamer, odtwarzaczy muzycznych itp.
Kilka firm zainwestowało też w produkcję telewizorów OLED
– Samsung i LG pokazały na tegorocznych targach CES w Las
Vegas modele o przekątnej ekranu 55 cali i grubości zaledwie 3 mm. Wszyscy zgodnie twierdzą, że technologia OLED
daje obraz nieporównywalny z telewizorami już istniejącymi.
Jej upowszechnienie, podobnie jak to było z LCD i plazmowymi, jest kwestią kilku lat.
Andrzej Gorzym
Kierownik działu nauki POLITYKI
N
dzenia elektroniczne, telemetry, podłącza się do telewizora; zapamiętują one zarówno moment włączenia i wyłączenia telewizora, jak i nazwę odbieranej
stacji. Urządzenie to wygląda jak budzik elektroniczny. Ma
pilota, wyświetla godzinę i może być podłączone nie tylko
między anteną a telewizorem, ale także ze stacjonarnym telefonem.
Telewidz badany za pomocą specjalnego pilota rejestruje się, powiadamiając system, że właśnie włączył lub wyłączył telewizor. Zgromadzone w ten sposób informacje transmitowane są
do centrum obliczeniowego. Główny komputer łączy się automatycznie z miernikiem zainstalowanym w domu i pobiera
wszystkie dane zarejestrowane poprzedniego dnia. Następnie
informacje o oglądalności kompilowane są z danymi z monitoringu programowego i reklamowego, a potem przeliczane.
Dzięki temu serwis telemetryczny dostarcza dane o widowni
dowolnie definiowanych pasm dla ponad 200 stacji. Oddzielnej analizie podlegają bloki reklamowe, dzięki czemu sprawdzić można do kogo i w jakiej skali docierają zarówno pojedyncze reklamy, jak i szersze kampanie promujące dane produkty
w poszczególnych stacjach.
Dodatkową funkcją mogą być wyświetlające się napisy z zapytaniem, czy program się podoba. Jeśli jesteśmy zadowoleni z filmu, dokumentu czy koncertu, wciskamy guzik A. Jeśli ma-
87
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
wiednim luminoforem. Powstające w komórkach pod wpływem prądu elektrycznego wyładowania emitują promieniowanie ultrafioletowe, które pobudza luminofor do świecenia na czerwono, zielono lub niebiesko. Takie trzy komórki
tworzą piksel, jak wspomniane już kolorowe prostokąciki na
ekranie telewizora LCD. I każda taka komórka jest sterowana oddzielnie – zapalana i gaszona w odpowiednim momencie. Ekran telewizora Full HD (1920×1080 pikseli) ma ponad
6 mln 200 tys. takich komórek – to najlepiej obrazuje skalę
skomplikowania tego procesu.
Telewizor plazmowy zużywa więcej prądu niż LCD i bardziej się
grzeje. Oddaje natomiast wiernie barwy, zapewnia głęboki
kontrast i świetnie nadaje się do oglądania transmisji sportowych. Szybko lecący krążek hokejowy lub piłka tenisowa nie
ciągną w nim za sobą smugi jak ogon komety. W starszych telewizorach LCD działo się tak, ponieważ miały one zbyt długi
tzw. czas reakcji, czyli zbyt wolno generowały kolejne następujące po sobie obrazy. Te podświetlane diodami LED już tej
wady nie mają.
a polskim rynku telewizyjnym odbierać można przeciętnie ok. 200 kanałów. Od czasu do czasu stacje podają,
ile osób obejrzało jakiś program, i chętnie licytują się
tzw. oglądalnością. Jak zmierzyć oglądalność danego kanału,
sprawdzić, co kto lubi i na dodatek w jakim jest wieku? Odpowiedzi na te pytania udziela telemetria – stosunkowo młoda
dziedzina telekomunikacji. Zasada jej działania jest następująca: umieszcza się w losowo wybranych mieszkaniach odpowiednie urządzenie, które dokonuje pomiaru wybranej wielkości, a wynik przesyła poprzez Internet, drogą radiową lub
telefoniczną do centrali.
Takie elektroniczne badania zachowań widowni telewizyjnej prowadzi się dopiero od niedawna. Wcześniej selekcjonowano losowo grupy badawcze, np. 1000 osób, którym płacono za regularne wypełnianie ankiet. Z tych danych wyliczano szacunkowe procenty i przenoszono na całość społeczeństwa. Badanie
obarczone było jednak błędem – tym mniejszym, im większą
grupę poddawano badaniu. Przed kilku laty przestarzałą metodę zastąpiła właśnie telemetria, bazująca na ciągłym elektronicznym pomiarze widowni telewizyjnej. Niewielkie urzą-
my zamiar przełączyć kanał, wybieramy B. Jednak w dzisiejszych czasach oglądalność to nie tylko liczba widzów, którzy
śledzą programy na żywo. Spece od telemetrii twierdzą, że
o skali oglądalności świadczą także emisje w usługach VOD
oraz w nagrywaniu, a następnie odtwarzaniu danego programu. Dla uwiarygodnienia badań zaproponowano zatem widzom badanie oglądalności z tzw. przesunięciem czasowym.
Umożliwia to osobisty video recorder, czyli urządzenie do nagrywania, w które wyposażona jest dziś większość nowoczesnych telewizorów oraz dekodery sieci kablowych i platform
cyfrowych. Na tym jednak nie koniec. W tele­metrii uwzględnione mają być także dane dotyczące oglądalności treści na
komputerach w Internecie, w tym na popularnym serwisie
YouTube.
Piotr Ciepłota
Popularyzator nauki
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
88

Jakie są
granice
miniaturyzacji?
W
1965 r. Gordon Moore, jeden z założycieli firmy Intel,
zauważył trend, który znamy dziś jako prawo Moore’a.
W opublikowanym wówczas w „Electronics Magazine” artykule poczynił odważne przewidywania dotyczące
tempa miniaturyzacji elektronicznych obwodów zintegrowanych (tzw. chipów). Obserwując ówczesne postępy w gęstości
elementów upakowanych na tej samej powierzchni zauważył,
że ich liczba podwaja się z każdym rokiem. Niewiele osób
wtedy wierzyło, że wykazaną prawidłowość uda się utrzymać dłużej niż 10 lat. Dlaczego twierdzenie to wzbudziło tyle kontrowersji? Aby lepiej zrozumieć, co oznacza przewidywany poziom miniaturyzacji, wyobraźmy sobie hipotetyczny
układ elektroniczny, na którym w 1965 r. udałoby się umieścić 8 tranzystorów. Według przewidywań Moore’a, już po
5 latach ten sam układ pomieściłby aż 256 takich elementów,
natomiast po 10 latach na tej samej powierzchni zmieściłyby
się 8192 elementy!
Współcześni przypisywali ogromny postęp miniaturyzacji obserwowany do 1965 r. serii przełomowych odkryć charakterystycznych dla każdej raczkującej dziedziny wiedzy – zjawisko, które
byłoby niezwykle trudne lub wręcz niemożliwe do utrzymania
w przypadku dojrzałej technologii, która skonsumowała już
większość swych przełomowych osiągnięć.
Początkowo wydawało się, że sceptycy mieli rację. Moore już w latach 70. zrewidował swoje prawo, które od tego czasu głosiło,
iż gęstość upakowania elementów będzie się podwajała co dwa
lata, a nie co rok, jak wcześniej twierdził. Adwersarze ­Moore’a zacierali ręce i głosili jego rychłą kapitulację. Powód to piętrzące się problemy, m.in. w opanowaniu technologii przygotowywania materiałów o odpowiednio wysokiej tzw. stałej
dielektrycznej (niezwykle istotnej zważywszy na postępują-
Najbardziej zaawansowane mikroprocesory
wykonuje się w technologii 22 nanometrów
(nanometr to jedna miliardowa metra).
cą miniaturyzację tranzystorów) i zwiększenia szybkości propagacji sygnału w ścieżkach łączących poszczególne elementy
chipa. Problemy te, jako wynikające z fundamentalnych praw
fizyki, miały stanowić ostateczną i nieprzekraczalną barierę dla
prawa Moore’a. Obecnie, po blisko 50 latach od opublikowania
słynnego artykułu Gordona Moore’a, trend wciąż obowiązuje,
co daje nadzieję na uzyskanie wiarygodnej odpowiedzi na zadane w tytule pytanie.
Najbardziej zaawansowane mikroprocesory wykonuje się w technologii 22 nanometrów (nanometr to jedna miliardowa metra).
Pozwala ona umieścić miliony elementów na powierzchni odpowiadającej główce szpilki. Aby osiągnąć tak wysoki poziom
zaawansowania technologicznego, niezbędne było pokonanie
wielu barier, które początkowo wydawały się równie nieprzekraczalne. Fundamentalne ograniczenia litografii optycznej
(czyli procesu, za pomocą którego „rysuje” się na powierzchni
krzemu zarys przyszłych tranzystorów), gdzie rozmiar pojedynczego elementu limitowany jest przez długość fali zastosowanego światła, pokonano wprowadzając nowatorskie układy
soczewek i tzw. masek. Dzięki temu współczesna litogra-
fia ultra­fioletowa potrafi skutecznie odwzorowywać
szczegóły wielkości kilkunastu nanometrów za pomocą fal światła długości rzędu setek nanometrów.
Problemy z utrzymaniem odpowiednich parametrów elektrycznych
płaskich bramek (które są jednymi z kluczowych elementów
składowych tranzystora) w układach o szerokości zaledwie pojedynczych warstw atomowych rozwiązano dodając do nich
trzeci wymiar (wysokość), co pozwala zwiększać powierzchnię
bramek bez zmniejszania gęstości upakowania tranzystorów.
Czy zatem i kiedy będziemy mieli mikroprocesory wielkości kilku
nanometrów? Zgodnie z prawem ­Moore’a może się to wydarzyć za 20–30 lat. Jak to osiągniemy? Z pewnością inaczej niż
N
o
w
e
w
robiliśmy to dotychczas. Mówiąc o kilku nanometrach zbliżamy się do rzędu wielkości odpowiadającej pojedynczym atomom. O ile rozmiar pojedynczych tranzystorów już teraz zbliża
się do tej skali, to tworzenie kompletnych, funkcjonalnych mikroprocesorów (składających się z tysięcy tranzystorów) może
być problematyczne. W objętości kilku nanometrów zmieści
się po prostu zbyt mało atomów, aby móc zbudować klasyczny mikroprocesor.
Czyżby kolejne fundamentalne ograniczenie? Wygląda na to,
że tak, jednak dotychczasowe doświadczenia ze stosowania
prawa Moore’a pozwalają mieć nadzieję, iż bariera ta zostanie pokonana szybciej, niż oczekujemy. Być może rozwiązaniem będą komputery kwantowe, gdzie tranzystory zastąpimy układami fotonów komunikujących się dzięki stanowi tzw. splątania kwantowego. Być może drogę dalszego
rozwoju otworzą inne, nieodkryte jeszcze, cechy mechaniki
kwantowej.
Adam Marek
Architekt oprogramowania w Intel Technology Poland
z
w
a
n
i
a
D
iody, powszechnie stosowane w różnego typu ekranach
i monitorach, to jedno z wielu zastosowań związanych
z odkryciem polimerów przewodzących. Ale jak zwykły
kawałek plastiku może przewodzić prąd, podczas gdy inny materiał z tej samej grupy jest stosowany do izolacji metalowych
przewodów, którymi prąd płynie?
Plastik to potoczne określenie ogromnej grupy materiałów polimerowych – tworzyw sztucznych, które w ciągu minionych 60 lat
zrewolucjonizowały współczesny świat. Produkcja tych materiałów wzrosła z 1,5 do 280 mln ton. Blisko 130 różnego typu polimerów – odmiennych zarówno pod względem budowy chemicznej, jak i właściwości fizycznych – o najróżniejszych cechach użytkowych, wykorzystywanych jest obecnie praktycznie we wszystkich dziedzinach życia.
Większość polimerów nie przewodzi prądu elektrycznego w klasycznym rozumieniu tego pojęcia – są izolatorami, stąd typowymi zastosowaniami dla tworzyw sztucznych są osłony kabli
czy obudowy i inne części sprzętu elektrycznego i elektronicznego. Ale jest też duża grupa polimerów, które zachowywać się
mogą zupełnie przeciwnie. Z racji swojej budowy chemicznej
mogą być półprzewodnikami, a nawet przewodnikami, należy
je tylko do tego odpowiednio zmobilizować.
Do odkrycia polimerów przewodzących przyczyniła się klasyczna
studencka pomyłka, kiedy podczas reakcji syntezy poliace-
Przykładem najnowocześniejszych wyrobów, na potrzeby
których przemysł tworzyw sztucznych ciągle rozwija
swoje nanomateriały, są elektroniczne płytki drukowane. Nanoatrament na bazie nanorurek węglowych (Carbon
NanoTubes – CNT) oraz nanocząstek srebra jest przeznaczony na rynek elektronicznych obwodów drukowanych. Wyróżnia się dobrym przewodnictwem oraz przyczepnością do polimerowej folii, z której zbudowane są elastyczne elementy drukowane, w związku z czym urządzenia zawierające tego typu
układy mogą stać się coraz tańsze i łatwiejsze w montażu.
Przykładem zastosowania może być torba, w której ogniwo słoneczne nadrukowane na elastyczną folię z tworzywa sztucznego
89
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
tylenu ktoś zawyżył (o kilka rzędów wielkości) ilość jednego
z substratów. Spowodowało to, że zamiast czarnego proszku powstała srebrzysta folia. Na szczęście szef laboratorium
Hideki Shirakawa postanowił zająć się badaniami nad nowym materiałem. Wkrótce na swojej drodze zawodowej spotkał chemika Alana MacDiarmida i fizyka Alana Heegera,
którzy już od jakiegoś czasu zajmowali się poszukiwaniem
materiałów przewodzących prąd, innych niż metale. Ci dwaj
naukowcy z Filadelfii zaprosili Japończyka do współpracy.
Efekty wspólnych badań przyniosły całej trójce Nagrodę Nobla w 2000 r.
Żeby polimer mógł przewodzić prąd, musi zawierać układy tzw.
wiązań sprzężonych, tj. takich, w których atomy węgla połączone są na przemian wiązaniami pojedynczymi i wielokrotnymi.
Dzięki temu możliwa jest delokalizacja elektronów (pojedynczy elektron bierze wtedy udział w tworzeniu więcej niż jednego wiązania), co czyni polimer podobnym pod tym względem
do krzemu. Polimery takie są więc organicznymi półprzewodnikami, które w układach tranzystorowych mogą pełnić rolę
izolatora lub przewodnika, dokładnie tak samo jak dzieje się
w przypadku typowych półprzewodników krzemowych. Aby
osiągnąć efekt przewodzenia prądu, należy zastosować dodatkowo specjalne domieszki, które „zabierając” elektrony z niektórych miejsc w łańcuchu sprawiają, że pojawia się „dziura”
– ładunek dodatni, którego istnienie wymusza ruch elektronów
w łańcuchu i w efekcie przepływ prądu.
Możliwość przewodzenia prądu w połączeniu z typowymi cechami tworzyw, czyli elastycznością i wytrzymałością, spowodowała, że przewodzące materiały polimerowe znalazły liczne
zastosowania w nowych technologiach elektronicznych. Jednym z najbardziej spektakularnych okazało się wykorzystanie w optoelektronice, przede wszystkim przy produkcji diod
elektro­luminescencyjnych, które pod wpływem impulsu elektrycznego emitują światło.
Niektóre z wyrobów, w których wykorzystuje się polimery przewodzące prąd, są już w powszechnym użyciu. Należą do nich
choćby diody typu OLED (Organic Light-Emitting Diodes), baterie litowo-niklowe (lekkie i płaskie dzięki polimerowym elektrolitom) czy płaskie ekrany ciekłokrystaliczne LCD, wykonane z ciekłokrystalicznych tworzyw, które zużywają 65 proc.
mniej energii w porównaniu z typowymi ekranami wyposażonymi w katodowe lampy elektronowe. W najnowszych diodach typu OLED przewodzące przezroczyste polimery stanowią warstwy o grubości kilku nanometrów, dlatego supercienkie ekrany wykonane przy użyciu tej technologii są elastyczne
i można je zwijać.

Jak plastik
przewodzi prąd
i gdzie to
wykorzystujemy?
y
Czy można
przesyłać energię
elektryczną bez
używania kabli?

umożliwi wykorzystanie energii słonecznej także w pomieszczeniach i przy słabych warunkach oświetleniowych. Zgromadzona energia będzie następnie przesyłana do akumulatora,
z którego można ładować elektroniczne urządzenia, takie jak
aparaty fotograficzne, telefony komórkowe czy czytniki elektroniczne.
Podczas gdy niektóre zastosowania polimerów są dopiero w fazie
prób rynkowych, kolejne już depczą im po piętach. Przykładem mogą być fosforescencyjne pochodne diod OLED‑PHOLED (Phosphorescent Organic Light-Emitting Diodes), w których energia elektryczna niemal w 100 proc. jest przekształcana na światło, gdy w typowej technologii OLED tylko
w 25 proc. Nowe generacje smatrfonów, odtwarzaczy MP4 czy
przenośnych konsoli do gier będą wykorzystywać tę właśnie,
bardziej efektywną energetycznie, technologię.
Już wkrótce dzięki opakowaniom z nadrukowanymi czipami RFID
(system identyfikacji radiowej) z polimerów przewodzących
można będzie uzyskać informacje na temat jakości i stanu
zapakowanych produktów. Polimery można zaprojektować na
etapie ich syntezy, czyli produkcji, tak aby mogły magazynować ładunki elektryczne. Zwane są wówczas elektretami i mogą
np. stanowić odpowiednik magnesu stosowanego w mikrofonach. Idealnie nadają się do zastosowania w telefonach, ponieważ są odporne na wstrząsy mechaniczne i promieniowanie
elektromagnetyczne. To sprawi, że będą bardziej niezawodne
i tańsze od ich odpowiedników kondensatorowych.
Na koniec krótko o ogniwach paliwowych – przez niektórych nazywanych maszyną parową XXI w. W dalszym ciągu trwają liczne
prace rozwojowe nad tzw. polimerowym ogniwem paliwowym
na bazie elektrolitu, w którym wykorzystuje się reakcje elektrochemiczne pomiędzy wodorem i tlenem prowadzące do wytworzenia energii elektrycznej. W ogniwie tego typu elektrolit
polimerowy w formie elastycznej membrany oddziela elektrody ogniwa, pełniąc identyczną rolę jak stężony kwas siarkowy
w tradycyjnych akumulatorach.
Uzyskana w ten sposób energia może być wykorzystana w dowolny sposób: do wytwarzania prądu lub ciepła, ale również w silnikach samochodów osobowych i autobusów, co udało się
już w prototypach.
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
90
Anna Kozera-Szałkowska
PlasticsEurope Polska
Włókna polimerów przewodzących światło
R
ozwiązania umożliwiające bezprzewodowe zasilenie lub
ładowanie niektórych urządzeń w warunkach domowych
są już od kilkunastu lat dostępne na rynku. Opierają się
na zjawisku zwanym indukcją, gdzie pole magnetyczne wytwarzane przez prąd przepływający w jednym przewodniku indukuje (wzbudza) napięcie elektryczne w innym przewodniku,
znajdującym się w zasięgu oddziaływania tego pola.
Zjawisko to umożliwia przesyłanie energii elektrycznej na odległość
bez konieczności fizycznego kontaktu pomiędzy jej nadajnikiem i odbiornikiem. To samo zjawisko wykorzystywane jest
w coraz powszechniej występujących w naszych domach kuchenkach indukcyjnych (tam energia przesyłana z nadajnika
– płyty indukcyjnej, służy do rozgrzania odbiornika – dna
naczynia) oraz w transformatorach – elementach wykorzystywanych przez niemal każde domowe urządzenie elektryczne
do dopasowania napięcia elektrycznego do oczekiwanego poziomu (wspomniane wcześniej nadajnik i odbiornik można postrzegać jako dwie połowy jednego transformatora). W praktyce zarówno nadajnik, jak i odbiornik mają postać cewek (czyli
zwiniętych drutów), co umożliwia zwiększenie efektywności
przesyłu energii. Nadajnik podłączany jest do źródła zasilania, natomiast odbiornik do urządzenia, które ma być zasilane lub ładowane.
Wydawałoby się, że opisane zjawisko idealnie nadaje się do wykorzystania w bezprzewodowym zasilaniu urządzeń elektrycznych. Skąd więc niewielka popularność tego rodzaju rozwiązań
na rynku? Problemem jest efektywność – wciąż znaczą-
co mniejsza od tej osiąganej przy klasycznym, przewodowym podejściu do zasilania. Straty powstające podczas
przesyłu powodują, że energia elektryczna generowana w odbiorniku jest dużo mniejsza od tej, którą zużywa nadajnik. Powoduje to, że całe rozwiązanie staje się problematyczne z ekonomicznego punktu widzenia.
Inną komplikacją jest fakt, że ta już nie najlepsza efektywność maleje gwałtownie wraz ze wzrostem odległości pomiędzy cewkami nadajnika i odbiornika. Pomimo tego, że zasilane urządzenie nie musi pozostawać w fizycznym kontakcie z zasilaczem,
w praktyce odległość między nimi wciąż nie powinna przekraczać kilku centymetrów, co mocno ogranicza zyski płynące
z braku przewodów.
Gdzie zatem najwcześniej mamy szansę napotkać urządzenia zasilane bezprzewodowo? Tam gdzie zużycie energii jest na tyle
niewielkie, że wspomniane wcześniej straty stają się nieistotne.
Dobrym przykładem są ładowarki telefonów komórkowych.
N
o
w
e
w
y
z
w
a
n
i
a
Coraz więcej producentów wypuszcza na rynek zestawy do ładowania indukcyjnego jako opcję do swoich aparatów.
Na szczęście dla wszystkich mających dość kabli zasilających, dystans pomiędzy efektywnością zasilania przewodowego i indukcyjnego wciąż się skraca. Prowadzone prace nad zastosowaniem niezwykle cienkich cewek, wyższych częstotliwości
oraz bardziej inteligentnych urządzeń sterujących dają nadzieję na rychłą redukcję strat energii związanych z bezprzewodowym przesyłem energii. Pracuje się również nad urządzeniami działającymi na nieco innej zasadzie (gdzie obok
indukcji zaprzęga się również zjawisko rezonansu elektro­
magnetycznego), które w warunkach domowych powinny zapewniać przesyłanie energii na odległości rzędu kilku
metrów.
Adam Marek
Architekt oprogramowania w Intel Technology Poland
i kompetencje. Wyszło im, że niektórych umiejętności maszyna nigdy nie zastąpi, a zaliczyć do nich należy prowadzenie
pojazdu. Zadanie jest bowiem bardzo trudne, kierowca musi
analizować mnóstwo sygnałów i błyskawicznie reagować na
niestandardowe sytuacje, co wymaga cech, jakich pozbawiony
jest bezduszny i bezmyślny komputer.
Argumenty poważne, warto jednak przycisnąć przycisk szybkiego przewijania, by przenieść się do współczesności. Nie ba-
A
uta bez kierowców zobaczymy na drogach w 2018 r. – zapowiedział w styczniu 2008 r. Rick Wagoner, ówczesny
prezes General Motors. Ta ambitna wizja wywołała mieszane komentarze, analitycy potraktowali ją raczej jako próbę
ratowania wizerunku koncernu, który utracił globalne przywództwo w branży samochodowej na rzecz japońskiej Toyoty. Kolejne miesiące miały potwierdzić sceptycyzm – wybuchł
światowy kryzys finansowy, a GM uratowała przed bankructwem rządowa interwencja.
Koncepcja bezzałogowych samochodów traktowana była raczej jako domena akademickich zabaw finansowanych trochę przez
koncerny samochodowe, a trochę przez armię zainteresowaną
rozwojem nowych technologii logistycznych. DARPA, amerykańska wojskowa agencja zajmująca się rozwojem zaawansowanych projektów badawczych, zaczęła od 2004 r. organizować
konkursy Grand Challenge, w trakcie których zespoły badawcze wystawiały samochody bez szofera przystosowane do jazdy.
Pierwsza rywalizacja odbyła się na pustyni, w 2007 r. samochody walczyły w symulowanej przestrzeni miejskiej. Tylko sześć
spośród startujących 35 aut ukończyło zmagania.
Wszystko zdawało się potwierdzać wątpliwości autorów głośnej
książki „The New Division of Labour: How Computers Are
Creating the Next Job Market” (Nowy podział pracy: jak komputery tworzą nowy rynek pracy) autorstwa Franka Levy’ego
i Richarda J. Murnane’a. Amerykańscy ekonomiści w swym
dziele opublikowanym w 2004 r. analizowali, jak komputeryzacja i automatyzacja zmieniają zapotrzebowanie na zawody
cząc na wątpliwości sceptyków, w maju 2012 r. władze amerykańskiego stanu Nevada wydały pierwszą
tablicę rejestracyjną dla samobieżnego auta osobowego. Prawo korzystania z czerwonej blachy opatrzonej m.in.
znakiem nieskończoności zyskała Toyota Prius, zwykły samochód podrasowany nieco, bo zaopatrzony w różnego typu czujniki, w tym LIDAR – rodzaj radaru analizującego otoczenie
światłem laserowym. Na mocy prawa przyjętego w Nevadzie
latem 2011 r. (obowiązuje ono od marca br.) po drogach stanu
mogą poruszać się samochody bez kierowców, choć ciągle za
kierownicą oraz na miejscu pasażera muszą być żywi ludzie.
Na wszelki wypadek.
Najciekawsze, że za nowym prawem nie lobbował żaden koncern
samochodowy, lecz internetowy gigant – Google. To właśnie
ta firma zaangażowała Sebastiana Thruna, specjalistę w dziedzinie sztucznej inteligencji i robotyki ze Stanford University, który zasłynął wcześniej zwycięstwem w jednym z turniejów Grand Challenge. Teraz uczynił to, co jeszcze w 2004 r.
wydawało się niemożliwe, a w 2008 r. było wykpiwane. Toyoty
Google mają na koncie, zgodnie z firmową dokumentacją,
setki tysięcy przejechanych samodzielnie kilometrów we
wszystkich możliwych warunkach. Wiosną br. popularność
zyskał film przedstawiający niemal niewidomego Kalifornijczyka, który dzięki samobieżnemu pojazdowi może pojechać
po hamburgera czy do pralni.
Przełom stał się możliwy dzięki zmianie sposobu myślenia o samochodzie – inaczej niż w przypadku aut startujących w Grand
Challenge, Toyota Google nie jest superkomputerem na kółkach nafaszerowanym mocą obliczeniową i danymi potrzebnymi do kierowania. To raczej ruchomy węzeł w sieci – więk-
91
POLITYKA n i e z b ę d n i k i n t e l i g e n ta

Kiedy po ulicach
będą jeździć
samochody bez
kierowców?
Google do budowy auta zaangażował Sebastiana Thruna, specjalistę
w dziedzinie sztucznej inteligencji i robotyki ze Stanford University,
który zasłynął wcześniej zwycięstwem w jednym z turniejów Grand Challenge.
szość niezbędnych informacji znajduje się na serwerach komputerowych w Internecie, to one nieustannie zasilane są danymi o terenie umożliwiającymi tworzenie szczegółowych map
cyfrowych. Samochód za pomocą czujników musi jedynie odnaleźć się na takiej mapie oraz identyfikować aktualne warunki ruchu. To jednak nic nowego, nad takimi rozwiązaniami
liczące marki pracują od lat, oferując takie udogodnienia, jak
wspomaganie parkowania i zaawansowane systemy bezpieczeństwa umożliwiające automatyczne rozpoznanie zagrożeń
niewidocznych dla oka kierowcy.
Tak więc postęp w rozwoju systemów samochodów, z drugiej strony
niebywale szybki rozwój infrastruktury sieciowo-informacyjnej doprowadziły do niezwykle owocnego sprzężenia, a niemożliwe stało się rzeczywistością. Gdy dziś szefowie GM powtarzają swoje wizje sprzed czterech lat, a wtórują im przedstawiciele innych koncernów samochodowych – Forda, Volvo,
Mercedesa, Volkswagena, BMW – nikt już nie kpi. A do końca
dekady drogi zaczną wypełniać się autami podobnymi do Toyoty Prius z logo Google. Już prowadzone są badania marketingowe pod kątem przyszłego popytu na auta bez kierowców,
a wizjonerzy tworzą listy korzyści: mniej wypadków, większa
płynność ruchu oraz dodatkowy wolny czas dla kierowców,
którzy nie będą musieli siedzieć za kółkiem. (EB)
Jak uzyskać
idealny klej?

POLITYKA n i e z b ę d n i k i n t e l i g e n ta
92
W niektórych zastosowaniach, np. podczas klejenia ceramiki, wykorzystuje się żywice epoksydowe. Efekt kohezji powstaje na
skutek reakcji chemicznej – klej składa się z dwóch składników,
dopiero ich połączenie powoduje, że dochodzi do powstania
wiązań łączących cząsteczki substancji klejącej. Prowadzącą
do trwałego połączenia reakcję chemiczną może także wywołać znajdujący się w powietrzu tlen lub promieniowanie ultrafioletowe.
Sztuka klejenia polega na odpowiednim doborze kleju do łączonych
powierzchni, tak żeby uzyskać optimum między siłami adhezji i kohezji. Na nic klej, który trwale przylgnie do powierzchni, jednak ich nie połączy ze względu na zbyt słabą spójność.
Doskonałym przykładem niedostosowania substancji do zadania są kleje używane w etykietach z cenami. Etykieta powinna
przylegać na tyle mocno, by nie odpadła w trakcie sklepowych
operacji, nie na tyle jednak silnie, by nie można jej było usunąć
bez śladu. Niestety, często zdarza się, że po zdrapaniu karteczki z ceną na okładce książki pozostają smugi kleju, których nie
sposób usunąć bez uszkodzeń powierzchni.
Trudno wyobrazić sobie historię cywilizacji bez sztuki klejenia i poszukiwania coraz lepszych substancji klejących: smoła i różnego typu lepiki bitumiczne, wosk pszczeli, wywary ze ścięgien i chrząstek, klajster wykorzystujący mąkę pomagały jeszcze w czasach przedchemicznych korzystać majstrom wszelkiej
maści z dobrodziejstw adhezji i kohezji.
Wiek XX to jednak stulecie chemii, nowoczesna nauka wkroczyła
także w świat klejenia. Legendarny wręcz rozgłos zyskała
P
iórnik ucznia, warsztat majsterkowicza, przybornik rowerzysty – czym byłyby bez kleju, niezwykłej substancji pomagającej szybko łączyć różne obiekty. Eksperci potrafią
wymienić dziesiątki rodzajów klejów – innymi posługują się stolarze, inne służą łączeniu kartek, a jeszcze inne – potłuczonej
ceramiki. Są też kleje stosowane w chirurgii – zamiast szwów.
Niezależnie jednak od rodzaju i przeznaczenia, za własności kleju
odpowiedzialne są dwie kluczowe siły. Po pierwsze, substancja
klejąca musi przylgnąć do łączonej powierzchni – dzieje się tak
dzięki adhezji. Cząsteczki kleju wykorzystują dostępne mikropory i nierówności struktury, by wniknąć w głąb sklejanego
materiału i utrzymują się dzięki różnego typu oddziaływaniom
międzycząsteczkowym. Substancja, która dobrze przylega do
klejonej powierzchni, czyli charakteryzuje się silną adhezją, to
połowa sukcesu. Do pełni szczęścia potrzebna jest jeszcze kohezja, spójność – czyli siła łącząca z sobą cząsteczki substancji
klejącej – to dzięki niej dwie posmarowane klejem powierzchnie utworzą jedną całość.
Efekt kohezji uzyskuje się na wiele sposobów. Najprostszy polega
na rozpuszczeniu substancji klejącej w rozpuszczalniku – tak
przygotowany klej można przechowywać długo w zamkniętym
słoiku lub tubce bez obawy jego stwardnienia (to właśnie przejaw kohezji w działaniu). Po naniesieniu kleju na łączone powierzchnie rozpuszczalnik odparowuje, a cząsteczki substancji
klejącej łączą się tworząc mocną spoinę.
historia odkrycia substancji, która klei, lecz nie skleja trwale i stała się podstawą dla powszechnie dziś
używanych samoprzylepnych karteczek. Nieklejący klej
opracował Spencer F. Silver, chemik pracujący w laboratoriach
koncernu 3M. Gotową formułą dysponował już w 1968 r., nie
miał jednak dobrego pomysłu na jej wykorzystanie. Myślał np.,
by swoją substancję rozpylać na tablicach, do których można by
następnie przyczepiać notatki (i w razie czego usuwać).
Mimo licznych prezentacji w różnych gremiach pomysł Silvera nie
mógł zdobyć szerszego zainteresowania. Na jedno z seminariów trafił jednak Arthur L. Fry i w trakcie pokazu doznał
olśnienia. Fry w czasie wolnym uczestniczył w kościelnym
chórze i zawsze go irytowało, że podczas występów, gdy śpiewał na stojąco, ze śpiewnika wypadały zakładki zaznaczające
właściwe utwory. Gdyby można było te karteczki jakoś przyczepić, z możliwością wszakże usunięcia w razie potrzeby... Tak
w wielkim skrócie narodził się jeden z najważniejszych wynalazków techniki biurowej, samoprzylepne karteczki Post-it. Na
rynek trafiły w 1980 r., dziś są równie niezbędne jak inny wielki
wynalazek, spinacze do papieru.
Kolejnym ważnym udogodnieniem wykorzystującym szczególne właściwości kleju jest taśma samoprzylepna. Stosowana powszechnie znalazła również zastosowanie w jednym
z najważniejszych odkryć ostatnich lat. Dziś wielkie nadzieje inżynierii materiałowej i elektroniki budzi grafen – odmiana węgla, którą tworzą warstwy o grubości jednego atomu, charakteryzująca się bardzo ciekawymi właściwościami chemicznymi i fizycznymi. Jeden ze sposobów uzyskiwania grafenu polega na przyklejaniu do kawałka grafitu taśmy
samoprzylepnej – po oderwaniu na taśmie pozostaje grafenowa warstwa. (EB)
N
o
w
e
w
z
w
a
n
i
a
Microsoftu, projektuje statek kosmiczny, w kosmiczne podróże inwestuje też John Carmack, współtwórca id ­Software,
która wyprodukowała kultowe gry komputerowe „Doom”
i „Quake”.
Najbardziej zaawansowany w swoich inwestycjach jest jednak
Richard Branson, prezes firmy Virgin Galactic. Ten ekscentryczny brytyjski przedsiębiorca i założyciel imperium biznesowego Virgin chce zrewolucjonizować loty w przestrzeń poza­
ziemską, podobnie jak przekształcił koncepcje podróży kolejowych i lotniczych, otwierając własne linie. W październiku
2011 r. Branson zapowiedział, że uruchomi regularne komercyjne loty kosmiczne w ciągu najbliższych dwóch lat. Wtedy
też otworzył pierwszy na świecie port kosmiczny przeznaczony do lotów turystycznych. Kosmodrom Spaceport America
w Nowym Meksyku jest portem macierzystym dla floty jego
statków SpaceShipTwo.
Ich historia zaczęła się w 1996 r., gdy Burt Rutan, znany w USA
inżynier lotnictwa i konstruktor, założyciel firmy lotniczej
Scale Composites, postanowił zbudować pierwszy całkowicie prywatny załogowy pojazd kosmiczny. Po siedmiu
latach ­Scale Composites zaprezentowała dziennikarzom jego prototyp. Składał się on z dwóch części – pierwszą stanowił napędzany silnikami turboodrzutowymi samolot nazwany przez Rutana White Knight (Biały Rycerz). Jego zadaniem było przetransportowanie na wysokość 15 km drugiego pojazdu – trzyosobowego SpaceShipOne (SS1, czyli Statek Kosmiczny nr Jeden). Tam SS1 miał odłączyć się
od Białego Rycerza i odpalić na 80 s własne silniki rakietowe, które rozpędziłyby pojazd do trzykrotnej prędkości
dźwięku i wyniosły w przestrzeń kos­m iczną. Pojazd miał
powrócić na Ziemię tak jak promy kos­m iczne NASA – lotem
szybowca.
Po kilkunastu lotach próbnych SS1 nadszedł czas na najtrudniejsze zadanie – pierwszą misję kosmiczną. 21 czerwca 2004 r.
rano w kabinie SS1 zasiadł Mike Melvill, 63-letni doświadczony pilot oblatywacz. Lot przebiegł zgodnie z planem. Melvill
wzniósł się na wysokość ponad 100 km, uznawaną za granicę
kosmosu (w tym momencie stał się 433 kosmonautą w historii). Na tym bowiem pułapie można zobaczyć czerń Wszechświata ozdobioną gwiazdami, a w dole okrągłą błękitną Ziemię oraz doświadczyć stanu nieważkości. Cały lot trwał
ok. 87 min. i zakończył się szczęśliwym lądowaniem na lotnisku w Mojave, które obserwowało tysiące gapiów.
Wkrótce Scale Composites rozpoczęła prace nad następcą SS1
(pionierski statek znajduje się dziś w muzeum Smithsonian
Institution w Waszyngtonie). SpaceShipTwo podobnie jak
SpaceShipOne jest rakietoplanem – może zabrać na pokład
6 pasażerów. Samolot White Knight II ma wynieść go na wysokość
16 km, a następnie za pomocą silnika rakietowego z przyspieszaczem statek osiągnie wysokość 100 km. Cały lot będzie
trwać ok. 3 godz., w tym podczas kilku minut pełnej nieważkości pasażerowie będą mogli rozpiąć pasy i unosić się
swobodnie w kabinie.
Lot kosztuje 200 tys. dol., a bilety kupiło już ponad 500 osób.
Branson zapowiada, że w ciągu pierwszych 10 lat przewiezie poza Ziemię 50 tys. turystów, w tym całą swoją rodzinę.

Kiedy
ludzie będą
masowo
podróżować
w kosmos
jako turyści?
y
25
Najbardziej aktywną grupę inwestorów marzących
o kosmosie tworzą ludzie, którzy błyskawicznie dorobili się fortun na informatyce i internetowej gorączce złota. Jeff Bezos, twórca Amazon.com, największego skle-
pu w Internecie, utworzył w 2000 r. firmę kosmonautyczną
Blue Origin, która ukończyła już testy startującego pionowo
jak rakieta pojazdu New Shepard. Paul Allen, współzałożyciel
Marcin Rotkiewicz
Publicysta naukowy POLITYKI
93
POLITYKA n i e z b ę d n i k i n t e l i g e n ta
maja 2012 r. statek kosmiczny Dragon pomyślnie
zacumował na Międzynarodowej Stacji Kosmicznej
(ISS). Przywiózł pracującym tam kosmonautom pół
tony żywności, wodę, ubrania, sprzęt do badań. Niezwykłość
zdarzenia polega na tym, że po raz pierwszy za tego typu
kosmiczne przedsięwzięcie odpowiada nie rząd, ale prywatna firma SpaceX, która wygrała przetarg na usługi kurierskie dla NASA. To doniosły krok na drodze do komercjalizacji przestrzeni pozaziemskiej, której skutkiem powinno być
potanienie kosmicznych technologii, a więc i turystyki.
Siedem prywatnych osób odbyło już wojaże na Międzynarodową
Stację Kosmiczną na pokładzie rosyjskich rakiet Sojuz (pierwszy w historii kosmiczny turysta to amerykański milioner
Dennis Tito, który poleciał w 2001 r.). Za każdą eskapadę
trzeba było jednak zapłacić aż 20–25 mln dol., a wcześniej
odbyć specjalne treningi.
Szefem SpaceX, która wysłała na ISS Dragona, jest 41-letni miliarder Elon Musk, urodzony w RPA Kanadyjczyk, współzałożyciel PayPala, serwisu ułatwiającego płatności internetowe.
Musk, nazwany przez prestiżowy tygodnik „The Economist”
Rocket Manem (Człowiekiem rakietą), a przez innych kosmicznym wizjonerem, chce też wygrać przetarg na dowóz na stację
astronautów. Wszystko dzięki obniżeniu kosztów pozaziemskiego transportu i potanieniu produkcji rakiet dla pojazdów
kosmicznych. Zapowiada, że te, które zamierza wytwarzać
SpaceX będą kilkadziesiąt razy tańsze od dotychczas używanych. W perspektywie 15–20 lat Musk myśli o kosmicznej
turystyce i kolonizacji Marsa. Twierdzi, że po upływie 10 lat od
pierwszej podróży na Czerwoną Planetę, taki lot (tam i z powrotem) kosztowałby ok. 0,5 mln dol. Więcej planów ma ujawnić w 2013 r.
Musk nie jest oczywiście w tych planach podboju odosobniony.

Podobne dokumenty