nowe wyzwania - DT Studio sc
Transkrypt
nowe wyzwania - DT Studio sc
POLITYKA n i e z b ę d n i k i n t e l i g e n ta NOWE WYZWANIA P rzedsięwzięcie Virgin Galactic: kosmodrom Spaceport America, zaprojektowany przez Normana Fostera (pyt. s. 93) Jak działa Internet? T Jak to się dzieje, że po wpisaniu np. www.intel.com nasze pakiety idą tam, gdzie powinny? Przecież nie wpisujemy adresu IP? Ponieważ adresy IP (czyli np. 192.198.164.158) są raczej trudne w użyciu, aby łatwiej było korzystać z zasobów sieci, IETF w 1982 r. stworzył system nazw domenowych, czyli odwzorowań nazwaÖadres IP. Ogólny nadzór nad całą strukturą nazw sprawuje IANA na mocy nadanej przed Departament Handlu USA. Pierwszy, najwyższy poziom to domeny krajowe, takie jak .pl, oraz funkcyjne typu: .com, .org itp. Przydzielanie tych pierwszych pozostawiono poszczególnym krajom (w Polsce robi to NASK na mocy umowy z polskim rządem), natomiast resztą zajmują się wyznaczone firmy czy organizacje. Ciekawostką może być fakt, że domeny .fm czy .tv, wykorzystywane często przez stacje radiowe i telewizyjne należą odpowiednio do Tuvalu i Mikronezji. Przykładowymi domenami drugiego rzędu są com.pl czy nasa.gov. W momencie wpisywania do przeglądarki www.intel.com komputer wysyła do serwera DNS (Domain Name Server), skonfigurowanego w ustawieniach sieciowych, zapytanie, jaki jest adres IP przypisany do tego adresu. On z kolei prze- 81 Wizualizacja sieci połączeń internetowych, z rozbłyskami węzłów n i e zb ę d n i k i n t e li g e n ta o pytanie z gatunku oczywistych, na które nie każdy potrafi odpowiedzieć. Idźmy po kolei. Skąd się wziął Internet? Internet, jaki znamy dziś, ukształtował się w latach 90. XX w., jednak jego początki sięgają końca lat 60. Wtedy to DARPA (Agencja Zaawansowanych Obronnych Projektów Badawczych Departamentu Obrony USA) sfinansowała budowę pierwszych węzłów eksperymentalnej, zdecentralizowanej sieci rozległej ARPANET, które znajdowały się na wybranych uniwersytetach w USA. Nietrudno domyślić się, jaki był cel tego eksperymentu. W środku zimnej wojny posiadanie takiej rozproszonej sieci telekomunikacyjnej stanowiło niebagatelny argument militarny. Na szczęście wojna ta pozostała zimna, a wraz z kolejnymi uniwersytetami dołączającymi się do sieci, ARPANET zaczęto wykorzystywać do celów naukowych. Do połowy lat 80. wprowadzono standard komunikacji wewnątrz sieci tak, aby poprawnie wysyłać i odbierać informacje. Dziś procedury te, zwane protokołami komunikacyjnymi, nadal są wykorzystywane w Internecie prawie w niezmienionej formie. Z czasem sieć ARPANET została otwarta dla wszystkich i stała się Internetem. Kto jest właścicielem Internetu, kto nim zarządza? Wbrew pozorom – to jest dość skomplikowane pytanie. W ramach wprowadzania ładu w sposobach komunikacji w ARPANET, DARPA powołała grupę naukowo-badawczą IETF (ang. Internet Engi neering Task Force), która do dziś definiuje standardy i zalecenia w dokumentach RFC (Request for Comments). Forum to ustaliło w 1981 r. Internet Protocol ver. 4, na którym opiera się komunikacja w dzisiejszym Internecie. Jednym z wymagań tego standardu jest to, aby każdy komputer w Internecie posiadał unikatowy adres IP. Przydziałem tych adresów do poszczególnych podmiotów zajmuje się kilka organizacji. Nadrzędną jest IANA (Internet Assigned Numbers Authority) wyłoniona z IETF, która w 1998 r. przejęła od rządu USA nadzór nad adresacją w Internecie. Organizacja ta oddelegowała część swoich obowiązków związanych z przydzielaniem numerów IP do pięciu regionalnych organizacji (Regional Internet Registries). W Europie jest nią RIPE (fr. Réseaux IP Européens) z siedzibą w Amsterdamie. Jak komputery fizycznie się komunikują ze sobą? Każdy komputer jest podpięty do dostawcy usługi dostępu do Internetu. On z kolei jest połączony w innymi dostawcami i operatorami w punktach styku IXP (Internet Exchange Point). Jest ich bardzo wiele w każdym kraju, z czego te o największym obciążeniu są zwykle w stolicach. To w tych właśnie punktach ruch przechodzi z sieci jednego dostawcy do drugiego. Trasę, jaką dany pakiet musi pokonać, aby dojść do celu, ustala protokół trasowania (routing). W Internecie jest nim BGP (Bor der Gateway Protocol). Przy jego użyciu operatorzy i dostawcy wymieniają się informacjami, jakie pule adresów IP posiadają. Dzięki temu oraz dzięki adresowi IP przeznaczenia w pakiecie wysłanym przez komputer-nadawcę routery, czyli urządzeniami fizycznie przesyłające dane, wiedzą, gdzie przesłać dany pakiet, aby dotarł do adresata. Specyficznymi aspektami dotyczącymi parametrów wysyłania pakietu, takimi jak typ, rozmiar i prędkość, zajmuje się inny protokół – TCP (Transport Control Protocol). To dzięki niemu wysyłający wie np., jak szybko może przysłać dane, a komputer odbierający jest w stanie rozróżnić prośbę o stronę WWW od wiadomości e-mail. kazuje je dalej do światowej infrastruktury DNS opartej na 13 głównych serwerach (tzw. Root Servers) umieszczonych w różnych miejscach na świecie odpowiedzialnych za wszystkie 248 domen najwyższego poziomu. Te z kolei przesyłają je do kilku z tysięcy innych serwerów odpowiadających za domeny niższego rzędu (w tym przypadku za domenę intel.com). Serwer odpowiedzialny za tę nazwę odpowiada serwerowi DNS, od którego na początku wyszło zapytanie, a ten przekazuje odpowiedź do komputera. Jak widać, proces ten jest dość złożony, dlatego komputery jak również serwery DNS przechowują w pamięci podręcznej ostatnio używane odwzorowania adresÖIP, żeby przyspieszyć odpowiedź na najbardziej popularne zapytania. Wizualizacja sieci połączeń z zaznaczeniem krajów o największej liczbie użytkowników Internetu Tomasz Sikorski Inżynier ds. sieci w Intel Technology Poland POLITYKA n i e z b ę d n i k i n t e l i g e n ta Pliki cookies są bezpieczne, nie stanowią zagrożenia dla komputera – nie są to żadne programy komputerowe charakteryzujące się własną aktywnością, tak jak różnego typu wirusy, których zadaniem jest przeszukiwanie zawartości pamięci twardych dysków. Służą, jak wspomniano, identyfikacji użytkownika – dalej cała aktywność polegająca na zbieraniu informacji o zachowaniach internauty należy do serwisu tworzącego cookie i to on zbiera wszystkie dane na swoich serwerach budując zasób najcenniejszy – profil użytkownika. Profil, czyli cyfrowa tożsamość internauty, służy nie tylko automatyzacji obsługi, lecz także personalizacji oferty. Sklep Amazon.com jest doskonałym tego przykładem – z każdą kolejną wizytą ilość informacji o zainteresowaniach klienta rośnie, co pozwala na podpowiadanie, jakie towary pasowałyby do jego gustu. Z cookies korzystają jednak nie tylko sklepy, lecz również takie serwisy, jak wyszukiwarka Google. Ona także, dzięki temu, że rozpozna „starego klienta”, lepiej może dostosować wyniki wyszukiwania do konkretnych, ujawnionych podczas wcześniejszych wizyt zainteresowań. Ponadto – co najcenniejsze – budowany mozolnie profil pozwala na dopasowanie reklam, które wyświetlają się w sąsiedztwie wyników wyszukiwania. Z kolei serwisy informacyjne dzięki cookies rozpoznają swoich użytkowników i mogą dzięki temu od razu wyświetlić zestaw spersonalizowanych informacji, np. wiadomości o pogodzie z najbardziej prawdopodobnego miejsca pobytu lub odpowiednio wyselekcjonowanych informacji sportowych. 82 Ciasteczka, czyli jak Internet śledzi swoich użytkowników? C iasteczka, czyli cookies – mają z nimi do czynienia wszyscy internauci, choć większość nie ma pojęcia o ich istnieniu. Bez ciasteczek korzystanie z serwisów byłoby niezwykle utrudnione, w istocie jednak cookies umożliwiają podglądanie zachowań użytkowników sieci i dlatego wywołują zaniepokojenie wszystkich zainteresowanych ochroną prywatności. Internetowe ciasteczko to po prostu niewielki plik tekstowy przechowywany w komputerze użytkownika. Powstaje, gdy włączy on przeglądarkę, jeden z popularnych programów służących do buszowania po WWW – może to być Internet Explorer, Netscape, Chrome czy Safari – i połączy się za jej pomocą z jakąś witryną, np. sklepem internetowym Amazon.com. Jeśli jest to pierwsze w ogóle połączenie z tym serwisem, tworzy on niewielką informację tekstową i umieszcza w komputerze klienta – przy ponownych odwiedzinach posłuży ona do identyfikacji użytkownika. Dzięki takiemu rozwiązaniu internauta nie musi za każdym razem identyfikować się, jego komputer (de facto przeglądarka, z której korzystał) rozpoznawane są automatycznie – wspomnianemu Amazonowi umożliwia to natychmiastowe odtworzenie historii wcześniejszych wizyt konkretnego klienta. By lepiej zrozumieć ideę cookies, warto wyobrazić sobie codzienne zakupy w osiedlowym sklepie – właściciel rozpoznaje swoich stałych klientów, wie, co kupowali i co najbardziej lubią, może więc polecić nową ofertę, zaproponować rabat lub odłożyć dla niego ulubioną gazetę. Internet bez cookies przypominałby supermarket, w którym klienci traktowani są bezosobowo i nie ma znaczenia, czy przyszli na zakupy po raz pierwszy czy dwudziesty. Cookies, niewielkie i niewinne pliki tekstowe, mają olbrzymie znaczenie dla praktycznego funkcjonowania Internetu. Ponieważ jednak służą w istocie inwigilacji internautów, od samego początku ich stosowania wywołują dyskusje i obawy. Szczególny powód do niepokoju dają praktyki tzw. firm trzecich, różnego typu internetowych agencji marketingowych, które starają się budować profile internautów gromadzące informacje o ich zachowaniach na różnych serwisach. Wiadomo, że im więcej zbiorą danych – nie tylko o zakupach w Amazonie, lecz także na Allegro, w Empiku oraz o innych eskapadach w sieci – tym dokładniejszy powstanie portret i tym lepiej będzie można dopasowywać ofertę marketingową. Takie praktyki budzą oczywiste obawy i od lat trwa debata, jak chronić prywatność internautów nie zabijając jednocześnie funkcjonalności Internetu. Dotychczasowe regulacje polegały N o w e w na regule opt-out – użytkownik może sam ustawić swoją przeglądarkę w odpowiedni dla jego poczucia prywatności sposób. Wybór najbardziej radykalny polega na zastosowaniu opcji „przeglądanie prywatne”, uniemożliwiające identyfikację. Można jednak ochronę prywatności złagodzić, wybierając opcję chroniącą przed instalowaniem ciasteczek od operatorów firm trzecich. Można także zlecić, by każda próba utworzenia ciasteczka poprzedzona była wyświetleniem informacji na monitorze. Nowe regulacje, w tym także projekt nowelizacji polskiego prawa telekomunikacyjnego, zmierzają w kierunku reguły opt-in – to internauta ma świadomie zdecydować, czy chce cookies, czy nie. Reguła ta daje rzeczywiste prawo skorzystania z możliwości wyboru – w sytuacji, gdy przeglądarki standardowo ustawione są na obsługę cookies (jak jest obecnie), większość użytkowników nie zdaje sobie nawet sprawy, że jest automatycznie identyfikowana. Edwin Bendyk (EB) Publicysta naukowy POLITYKI z a n i a Problem w tym, że łatwość dotarcia do potrzebnych informacji staje się pozorem rzeczywistości. Co nie istnieje w Google – nie istnieje w ogóle, bo coraz większa liczba mieszkańców współczesności zapomniała już, jak dotrzeć do najbliższej biblioteki. Za tym idzie utrata zdolności lektury, jaką wykształciła kultura humanistyczna. Niemiecki filozof Peter Sloterdijk stwierdził w wykładzie o plagiacie, wygłoszonym pod koniec 2011 r., że rosnąca popularność plagiatu w środowiskach akademickich jest skutkiem swoistego paktu na rzecz nieczytania – zdecydowana większość tekstów pisanych przez humanistów powstaje ze świadomością, że nikt ich nigdy nie przeczyta. Nicholas Carr idzie jednak jeszcze dalej w swej analizie – esej z „The Atlantic” rozwinął do rozmiarów książki „Shallows” (Płycizny), bestselera z 2010 r. Przytacza w niej liczne wyniki badań neurofizjologów pokazujących, że pod wpływem kontaktu z protezą umysłu, jaką jest Internet, zmieniły się także same umysły – nowe bodźce i sposoby docierania do informacji spowodowały, że internauci mają inne struktury mózgu pod względem połączeń międzyneuronalnych niż ludzie epoki przedinternetowej. Lepiej radzą sobie z koordynacją przestrzenno-ruchową, lecz trudniej skupić im się na dłuższych formach tekstowych. Mimo zdolności do wielozadaniowości – wykonywania wielu czynności jednocześnie – wcale nie są wydajniejsi, bo tracą czas nieustannie rozpraszając się i nie mogąc skupić dłużej na jednym zadaniu. Wybitna badaczka Internetu Sherry Turkle stwierdza, obserwując swoich studentów, że potrafią doskonale pisać, ale tylko pojedyncze akapity. A Carr dorzuca, że wiara w łatwą dostępność informacji za pomocą wyszukiwarek powoduje, iż niknie kultura erudycji, bez której trudno wyobrazić sobie prawdziwą mądrość: co z tego, że w sieci można znaleźć teoretycznie wszystko, skoro coraz mniej ludzi wie, o co pytać. Bo prawdziwa wiedza polega przecież na zdolności zadawania właściwych pytań, a nie na przekonaniu, że Google zna wszystkie odpowiedzi. W zasadzie wszystkim tym argumentom nie sposób odmówić racji – pod względem statystycznym zgadzają się. Tyle tylko, że świata wiedzy i kultury nie napędza statystyczna masa, lecz kreatywna mniejszość. Na razie nic nie wskazuje na to, by kondycja kulturotwórczych elit była zagrożona. Tym samym istnieje szansa na przetrwanie rozumu, choćby nawet spora część społeczeństwa z niego zrezygnowała. Nigdy nie było inaczej. (EB) 83 POLITYKA n i e z b ę d n i k i n t e l i g e n ta R ównie dobrze można by zapytać, czy ogłupia Facebook lub Twitter. Rzecz nie w konkretnej marce i firmie – sednem pytania jest: Co z umysłami współczesnych ludzi robi Internet? Pytanie zasadne, bo nie istnieją technologie neutralne społecznie i psychologicznie. Gdy w drugiej połowie XIX w. upowszechnił się telegraf, świat zmienił się nie do poznania – nowa technologia zabiła odległość, informacje o najbardziej odległych zakątkach ówczesnych imperiów zaczęły docierać do mediów, polityków i przedsiębiorców w ciągu minut. Życie uległo przyspieszeniu, a zaniepokojeni lekarze przekonywali, że wzrostowi tempa należy przypisać odpowiedzialność za próchnicę zębów, łysienie, falę nowotworów i chorób serca, nie wspominając o chorobach psychicznych. A przecież telegraf to niewinna zabawka w porównaniu z technologiami informatycznymi, którym już od początku towarzyszyły wielkie ambicje i świadomość, że zmienią świat w sposób niewyobrażalny. Vannevar Bush, doradca naukowy prezydenta Roosevelta, opublikował w 1945 r. głośny esej „As We May Think” (Jak możemy myśleć). Przedstawił w nim memex – urządzenie będące ideowym szkicem przyszłego Internetu, czyli systemu łączącego w jeden obieg rozproszone zasoby wiedzy i dokumentów. Dwadzieścia lat później, gdy komputery już faktycznie zmieniały rzeczywistość, Douglas Engelbart, wynalazca m.in. myszki komputerowej, opublikował kolejny ważny tekst – „Augmenting Human Intellect” (Wzmacniając ludzki intelekt). Przedstawił w nim komputer w innej niż obowiązującej w tamtym czasie roli – to nie szybka maszyna do liczenia, to urządzenie będące pośrednikiem między ludzkim umysłem a światem postrzeganym za pomocą zmysłów. Przez swą zdolność przetwarzania symboli komputer stać się musi swoistą protezą ludzkiego umysłu, wzmacniając jego potencjał. w Minęło kolejnych 40 lat, komputery i Internet stały się ważną, powszechną częścią infrastruktury, a na łamach magazynu „The Atlantic”, tego samego, w którym publikował Bush, współczesny analityk społeczeństwa informacyjnego Nicholas Carr zadał pytanie: Czy Google nas ogłupia? Carr nie ma wątpliwości, że technologie informatyczne stały się protezami umysłu, tak jak przewidywał Engelbart. Czy jednak wyszło to człowiekowi na dobre? Niewątpliwie zwiększyła się efektywność docierania do potrzebnych informacji: to, co kiedyś wymagało wielogodzinnego ślęczenia w bibliotece, jest dziś na kliknięcie myszki. Zamiast wertować grube tomy w poszukiwaniu źródeł cytatu, wystarczy przeszukać zasoby zdigitalizowanych przez Google księgozbiorów – wśród milionów dostępnych w ten sposób tomów (prawie) na pewno znajdzie się odpowiedź. Czy Google ogłupia? y Skąd się wziął układ QWERTY na klawiaturze komputerowej? U POLITYKA n i e z b ę d n i k i n t e l i g e n ta 84 Córka twórcy klawiatury, Christophera Lathama Sholesa, przy wynalazku ojca sób naturalny odziedziczyła układ klawiszy po swoich poprzednikach. Przyszłość tego wynalazku nie rysuje się jednak różowo. Pełnowymiarowa klawiatura jest relatyw- nie dużym urządzeniem, co w czasach postępującej miniaturyzacji stanowi pewien problem. Ponadto sprawne posługiwanie się klawiaturą wymaga nauki i wielu godzin praktyki. Oczywiście osoby, które posiadły tę umiejętność, np. programiści czy dziennikarze, jeszcze przez wiele lat nie rozstaną się z tym wynalazkiem. Jednak przeciętny użytkownik komputera chętnie zastąpi klawiaturę możliwością wydawania poleceń głosem lub gestem i zamiast żmudnie wpisywać tekst, po prostu go podyktuje. Marcin Kolasiński Inżynier oprogramowania w Intel Technology Poland Czy to prawda, że procesory powstają z piasku? kład klawiszy, którego nazwa bierze się od pierwszych sześciu liter w lewym górnym rogu klawiatury – QWERTY – powstał już w XIX w. Jego twórcą był Amerykanin Christopher Latham Sholes. Ten dziennikarz i wynalazca w 1872 r. otrzymał patent na pierwszą użytkową maszynę do pisania. Na pomysł skonstruowania takiego urządzenia Sholes wpadł podczas prac nad automatem do numerowania stron książek. Układ klawiszy zastosowany w pierwszej maszynie był alfabetyczny. Maszyna ta jednak miała pewien defekt. Otóż podczas szybkiego pisania czcionki osadzone na osobnych dźwigniach często się zacinały. Po uderzeniu czcionki w papier dźwignia cofając się do pozycji spoczynkowej zakleszczała się o dźwignię czcionki poruszającej się w przeciwną stronę. Było to spowodowane tym, że litery sąsiadujące ze sobą w alfabecie często stoją obok siebie także w wyrazach różnych języków – np. ab, de, ef itd. Sholes wpadł na genialny pomysł: aby rozwiązać powyższy problem, wystarczy zmienić kolejność klawiszy tak, aby sąsiadowały ze sobą litery, które w języku naturalnym rzadko występują jedna po drugiej. W ten sposób powstał układ klawiatury znany do dziś pod nazwą QWERTY. Rozwiązał on problem zacinających się czcionek, ale również okazał się o wiele efektywniejszy od alfabetycznego. Poprzez zmianę kolejności klawiszy osiągnięto przyśpieszenie we wprowadzaniu znaków. Znacznie szybciej można bowiem pisać, gdy na przemian wykorzystujemy prawą i lewą rękę. Nowy układ klawiszy statystycznie zwiększył prawdopodobieństwo zmiany ręki pomiędzy wprowadzanymi znakami. Układ klawiszy QWERTY został opatentowany przez Sholesa w 1878 r. Czyżby od tamtej pory nie wymyślono niczego lepszego? W 1936 r. August Dvorak – profesor Uniwersytetu Waszyngtońskiego w Seattle – opatentował nowy, ulepszony układ klawiszy, zwany układem Dvoraka. Udoskonalił on wynalazek Sholesa poprzez przesunięcie do środkowego rzędu i pod prawą rękę liter najczęściej używanych w języku angielskim. W ten sposób udało mu się zwiększyć efektywność pisania w tym języku o kolejne 10 proc. Klawiatura Dvoraka nie zyskała jednak takiej popularności jak QWERTY, bo osoby, które opanowały już bezwzrokowe pisanie na starej klawiaturze, nie chciały ponownie uczyć się nowego układu klawiszy. Układ Sholesa zwyciężył batalię o prymat przede wszystkim dlatego, że pojawił się pierwszy i zdobył rzesze użytkowników. Wraz z powstaniem komputerów pojawiła się potrzeba wprowadzania do nich informacji. Klawiatura komputerowa w spo- P rocesor jest prawdopodobnie najbardziej skomplikowanym produktem wytwarzanym masowo przez człowieka. Zaskakujący może być fakt, że materiał potrzebny do jego produkcji jest na Ziemi bardzo rozpowszechniony. Krzem, bo o nim mowa, stanowi ponad jedną czwartą masy skorupy ziemskiej. Występuje głównie w postaci tlenku krzemu SiO2, który jest głównym składnikiem piasku. Żeby nie było zbyt prosto, do produkcji procesora potrzebna jest bryła czystego krzemu – czystego do tego stopnia, aby jeden atom N o w e w zanieczyszczeń przypadał na miliard atomów tego pierwiastka. Taki materiał można uzyskać jedynie podczas długotrwałego, wieloetapowego procesu. Ze stopionego krzemu powstaje ogromy monokryształ w kształcie walca o średnicy kilkudziesięciu centymetrów i wadze ok. 100 kg. Walec ów cięty jest następnie na cienkie plastry o grubości do 1 mm. Krzemowe plastry, zwane waflami, są następnie polerowane tak, aby po obu stronach ich powierzchnia była idealnie płaska. Producenci procesorów kupują gotowe wafle od firm specjalizujących się w ich produkcji. Z jednego można wyprodukować kilkaset procesorów. Droga od krzemowego wafla do procesora jest bardzo długa. Produkcja trwa do 15 tygodni i wymaga nawet 500 przebiegów technologicznych. W tym czasie na po- wierzchnie wafla nanosi się miliony tranzystorów. Po ich połączeniu za pomocą wielu warstw metalowych ścieżek wafel można pociąć i umieścić w bezpiecznej obudowie. W całym procesie bardzo ważne jest zachowanie możliwe największej czystości. Powietrze w pomieszczeniach, w których produkuje się procesory, poddawane jest ciągłej filtracji. Pracownicy muszą mieć na sobie specjalne kombinezony ochronne, maski na twarz, okulary i specjalne obuwie. Wchodząc do środka muszą przejść przez specjalne śluzy. Wewnątrz zawsze panuje nadciśnienie, aby w przypadku nieszczelności powietrze wydobywało się na zewnątrz, a nie odwrotnie. Powyższe procedury są niezbędne. Najdrobniejszy pyłek na krzemowej strukturze procesora jest jednoznaczny z jego nieodwracalnym uszkodzeniem. Marcin Kolasiński Inżynier oprogramowania w Intel Technology Poland z a n i a ki ewoluuje moralnie, zastępując przemoc innymi, łagodniejszymi formami relacji społecznych. Trudno w to uwierzyć oglądając codziennie telewizyjne wiadomości, statystyki są jednak bezwzględne. Człowiek traci apetyt na zabijanie. Christopher J. Ferguson z Texas A&M International University, autor przeglądu literatury naukowej poświęconej wpływowi gier komputerowych na zachowanie, podejmuje trop wskazany przez Pinkera i stawia pytanie: może gry – również te nasycone przemocą, zamiast szkodzić, sprzyjają rozwojowi zachowań prospołecznych? Ferguson nie znajduje jednoznacznego naukowego potwierdzenia dla swej hipotezy. Analizując jednak zgromadzone w ciągu kilkudziesięciu lat wyniki badań nad mediami, kulturą popularną, grami i przemocą, dostrzega po prostu, że na podstawie tych danych nie sposób niczego rozstrzygnąć. Uczeni odwołują się do różnych koncepcji natury ludzkiej i w zależności od tych wstępnych założeń konstruują projekty badawcze, a potem interpretują wyniki. Kto przyjmuje, że człowiek jest jak niezapisana kartka zapełniająca się pod wpływem kultury i uczenia społecznego, zazwyczaj dochodzi do wniosku, że kontakt z obrazami przemocy, wzmaga agresję. Zwolennicy teorii genetycznych zwracają uwagę, że predyspozycje do agresji mają charakter dziedziczny, i dowodzą, iż ich naukowi oponenci mylą przyczynę ze skutkami. Po prostu osoby pre- 85 POLITYKA n i e z b ę d n i k i n t e l i g e n ta N ie ma najmniejszej wątpliwości, że gry nasycone przemocą wychowują przyszłych zabójców” – przekonuje David Grossman, pułkownik amerykańskiej armii. Choć sam własnoręcznie nie zabił nikogo, ma za sobą lata żołnierskiej liniowej służby, a teraz uczy trudnej sztuki zabijania i bada psychologię tego ponurego rzemiosła. W traktacie „O zabijaniu”, podobno obowiązkowej lekturze wojskowych, policjantów i agentów służb specjalnych, zastanawia się, dlaczego w sumie tak trudno strzelić do drugiego człowieka, a jeszcze trudniej zgładzić go z zimną krwią za pomocą noża lub gołymi rękami. Historyczne statystyki pokazują, że nawet w najlepiej wyćwiczonej pruskiej armii efektywność zabijania była stukrotnie mniej- w sza od teoretycznej, mierzonej liczbą wystrzelonych pocisków. Po prostu większość żołnierzy strzelając, nie mierzyła we wroga. Zdaniem Grossmana, celuje w przeciwnika 15–25 proc. strzelców, większość i tak chybia. Sytuacja zaczęła jednak zmieniać się podczas wojny w Korei na początku lat 50. XX w., gdy śmiercionośna efektywność poprawiła się do 50 proc., a w trakcie wojny wietnamskiej wzrosła do 95 proc. To z jednej strony efekt nowych programów szkolenia rekrutów, mających na celu zmniejszenie oporu przed zabijaniem. Programy te jednak nie odniosłyby takiego skutku, zdaniem Grossmana, gdyby nie kultura popularna od dziecka otaczająca mieszkańców współczesnej cywilizacji – nasycona przemocą: „Nastolatki siedząc w kinach i oglądając w domu telewizję widzą w szczegółach przerażające sceny cierpień i śmierci istot ludzkich, ucząc się łączyć to cierpienie i śmierć z rozrywką, przyjemnością, ulubionymi napojami, słodyczami, kontaktem z bliską osobą”. Gry komputerowe tylko wzmagają ten proces znieczulania na cierpienie i skutki przemocy, stając się idealną szkołą przyszłych legalnych (żołnierzy) i nielegalnych morderców. Argumenty Grossmana zdają się bardzo logiczne: kto w młodości spędzi setki godzin grając w krwawe strzelanki i wspomagając wyniesione z gry doświadczenie tym, co zobaczy w mediach i na ekranach kin, staje się gotowym materiałem na groźnego przestępcę. Problem w tym, że tych oczywistości nie chcą potwierdzić statystyki – w Stanach Zjednoczonych od 1993 r. systematycznie maleje przemoc wśród młodych ludzi. A przecież powinno być odwrotnie, wszak ostatnie dekady to czas eksplozji zainteresowania grami komputerowymi. Ten młodzieżowy trend wpisuje się w szerszy proces zmniejszania udziału przemocy w relacjach społecznych – przekonuje amerykański badacz Steven Pinker w głośnej książce „Better Angels of Our Nature”. Dowodzi w niej, że gatunek ludz- Czy gry komputerowe sprzyjają zachowaniom agresywnym? y dysponowane do agresji mają większą skłonność zarówno do uczestnictwa w formach kultury nasyconych przemocą (stąd ich zamiłowanie do krwawych strzelanek), jak i do realnych zachowań agresywnych. Jeszcze inni badacze zwracają uwagę na rolę czynników środowiskowych, kiedy fascynacja krwawymi grami może być symptomem patologii społecznej i formą kompensacji rzeczywistych relacji obciążonych przemocą w rodzinie lub grupie rówieśniczej. Ciągle więc wiemy stosunkowo niewiele, bo dyskusja o kulturze, grach komputerowych i przemocy nasycona jest ideologią i atmosferą moralnej paniki, którą wzmacniają powtarzające się co jakiś czas tragedie, gdy zdesperowany uczeń lub student staje się autorem krwawej masakry. Christopher J. Ferguson zauważa jednak, że pod tym względem człowiek się nie zmienia – już Platon biadał, że młodzież wystawiona na wpływ poezji straci zdolność rozróżniania faktów od fikcji. (EB) POLITYKA n i e z b ę d n i k i n t e l i g e n ta że komórka wypełniona ciekłym kryształem będzie przepuszczać światło albo stanie się nieprzeźroczysta. Jego źródłem w telewizorach LCD starszej generacji jest panel złożony z cienkich świetlówek i folii rozpraszającej, by podświetlenie samej matrycy LCD było jasne i równomierne. W nowych telewizorach LCD świetlówki zastąpiono diodami LED (Light-Emitting Diode) – półprzewodnikowymi przyrządami optoelektronicznymi, które świecą na biało. Świecą intensywnie, a przy tym pobierają mało prądu. W telewizorach z etykietą Full LED panel podświetlający wypełniony jest takimi diodami pod całym ekranem, zaś Edge LED oznacza, że diody rozmieszczono tylko na krawędziach ekranu, a ich światło jest rozpraszane po powierzchni za pomocą specjalnych dyfuzorów. Łatwo się domyślić, że pierwsze z tych podświetleń daje lepszy obraz i taki telewizor więcej kosztuje. Mamy więc źródło światła, mamy matrycę ciekłokrystaliczną decydującą o tym, gdzie i ile tego światła przez nią przeniknie – a jak powstaje kolorowy obraz? Otóż gdy przyjrzeć się przez lupę obrazowi telewizyjnemu, to można dostrzec, że składa się on z maleńkich kolorowych prostokącików. I występują one w zestawach: czerwony, zielony i niebieski. Taki komplet to piksel, który jest elementem obrazu. Gołym okiem nie widzimy na ekranie poszczególnych pikseli, ale dostrzegamy barwy, które generują – są one wypadkową kolorów ich prostokątnych płytek. Kolor biały to maksymalna intensywność czerwonego, zielonego i niebieskiego, czarny – to wyłączony piksel. W telewizorach LCD poprzednich generacji był z tą czernią kłopot, ponieważ panel ciekłokrystaliczny zawsze przepuszcza część światła i zamiast głębokiej nocy na ekranie była ciemna szarość. W nowych odbiornikach Full LED poradzono sobie z tym: gdy w obrazie pojawia się ciemny element lub scena – przyciemnia się diody podświetlające matrycę i uzyskuje w ten sposób dobry kontrast. Wszystkim tym steruje skomplikowana elektronika. 86 Czym się różnią telewizory LCD, plazmowe i OLED? obraz w jakości HD 1080 T radycyjne telewizory kineskopowe przechodzą bezpowrotnie do lamusa. Tu i ówdzie jeszcze dopalają się po domach, ale w sklepach już ich nie uświadczysz. Wyparły je wszelkiej maści „płaszczaki” – a ich wybór może zwykłego oglądacza telewizji przyprawić o zawrót głowy. Wyglądają podobnie, na pierwszy rzut oka dają podobny obraz, różnią się natomiast wielkością, grubością i ceną, która w dużym stopniu zależy od mnogości oferowanych funkcji. Bo dzisiejszy telewizor nie jest już tylko urządzeniem do oglądania programów telewizyjnych i filmów z odtwarzaczy DVD oraz twardych dysków, lecz stanowi centrum domowej rozrywki, do którego można podłączyć (coraz częściej bezprzewodowo) komputer, aparat fotograficzny, kamerę, konsolę do gier i wszystkie inne urządzenia współpracujące ze sobą w domowej sieci. I Internet – ze Skype’em oraz różnymi usługami, które są w nim dostępne. Współczesne telewizory róż- nią się jedną zasadniczą cechą: sposobem generowania obrazu. LCD. Telewizor LCD (ang. Liquid Crystal Display) wykorzystuje w tym procesie ciekłe kryształy – substancje o właściwościach fizycznych zarówno ciała stałego, jak i płynu. Większość ciekłych kryształów stanowią związki organiczne złożone z molekuł, które w stanie naturalnym są chaotycznie rozmieszczone. Można jednak sterować ich ustawieniem, przykładając napięcie elektryczne. Mówiąc prościej: można sprawić, Plazma. Na innej zasadzie pracuje telewizor plazmowy. Nie ma w nim panelu podświetlającego ani matrycy ciekłokrystalicznej. Obraz powstaje bezpośrednio na ekranie złożonym z milionów komórek przypominających miniświetlówki. Każda taka mikrolampka wypełniona jest gazem szlachetnym, a jej dno i ścianki boczne są wyłożone odpo- N obraz standardowy 480 o w e w y z w a n i a Nowe technologie przekładają się na jakość obrazu. Jak mierzy się oglądalność programów telewizyjnych? OLED. Telewizory LCD i plazmowe zdominowały rynek i konkurują ze sobą. Ale już depcze im po piętach konkurent – telewizory OLED (Organic Light Emitting Diodes). Wykorzystują one organiczne diody elektroluminescencyjne, które przetwarzają energię elektryczną bezpośrednio na światło. Mówiąc najprościej – jasno świecą, a zrobione z nich ekrany są cienkie, lekkie, dają barwy niezwykle żywe i nasycone. Pobierają przy tym znikomą – w porównaniu z telewizorami plazmowymi i LCD – ilość energii. Dlatego w pierwszym rzędzie znalazły już one szerokie zastosowanie we wszelkiego rodzaju urządzeniach przenośnych, jako ekrany telefonów komórkowych, aparatów fotograficznych i kamer, odtwarzaczy muzycznych itp. Kilka firm zainwestowało też w produkcję telewizorów OLED – Samsung i LG pokazały na tegorocznych targach CES w Las Vegas modele o przekątnej ekranu 55 cali i grubości zaledwie 3 mm. Wszyscy zgodnie twierdzą, że technologia OLED daje obraz nieporównywalny z telewizorami już istniejącymi. Jej upowszechnienie, podobnie jak to było z LCD i plazmowymi, jest kwestią kilku lat. Andrzej Gorzym Kierownik działu nauki POLITYKI N dzenia elektroniczne, telemetry, podłącza się do telewizora; zapamiętują one zarówno moment włączenia i wyłączenia telewizora, jak i nazwę odbieranej stacji. Urządzenie to wygląda jak budzik elektroniczny. Ma pilota, wyświetla godzinę i może być podłączone nie tylko między anteną a telewizorem, ale także ze stacjonarnym telefonem. Telewidz badany za pomocą specjalnego pilota rejestruje się, powiadamiając system, że właśnie włączył lub wyłączył telewizor. Zgromadzone w ten sposób informacje transmitowane są do centrum obliczeniowego. Główny komputer łączy się automatycznie z miernikiem zainstalowanym w domu i pobiera wszystkie dane zarejestrowane poprzedniego dnia. Następnie informacje o oglądalności kompilowane są z danymi z monitoringu programowego i reklamowego, a potem przeliczane. Dzięki temu serwis telemetryczny dostarcza dane o widowni dowolnie definiowanych pasm dla ponad 200 stacji. Oddzielnej analizie podlegają bloki reklamowe, dzięki czemu sprawdzić można do kogo i w jakiej skali docierają zarówno pojedyncze reklamy, jak i szersze kampanie promujące dane produkty w poszczególnych stacjach. Dodatkową funkcją mogą być wyświetlające się napisy z zapytaniem, czy program się podoba. Jeśli jesteśmy zadowoleni z filmu, dokumentu czy koncertu, wciskamy guzik A. Jeśli ma- 87 POLITYKA n i e z b ę d n i k i n t e l i g e n ta wiednim luminoforem. Powstające w komórkach pod wpływem prądu elektrycznego wyładowania emitują promieniowanie ultrafioletowe, które pobudza luminofor do świecenia na czerwono, zielono lub niebiesko. Takie trzy komórki tworzą piksel, jak wspomniane już kolorowe prostokąciki na ekranie telewizora LCD. I każda taka komórka jest sterowana oddzielnie – zapalana i gaszona w odpowiednim momencie. Ekran telewizora Full HD (1920×1080 pikseli) ma ponad 6 mln 200 tys. takich komórek – to najlepiej obrazuje skalę skomplikowania tego procesu. Telewizor plazmowy zużywa więcej prądu niż LCD i bardziej się grzeje. Oddaje natomiast wiernie barwy, zapewnia głęboki kontrast i świetnie nadaje się do oglądania transmisji sportowych. Szybko lecący krążek hokejowy lub piłka tenisowa nie ciągną w nim za sobą smugi jak ogon komety. W starszych telewizorach LCD działo się tak, ponieważ miały one zbyt długi tzw. czas reakcji, czyli zbyt wolno generowały kolejne następujące po sobie obrazy. Te podświetlane diodami LED już tej wady nie mają. a polskim rynku telewizyjnym odbierać można przeciętnie ok. 200 kanałów. Od czasu do czasu stacje podają, ile osób obejrzało jakiś program, i chętnie licytują się tzw. oglądalnością. Jak zmierzyć oglądalność danego kanału, sprawdzić, co kto lubi i na dodatek w jakim jest wieku? Odpowiedzi na te pytania udziela telemetria – stosunkowo młoda dziedzina telekomunikacji. Zasada jej działania jest następująca: umieszcza się w losowo wybranych mieszkaniach odpowiednie urządzenie, które dokonuje pomiaru wybranej wielkości, a wynik przesyła poprzez Internet, drogą radiową lub telefoniczną do centrali. Takie elektroniczne badania zachowań widowni telewizyjnej prowadzi się dopiero od niedawna. Wcześniej selekcjonowano losowo grupy badawcze, np. 1000 osób, którym płacono za regularne wypełnianie ankiet. Z tych danych wyliczano szacunkowe procenty i przenoszono na całość społeczeństwa. Badanie obarczone było jednak błędem – tym mniejszym, im większą grupę poddawano badaniu. Przed kilku laty przestarzałą metodę zastąpiła właśnie telemetria, bazująca na ciągłym elektronicznym pomiarze widowni telewizyjnej. Niewielkie urzą- my zamiar przełączyć kanał, wybieramy B. Jednak w dzisiejszych czasach oglądalność to nie tylko liczba widzów, którzy śledzą programy na żywo. Spece od telemetrii twierdzą, że o skali oglądalności świadczą także emisje w usługach VOD oraz w nagrywaniu, a następnie odtwarzaniu danego programu. Dla uwiarygodnienia badań zaproponowano zatem widzom badanie oglądalności z tzw. przesunięciem czasowym. Umożliwia to osobisty video recorder, czyli urządzenie do nagrywania, w które wyposażona jest dziś większość nowoczesnych telewizorów oraz dekodery sieci kablowych i platform cyfrowych. Na tym jednak nie koniec. W telemetrii uwzględnione mają być także dane dotyczące oglądalności treści na komputerach w Internecie, w tym na popularnym serwisie YouTube. Piotr Ciepłota Popularyzator nauki POLITYKA n i e z b ę d n i k i n t e l i g e n ta 88 Jakie są granice miniaturyzacji? W 1965 r. Gordon Moore, jeden z założycieli firmy Intel, zauważył trend, który znamy dziś jako prawo Moore’a. W opublikowanym wówczas w „Electronics Magazine” artykule poczynił odważne przewidywania dotyczące tempa miniaturyzacji elektronicznych obwodów zintegrowanych (tzw. chipów). Obserwując ówczesne postępy w gęstości elementów upakowanych na tej samej powierzchni zauważył, że ich liczba podwaja się z każdym rokiem. Niewiele osób wtedy wierzyło, że wykazaną prawidłowość uda się utrzymać dłużej niż 10 lat. Dlaczego twierdzenie to wzbudziło tyle kontrowersji? Aby lepiej zrozumieć, co oznacza przewidywany poziom miniaturyzacji, wyobraźmy sobie hipotetyczny układ elektroniczny, na którym w 1965 r. udałoby się umieścić 8 tranzystorów. Według przewidywań Moore’a, już po 5 latach ten sam układ pomieściłby aż 256 takich elementów, natomiast po 10 latach na tej samej powierzchni zmieściłyby się 8192 elementy! Współcześni przypisywali ogromny postęp miniaturyzacji obserwowany do 1965 r. serii przełomowych odkryć charakterystycznych dla każdej raczkującej dziedziny wiedzy – zjawisko, które byłoby niezwykle trudne lub wręcz niemożliwe do utrzymania w przypadku dojrzałej technologii, która skonsumowała już większość swych przełomowych osiągnięć. Początkowo wydawało się, że sceptycy mieli rację. Moore już w latach 70. zrewidował swoje prawo, które od tego czasu głosiło, iż gęstość upakowania elementów będzie się podwajała co dwa lata, a nie co rok, jak wcześniej twierdził. Adwersarze Moore’a zacierali ręce i głosili jego rychłą kapitulację. Powód to piętrzące się problemy, m.in. w opanowaniu technologii przygotowywania materiałów o odpowiednio wysokiej tzw. stałej dielektrycznej (niezwykle istotnej zważywszy na postępują- Najbardziej zaawansowane mikroprocesory wykonuje się w technologii 22 nanometrów (nanometr to jedna miliardowa metra). cą miniaturyzację tranzystorów) i zwiększenia szybkości propagacji sygnału w ścieżkach łączących poszczególne elementy chipa. Problemy te, jako wynikające z fundamentalnych praw fizyki, miały stanowić ostateczną i nieprzekraczalną barierę dla prawa Moore’a. Obecnie, po blisko 50 latach od opublikowania słynnego artykułu Gordona Moore’a, trend wciąż obowiązuje, co daje nadzieję na uzyskanie wiarygodnej odpowiedzi na zadane w tytule pytanie. Najbardziej zaawansowane mikroprocesory wykonuje się w technologii 22 nanometrów (nanometr to jedna miliardowa metra). Pozwala ona umieścić miliony elementów na powierzchni odpowiadającej główce szpilki. Aby osiągnąć tak wysoki poziom zaawansowania technologicznego, niezbędne było pokonanie wielu barier, które początkowo wydawały się równie nieprzekraczalne. Fundamentalne ograniczenia litografii optycznej (czyli procesu, za pomocą którego „rysuje” się na powierzchni krzemu zarys przyszłych tranzystorów), gdzie rozmiar pojedynczego elementu limitowany jest przez długość fali zastosowanego światła, pokonano wprowadzając nowatorskie układy soczewek i tzw. masek. Dzięki temu współczesna litogra- fia ultrafioletowa potrafi skutecznie odwzorowywać szczegóły wielkości kilkunastu nanometrów za pomocą fal światła długości rzędu setek nanometrów. Problemy z utrzymaniem odpowiednich parametrów elektrycznych płaskich bramek (które są jednymi z kluczowych elementów składowych tranzystora) w układach o szerokości zaledwie pojedynczych warstw atomowych rozwiązano dodając do nich trzeci wymiar (wysokość), co pozwala zwiększać powierzchnię bramek bez zmniejszania gęstości upakowania tranzystorów. Czy zatem i kiedy będziemy mieli mikroprocesory wielkości kilku nanometrów? Zgodnie z prawem Moore’a może się to wydarzyć za 20–30 lat. Jak to osiągniemy? Z pewnością inaczej niż N o w e w robiliśmy to dotychczas. Mówiąc o kilku nanometrach zbliżamy się do rzędu wielkości odpowiadającej pojedynczym atomom. O ile rozmiar pojedynczych tranzystorów już teraz zbliża się do tej skali, to tworzenie kompletnych, funkcjonalnych mikroprocesorów (składających się z tysięcy tranzystorów) może być problematyczne. W objętości kilku nanometrów zmieści się po prostu zbyt mało atomów, aby móc zbudować klasyczny mikroprocesor. Czyżby kolejne fundamentalne ograniczenie? Wygląda na to, że tak, jednak dotychczasowe doświadczenia ze stosowania prawa Moore’a pozwalają mieć nadzieję, iż bariera ta zostanie pokonana szybciej, niż oczekujemy. Być może rozwiązaniem będą komputery kwantowe, gdzie tranzystory zastąpimy układami fotonów komunikujących się dzięki stanowi tzw. splątania kwantowego. Być może drogę dalszego rozwoju otworzą inne, nieodkryte jeszcze, cechy mechaniki kwantowej. Adam Marek Architekt oprogramowania w Intel Technology Poland z w a n i a D iody, powszechnie stosowane w różnego typu ekranach i monitorach, to jedno z wielu zastosowań związanych z odkryciem polimerów przewodzących. Ale jak zwykły kawałek plastiku może przewodzić prąd, podczas gdy inny materiał z tej samej grupy jest stosowany do izolacji metalowych przewodów, którymi prąd płynie? Plastik to potoczne określenie ogromnej grupy materiałów polimerowych – tworzyw sztucznych, które w ciągu minionych 60 lat zrewolucjonizowały współczesny świat. Produkcja tych materiałów wzrosła z 1,5 do 280 mln ton. Blisko 130 różnego typu polimerów – odmiennych zarówno pod względem budowy chemicznej, jak i właściwości fizycznych – o najróżniejszych cechach użytkowych, wykorzystywanych jest obecnie praktycznie we wszystkich dziedzinach życia. Większość polimerów nie przewodzi prądu elektrycznego w klasycznym rozumieniu tego pojęcia – są izolatorami, stąd typowymi zastosowaniami dla tworzyw sztucznych są osłony kabli czy obudowy i inne części sprzętu elektrycznego i elektronicznego. Ale jest też duża grupa polimerów, które zachowywać się mogą zupełnie przeciwnie. Z racji swojej budowy chemicznej mogą być półprzewodnikami, a nawet przewodnikami, należy je tylko do tego odpowiednio zmobilizować. Do odkrycia polimerów przewodzących przyczyniła się klasyczna studencka pomyłka, kiedy podczas reakcji syntezy poliace- Przykładem najnowocześniejszych wyrobów, na potrzeby których przemysł tworzyw sztucznych ciągle rozwija swoje nanomateriały, są elektroniczne płytki drukowane. Nanoatrament na bazie nanorurek węglowych (Carbon NanoTubes – CNT) oraz nanocząstek srebra jest przeznaczony na rynek elektronicznych obwodów drukowanych. Wyróżnia się dobrym przewodnictwem oraz przyczepnością do polimerowej folii, z której zbudowane są elastyczne elementy drukowane, w związku z czym urządzenia zawierające tego typu układy mogą stać się coraz tańsze i łatwiejsze w montażu. Przykładem zastosowania może być torba, w której ogniwo słoneczne nadrukowane na elastyczną folię z tworzywa sztucznego 89 POLITYKA n i e z b ę d n i k i n t e l i g e n ta tylenu ktoś zawyżył (o kilka rzędów wielkości) ilość jednego z substratów. Spowodowało to, że zamiast czarnego proszku powstała srebrzysta folia. Na szczęście szef laboratorium Hideki Shirakawa postanowił zająć się badaniami nad nowym materiałem. Wkrótce na swojej drodze zawodowej spotkał chemika Alana MacDiarmida i fizyka Alana Heegera, którzy już od jakiegoś czasu zajmowali się poszukiwaniem materiałów przewodzących prąd, innych niż metale. Ci dwaj naukowcy z Filadelfii zaprosili Japończyka do współpracy. Efekty wspólnych badań przyniosły całej trójce Nagrodę Nobla w 2000 r. Żeby polimer mógł przewodzić prąd, musi zawierać układy tzw. wiązań sprzężonych, tj. takich, w których atomy węgla połączone są na przemian wiązaniami pojedynczymi i wielokrotnymi. Dzięki temu możliwa jest delokalizacja elektronów (pojedynczy elektron bierze wtedy udział w tworzeniu więcej niż jednego wiązania), co czyni polimer podobnym pod tym względem do krzemu. Polimery takie są więc organicznymi półprzewodnikami, które w układach tranzystorowych mogą pełnić rolę izolatora lub przewodnika, dokładnie tak samo jak dzieje się w przypadku typowych półprzewodników krzemowych. Aby osiągnąć efekt przewodzenia prądu, należy zastosować dodatkowo specjalne domieszki, które „zabierając” elektrony z niektórych miejsc w łańcuchu sprawiają, że pojawia się „dziura” – ładunek dodatni, którego istnienie wymusza ruch elektronów w łańcuchu i w efekcie przepływ prądu. Możliwość przewodzenia prądu w połączeniu z typowymi cechami tworzyw, czyli elastycznością i wytrzymałością, spowodowała, że przewodzące materiały polimerowe znalazły liczne zastosowania w nowych technologiach elektronicznych. Jednym z najbardziej spektakularnych okazało się wykorzystanie w optoelektronice, przede wszystkim przy produkcji diod elektroluminescencyjnych, które pod wpływem impulsu elektrycznego emitują światło. Niektóre z wyrobów, w których wykorzystuje się polimery przewodzące prąd, są już w powszechnym użyciu. Należą do nich choćby diody typu OLED (Organic Light-Emitting Diodes), baterie litowo-niklowe (lekkie i płaskie dzięki polimerowym elektrolitom) czy płaskie ekrany ciekłokrystaliczne LCD, wykonane z ciekłokrystalicznych tworzyw, które zużywają 65 proc. mniej energii w porównaniu z typowymi ekranami wyposażonymi w katodowe lampy elektronowe. W najnowszych diodach typu OLED przewodzące przezroczyste polimery stanowią warstwy o grubości kilku nanometrów, dlatego supercienkie ekrany wykonane przy użyciu tej technologii są elastyczne i można je zwijać. Jak plastik przewodzi prąd i gdzie to wykorzystujemy? y Czy można przesyłać energię elektryczną bez używania kabli? umożliwi wykorzystanie energii słonecznej także w pomieszczeniach i przy słabych warunkach oświetleniowych. Zgromadzona energia będzie następnie przesyłana do akumulatora, z którego można ładować elektroniczne urządzenia, takie jak aparaty fotograficzne, telefony komórkowe czy czytniki elektroniczne. Podczas gdy niektóre zastosowania polimerów są dopiero w fazie prób rynkowych, kolejne już depczą im po piętach. Przykładem mogą być fosforescencyjne pochodne diod OLED‑PHOLED (Phosphorescent Organic Light-Emitting Diodes), w których energia elektryczna niemal w 100 proc. jest przekształcana na światło, gdy w typowej technologii OLED tylko w 25 proc. Nowe generacje smatrfonów, odtwarzaczy MP4 czy przenośnych konsoli do gier będą wykorzystywać tę właśnie, bardziej efektywną energetycznie, technologię. Już wkrótce dzięki opakowaniom z nadrukowanymi czipami RFID (system identyfikacji radiowej) z polimerów przewodzących można będzie uzyskać informacje na temat jakości i stanu zapakowanych produktów. Polimery można zaprojektować na etapie ich syntezy, czyli produkcji, tak aby mogły magazynować ładunki elektryczne. Zwane są wówczas elektretami i mogą np. stanowić odpowiednik magnesu stosowanego w mikrofonach. Idealnie nadają się do zastosowania w telefonach, ponieważ są odporne na wstrząsy mechaniczne i promieniowanie elektromagnetyczne. To sprawi, że będą bardziej niezawodne i tańsze od ich odpowiedników kondensatorowych. Na koniec krótko o ogniwach paliwowych – przez niektórych nazywanych maszyną parową XXI w. W dalszym ciągu trwają liczne prace rozwojowe nad tzw. polimerowym ogniwem paliwowym na bazie elektrolitu, w którym wykorzystuje się reakcje elektrochemiczne pomiędzy wodorem i tlenem prowadzące do wytworzenia energii elektrycznej. W ogniwie tego typu elektrolit polimerowy w formie elastycznej membrany oddziela elektrody ogniwa, pełniąc identyczną rolę jak stężony kwas siarkowy w tradycyjnych akumulatorach. Uzyskana w ten sposób energia może być wykorzystana w dowolny sposób: do wytwarzania prądu lub ciepła, ale również w silnikach samochodów osobowych i autobusów, co udało się już w prototypach. POLITYKA n i e z b ę d n i k i n t e l i g e n ta 90 Anna Kozera-Szałkowska PlasticsEurope Polska Włókna polimerów przewodzących światło R ozwiązania umożliwiające bezprzewodowe zasilenie lub ładowanie niektórych urządzeń w warunkach domowych są już od kilkunastu lat dostępne na rynku. Opierają się na zjawisku zwanym indukcją, gdzie pole magnetyczne wytwarzane przez prąd przepływający w jednym przewodniku indukuje (wzbudza) napięcie elektryczne w innym przewodniku, znajdującym się w zasięgu oddziaływania tego pola. Zjawisko to umożliwia przesyłanie energii elektrycznej na odległość bez konieczności fizycznego kontaktu pomiędzy jej nadajnikiem i odbiornikiem. To samo zjawisko wykorzystywane jest w coraz powszechniej występujących w naszych domach kuchenkach indukcyjnych (tam energia przesyłana z nadajnika – płyty indukcyjnej, służy do rozgrzania odbiornika – dna naczynia) oraz w transformatorach – elementach wykorzystywanych przez niemal każde domowe urządzenie elektryczne do dopasowania napięcia elektrycznego do oczekiwanego poziomu (wspomniane wcześniej nadajnik i odbiornik można postrzegać jako dwie połowy jednego transformatora). W praktyce zarówno nadajnik, jak i odbiornik mają postać cewek (czyli zwiniętych drutów), co umożliwia zwiększenie efektywności przesyłu energii. Nadajnik podłączany jest do źródła zasilania, natomiast odbiornik do urządzenia, które ma być zasilane lub ładowane. Wydawałoby się, że opisane zjawisko idealnie nadaje się do wykorzystania w bezprzewodowym zasilaniu urządzeń elektrycznych. Skąd więc niewielka popularność tego rodzaju rozwiązań na rynku? Problemem jest efektywność – wciąż znaczą- co mniejsza od tej osiąganej przy klasycznym, przewodowym podejściu do zasilania. Straty powstające podczas przesyłu powodują, że energia elektryczna generowana w odbiorniku jest dużo mniejsza od tej, którą zużywa nadajnik. Powoduje to, że całe rozwiązanie staje się problematyczne z ekonomicznego punktu widzenia. Inną komplikacją jest fakt, że ta już nie najlepsza efektywność maleje gwałtownie wraz ze wzrostem odległości pomiędzy cewkami nadajnika i odbiornika. Pomimo tego, że zasilane urządzenie nie musi pozostawać w fizycznym kontakcie z zasilaczem, w praktyce odległość między nimi wciąż nie powinna przekraczać kilku centymetrów, co mocno ogranicza zyski płynące z braku przewodów. Gdzie zatem najwcześniej mamy szansę napotkać urządzenia zasilane bezprzewodowo? Tam gdzie zużycie energii jest na tyle niewielkie, że wspomniane wcześniej straty stają się nieistotne. Dobrym przykładem są ładowarki telefonów komórkowych. N o w e w y z w a n i a Coraz więcej producentów wypuszcza na rynek zestawy do ładowania indukcyjnego jako opcję do swoich aparatów. Na szczęście dla wszystkich mających dość kabli zasilających, dystans pomiędzy efektywnością zasilania przewodowego i indukcyjnego wciąż się skraca. Prowadzone prace nad zastosowaniem niezwykle cienkich cewek, wyższych częstotliwości oraz bardziej inteligentnych urządzeń sterujących dają nadzieję na rychłą redukcję strat energii związanych z bezprzewodowym przesyłem energii. Pracuje się również nad urządzeniami działającymi na nieco innej zasadzie (gdzie obok indukcji zaprzęga się również zjawisko rezonansu elektro magnetycznego), które w warunkach domowych powinny zapewniać przesyłanie energii na odległości rzędu kilku metrów. Adam Marek Architekt oprogramowania w Intel Technology Poland i kompetencje. Wyszło im, że niektórych umiejętności maszyna nigdy nie zastąpi, a zaliczyć do nich należy prowadzenie pojazdu. Zadanie jest bowiem bardzo trudne, kierowca musi analizować mnóstwo sygnałów i błyskawicznie reagować na niestandardowe sytuacje, co wymaga cech, jakich pozbawiony jest bezduszny i bezmyślny komputer. Argumenty poważne, warto jednak przycisnąć przycisk szybkiego przewijania, by przenieść się do współczesności. Nie ba- A uta bez kierowców zobaczymy na drogach w 2018 r. – zapowiedział w styczniu 2008 r. Rick Wagoner, ówczesny prezes General Motors. Ta ambitna wizja wywołała mieszane komentarze, analitycy potraktowali ją raczej jako próbę ratowania wizerunku koncernu, który utracił globalne przywództwo w branży samochodowej na rzecz japońskiej Toyoty. Kolejne miesiące miały potwierdzić sceptycyzm – wybuchł światowy kryzys finansowy, a GM uratowała przed bankructwem rządowa interwencja. Koncepcja bezzałogowych samochodów traktowana była raczej jako domena akademickich zabaw finansowanych trochę przez koncerny samochodowe, a trochę przez armię zainteresowaną rozwojem nowych technologii logistycznych. DARPA, amerykańska wojskowa agencja zajmująca się rozwojem zaawansowanych projektów badawczych, zaczęła od 2004 r. organizować konkursy Grand Challenge, w trakcie których zespoły badawcze wystawiały samochody bez szofera przystosowane do jazdy. Pierwsza rywalizacja odbyła się na pustyni, w 2007 r. samochody walczyły w symulowanej przestrzeni miejskiej. Tylko sześć spośród startujących 35 aut ukończyło zmagania. Wszystko zdawało się potwierdzać wątpliwości autorów głośnej książki „The New Division of Labour: How Computers Are Creating the Next Job Market” (Nowy podział pracy: jak komputery tworzą nowy rynek pracy) autorstwa Franka Levy’ego i Richarda J. Murnane’a. Amerykańscy ekonomiści w swym dziele opublikowanym w 2004 r. analizowali, jak komputeryzacja i automatyzacja zmieniają zapotrzebowanie na zawody cząc na wątpliwości sceptyków, w maju 2012 r. władze amerykańskiego stanu Nevada wydały pierwszą tablicę rejestracyjną dla samobieżnego auta osobowego. Prawo korzystania z czerwonej blachy opatrzonej m.in. znakiem nieskończoności zyskała Toyota Prius, zwykły samochód podrasowany nieco, bo zaopatrzony w różnego typu czujniki, w tym LIDAR – rodzaj radaru analizującego otoczenie światłem laserowym. Na mocy prawa przyjętego w Nevadzie latem 2011 r. (obowiązuje ono od marca br.) po drogach stanu mogą poruszać się samochody bez kierowców, choć ciągle za kierownicą oraz na miejscu pasażera muszą być żywi ludzie. Na wszelki wypadek. Najciekawsze, że za nowym prawem nie lobbował żaden koncern samochodowy, lecz internetowy gigant – Google. To właśnie ta firma zaangażowała Sebastiana Thruna, specjalistę w dziedzinie sztucznej inteligencji i robotyki ze Stanford University, który zasłynął wcześniej zwycięstwem w jednym z turniejów Grand Challenge. Teraz uczynił to, co jeszcze w 2004 r. wydawało się niemożliwe, a w 2008 r. było wykpiwane. Toyoty Google mają na koncie, zgodnie z firmową dokumentacją, setki tysięcy przejechanych samodzielnie kilometrów we wszystkich możliwych warunkach. Wiosną br. popularność zyskał film przedstawiający niemal niewidomego Kalifornijczyka, który dzięki samobieżnemu pojazdowi może pojechać po hamburgera czy do pralni. Przełom stał się możliwy dzięki zmianie sposobu myślenia o samochodzie – inaczej niż w przypadku aut startujących w Grand Challenge, Toyota Google nie jest superkomputerem na kółkach nafaszerowanym mocą obliczeniową i danymi potrzebnymi do kierowania. To raczej ruchomy węzeł w sieci – więk- 91 POLITYKA n i e z b ę d n i k i n t e l i g e n ta Kiedy po ulicach będą jeździć samochody bez kierowców? Google do budowy auta zaangażował Sebastiana Thruna, specjalistę w dziedzinie sztucznej inteligencji i robotyki ze Stanford University, który zasłynął wcześniej zwycięstwem w jednym z turniejów Grand Challenge. szość niezbędnych informacji znajduje się na serwerach komputerowych w Internecie, to one nieustannie zasilane są danymi o terenie umożliwiającymi tworzenie szczegółowych map cyfrowych. Samochód za pomocą czujników musi jedynie odnaleźć się na takiej mapie oraz identyfikować aktualne warunki ruchu. To jednak nic nowego, nad takimi rozwiązaniami liczące marki pracują od lat, oferując takie udogodnienia, jak wspomaganie parkowania i zaawansowane systemy bezpieczeństwa umożliwiające automatyczne rozpoznanie zagrożeń niewidocznych dla oka kierowcy. Tak więc postęp w rozwoju systemów samochodów, z drugiej strony niebywale szybki rozwój infrastruktury sieciowo-informacyjnej doprowadziły do niezwykle owocnego sprzężenia, a niemożliwe stało się rzeczywistością. Gdy dziś szefowie GM powtarzają swoje wizje sprzed czterech lat, a wtórują im przedstawiciele innych koncernów samochodowych – Forda, Volvo, Mercedesa, Volkswagena, BMW – nikt już nie kpi. A do końca dekady drogi zaczną wypełniać się autami podobnymi do Toyoty Prius z logo Google. Już prowadzone są badania marketingowe pod kątem przyszłego popytu na auta bez kierowców, a wizjonerzy tworzą listy korzyści: mniej wypadków, większa płynność ruchu oraz dodatkowy wolny czas dla kierowców, którzy nie będą musieli siedzieć za kółkiem. (EB) Jak uzyskać idealny klej? POLITYKA n i e z b ę d n i k i n t e l i g e n ta 92 W niektórych zastosowaniach, np. podczas klejenia ceramiki, wykorzystuje się żywice epoksydowe. Efekt kohezji powstaje na skutek reakcji chemicznej – klej składa się z dwóch składników, dopiero ich połączenie powoduje, że dochodzi do powstania wiązań łączących cząsteczki substancji klejącej. Prowadzącą do trwałego połączenia reakcję chemiczną może także wywołać znajdujący się w powietrzu tlen lub promieniowanie ultrafioletowe. Sztuka klejenia polega na odpowiednim doborze kleju do łączonych powierzchni, tak żeby uzyskać optimum między siłami adhezji i kohezji. Na nic klej, który trwale przylgnie do powierzchni, jednak ich nie połączy ze względu na zbyt słabą spójność. Doskonałym przykładem niedostosowania substancji do zadania są kleje używane w etykietach z cenami. Etykieta powinna przylegać na tyle mocno, by nie odpadła w trakcie sklepowych operacji, nie na tyle jednak silnie, by nie można jej było usunąć bez śladu. Niestety, często zdarza się, że po zdrapaniu karteczki z ceną na okładce książki pozostają smugi kleju, których nie sposób usunąć bez uszkodzeń powierzchni. Trudno wyobrazić sobie historię cywilizacji bez sztuki klejenia i poszukiwania coraz lepszych substancji klejących: smoła i różnego typu lepiki bitumiczne, wosk pszczeli, wywary ze ścięgien i chrząstek, klajster wykorzystujący mąkę pomagały jeszcze w czasach przedchemicznych korzystać majstrom wszelkiej maści z dobrodziejstw adhezji i kohezji. Wiek XX to jednak stulecie chemii, nowoczesna nauka wkroczyła także w świat klejenia. Legendarny wręcz rozgłos zyskała P iórnik ucznia, warsztat majsterkowicza, przybornik rowerzysty – czym byłyby bez kleju, niezwykłej substancji pomagającej szybko łączyć różne obiekty. Eksperci potrafią wymienić dziesiątki rodzajów klejów – innymi posługują się stolarze, inne służą łączeniu kartek, a jeszcze inne – potłuczonej ceramiki. Są też kleje stosowane w chirurgii – zamiast szwów. Niezależnie jednak od rodzaju i przeznaczenia, za własności kleju odpowiedzialne są dwie kluczowe siły. Po pierwsze, substancja klejąca musi przylgnąć do łączonej powierzchni – dzieje się tak dzięki adhezji. Cząsteczki kleju wykorzystują dostępne mikropory i nierówności struktury, by wniknąć w głąb sklejanego materiału i utrzymują się dzięki różnego typu oddziaływaniom międzycząsteczkowym. Substancja, która dobrze przylega do klejonej powierzchni, czyli charakteryzuje się silną adhezją, to połowa sukcesu. Do pełni szczęścia potrzebna jest jeszcze kohezja, spójność – czyli siła łącząca z sobą cząsteczki substancji klejącej – to dzięki niej dwie posmarowane klejem powierzchnie utworzą jedną całość. Efekt kohezji uzyskuje się na wiele sposobów. Najprostszy polega na rozpuszczeniu substancji klejącej w rozpuszczalniku – tak przygotowany klej można przechowywać długo w zamkniętym słoiku lub tubce bez obawy jego stwardnienia (to właśnie przejaw kohezji w działaniu). Po naniesieniu kleju na łączone powierzchnie rozpuszczalnik odparowuje, a cząsteczki substancji klejącej łączą się tworząc mocną spoinę. historia odkrycia substancji, która klei, lecz nie skleja trwale i stała się podstawą dla powszechnie dziś używanych samoprzylepnych karteczek. Nieklejący klej opracował Spencer F. Silver, chemik pracujący w laboratoriach koncernu 3M. Gotową formułą dysponował już w 1968 r., nie miał jednak dobrego pomysłu na jej wykorzystanie. Myślał np., by swoją substancję rozpylać na tablicach, do których można by następnie przyczepiać notatki (i w razie czego usuwać). Mimo licznych prezentacji w różnych gremiach pomysł Silvera nie mógł zdobyć szerszego zainteresowania. Na jedno z seminariów trafił jednak Arthur L. Fry i w trakcie pokazu doznał olśnienia. Fry w czasie wolnym uczestniczył w kościelnym chórze i zawsze go irytowało, że podczas występów, gdy śpiewał na stojąco, ze śpiewnika wypadały zakładki zaznaczające właściwe utwory. Gdyby można było te karteczki jakoś przyczepić, z możliwością wszakże usunięcia w razie potrzeby... Tak w wielkim skrócie narodził się jeden z najważniejszych wynalazków techniki biurowej, samoprzylepne karteczki Post-it. Na rynek trafiły w 1980 r., dziś są równie niezbędne jak inny wielki wynalazek, spinacze do papieru. Kolejnym ważnym udogodnieniem wykorzystującym szczególne właściwości kleju jest taśma samoprzylepna. Stosowana powszechnie znalazła również zastosowanie w jednym z najważniejszych odkryć ostatnich lat. Dziś wielkie nadzieje inżynierii materiałowej i elektroniki budzi grafen – odmiana węgla, którą tworzą warstwy o grubości jednego atomu, charakteryzująca się bardzo ciekawymi właściwościami chemicznymi i fizycznymi. Jeden ze sposobów uzyskiwania grafenu polega na przyklejaniu do kawałka grafitu taśmy samoprzylepnej – po oderwaniu na taśmie pozostaje grafenowa warstwa. (EB) N o w e w z w a n i a Microsoftu, projektuje statek kosmiczny, w kosmiczne podróże inwestuje też John Carmack, współtwórca id Software, która wyprodukowała kultowe gry komputerowe „Doom” i „Quake”. Najbardziej zaawansowany w swoich inwestycjach jest jednak Richard Branson, prezes firmy Virgin Galactic. Ten ekscentryczny brytyjski przedsiębiorca i założyciel imperium biznesowego Virgin chce zrewolucjonizować loty w przestrzeń poza ziemską, podobnie jak przekształcił koncepcje podróży kolejowych i lotniczych, otwierając własne linie. W październiku 2011 r. Branson zapowiedział, że uruchomi regularne komercyjne loty kosmiczne w ciągu najbliższych dwóch lat. Wtedy też otworzył pierwszy na świecie port kosmiczny przeznaczony do lotów turystycznych. Kosmodrom Spaceport America w Nowym Meksyku jest portem macierzystym dla floty jego statków SpaceShipTwo. Ich historia zaczęła się w 1996 r., gdy Burt Rutan, znany w USA inżynier lotnictwa i konstruktor, założyciel firmy lotniczej Scale Composites, postanowił zbudować pierwszy całkowicie prywatny załogowy pojazd kosmiczny. Po siedmiu latach Scale Composites zaprezentowała dziennikarzom jego prototyp. Składał się on z dwóch części – pierwszą stanowił napędzany silnikami turboodrzutowymi samolot nazwany przez Rutana White Knight (Biały Rycerz). Jego zadaniem było przetransportowanie na wysokość 15 km drugiego pojazdu – trzyosobowego SpaceShipOne (SS1, czyli Statek Kosmiczny nr Jeden). Tam SS1 miał odłączyć się od Białego Rycerza i odpalić na 80 s własne silniki rakietowe, które rozpędziłyby pojazd do trzykrotnej prędkości dźwięku i wyniosły w przestrzeń kosm iczną. Pojazd miał powrócić na Ziemię tak jak promy kosm iczne NASA – lotem szybowca. Po kilkunastu lotach próbnych SS1 nadszedł czas na najtrudniejsze zadanie – pierwszą misję kosmiczną. 21 czerwca 2004 r. rano w kabinie SS1 zasiadł Mike Melvill, 63-letni doświadczony pilot oblatywacz. Lot przebiegł zgodnie z planem. Melvill wzniósł się na wysokość ponad 100 km, uznawaną za granicę kosmosu (w tym momencie stał się 433 kosmonautą w historii). Na tym bowiem pułapie można zobaczyć czerń Wszechświata ozdobioną gwiazdami, a w dole okrągłą błękitną Ziemię oraz doświadczyć stanu nieważkości. Cały lot trwał ok. 87 min. i zakończył się szczęśliwym lądowaniem na lotnisku w Mojave, które obserwowało tysiące gapiów. Wkrótce Scale Composites rozpoczęła prace nad następcą SS1 (pionierski statek znajduje się dziś w muzeum Smithsonian Institution w Waszyngtonie). SpaceShipTwo podobnie jak SpaceShipOne jest rakietoplanem – może zabrać na pokład 6 pasażerów. Samolot White Knight II ma wynieść go na wysokość 16 km, a następnie za pomocą silnika rakietowego z przyspieszaczem statek osiągnie wysokość 100 km. Cały lot będzie trwać ok. 3 godz., w tym podczas kilku minut pełnej nieważkości pasażerowie będą mogli rozpiąć pasy i unosić się swobodnie w kabinie. Lot kosztuje 200 tys. dol., a bilety kupiło już ponad 500 osób. Branson zapowiada, że w ciągu pierwszych 10 lat przewiezie poza Ziemię 50 tys. turystów, w tym całą swoją rodzinę. Kiedy ludzie będą masowo podróżować w kosmos jako turyści? y 25 Najbardziej aktywną grupę inwestorów marzących o kosmosie tworzą ludzie, którzy błyskawicznie dorobili się fortun na informatyce i internetowej gorączce złota. Jeff Bezos, twórca Amazon.com, największego skle- pu w Internecie, utworzył w 2000 r. firmę kosmonautyczną Blue Origin, która ukończyła już testy startującego pionowo jak rakieta pojazdu New Shepard. Paul Allen, współzałożyciel Marcin Rotkiewicz Publicysta naukowy POLITYKI 93 POLITYKA n i e z b ę d n i k i n t e l i g e n ta maja 2012 r. statek kosmiczny Dragon pomyślnie zacumował na Międzynarodowej Stacji Kosmicznej (ISS). Przywiózł pracującym tam kosmonautom pół tony żywności, wodę, ubrania, sprzęt do badań. Niezwykłość zdarzenia polega na tym, że po raz pierwszy za tego typu kosmiczne przedsięwzięcie odpowiada nie rząd, ale prywatna firma SpaceX, która wygrała przetarg na usługi kurierskie dla NASA. To doniosły krok na drodze do komercjalizacji przestrzeni pozaziemskiej, której skutkiem powinno być potanienie kosmicznych technologii, a więc i turystyki. Siedem prywatnych osób odbyło już wojaże na Międzynarodową Stację Kosmiczną na pokładzie rosyjskich rakiet Sojuz (pierwszy w historii kosmiczny turysta to amerykański milioner Dennis Tito, który poleciał w 2001 r.). Za każdą eskapadę trzeba było jednak zapłacić aż 20–25 mln dol., a wcześniej odbyć specjalne treningi. Szefem SpaceX, która wysłała na ISS Dragona, jest 41-letni miliarder Elon Musk, urodzony w RPA Kanadyjczyk, współzałożyciel PayPala, serwisu ułatwiającego płatności internetowe. Musk, nazwany przez prestiżowy tygodnik „The Economist” Rocket Manem (Człowiekiem rakietą), a przez innych kosmicznym wizjonerem, chce też wygrać przetarg na dowóz na stację astronautów. Wszystko dzięki obniżeniu kosztów pozaziemskiego transportu i potanieniu produkcji rakiet dla pojazdów kosmicznych. Zapowiada, że te, które zamierza wytwarzać SpaceX będą kilkadziesiąt razy tańsze od dotychczas używanych. W perspektywie 15–20 lat Musk myśli o kosmicznej turystyce i kolonizacji Marsa. Twierdzi, że po upływie 10 lat od pierwszej podróży na Czerwoną Planetę, taki lot (tam i z powrotem) kosztowałby ok. 0,5 mln dol. Więcej planów ma ujawnić w 2013 r. Musk nie jest oczywiście w tych planach podboju odosobniony.