Historia - WordPress.com

Transkrypt

Historia - WordPress.com
1. Historia ogólna
2 sierpnia 2000 roku, gdy większość z nas bawiła na zasłużonych wakacjach minęła
rocznica, która głośnym echem odbiła się w fachowych periodykach, a w prasie codziennej
została odnotowana jedynie w niewielkich wzmiankach. W dniu tym minęło 20 lat od
wprowadzenia przez firmę International Business Machine (IBM), znaną dotąd z dużych
komputerów, tzw. komputera osobistego (Personal Computer - PC). I choć, jak się za chwilę
okaże, PC firmy IBM nie był wcale pierwszym domowym komputerem, a nawet w kręgach
fachowców nie był wcale uważany za najlepszy, to jednak od niego zaczęła się rewolucja
informatyczna końca XX wieku. Dzięki niej komputer przestał być tylko narzędziem pracy
garstki wtajemniczonych - informatyków, a trafił pod przysłowiowe strzechy, a raczej na
biurka zwykłych użytkowników. W pierwszym roku od wprowadzenia PC-tów sprzedano
ich 130 tys., a w 1999 ilość sprzedanych komputerów osobistych różnych marek osiągnęła
140 milionów sztuk. Wróćmy jednak na chwilę w głęboką przeszłość, by zaznaczyć
kamienie milowe w rozwoju technik obliczeniowych. Parafrazując słowa Biblii: “na
początku było Słowo”, tutaj na początku był system, ale nie chodzi bynajmniej - jak
chcieliby dzisiejsi zapaleńcy - o system operacyjny komputera, droga do tego była jeszcze
bardzo daleka, ale o rzecz bardziej prozaiczną - system prowadzenia obliczeń. Wpajany nam
od pierwszych klas szkoły podstawowej system pozycyjny kodowania i obliczeń
dziesiętnych, znany przedtem jedynie w Indiach, został przeszczepiony na grunt europejski
ok. 820 roku przez Muhammada Ibn Mussę Al-Chorezmi, lub, jak chcą inni, Al-Chawarizmi
(Alchwarizmi). Jego dzieło przetłumaczone na łacinę w XII wieku zapoczątkowało w
Europie sztukę obliczeń pisanych na pergaminie, papierze itp., a od zlatynizowanej wersji
jego nazwiska Algorismus wzięło nazwę słowo algorytm i w konsekwencji podstawowa
dziedzina informatyki teoretycznej - algorytmika. Warto zauważyć, że najstarszy znany
algorytm - przepis na znajdowanie największego wspólnego dzielnika 2 liczb całkowitych
pochodzi od Euklidesa z przełomu IV i III w. p.n.e. Muhammedowi ibn Mussie
zawdzięczamy także termin algebra od tytułu innego dzieła poświęconego matematyce.
Rozpowszechnienie systemu dziesiętnego umożliwiło użycie pierwszych pomocy
rachunkowych w postaci różnego typu liczydeł, które w najbardziej skomplikowanej postaci
- japońskiego sorobanu - pozostały w użyciu do dziś. Przełom umożliwiający mechanizację
metod rachunkowych nastąpił w XVII wieku, w wyniku wynalezienia przez Johna Napiera
w 1614 roku niezbyt przez niektórych z nas lubianych logarytmów. Zaowocowało to
powstaniem mechanicznych urządzeń liczących, w tym dwudziałaniowego sumatora
zbudowanego przez dziewiętnastoletniego podówczas Blaisa Pascala, znakomitego fizyka i
filozofa. I choć Pascal nie był pierwszy, bo już 20 lat wcześniej Wilhelm Schickard (w 1623
r.) stworzył maszynę czterodziałaniową, to jednak sumator Pascala bardziej się
rozpowszechnił, a jego egzemplarze dotrwały w muzeach do dziś. W XVII wieku dokonano
też innego przełomu: Gottfried Leibniz pierwszy użył systemu dwójkowego do zapisu liczb
i zastosował go w swojej czterodziałaniowej maszynie liczącej. Jednak plany prawdziwego
mechanicznego komputera zawdzięczamy Anglikowi, Charlesowi Babbage’owi, który po
pierwszych próbach zbudowania prostej maszyny liczącej, opracował w latach 1817-49
plany mechanicznego urządzenia liczącego mającego już oddzielny “procesor” i “pamięć” Babbage nazywał je “młynem” i “składem”. Miał on mieć także automatyczną drukarkę.
Komputera tego nie ukończono za życia Babbage’a. Dopiero niemal 150 lat później - w
dwusetną rocznicę urodzin wynalazcy - 29 listopada 1991 roku, ruszyła i wykonała pierwsze
obliczenia - ważąca ponad 3 tony, złożona z ponad 4 tysięcy elementów i kosztująca 0,5
miliona dolarów - maszyna zbudowana w Science Museum w Londynie. A było to nie byle
co - obliczenia tablicy siódmych potęg stu kolejnych liczb naturalnych z dokładnością do 31
cyfr znaczących. (dzisiejsze PC-ty, przy słowie 32 bitowym mają dokładność do 9 cyfr
znaczących). Dla uzyskania jednego wyniku trzeba było jednak 27 tys. obrotów korby.
Mechaniczny komputer Babbage’a był programowalny. Nośnikiem były karty perforowane
wynalezione przez Josepha Jacquarda w 1801 roku do sterowania krosnami tkackimi.
Myślę, że wszystkie Panie z zadowoleniem przyjmą fakt, że pierwszym w historii
programistą była kobieta i to nie byle kto: Ada, córka poety lorda George’a Gordona Byrona
i żona Roberta Artura trzeciego lorda Lovelace, Wynalezienie i rozpowszechnienie
próżniowych lamp elektronowych doprowadziło do powstania na przełomie lat
trzydziestych i czterdziestych I generacji elektronicznych urządzeń liczących. Wśród wielu z
nich warto wyróżnić komputer Mark I zbudowany w 1944 roku na Uniwersytecie Harvarda
przez Howarda Aikena. Był on dość imponujący, ale wolny. Miał rozmiary 17×2x1m, 3 tys.
mechanicznych przełączników, 750 tys. lamp elektronowych i 800 km przewodów
elektrycznych. Pracował w systemie dziesiętnym, miał dokładność 23 cyfr znaczących, ale
wykonywał 3 dodawania/s, 1 mnożenie na 6 sekund i 1 dzielenie na 12 sekund. Odkrycie w
1948 roku tranzystora doprowadziło w latach 1954-58 do powstania II-ej generacji
komputerów. Były to komputery serii IBM 7000 wykonujące do 250 operacji/s.
Wynalezienie przez Jacka Kilby, pracownika firmy Texas Instruments układu scalonego
zaowocowało powstaniem komputerów III generacji opartej na tzw. “małej skali integracji”.
Typowym urządzeniem był tu duży komputer IBM 360 ( u nas system RIAD) o szybkości
36 milionów operacji/s (36 MFlops). Wynalazek układu scalonego przyniósł Jackowi Kilby
po 42 latach nagrodę Nobla w dziedzinie fizyki. I tutaj historia rozwoju komputera zaczyna
się rozgałęziać. Stworzenie opartego na układach scalonych tzw. “dużej skali integracji”
mikroprocesora - pierwszym mikroprocesorem był Intel 4004 zbudowany przez Teda Hoffa
w 1969 r. - prowadzi do powstania mikrokomputera, przodka komputera domowego czy
osobistego. Z drugiej strony budowa procesorów opartych na układach o “bardzo wielkiej
skali integracji” pozwala na konstrukcję komputerów IV i superkomputerów V generacji,
wykorzystujących układy wieloprocesorowe i umożliwiających przetwarzanie równoległe.
Najbardziej spektakularnym wśród nich był słynny Deep Blue, który w 1996 r. wygrał w
szachy z Garym Kasparowem. Wróćmy wszakże do mikrokomputerów, bo to ta linia
rozwoju doprowadziła do powstania komputera osobistego. Zanim jednak powstał PC
zbudowano inne mikrokomputery. Pierwszym z nich był Altair 8800 firmy MITS,
sprzedawany hobbystom w postaci gotowych zestawów do składania za 400 dolarów,
począwszy od 1974 r. Był on oparty na procesorze Intel 8080 i wykorzystywał język
programowania Basic, którego translator opracował w ciągu 2 tygodni na zamówienie
nikomu wtedy nieznany młodzieniec Bill Gates. W rok później Bill Gates i Paul Allen
założyli firmę Microsoft. Znacznie większą popularność zyskał niewątpliwie bardziej
przyjazny użytkownikowi mikrokomputer Apple zbudowany przez Stephena Wozniaka i
Stevena Jobsa w 1976 r. w przydomowym garażu za pieniądze ze sprzedaży starego
Volkswagena-garbusa. Do roku 1984 sprzedano ponad 2 miliony egzemplarzy tego
komputera, początkowo za 666,66 dolarów sztuka, a Steven J. Jobs stoi do dziś na czele
firmy Macintosh, spadkobiercy Apple’a. Gdy 20 lat temu firma IBM wprowadziła na rynek
mikrokomputer IBM 5150 oparty na 16-bitowym procesorze Intel 8088 z zegarem 4.77
MHz wykorzystujący system operacyjny MS-DOS 1.0 f-my Microsoft, nie wzbudził on
zachwytu specjalistów. Miał ledwie 16 kB pamięci operacyjnej i stacje dysków elastycznych
5 1/4 cala, a jego system operacyjny uważany był za znacznie mniej dojrzały od
popularnego od 10 lat systemu CP/M znanego w Polsce z mikrokomputerów Elwro Junior.
Ale już w 1982 r. magazyn “Time” uznał komputer osobisty za “Człowieka (sic) roku”. W
komentarzu “Time” pisał, że “PC może wysyłać listy z prędkością światła, zdiagnozować
chorego pudla, w minutę przygotować program ubezpieczeniowy, wypróbować przepisy na
piwo”, a w sondażu cytowanym przez “Time’a” 80% Amerykanów przewidywało, że
komputery domowe staną się tak popularne jak telewizory czy zmywarka do naczyń. Były
to opinie prorocze, gdyż w ciągu najbliższych lat pecet, z narzędzia dostępnego tylko
specjalistom, stał się przedmiotem równie popularnym jak maszyna do pisania,
umożliwiając wykorzystywanie edytorów tekstów, arkuszy kalkulacyjnych czy baz danych i
jak telewizor pozwalając na dostęp do zasobów informacyjnych i funkcji sieci globalnych
takich jak Internet. Zmienił się także sam pecet. Dziś częstotliwość zegarów popularnych
pecetów kupowanych w supermarketach przekracza 1 GHz, pamięci operacyjne sięgają 256
MB, procesory wykorzystują słowo 32 bitowe, a w przygotowaniu są od dawna procesory
64-bitowe. Pecet zazwyczaj wyposażony jest w wysokiej klasy karty dźwiękowe i graficzne,
a często i w kamerę wideo i kartę fax -modem, co czyni z niego wszechstronne narzędzie
multimedialne. Historia rozwoju techniki obliczeniowej, która - jak wspomnieliśmy rozeszła się na dwie gałęzie w połowie lat siedemdziesiątych zaczyna się dziś na powrót
zbiegać. Kosztem 53 milionów dolarów powstaje w USA najpotężniejsza dotychczas
instalacja komputerowa dla celów nauki, przeznaczona do badań w zakresie modelowania
molekularnego. Nie będzie to jednak pojedynczy, najpotężniejszy nawet superkomputer, ale
zbudowana przez IBM sieć ponad 1000 serwerów wykorzystujących 64-bitowe procesory
Intel Itanium i system operacyjny Linux. Przepustowość sieci wyniesie 40 miliardów bitów
na sekundę, a połączone komputery będą mogły wykonywać prawie 14 bilionów operacji na
sekundę i korzystać z pamięci 600 bilionów bajtów, co odpowiada zasobowi informacji
zawartej w 146 dużych powieściach książkowych. Warto także prześledzić rozwój mocy
obliczeniowej związany z pojawieniem się procesorów wykorzystujących słowo maszynowe
o coraz większej długości. Pierwszy PC sprzed 20 lat wykorzystywał słowo 16-bitowe, co
odpowiada zakresowi przetwarzanych liczb 216 tj. 65536, procesor 32-bitowy będący
standardem obecnie przetwarza liczby z zakresu do 232 tj. ponad 4 miliony liczb, zaś dla
procesora 64-bitowego, będącego obecnie w przygotowaniu, zakres ten wyraża się liczbą
264 czyli liczbą, którą można przedstawić jako dwójkę z 19 zerami (2×1019). Może bardziej
przemawia do wyobraźni przedstawienie graficzne, które można znaleźć w literaturze: jeśli
jedna liczba to maleńka kropka, to 216 liczb pokrywa powierzchnię znaczka pocztowego
(ok. 5 cm 2), zaś 232 - 1,5 m2, a 264 - ok. 130 tys. km2 czyli w przybliżeniu obszar Grecji.
Ale to nie wzrost mocy obliczeniowej, lecz ogromne potanienie jednostki mocy
obliczeniowej zadecydowało o rozpowszechnieniu mikrokomputerów. Widać to już przy
cenie pierwszego PC kosztującego 20 lat temu. niespełna 3 tys. dolarów. W literaturze
znaleźć można (Evans) jeszcze jedno interesujące porównanie. Gdyby tak jak jednostka
mocy obliczeniowej taniał Rolls-Royce to już w 1988 r. kosztowałby poniżej dolara, a
połowa uncji benzyny (16g) pozwalałaby mu jeździć bez przerwy przez 20 lat. Kolejnym
czynnikiem leżącym u podstaw rewolucji informacyjnej schyłku XX wieku, było powstanie
sieci globalnej - Internetu. Internet wykluł się w połowie lat osiemdziesiątych z powstałej w
1968 r. wojskowej sieci badawczej zwanej Arpanet (liczyła aż… 4 komputery). Oparty na
wywodzącym się jeszcze z Arpanetu protokole TCP/IP służył początkowo do wymiany
poczty elektronicznej, transferu plików oraz pracy na zdalnych komputerach. Funkcje te
mogły być realizowane przy użyciu dotychczasowego, szeroko rozpowszechnionego,
systemu operacyjnego pecetów MS-DOS. Użycie tego tekstowego systemu ograniczało
jednak nie tylko krąg użytkowników do inżynierów i naukowców, ale wydawało się także
być barierą dalszego rozwoju i ekspansji Internetu. Czynnikiem, który wyzwolił tę ekspansję
i umożliwił dostęp do Internetu zwykłemu użytkownikowi, było powstanie graficznego
systemu operacyjnego Windows (zaprezentowanego 23 maja 1990 r.). System ten oparty na
filozofii “okien” - prostokątnych obszarów zawierających wszystkie informacje o danym
procesie i obsługiwanych za pomocą manipulatora - popularnej myszy, zrewolucjonizował
obsługę komputera osobistego. Umożliwiał bowiem proste łączenie różnych aplikacji,
równoczesne wykonywanie wielu zadań, a nade wszystko wykorzystywanie technik
multimedialnych: dźwięku, animacji i filmu. Dzięki temu systemowi komputer osobisty stał
się naturalnym oknem do Wszechświatowej Pajęczyny (World Wide Web),
najpopularniejszego bodaj dzisiaj sposobu wykorzystania Internetu. Wszechświatowa
Pajęczyna to system bardzo wielu serwerów (tzw. Komputerów - hostów) udostępniających
informacje sporządzone w technice hipertekstu, gdzie pojedynczy dokument, zwany stroną,
zawiera szereg odnośników (w postaci słów oznaczonych kursywą, ozdobników graficznych
czy obrazów) pełniących rolę odsyłaczy do innych dokumentów. “Kliknięcie” myszą na
odnośniku powoduje przejście do dokumentów będących objaśnieniem, rozwinięciem czy
też ilustracją dokumentu podstawowego. Dostęp do zasobów sieci ułatwiają odpowiednie
przeglądarki np. Nestcape Navigator czy Internet Explorer. A są to zasoby ogromne i
wszechstronne: katalogi bibliotek i muzeów, w tym reprodukcje dzieł sztuki, serwisy agencji
prasowych i aktualne wydanie czasopism, notowania giełdowe i bieżące mapy pogody, a
także, z lżejszej kategorii, teksty i nuty piosenek, jak również same utwory, fragmenty
filmów, a nawet przepisy kulinarne. W znalezieniu poszukiwanej przez nas informacji
pomagają liczne wyszukiwarki, np. Yahoo czy AltaVista. Zakres usług internetowych
poszerzył się o nowe możliwości, takie jak udział w listach dyskusyjnych, czy w modnych
obecnie - zwłaszcza wśród młodzieży - pogawędkach (tzw. chat) z podłączonymi na tym
samym kanale innymi użytkownikami. Karierę robią nie tylko internetowe usługi bankowe,
ale także możliwość zakupów w sklepach internetowych. Powstały nowe gałęzie biznesu
(tzw. e-business) związane z usługami internetowymi. Pojawiły się także dość
nieoczekiwane usługi jak możliwość wzięcia ślubu przez Internet, czy nawet wyspowiadania
się. Internet w wielu państwach staje się kośćcem organizacji państwowej ułatwiając
współpracę organom administracji różnych szczebli, od gminnych do rządowych, ale także
umożliwiając bezpośredni kontakt z nimi zwykłym obywatelom. Nieograniczony dostęp do
informacji publicznych w dowolnym czasie, bieżąca obserwacja działań rządowych,
możliwość tworzenia i publikowania informacji przez jednostki, niewątpliwie poszerza
zakres funkcjonujących swobód obywatelskich. Zupełnie nowe możliwości otwiera Internet
w edukacji. Realne staje się - dzięki interaktywności i indywidualizacji - nauczanie na
odległość (teleedukacja) na różnych poziomach kształcenia, od zawodowego po
uniwersyteckie. Rozpowszechnienie i globalizacja informacji przydaje tej informacji
nieznane dotąd wartości: - informacja znacznie częściej niż kiedykolwiek staje się towarem,
często przynoszącym ogromne zyski; - informacja jest czynnikiem kreującym zupełnie nowe
gałęzie przemysłu telekomunikacyjnego i informatycznego (firmy internetowe o nieczęsto
spotykanej dynamice wzrostu); - informacja staje się czynnikiem produkcji od którego
zależy pozycja firmy na rynku, przewaga nad konkurencją itd.; - informacja wreszcie staje
się katalizatorem głębokich przemian gospodarczych i cywilizacyjnych - współczesne
wielkie koncerny międzynarodowe cechuje organizacja sieciowa i globalizacja, przeciw
której tak wielu dziś protestuje. Ów dramatyczny rozwój środków komunikacji i narzędzi
przetwarzania informacji, ale także i wzrost zapotrzebowania na informację w
społeczeństwie oraz fakt, że - jak wspomniano wyżej - informacja i jej przetwarzanie staje
się w coraz większym stopniu elementem dochodu narodowego i źródłem utrzymania
poważnej części społeczeństwa, prowadzi do nowej organizacji społeczeństwa, opartej na
szerokim dostępie do informacji, czyli społeczeństwa Informacyjnego. Termin ten po raz
pierwszy pojawił się w 1963 r. w Japonii jako “Johoka Shakai” w artykule Tadao Umesamo,
dziennikarza japońskiego dziennika “Hoso Asahi”. Niektórzy autorzy uważają, że
nieprzypadkowo koncepcja ta pojawiła się właśnie tam i właśnie wtedy. Miała ona służyć
jako ideologia organizująca wyobraźnię społeczną i mobilizująca do rozwoju takich gałęzi
przemysłu - przemysłu przetwarzania informacji - gdzie pozbawiona surowców Japonia
mogła skutecznie konkurować z dominującym w zakresie tradycyjnej gospodarki
Zachodem. Rezultaty tej mobilizacji możemy obserwować i podziwiać do dziś.

Podobne dokumenty