Historia - WordPress.com
Transkrypt
Historia - WordPress.com
1. Historia ogólna 2 sierpnia 2000 roku, gdy większość z nas bawiła na zasłużonych wakacjach minęła rocznica, która głośnym echem odbiła się w fachowych periodykach, a w prasie codziennej została odnotowana jedynie w niewielkich wzmiankach. W dniu tym minęło 20 lat od wprowadzenia przez firmę International Business Machine (IBM), znaną dotąd z dużych komputerów, tzw. komputera osobistego (Personal Computer - PC). I choć, jak się za chwilę okaże, PC firmy IBM nie był wcale pierwszym domowym komputerem, a nawet w kręgach fachowców nie był wcale uważany za najlepszy, to jednak od niego zaczęła się rewolucja informatyczna końca XX wieku. Dzięki niej komputer przestał być tylko narzędziem pracy garstki wtajemniczonych - informatyków, a trafił pod przysłowiowe strzechy, a raczej na biurka zwykłych użytkowników. W pierwszym roku od wprowadzenia PC-tów sprzedano ich 130 tys., a w 1999 ilość sprzedanych komputerów osobistych różnych marek osiągnęła 140 milionów sztuk. Wróćmy jednak na chwilę w głęboką przeszłość, by zaznaczyć kamienie milowe w rozwoju technik obliczeniowych. Parafrazując słowa Biblii: “na początku było Słowo”, tutaj na początku był system, ale nie chodzi bynajmniej - jak chcieliby dzisiejsi zapaleńcy - o system operacyjny komputera, droga do tego była jeszcze bardzo daleka, ale o rzecz bardziej prozaiczną - system prowadzenia obliczeń. Wpajany nam od pierwszych klas szkoły podstawowej system pozycyjny kodowania i obliczeń dziesiętnych, znany przedtem jedynie w Indiach, został przeszczepiony na grunt europejski ok. 820 roku przez Muhammada Ibn Mussę Al-Chorezmi, lub, jak chcą inni, Al-Chawarizmi (Alchwarizmi). Jego dzieło przetłumaczone na łacinę w XII wieku zapoczątkowało w Europie sztukę obliczeń pisanych na pergaminie, papierze itp., a od zlatynizowanej wersji jego nazwiska Algorismus wzięło nazwę słowo algorytm i w konsekwencji podstawowa dziedzina informatyki teoretycznej - algorytmika. Warto zauważyć, że najstarszy znany algorytm - przepis na znajdowanie największego wspólnego dzielnika 2 liczb całkowitych pochodzi od Euklidesa z przełomu IV i III w. p.n.e. Muhammedowi ibn Mussie zawdzięczamy także termin algebra od tytułu innego dzieła poświęconego matematyce. Rozpowszechnienie systemu dziesiętnego umożliwiło użycie pierwszych pomocy rachunkowych w postaci różnego typu liczydeł, które w najbardziej skomplikowanej postaci - japońskiego sorobanu - pozostały w użyciu do dziś. Przełom umożliwiający mechanizację metod rachunkowych nastąpił w XVII wieku, w wyniku wynalezienia przez Johna Napiera w 1614 roku niezbyt przez niektórych z nas lubianych logarytmów. Zaowocowało to powstaniem mechanicznych urządzeń liczących, w tym dwudziałaniowego sumatora zbudowanego przez dziewiętnastoletniego podówczas Blaisa Pascala, znakomitego fizyka i filozofa. I choć Pascal nie był pierwszy, bo już 20 lat wcześniej Wilhelm Schickard (w 1623 r.) stworzył maszynę czterodziałaniową, to jednak sumator Pascala bardziej się rozpowszechnił, a jego egzemplarze dotrwały w muzeach do dziś. W XVII wieku dokonano też innego przełomu: Gottfried Leibniz pierwszy użył systemu dwójkowego do zapisu liczb i zastosował go w swojej czterodziałaniowej maszynie liczącej. Jednak plany prawdziwego mechanicznego komputera zawdzięczamy Anglikowi, Charlesowi Babbage’owi, który po pierwszych próbach zbudowania prostej maszyny liczącej, opracował w latach 1817-49 plany mechanicznego urządzenia liczącego mającego już oddzielny “procesor” i “pamięć” Babbage nazywał je “młynem” i “składem”. Miał on mieć także automatyczną drukarkę. Komputera tego nie ukończono za życia Babbage’a. Dopiero niemal 150 lat później - w dwusetną rocznicę urodzin wynalazcy - 29 listopada 1991 roku, ruszyła i wykonała pierwsze obliczenia - ważąca ponad 3 tony, złożona z ponad 4 tysięcy elementów i kosztująca 0,5 miliona dolarów - maszyna zbudowana w Science Museum w Londynie. A było to nie byle co - obliczenia tablicy siódmych potęg stu kolejnych liczb naturalnych z dokładnością do 31 cyfr znaczących. (dzisiejsze PC-ty, przy słowie 32 bitowym mają dokładność do 9 cyfr znaczących). Dla uzyskania jednego wyniku trzeba było jednak 27 tys. obrotów korby. Mechaniczny komputer Babbage’a był programowalny. Nośnikiem były karty perforowane wynalezione przez Josepha Jacquarda w 1801 roku do sterowania krosnami tkackimi. Myślę, że wszystkie Panie z zadowoleniem przyjmą fakt, że pierwszym w historii programistą była kobieta i to nie byle kto: Ada, córka poety lorda George’a Gordona Byrona i żona Roberta Artura trzeciego lorda Lovelace, Wynalezienie i rozpowszechnienie próżniowych lamp elektronowych doprowadziło do powstania na przełomie lat trzydziestych i czterdziestych I generacji elektronicznych urządzeń liczących. Wśród wielu z nich warto wyróżnić komputer Mark I zbudowany w 1944 roku na Uniwersytecie Harvarda przez Howarda Aikena. Był on dość imponujący, ale wolny. Miał rozmiary 17×2x1m, 3 tys. mechanicznych przełączników, 750 tys. lamp elektronowych i 800 km przewodów elektrycznych. Pracował w systemie dziesiętnym, miał dokładność 23 cyfr znaczących, ale wykonywał 3 dodawania/s, 1 mnożenie na 6 sekund i 1 dzielenie na 12 sekund. Odkrycie w 1948 roku tranzystora doprowadziło w latach 1954-58 do powstania II-ej generacji komputerów. Były to komputery serii IBM 7000 wykonujące do 250 operacji/s. Wynalezienie przez Jacka Kilby, pracownika firmy Texas Instruments układu scalonego zaowocowało powstaniem komputerów III generacji opartej na tzw. “małej skali integracji”. Typowym urządzeniem był tu duży komputer IBM 360 ( u nas system RIAD) o szybkości 36 milionów operacji/s (36 MFlops). Wynalazek układu scalonego przyniósł Jackowi Kilby po 42 latach nagrodę Nobla w dziedzinie fizyki. I tutaj historia rozwoju komputera zaczyna się rozgałęziać. Stworzenie opartego na układach scalonych tzw. “dużej skali integracji” mikroprocesora - pierwszym mikroprocesorem był Intel 4004 zbudowany przez Teda Hoffa w 1969 r. - prowadzi do powstania mikrokomputera, przodka komputera domowego czy osobistego. Z drugiej strony budowa procesorów opartych na układach o “bardzo wielkiej skali integracji” pozwala na konstrukcję komputerów IV i superkomputerów V generacji, wykorzystujących układy wieloprocesorowe i umożliwiających przetwarzanie równoległe. Najbardziej spektakularnym wśród nich był słynny Deep Blue, który w 1996 r. wygrał w szachy z Garym Kasparowem. Wróćmy wszakże do mikrokomputerów, bo to ta linia rozwoju doprowadziła do powstania komputera osobistego. Zanim jednak powstał PC zbudowano inne mikrokomputery. Pierwszym z nich był Altair 8800 firmy MITS, sprzedawany hobbystom w postaci gotowych zestawów do składania za 400 dolarów, począwszy od 1974 r. Był on oparty na procesorze Intel 8080 i wykorzystywał język programowania Basic, którego translator opracował w ciągu 2 tygodni na zamówienie nikomu wtedy nieznany młodzieniec Bill Gates. W rok później Bill Gates i Paul Allen założyli firmę Microsoft. Znacznie większą popularność zyskał niewątpliwie bardziej przyjazny użytkownikowi mikrokomputer Apple zbudowany przez Stephena Wozniaka i Stevena Jobsa w 1976 r. w przydomowym garażu za pieniądze ze sprzedaży starego Volkswagena-garbusa. Do roku 1984 sprzedano ponad 2 miliony egzemplarzy tego komputera, początkowo za 666,66 dolarów sztuka, a Steven J. Jobs stoi do dziś na czele firmy Macintosh, spadkobiercy Apple’a. Gdy 20 lat temu firma IBM wprowadziła na rynek mikrokomputer IBM 5150 oparty na 16-bitowym procesorze Intel 8088 z zegarem 4.77 MHz wykorzystujący system operacyjny MS-DOS 1.0 f-my Microsoft, nie wzbudził on zachwytu specjalistów. Miał ledwie 16 kB pamięci operacyjnej i stacje dysków elastycznych 5 1/4 cala, a jego system operacyjny uważany był za znacznie mniej dojrzały od popularnego od 10 lat systemu CP/M znanego w Polsce z mikrokomputerów Elwro Junior. Ale już w 1982 r. magazyn “Time” uznał komputer osobisty za “Człowieka (sic) roku”. W komentarzu “Time” pisał, że “PC może wysyłać listy z prędkością światła, zdiagnozować chorego pudla, w minutę przygotować program ubezpieczeniowy, wypróbować przepisy na piwo”, a w sondażu cytowanym przez “Time’a” 80% Amerykanów przewidywało, że komputery domowe staną się tak popularne jak telewizory czy zmywarka do naczyń. Były to opinie prorocze, gdyż w ciągu najbliższych lat pecet, z narzędzia dostępnego tylko specjalistom, stał się przedmiotem równie popularnym jak maszyna do pisania, umożliwiając wykorzystywanie edytorów tekstów, arkuszy kalkulacyjnych czy baz danych i jak telewizor pozwalając na dostęp do zasobów informacyjnych i funkcji sieci globalnych takich jak Internet. Zmienił się także sam pecet. Dziś częstotliwość zegarów popularnych pecetów kupowanych w supermarketach przekracza 1 GHz, pamięci operacyjne sięgają 256 MB, procesory wykorzystują słowo 32 bitowe, a w przygotowaniu są od dawna procesory 64-bitowe. Pecet zazwyczaj wyposażony jest w wysokiej klasy karty dźwiękowe i graficzne, a często i w kamerę wideo i kartę fax -modem, co czyni z niego wszechstronne narzędzie multimedialne. Historia rozwoju techniki obliczeniowej, która - jak wspomnieliśmy rozeszła się na dwie gałęzie w połowie lat siedemdziesiątych zaczyna się dziś na powrót zbiegać. Kosztem 53 milionów dolarów powstaje w USA najpotężniejsza dotychczas instalacja komputerowa dla celów nauki, przeznaczona do badań w zakresie modelowania molekularnego. Nie będzie to jednak pojedynczy, najpotężniejszy nawet superkomputer, ale zbudowana przez IBM sieć ponad 1000 serwerów wykorzystujących 64-bitowe procesory Intel Itanium i system operacyjny Linux. Przepustowość sieci wyniesie 40 miliardów bitów na sekundę, a połączone komputery będą mogły wykonywać prawie 14 bilionów operacji na sekundę i korzystać z pamięci 600 bilionów bajtów, co odpowiada zasobowi informacji zawartej w 146 dużych powieściach książkowych. Warto także prześledzić rozwój mocy obliczeniowej związany z pojawieniem się procesorów wykorzystujących słowo maszynowe o coraz większej długości. Pierwszy PC sprzed 20 lat wykorzystywał słowo 16-bitowe, co odpowiada zakresowi przetwarzanych liczb 216 tj. 65536, procesor 32-bitowy będący standardem obecnie przetwarza liczby z zakresu do 232 tj. ponad 4 miliony liczb, zaś dla procesora 64-bitowego, będącego obecnie w przygotowaniu, zakres ten wyraża się liczbą 264 czyli liczbą, którą można przedstawić jako dwójkę z 19 zerami (2×1019). Może bardziej przemawia do wyobraźni przedstawienie graficzne, które można znaleźć w literaturze: jeśli jedna liczba to maleńka kropka, to 216 liczb pokrywa powierzchnię znaczka pocztowego (ok. 5 cm 2), zaś 232 - 1,5 m2, a 264 - ok. 130 tys. km2 czyli w przybliżeniu obszar Grecji. Ale to nie wzrost mocy obliczeniowej, lecz ogromne potanienie jednostki mocy obliczeniowej zadecydowało o rozpowszechnieniu mikrokomputerów. Widać to już przy cenie pierwszego PC kosztującego 20 lat temu. niespełna 3 tys. dolarów. W literaturze znaleźć można (Evans) jeszcze jedno interesujące porównanie. Gdyby tak jak jednostka mocy obliczeniowej taniał Rolls-Royce to już w 1988 r. kosztowałby poniżej dolara, a połowa uncji benzyny (16g) pozwalałaby mu jeździć bez przerwy przez 20 lat. Kolejnym czynnikiem leżącym u podstaw rewolucji informacyjnej schyłku XX wieku, było powstanie sieci globalnej - Internetu. Internet wykluł się w połowie lat osiemdziesiątych z powstałej w 1968 r. wojskowej sieci badawczej zwanej Arpanet (liczyła aż… 4 komputery). Oparty na wywodzącym się jeszcze z Arpanetu protokole TCP/IP służył początkowo do wymiany poczty elektronicznej, transferu plików oraz pracy na zdalnych komputerach. Funkcje te mogły być realizowane przy użyciu dotychczasowego, szeroko rozpowszechnionego, systemu operacyjnego pecetów MS-DOS. Użycie tego tekstowego systemu ograniczało jednak nie tylko krąg użytkowników do inżynierów i naukowców, ale wydawało się także być barierą dalszego rozwoju i ekspansji Internetu. Czynnikiem, który wyzwolił tę ekspansję i umożliwił dostęp do Internetu zwykłemu użytkownikowi, było powstanie graficznego systemu operacyjnego Windows (zaprezentowanego 23 maja 1990 r.). System ten oparty na filozofii “okien” - prostokątnych obszarów zawierających wszystkie informacje o danym procesie i obsługiwanych za pomocą manipulatora - popularnej myszy, zrewolucjonizował obsługę komputera osobistego. Umożliwiał bowiem proste łączenie różnych aplikacji, równoczesne wykonywanie wielu zadań, a nade wszystko wykorzystywanie technik multimedialnych: dźwięku, animacji i filmu. Dzięki temu systemowi komputer osobisty stał się naturalnym oknem do Wszechświatowej Pajęczyny (World Wide Web), najpopularniejszego bodaj dzisiaj sposobu wykorzystania Internetu. Wszechświatowa Pajęczyna to system bardzo wielu serwerów (tzw. Komputerów - hostów) udostępniających informacje sporządzone w technice hipertekstu, gdzie pojedynczy dokument, zwany stroną, zawiera szereg odnośników (w postaci słów oznaczonych kursywą, ozdobników graficznych czy obrazów) pełniących rolę odsyłaczy do innych dokumentów. “Kliknięcie” myszą na odnośniku powoduje przejście do dokumentów będących objaśnieniem, rozwinięciem czy też ilustracją dokumentu podstawowego. Dostęp do zasobów sieci ułatwiają odpowiednie przeglądarki np. Nestcape Navigator czy Internet Explorer. A są to zasoby ogromne i wszechstronne: katalogi bibliotek i muzeów, w tym reprodukcje dzieł sztuki, serwisy agencji prasowych i aktualne wydanie czasopism, notowania giełdowe i bieżące mapy pogody, a także, z lżejszej kategorii, teksty i nuty piosenek, jak również same utwory, fragmenty filmów, a nawet przepisy kulinarne. W znalezieniu poszukiwanej przez nas informacji pomagają liczne wyszukiwarki, np. Yahoo czy AltaVista. Zakres usług internetowych poszerzył się o nowe możliwości, takie jak udział w listach dyskusyjnych, czy w modnych obecnie - zwłaszcza wśród młodzieży - pogawędkach (tzw. chat) z podłączonymi na tym samym kanale innymi użytkownikami. Karierę robią nie tylko internetowe usługi bankowe, ale także możliwość zakupów w sklepach internetowych. Powstały nowe gałęzie biznesu (tzw. e-business) związane z usługami internetowymi. Pojawiły się także dość nieoczekiwane usługi jak możliwość wzięcia ślubu przez Internet, czy nawet wyspowiadania się. Internet w wielu państwach staje się kośćcem organizacji państwowej ułatwiając współpracę organom administracji różnych szczebli, od gminnych do rządowych, ale także umożliwiając bezpośredni kontakt z nimi zwykłym obywatelom. Nieograniczony dostęp do informacji publicznych w dowolnym czasie, bieżąca obserwacja działań rządowych, możliwość tworzenia i publikowania informacji przez jednostki, niewątpliwie poszerza zakres funkcjonujących swobód obywatelskich. Zupełnie nowe możliwości otwiera Internet w edukacji. Realne staje się - dzięki interaktywności i indywidualizacji - nauczanie na odległość (teleedukacja) na różnych poziomach kształcenia, od zawodowego po uniwersyteckie. Rozpowszechnienie i globalizacja informacji przydaje tej informacji nieznane dotąd wartości: - informacja znacznie częściej niż kiedykolwiek staje się towarem, często przynoszącym ogromne zyski; - informacja jest czynnikiem kreującym zupełnie nowe gałęzie przemysłu telekomunikacyjnego i informatycznego (firmy internetowe o nieczęsto spotykanej dynamice wzrostu); - informacja staje się czynnikiem produkcji od którego zależy pozycja firmy na rynku, przewaga nad konkurencją itd.; - informacja wreszcie staje się katalizatorem głębokich przemian gospodarczych i cywilizacyjnych - współczesne wielkie koncerny międzynarodowe cechuje organizacja sieciowa i globalizacja, przeciw której tak wielu dziś protestuje. Ów dramatyczny rozwój środków komunikacji i narzędzi przetwarzania informacji, ale także i wzrost zapotrzebowania na informację w społeczeństwie oraz fakt, że - jak wspomniano wyżej - informacja i jej przetwarzanie staje się w coraz większym stopniu elementem dochodu narodowego i źródłem utrzymania poważnej części społeczeństwa, prowadzi do nowej organizacji społeczeństwa, opartej na szerokim dostępie do informacji, czyli społeczeństwa Informacyjnego. Termin ten po raz pierwszy pojawił się w 1963 r. w Japonii jako “Johoka Shakai” w artykule Tadao Umesamo, dziennikarza japońskiego dziennika “Hoso Asahi”. Niektórzy autorzy uważają, że nieprzypadkowo koncepcja ta pojawiła się właśnie tam i właśnie wtedy. Miała ona służyć jako ideologia organizująca wyobraźnię społeczną i mobilizująca do rozwoju takich gałęzi przemysłu - przemysłu przetwarzania informacji - gdzie pozbawiona surowców Japonia mogła skutecznie konkurować z dominującym w zakresie tradycyjnej gospodarki Zachodem. Rezultaty tej mobilizacji możemy obserwować i podziwiać do dziś.