Wstęp do informatyki
Transkrypt
Wstęp do informatyki
Wykład 7 Powrót do przeszłości i przyszłości Krótka (bardzo) historia komputerów: ok. 2600 r. p.n.e. stosowano liczydła zwane abakusami IV w. p.n.e. – Euklides w swoim fundamentalnym dziele „Elementy” podał algorytm znajdowania NWD (największego wspólnego dzielnika) dwóch liczb całkowitych dodatnich; dziś przepis ten jest uważany za pierwszy algorytm IX w. n.e. - matematyk perski Muhammed Alchwarizmi (Muhammed ibn Musa alChorezmi) - około 825 r n.e. podał reguły dodawania, odejmowania, mnożenia i dzielenia liczb dziesiętnych. Jego nazwisko pisane po łacinie brzmi ALGORISMUS, stąd słowo algorytm. 1620 r - John Napier (1550-1617) opublikował pracę o logarytmach, wynalazł przyrząd do mnożenia, tzw. pałeczki Napiera (Nepera) 1623 r - Wilhelm Schickard (1592-1635) zbudował model maszyny czterodziałaniowej wykorzystującej pałeczki Nepera i koła zębate 1632 r - William Oughtred (1574-1660), zainspirowany linijką logarytmiczną Edmunda Guntera (1581-1626), wynalazł suwak logarytmiczny 1642-1645 r - Blaise Pascal (1623-1662) zbudował sumator (Pascalina) ok. 1700 r - Gottfried Wilhelm Leibnitz (1646-1716) – zbudował jedną z pierwszych maszyn wykonujących cztery działania, odkrył na nowo, pochodzący z Chin system dwójkowy zapisu liczb 1801 r - Joseph Marie Jacquard (1752-1834) udoskonalił krosno tkackie przez zastosowanie dodatkowego urządzenia do tkania wzorzystego - wzory nanoszono na karty perforowane sterujące ruchami nitek osnowy 1833 r - Charles Babbage (1791-1871) zbudował maszynę różnicową służącą do obliczania wybranych wzorów matematycznych; stworzył też plany maszyny analitycznej, która miała być zdolna do realizacji algorytmów, czyli programów zakodowanych przez użytkownika w postaci otworów dziurkowanych w kartach 1842-1843 r - Ada Augusta King, hrabina Lovelace (1815-1852), córka lorda Byrona - przetłumaczyła dla Babbage'a rozprawę dotyczącą maszyny analitycznej, dołączyła zbiór uwag nt. metody obliczania liczb Bernoulliego za pomocą tej maszyny, opis uznano za pierwowzór programu komputerowego; przypuszczała, że taka maszyna mogłaby tworzyć grafikę albo komponować muzykę 1887 r - Herman Hollerith (1860-1929) wynalazł maszynę liczącą do mechanicznego opracowywania danych statystycznych, opartą na kartach perforowanych, jej kolejna wersja była użyta do pomocy w opracowaniu wyników spisu powszechnego w 1890 r. w USA 1 początek XX w. to okres rosnących zainteresowań problemami obliczeniowymi prace teoretyczne takich matematyków, jak: - David Hilbert (1862-1943) - algebraiczna teoria liczb - Emil Post (1897-1954) – teoria rekursji, abstrakcyjny model obliczeń - Alonzo Church (1903-1995) - rachunek λ - Andriej Markow (1903-1979) - teoria algorytmów - Kurt Gödel (1906-1978) - twierdzenie o niezupełności, rozstrzygalność - Stephen Kleene (1909-1994) - rekursja, teoria funkcji obliczalnych 1936 r – Alan Turing (1912-1954) opisał tok myślenia prowadzący od obliczeń wykonywanych „ręcznie” do obliczeń wykonywanych przez bardzo prostą maszynę – maszynę Turinga 1946 r – John von Neumann (1903-1957) stworzył architekturę współczesnego komputera 1936-1941 r – Konrad Zuse (1910-1995) - Z1, Z2, Z3 - pierwsze kalkulatory oparte na przekaźnikach elektromechanicznych i elektronicznych 1939-1941 r - Atanasoff-Berry Computer - maszyna do rozwiązywania układów równań liniowych, pierwszy działający prototyp specjalizowanego komputera (zastosowano lampy elektronowe) 1943-1944 r - Colossus – seria programowalnych maszyn cyfrowych oparta na teoretycznych podstawach Alana Turinga; pierwsze urządzenie z tej serii powstało w Wielkiej Brytanii, przeznaczone było do zastosowań wojskowych; projektem kierowali Tommy Flowers i Max Newman. 1943-1945 r – ENIAC (Electronic Numerical Integrator And Computer) - kalkulator elektroniczny (18000 lamp elektronowych, dł: 15 m, szer: 9 m, waga: 30 ton, 5000 dodawań/sek), projektem kierowali J.W. Mauchley i J.P. Eckert 1944 r - Harvard Mark I - prace kierowane przez Howarda Aiken’a Pierwsze komputery (porównanie): komputer uruchomienie binarny elektronika programowanie Z3 maj 1941 tak nie dziurkowana taśma celuloidowa Atanasoff– Berry Computer lato 1941 tak tak nie Colossus grudzień 1943 / styczeń 1944 tak tak Harvard Mark I 1944 nie nie 1944 nie tak 1948 nie tak ENIAC 2 częściowo, przez przełączanie kabli dziurkowana taśma papierowa częściowo, przez przełączanie kabli tablice funkcji, karty perforowane 1946 r - EDVAC (Electronic Discrete Variable Automatic Computer) - prace z udziałem Johna von Neumanna 1949-1951 r – kolejne komputery EDSAC (Wielka Brytania) i UNIVAC Rozwój technologii budowy maszyn wiąże się z takimi znanymi firmami jak: IBM (International Business Machines - 1924 r) powstałej na bazie firmy założonej w 1896 r przez H. Holleritha w celu wytwarzania maszyn tabulujących) ACM (Association for Computing Machinery - 1947 r), jednej z największych organizacji zawodowych związanych z komputerami. 1947 r – wynalezienie tranzystora 1950 r – GAM-1 - polski doświadczalny komputer zerowej generacji 1955 r – tranzystory zastąpiły lampy elektronowe 1958 r – wynalezienie układu scalonego 1958 r – XYZ - pierwszy komputer zbudowany i uruchomiony w Polsce 1960 r – pierwszy minikomputer PDP-1 1964 r – komputery IBM/360 1968 r – układy scalone wielkiej skali integracji 1971 r – procesor Intel 4004 (2300 tranzystorów, zegar 740 kHz) seryjna produkcja mikroprocesorów 1974 r – procesor Intel 8080 (4800 tranzystorów, zegar 2 MHz) 1975 r – pierwszy mikrokomputer domowy Altair 8800 (firma MITS) procesor Intel 8080, 256 B pamięci RAM, zegar 2 MHz 1977 r – komputer Apple II 1981 r – pierwsze mikrokomputery IBM PC Komputery w Poznaniu: W Poznaniu pierwsze komputery pojawiły się około 1963 roku 1969 r – na UAM na Wydziale Mat-Fiz-Chem powstaje specjalność metody numeryczne (w ramach studiów na kierunku Matematyka). 1976 r – na Politechnice Poznańskiej powstaje kierunek Informatyka. 1993 r – powstaje Wydział Matematyki i Informatyki przekształcony z Wydziału Matematyki i Fizyki. Obszary zainteresowań informatyki Prof. Jan Węglarz: „Informatyka jako dyscyplina a wizja społeczeństwa informacyjnego”, Pro Dialog 7/1998): Algorytmy i struktury danych: teoria obliczalności, teoria złożoności obliczeniowej, optymalność algorytmów, obliczenia równoległe Języki programowania: lingwistyka matematyczna, języki formalne i automaty, maszyny Turinga, semantyki formalne Architektura komputerów: teoria układów przełączających, teoria kodowania, teoria niezawodności Obliczenia numeryczne i symboliczne: teoria liczb, algebra, metody numeryczne 3 Systemy operacyjne: teoria współbieżności, teoria sterowania, zarządzanie pamięcią Inżynieria oprogramowania: weryfikacja programów, logika temporalna, rachunek predykatów Bazy danych i systemy wyszukiwania informacji: algebra relacji, teoria zależności, optymalizacja transakcji, indeksowanie, sortowanie Sztuczna inteligencja: uczenie maszynowe, sieci neuronowe, systemy eksperckie, systemy wspomagania decyzji Komunikacja człowiek – komputer: grafika komputerowa, rozpoznawanie obrazów, rozpoznawanie mowy, komputerowo wspomagane projektowanie, multimedia, rzeczywistość wirtualna, INTERNET Klasyfikacja dziedzin informatyki (jedna z wielu): Algorytmy i struktury danych (algorytmika) Architektura komputerów Bazy danych Grafika komputerowa Inżynieria oprogramowania Języki programowania i programowanie Kryptografia Metody obliczeń numerycznych Multimedia Sieci komputerowe Systemy operacyjne Sztuczna inteligencja Teoria informacji Zarządzanie informacją „Przeszłość i przyszłość informatyki”, Maciej M. Sysło, Instytut Informatyki, Uniwersytet Wrocławski: „Technologia komputerowa i komputacyjna rozwija się nieustannie i w olbrzymim tempie. Pojawiają się nowe idee i gadżety, które powoli zmieniają nasze życie niemal we wszystkich sferach. Jest to jednak tylko ewolucja, której efekty można przewidywać, a która nie burzy i nie rewolucjonizuje zachowania jednostki i stosunków społecznych, odsyłając do lamusa dotychczasowe rozwiązania, uznawane za tradycyjne. Można sobie jednak wyobrazić, że technologia będzie coraz bardziej integrować się nie tylko z tradycyjnymi czynnościami człowieka na zasadzie ich wspierania, ale że w pewnym momencie całkowicie przejmie wykonywanie wybranych czynności. Znane już są tego przykłady, np. protezy uruchamiane impulsami z mózgu, często odruchowo, bez angażowania działań z pełną świadomością. Można sobie wyobrazić, że tak się może stać z czytaniem – odpowiedni chip, zainstalowany w kąciku oka będzie odbierał sygnały („czytał” je) przychodzące do oka i przekazywał bezpośrednio do mózgu. Te sygnały mogą pochodzić nie tylko z ekranu przed naszymi oczyma, czy z otwartej książki, ale mogą być wysyłane bezpośrednio do chipa z globalnej biblioteki światowych zasobów informacji. Na przeszkodzie temu dopełnianiu mózgu informacjami może stanąć jednak natura człowiek – Stanisław 4 Lem powoływał się na badania, które uzasadniały, że obecnie człowiek wcale nie absorbuje więcej informacji, niż robił to na przykład w Starożytności. Ale przecież ten chip może mieć podręczną pamięć, która będzie zapełniana na wszelki wypadek i szybko dostępna dla jego właściciela, nawet nieświadomie, w reakcji na impuls z mózgu. Podobny los może spotkać inne czynności człowieka, odruchy bezwarunkowe i warunkowe, a także te z pogranicza myślenia i świadomości.” „Przyszłość technologii informacyjnych”, Włodzisław Duch, Katedra Informatyki Stosowanej, Uniwersytet Mikołaja Kopernika: „rok 2020 - za 1000 $ można kupić komputer dorównujący mocą obliczeniową ludzkiemu mózgowi - sztuczne mózgi przestają być fantazją - komputery podejmują większość decyzji lepiej niż ludzie - wszystkie materiały kiedykolwiek wydrukowane dostępne są na zawołanie przez bezprzewodową supersieć - komputery kwantowe rozwiązują zagadnienia niedostępne naszym umysłom - rozpoznawanie gestów, nastrojów i emocji pozwala na naturalną komunikację z artilektami (sztucznymi intelektami) - cyberprzestrzeń jest podstawowym medium komunikacji pomiędzy ludźmi oraz z artilektami - okulary 3D stwarzają złudzenie rzeczywistości; pojawiają się interfejsy wrażeń dotykowych - bezpośrednia integracja z mózgiem pozwala na rozszerzenie doznań zmysłowych i możliwości poznawczych - komputery wbudowane są we wszystko i przestają być widoczne; świat pełen jest inteligentnych przedmiotów - komputery projektują nowe, które projektują nowe ... - roboty o różnych kształtach spotyka się na każdym kroku - pojawiają się komputerowi artyści - udział ludzi w odkryciach staje się coraz mniejszy - rozwijają się związki emocjonalne pomiędzy ludźmi i awatarami - tylko niewielka część ludzkości bierze udział w szybkim rozwoju” „lata 2030-2050 - za 1000 $ można kupić komputer (kwantowy?) o mocy rzędu 1000 mózgów - 3 wymiary są mało interesujące - ewolucja myśli przenosi się w światy wielowymiarowe - artilekty uczą się szybko, a nowa wiedza staje się niezrozumiała dla ludzi - większość interakcji zachodzi pomiędzy sztucznymi osobowościami - upowszechniają się bezpośrednie połączenia z mózgiem, implanty i sterowanie myślami - dzięki implantom wirtualna rzeczywistość nie różni się od wrażeń realnych - maszyny przechodzą test Turinga i twierdzą, że są świadome i większość ludzi to akceptuje - cała sfera produkcji i większość usług jest w pełni zautomatyzowana - prawny status cyborgów staje się ważnym problemem; osobowości ludzkie mieszają się ze sztucznymi - osiągnięta zostaje całkowita rozszerzalność umysłu, 5 praktyczna nieśmiertelność - formy postrzegania i przeżywania świata staną się zupełnie niepodobne do pierwotnych - przeprowadzka z umysłu do umysłu sztucznego i odwrotnie będzie możliwa” Co będzie ważne?: - przetwarzanie w chmurze - komputery kwantowe - komputery DNA - bioinformatyka - robotyka - sztuczna inteligencja - wszechobecna wirtualizacja (rzeczywistość wirtualna, rzeczywistość rozszerzona) - nowe urządzenia do komunikacji http://prezi.com/009wt19hsqat/przyszosc-informatyki/ 6