Wstęp do informatyki

Transkrypt

Wstęp do informatyki
Wykład 7
Powrót do przeszłości
i przyszłości
Krótka (bardzo) historia komputerów:
ok. 2600 r. p.n.e. stosowano liczydła zwane abakusami
IV w. p.n.e. – Euklides w swoim fundamentalnym dziele „Elementy” podał algorytm
znajdowania NWD (największego wspólnego dzielnika) dwóch liczb całkowitych
dodatnich; dziś przepis ten jest uważany za pierwszy algorytm
IX w. n.e. - matematyk perski Muhammed Alchwarizmi (Muhammed ibn Musa alChorezmi) - około 825 r n.e. podał reguły dodawania, odejmowania, mnożenia
i dzielenia liczb dziesiętnych. Jego nazwisko pisane po łacinie brzmi ALGORISMUS,
stąd słowo algorytm.
1620 r - John Napier (1550-1617) opublikował pracę o logarytmach, wynalazł
przyrząd do mnożenia, tzw. pałeczki Napiera (Nepera)
1623 r - Wilhelm Schickard (1592-1635) zbudował model maszyny
czterodziałaniowej wykorzystującej pałeczki Nepera i koła zębate
1632 r - William Oughtred (1574-1660), zainspirowany linijką logarytmiczną
Edmunda Guntera (1581-1626), wynalazł suwak logarytmiczny
1642-1645 r - Blaise Pascal (1623-1662) zbudował sumator (Pascalina)
ok. 1700 r - Gottfried Wilhelm Leibnitz (1646-1716) – zbudował jedną z pierwszych
maszyn wykonujących cztery działania, odkrył na nowo, pochodzący z Chin system
dwójkowy zapisu liczb
1801 r - Joseph Marie Jacquard (1752-1834) udoskonalił krosno tkackie przez
zastosowanie dodatkowego urządzenia do tkania wzorzystego - wzory nanoszono na
karty perforowane sterujące ruchami nitek osnowy
1833 r - Charles Babbage (1791-1871) zbudował maszynę różnicową służącą do
obliczania wybranych wzorów matematycznych; stworzył też plany maszyny
analitycznej, która miała być zdolna do realizacji algorytmów, czyli programów
zakodowanych przez użytkownika w postaci otworów dziurkowanych w kartach
1842-1843 r - Ada Augusta King, hrabina Lovelace (1815-1852), córka lorda
Byrona - przetłumaczyła dla Babbage'a rozprawę dotyczącą maszyny analitycznej,
dołączyła zbiór uwag nt. metody obliczania liczb Bernoulliego za pomocą tej
maszyny, opis uznano za pierwowzór programu komputerowego; przypuszczała, że
taka maszyna mogłaby tworzyć grafikę albo komponować muzykę
1887 r - Herman Hollerith (1860-1929) wynalazł maszynę liczącą do
mechanicznego opracowywania danych statystycznych, opartą na kartach
perforowanych, jej kolejna wersja była użyta do pomocy w opracowaniu wyników
spisu powszechnego w 1890 r. w USA
1
początek XX w. to okres rosnących zainteresowań problemami obliczeniowymi prace teoretyczne takich matematyków, jak:
- David Hilbert (1862-1943) - algebraiczna teoria liczb
- Emil Post (1897-1954) – teoria rekursji, abstrakcyjny model obliczeń
- Alonzo Church (1903-1995) - rachunek λ
- Andriej Markow (1903-1979) - teoria algorytmów
- Kurt Gödel (1906-1978) - twierdzenie o niezupełności, rozstrzygalność
- Stephen Kleene (1909-1994) - rekursja, teoria funkcji obliczalnych
1936 r – Alan Turing (1912-1954) opisał tok myślenia prowadzący od obliczeń
wykonywanych „ręcznie” do obliczeń wykonywanych przez bardzo prostą maszynę –
maszynę Turinga
1946 r – John von Neumann (1903-1957) stworzył architekturę współczesnego
komputera
1936-1941 r – Konrad Zuse (1910-1995) - Z1, Z2, Z3 - pierwsze kalkulatory oparte
na przekaźnikach elektromechanicznych i elektronicznych
1939-1941 r - Atanasoff-Berry Computer - maszyna do rozwiązywania układów
równań liniowych, pierwszy działający prototyp specjalizowanego komputera
(zastosowano lampy elektronowe)
1943-1944 r - Colossus – seria programowalnych maszyn cyfrowych oparta na
teoretycznych podstawach Alana Turinga; pierwsze urządzenie z tej serii powstało w
Wielkiej Brytanii, przeznaczone było do zastosowań wojskowych; projektem kierowali
Tommy Flowers i Max Newman.
1943-1945 r – ENIAC (Electronic Numerical Integrator And Computer) - kalkulator
elektroniczny (18000 lamp elektronowych, dł: 15 m, szer: 9 m, waga: 30 ton, 5000
dodawań/sek), projektem kierowali J.W. Mauchley i J.P. Eckert
1944 r - Harvard Mark I - prace kierowane przez Howarda Aiken’a
Pierwsze komputery (porównanie):
komputer
uruchomienie
binarny
elektronika
programowanie
Z3
maj 1941
tak
nie
dziurkowana
taśma celuloidowa
Atanasoff–
Berry
Computer
lato 1941
tak
tak
nie
Colossus
grudzień 1943 /
styczeń 1944
tak
tak
Harvard Mark I 1944
nie
nie
1944
nie
tak
1948
nie
tak
ENIAC
2
częściowo, przez
przełączanie kabli
dziurkowana
taśma papierowa
częściowo, przez
przełączanie kabli
tablice funkcji,
karty perforowane
1946 r - EDVAC (Electronic Discrete Variable Automatic Computer) - prace z
udziałem Johna von Neumanna
1949-1951 r – kolejne komputery EDSAC (Wielka Brytania) i UNIVAC
Rozwój technologii budowy maszyn wiąże się z takimi znanymi firmami jak:
IBM (International Business Machines - 1924 r) powstałej na bazie firmy założonej w
1896 r przez H. Holleritha w celu wytwarzania maszyn tabulujących)
ACM (Association for Computing Machinery - 1947 r), jednej z największych
organizacji zawodowych związanych z komputerami.
1947 r – wynalezienie tranzystora
1950 r – GAM-1 - polski doświadczalny komputer zerowej generacji
1955 r – tranzystory zastąpiły lampy elektronowe
1958 r – wynalezienie układu scalonego
1958 r – XYZ - pierwszy komputer zbudowany i uruchomiony w Polsce
1960 r – pierwszy minikomputer PDP-1
1964 r – komputery IBM/360
1968 r – układy scalone wielkiej skali integracji
1971 r – procesor Intel 4004 (2300 tranzystorów, zegar 740 kHz)
seryjna produkcja mikroprocesorów
1974 r – procesor Intel 8080 (4800 tranzystorów, zegar 2 MHz)
1975 r – pierwszy mikrokomputer domowy Altair 8800 (firma MITS)
procesor Intel 8080, 256 B pamięci RAM, zegar 2 MHz
1977 r – komputer Apple II
1981 r – pierwsze mikrokomputery IBM PC
Komputery w Poznaniu:
W Poznaniu pierwsze komputery pojawiły się około 1963 roku
1969 r – na UAM na Wydziale Mat-Fiz-Chem powstaje specjalność metody
numeryczne (w ramach studiów na kierunku Matematyka).
1976 r – na Politechnice Poznańskiej powstaje kierunek Informatyka.
1993 r – powstaje Wydział Matematyki i Informatyki przekształcony z Wydziału
Matematyki i Fizyki.
Obszary zainteresowań informatyki
Prof. Jan Węglarz: „Informatyka jako dyscyplina a wizja społeczeństwa
informacyjnego”, Pro Dialog 7/1998):
Algorytmy i struktury danych: teoria obliczalności, teoria złożoności obliczeniowej,
optymalność algorytmów, obliczenia równoległe
Języki programowania: lingwistyka matematyczna, języki formalne i automaty,
maszyny Turinga, semantyki formalne
Architektura komputerów: teoria układów przełączających, teoria kodowania, teoria
niezawodności
Obliczenia numeryczne i symboliczne: teoria liczb, algebra, metody numeryczne
3
Systemy operacyjne: teoria współbieżności, teoria sterowania, zarządzanie
pamięcią
Inżynieria oprogramowania: weryfikacja programów, logika temporalna, rachunek
predykatów
Bazy danych i systemy wyszukiwania informacji: algebra relacji, teoria
zależności, optymalizacja transakcji, indeksowanie, sortowanie
Sztuczna inteligencja: uczenie maszynowe, sieci neuronowe, systemy eksperckie,
systemy wspomagania decyzji
Komunikacja człowiek – komputer: grafika komputerowa, rozpoznawanie obrazów,
rozpoznawanie mowy, komputerowo wspomagane projektowanie, multimedia,
rzeczywistość wirtualna, INTERNET
Klasyfikacja dziedzin informatyki (jedna z wielu):
Algorytmy i struktury danych (algorytmika)
Architektura komputerów
Bazy danych
Grafika komputerowa
Inżynieria oprogramowania
Języki programowania i programowanie
Kryptografia
Metody obliczeń numerycznych
Multimedia
Sieci komputerowe
Systemy operacyjne
Sztuczna inteligencja
Teoria informacji
Zarządzanie informacją
„Przeszłość i przyszłość informatyki”, Maciej M. Sysło, Instytut Informatyki,
Uniwersytet Wrocławski:
„Technologia komputerowa i komputacyjna rozwija się nieustannie i w olbrzymim
tempie. Pojawiają się nowe idee i gadżety, które powoli zmieniają nasze życie niemal
we wszystkich sferach. Jest to jednak tylko ewolucja, której efekty można
przewidywać, a która nie burzy i nie rewolucjonizuje zachowania jednostki
i stosunków społecznych, odsyłając do lamusa dotychczasowe rozwiązania,
uznawane za tradycyjne.
Można sobie jednak wyobrazić, że technologia będzie coraz bardziej integrować się
nie tylko z tradycyjnymi czynnościami człowieka na zasadzie ich wspierania, ale że w
pewnym momencie całkowicie przejmie wykonywanie wybranych czynności.
Znane już są tego przykłady, np. protezy uruchamiane impulsami z mózgu, często
odruchowo, bez angażowania działań z pełną świadomością. Można sobie
wyobrazić, że tak się może stać z czytaniem – odpowiedni chip, zainstalowany w
kąciku oka będzie odbierał sygnały („czytał” je) przychodzące do oka i przekazywał
bezpośrednio do mózgu. Te sygnały mogą pochodzić nie tylko z ekranu przed
naszymi oczyma, czy z otwartej książki, ale mogą być wysyłane bezpośrednio do
chipa z globalnej biblioteki światowych zasobów informacji. Na przeszkodzie temu
dopełnianiu mózgu informacjami może stanąć jednak natura człowiek – Stanisław
4
Lem powoływał się na badania, które uzasadniały, że obecnie człowiek wcale nie
absorbuje więcej informacji, niż robił to na przykład w Starożytności. Ale przecież ten
chip może mieć podręczną pamięć, która będzie zapełniana na wszelki wypadek i
szybko dostępna dla jego właściciela, nawet nieświadomie, w reakcji na impuls z
mózgu.
Podobny los może spotkać inne czynności człowieka, odruchy bezwarunkowe
i warunkowe, a także te z pogranicza myślenia i świadomości.”
„Przyszłość technologii informacyjnych”, Włodzisław Duch, Katedra
Informatyki Stosowanej, Uniwersytet Mikołaja Kopernika:
„rok 2020
- za 1000 $ można kupić komputer dorównujący mocą obliczeniową ludzkiemu
mózgowi
- sztuczne mózgi przestają być fantazją
- komputery podejmują większość decyzji lepiej niż ludzie
- wszystkie materiały kiedykolwiek wydrukowane dostępne są na zawołanie przez
bezprzewodową supersieć
- komputery kwantowe rozwiązują zagadnienia niedostępne naszym umysłom
- rozpoznawanie gestów, nastrojów i emocji pozwala na naturalną komunikację
z artilektami (sztucznymi intelektami)
- cyberprzestrzeń jest podstawowym medium komunikacji pomiędzy ludźmi oraz
z artilektami
- okulary 3D stwarzają złudzenie rzeczywistości; pojawiają się interfejsy wrażeń
dotykowych
- bezpośrednia integracja z mózgiem pozwala na rozszerzenie doznań zmysłowych
i możliwości poznawczych
- komputery wbudowane są we wszystko i przestają być widoczne; świat pełen jest
inteligentnych przedmiotów
- komputery projektują nowe, które projektują nowe ...
- roboty o różnych kształtach spotyka się na każdym kroku
- pojawiają się komputerowi artyści
- udział ludzi w odkryciach staje się coraz mniejszy
- rozwijają się związki emocjonalne pomiędzy ludźmi i awatarami
- tylko niewielka część ludzkości bierze udział w szybkim rozwoju”
„lata 2030-2050
- za 1000 $ można kupić komputer (kwantowy?) o mocy rzędu 1000 mózgów
- 3 wymiary są mało interesujące - ewolucja myśli przenosi się w światy
wielowymiarowe
- artilekty uczą się szybko, a nowa wiedza staje się niezrozumiała dla ludzi
- większość interakcji zachodzi pomiędzy sztucznymi osobowościami
- upowszechniają się bezpośrednie połączenia z mózgiem, implanty i sterowanie
myślami
- dzięki implantom wirtualna rzeczywistość nie różni się od wrażeń realnych
- maszyny przechodzą test Turinga i twierdzą, że są świadome i większość ludzi to
akceptuje
- cała sfera produkcji i większość usług jest w pełni zautomatyzowana
- prawny status cyborgów staje się ważnym problemem; osobowości ludzkie
mieszają się ze sztucznymi - osiągnięta zostaje całkowita rozszerzalność umysłu,
5
praktyczna nieśmiertelność
- formy postrzegania i przeżywania świata staną się zupełnie niepodobne do
pierwotnych
- przeprowadzka z umysłu do umysłu sztucznego i odwrotnie będzie możliwa”
Co będzie ważne?:
- przetwarzanie w chmurze
- komputery kwantowe
- komputery DNA
- bioinformatyka
- robotyka
- sztuczna inteligencja
- wszechobecna wirtualizacja (rzeczywistość wirtualna, rzeczywistość rozszerzona)
- nowe urządzenia do komunikacji
http://prezi.com/009wt19hsqat/przyszosc-informatyki/
6

Podobne dokumenty