Informatyka 1 - PB Wydział Elektryczny
Transkrypt
Informatyka 1 - PB Wydział Elektryczny
Informatyka 1 Politechnika Białostocka - Wydział Elektryczny Elektrotechnika, semestr II, studia niestacjonarne I stopnia Rok akademicki 2009/2010 Wykład nr 7 (15.05.2010) dr inż. Jarosław Forenc Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc Plan wykładu nr 7 Architektura i organizacja systemu komputerowego Struktura i funkcjonowanie komputera procesor, rozkazy, przerwania struktura połączeń, magistrala, DMA systemy pamięci komputerowych hierarchia pamięci, pamięć podręczna 2/40 Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 3/40 Architektura i organizacja systemu komputerowego Przedstawienie struktury i zasady działania komputerów jest zagadnieniem dość skomplikowanym, gdyż: istnieje ogromna różnorodność sprzętu komputerowego (od komputerów masywnie równoległych do komputerów PC) technika komputerowa rozwija się bardzo szybko, ciągle pojawiają się nowe technologie, interfejsy, standardy komputer jest systemem złożonym z bardzo dużej liczby elementów Z powyższych powodów zazwyczaj przedstawia się hierarchiczną strukturę systemu komputerowego system hierarchiczny jest to układ wzajemnie powiązanych podsystemów, z których każdy ma również strukturę hierarchiczną na każdym poziomie określana jest struktura składników systemu (sposób ich wzajemnego powiązania) oraz funkcje składników systemu (działanie poszczególnych składników jako części struktury) Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 4/40 Architektura komputera a organizacja komputera Architektura komputera odnosi się do atrybutów systemu, które są widzialne dla programisty i mają bezpośredni wpływ na logiczne wykonywanie programu do atrybutów architektury należą m.in. lista rozkazów, liczba bitów wykorzystywanych do prezentacji różnych typów danych, mechanizmy wejścia/wyjścia, metody adresowania pamięci Organizacja komputera odnosi się do jednostek operacyjnych i ich połączeń, które stanowią realizację specyfikacji typu architektury atrybuty organizacyjne są to rozwiązania sprzętowe niewidzialne dla programisty, np. sygnały sterujące, interfejsy między komputerem a urządzeniami peryferyjnymi, wykorzystywana technologia pamięci Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 Funkcjonowanie komputera Funkcje realizowane przez komputer: przetwarzanie danych przechowywanie danych (krótkotrwałe lub długotrwałe) przenoszenie danych (pomiędzy komputerem a światem zewnętrznym) urządzenia peryferyjne (proces wejścia-wyjścia) duża odległość (transmisja danych) sterowanie (powyższymi funkcjami) dr inŜ. Jarosław Forenc 5/40 Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 6/40 Struktura komputera Komputer składa się z czterech głównych składników: procesor (jednostka centralna, CPU) - steruje działaniem komputera i realizuje funkcje przetwarzania danych pamięć główna - przechowuje dane wejście-wyjście - przenosi dane między komputerem a jego otoczeniem zewnętrznym połączenia systemu - wszystkie mechanizmy zapewniające komunikację między jednostką centralną, pamięcią główną a wejściem-wyjściem Wszystkie powyższe składniki mogą występować w komputerze pojedynczo lub w większej liczbie Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 Struktura procesora Główne składniki strukturalne procesora to: jednostka sterująca - steruje działaniem procesora i pośrednio całego komputera jednostka arytmetyczno-logiczna (ALU) - realizuje funkcję przetwarzania danych przez komputer rejestry - realizują wewnętrzne przechowywanie danych w procesorze połączenia procesora - wszystkie mechanizmy zapewniające komunikację między jednostką sterującą, ALU i rejestrami dr inŜ. Jarosław Forenc 7/40 Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 8/40 Działanie komputera Podstawowe zadanie komputera to wykonywanie programu Program składa się z rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach: Cykl pobierania (ang. fetch): odczytanie rozkazu z pamięci do śledzenia, który rozkaz ma być pobrany służy rejestr zwany licznikiem rozkazów (PC) lub wskaźnikiem instrukcji (IP) jeśli procesor nie otrzyma innego polecenia, to powoduje inkrementację licznika PC po każdym pobraniu rozkazu i wykonuje następny rozkaz Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 9/40 Działanie komputera Podstawowe zadanie komputera to wykonywanie programu Program składa się z rozkazów przechowywanych w pamięci Rozkazy są przetwarzane w dwu krokach: Cykl wykonywania (ang. execution): może zawierać kilka operacji, jest zależny od natury rozkazu pobrany rozkaz jest ładowany do rejestru w procesorze zwanego rejestrem rozkazu (IR) rozkaz ma formę kodu binarnego określającego działania, które ma podjąć procesor procesor interpretuje rozkaz i przeprowadza wymagane działania Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 10/40 Działanie komputera W celu przyspieszenia pracy systemu stosuje się tzw. wstępne pobranie instrukcji (ang. prefetching) CP1 CW1 CP1 CW1 CP2 CP2 CW2 CP3 CW2 CP3 CW3 CP - cykl pobierania CW - cykl wykonywania prefeching CW3 czas Działania procesora można podzielić na cztery grupy: przesłanie danych z procesora do pamięci lub odwrotnie przesłanie danych z procesora do modułu we-wy lub odwrotnie operacje arytmetyczne lub logiczne na danych sterowanie (np. zmiana sekwencji wykonywania programu) Wykonywanie rozkazów może zawierać kombinacje powyższych działań Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 11/40 Działanie komputera Graf stanów cyklu wykonania rozkazu ma następującą postać: (3) - analiza rozkazu w celu określenia rodzaju operacji, która ma być wykonana oraz w celu określenia argumentu (jednego lub kilku) (8) - zapisanie wyniku w pamięci lub skierowanie go do we/wy Nie wszystkie stany z powyższego schematu muszą występować Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 12/40 Działanie komputera Graf stanów cyklu wykonania rozkazu ma następującą postać: Mogą wystąpić sytuacje, w których jeden rozkaz może określać operacje na wektorze liczb lub na szeregu znaków, co wymaga powtarzania operacji pobrania i/lub przechowywania Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 13/40 Działanie komputera Każdy rozkaz przechowywany jest w postaci binarnej, ma określony format i używa określonego trybu adresowania Format to sposób rozmieszczenia informacji w kodzie rozkazu Rozkaz zawiera kod operacji (rodzaj wykonywanej operacji) i argumenty (lub adresy argumentów) wykonywanych operacji Tryb adresowania jest to sposób określania miejsca przechowywania argumentów rozkazu (operandów): natychmiastowe - argument znajduje się w kodzie rozkazu bezpośrednie - adres argumentu znajduje się w kodzie rozkazu rejestrowe - argument znajduje się w rejestrze pośrednie - adres argumentu znajduje się w rejestrze Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 14/40 Działanie komputera - przerwania Wykonywanie kolejnych rozkazów przez procesor może być przerwane poprzez wystąpienie tzw. przerwania Można wyróżnić kilka klas przerwań: programowe - generowane po wystąpieniu błędu podczas wykonania rozkazu (np. dzielenie przez zero) zegarowe - generowane przez wewnętrzny zegar procesora we-wy - generowane przez sterownik we-wy w celu zasygnalizowania normalnego zakończenia operacji lub błędu uszkodzenie sprzętu - generowane przez uszkodzenie, np. defekt zasilania, błąd parzystości pamięci Przerwania zostały zaimplementowane w celu poprawienia efektywności przetwarzania - procesor może wykonywać inne rozkazy, gdy jest realizowana operacja we-wy Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 15/40 Działanie komputera - przerwania Aby dostosować się do przerwań do cyklu rozkazu jest dodawany cykl przerwania: Po sygnale przerwania procesor: zawiesza wykonanie bieżącego programu i zachowuje jego kontekst ustawia licznik programu na początkowy adres programu obsługi przerwania wykonuje program obsługi przerwania wznawia wykonywanie programu użytkowego Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 Działanie komputera - przerwania Jak działa przerwanie? dr inŜ. Jarosław Forenc 16/40 Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 17/40 Działanie komputera - przerwania wielokrotne Podczas obsługi jednego przerwania może pojawić się sygnał kolejnego przerwania Problem przerwań wielokrotnych rozwiązywany jest na dwa sposoby: uniemożliwienie innych przerwań, jeśli jakiekolwiek inne przerwanie jest przetwarzane określenie priorytetów przerwań przerwanie o wyższym priorytecie powoduje przerwanie programu obsługi przerwania o niższym priorytecie Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 18/40 Działanie komputera - struktura połączeń Struktura połączeń jest to zbiór ścieżek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia we-wy Pamięć: pamięć składa się z określonej liczby słów o jednakowej długości słowa umieszczone są pod konkretnymi adresami słowo może być odczytane z pamięci lub do niej zapisane typ operacji określają sygnały sterujące odczyt i zapis Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 19/40 Działanie komputera - struktura połączeń Struktura połączeń jest to zbiór ścieżek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia we-wy Procesor: odczytuje rozkazy i dane Rozkazy wysyła dane po przetworzeniu steruje pracą całego systemu poprzez sygnały sterujące otrzymuje sygnały przerwań Sygnały ster. Dane Procesor Dane Sygnały przerw. Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 20/40 Działanie komputera - struktura połączeń Struktura połączeń jest to zbiór ścieżek łączących podstawowe moduły komputera, tj. procesor, pamięć i urządzenia we-wy Moduł wejścia-wyjścia: Odczyt istnieją dwie operacje: zapis i odczyt każdy z interfejsów z urządzeniem zewnętrznym określany jest portem i ma jednoznaczny adres moduł może wysyłać sygnały przerwań do procesora Zapis Adres Dane wew. Dane zew. Dane wew. Moduł we/wy Dane zew. Sygnał przerw. Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 21/40 Działanie komputera - struktura połączeń Struktura połączeń musi umożliwiać przesyłanie następujących danych: DMA - bezpośredni dostęp do pamięci: D an najczęściej procesor bezpośrednio odczytuje dane z pamięci i zapisuje oraz komunikuje się z urządzeniami we-wy w pewnych przypadkach pożądane jest umożliwienie bezpośredniej wymiany danych między we-wy a pamięcią podczas takiego przesyłania moduł we-wy odczytuje lub zapisuje rozkazy w pamięci, uwalniając proces od odpowiedzialności za tę wymianę powyższe operacje nazywane są bezpośrednim dostępem do pamięci (ang. DMA - Direct Memory Access) e D an e Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 22/40 Działanie komputera - magistrala Najczęściej stosowana struktura połączeń to magistrala Magistrala jest wspólnym nośnikiem transmisji, do którego dołączonych jest wiele urządzeń, a sygnały wysyłane przez jedno z nich mogą być odbierane przez pozostałe urządzenia Magistrala składa się z wielu linii komunikacyjnych, którym przypisane jest określone znaczenie i określona funkcja Fizycznie magistrala jest zbiorem równoległych połączeń elektrycznych System komputerowy zawiera pewną liczbę różnych magistrali Magistrala łącząca główne zasoby komputera (procesor, pamięć, wejście-wyjście) nazywana jest magistralą systemową Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 23/40 Działanie komputera - magistrala Linie dzielą się na trzy grupy: linie danych, adresów i sterowania Linie danych: przenoszą dane między modułami systemu wszystkie linie danych nazywane są szyną danych liczba linii określa szerokość szyny danych (8, 16, 32, 64 bity) Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 24/40 Działanie komputera - magistrala Linie dzielą się na trzy grupy: linie danych, adresów i sterowania Linie adresowe: służą do określania źródła i miejsca przeznaczenia danych przesyłanych magistralą liczba linii adresowych (szerokość szyny adresowej) określa maksymalną możliwą pojemność pamięci systemu Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 25/40 Działanie komputera - magistrala Linie dzielą się na trzy grupy: linie danych, adresów i sterowania Linie sterowania: służą do sterowania dostępem do linii danych i linii adresowych Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 26/40 Działanie komputera - struktury wielomagistralowe W przypadku większej liczby urządzeń podłączonych do magistrali znacząco spada jej wydajność Rozwiązaniem tego problemu są struktury wielomagistralowe o określonej hierarchii Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 27/40 Działanie komputera - typy magistral ISA (ang. Industry Standard Architecture) 1981 rok 8-bitowa (XT) i 16-bitowa (AT) szyna danych 24-bitowa szyna adresowa teoretyczna przepustowość: 8 MB/s (praktycznie: 1,6-1,8 MB/s) PCI (ang. Peripheral Component Interconnect) Wersja Rok Szyna danych Przepustowość PCI 2.0 1993 32-bitowa 133 MB/s PCI 2.1 1994 64-bitowa 155 MB/s PCI 2.2 1999 64-bitowa 155 MB/s PCI 3.0 2002 64-bitowa 155 MB/s Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc Działanie komputera - typy magistral PCI-Express (PCIe, PCI-E) 2004 rok magistrala lokalna typu szeregowego, łącząca dwa punkty występuje w kilku wariantach: x1 (250 MB/s), x2 (500 MB/s), x4 (1000 MB/s), x8 (2000 MB/s), x16 (4000 MB/s), x32 (8000 MB/s) 28/40 Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 29/40 Systemy pamięci komputerowych Ze względu na położenie pamięci w stosunku do komputera wyróżniamy pamięć: procesora (rejestry) wewnętrzną (pamięć główna) zewnętrzną (pamięć pomocnicza - pamięci dyskowe i taśmowe) Parametry charakteryzujące pamięć: pojemność - maksymalna liczba informacji jaką można przechowywać w danej pamięci czas dostępu - czas niezbędny do zrealizowania operacji odczytu lub zapisu, czas cyklu pamięci - czas dostępu plus dodatkowy czas, który musi upłynąć zanim będzie mógł nastąpić kolejny dostęp szybkość przesyłania (transferu) - maksymalna liczba danych jakie można odczytać z pamięci lub zapisać do pamięci w jednostce czasu Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 30/40 Systemy pamięci komputerowych Ze względu na sposób dostępu do danych wyróżniamy: dostęp sekwencyjny (pamięci taśmowe) dostęp bezpośredni (pamięci dyskowe) dostęp swobodny (pamięć główna) dostęp skojarzeniowy (pamięć podręczna) Dostęp sekwencyjny: jednostka danych to rekord dostęp do rekordów jest możliwy w określonej sekwencji liniowej przejście z jednego rekordu do następnego następuje poprzez przepuszczenie i odrzucenie rekordów pośrednich czas dostępu do różnych rekordów może bardzo różnić się Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 31/40 Systemy pamięci komputerowych Dostęp bezpośredni: odczyt i zapis realizowany jest za pomocą tego samego mechanizmu poszczególne bloki (rekordy) mają unikatowy adres oparty na fizycznej lokacji dostęp jest realizowany przez bezpośredni dostęp do najbliższego otoczenia, po którym następuje sekwencyjne poszukiwanie, liczenie lub oczekiwanie w celu osiągnięcia lokacji finalnej Dostęp swobodny: każda adresowalna lokacja w pamięci ma unikatowy fizycznie wbudowany mechanizm adresowania czas dostępu jest stały i niezależny od poprzednich operacji dostępu Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 32/40 Systemy pamięci komputerowych Dostęp skojarzeniowy: każda lokacja ma własny mechanizm adresowania czas dostępu jest stały i niezależny od poprzednich operacji dostępu słowa są wprowadzane na podstawie części swojej zawartości, a nie na podstawie całego adresu Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 33/40 Hierarchia pamięci Istnieją wzajemne zależności pomiędzy parametrami pamięci: kosztem, pojemnością i czasem dostępu: mniejszy czas dostępu - większy koszt na bit większa pojemność - mniejszy koszt na bit większa pojemność - dłuższy czas dostępu W systemach komputerowych nie stosuje się jednego typu pamięci, ale hierarchię pamięci Rozpatrując hierarchię od góry do dołu obserwujemy zjawiska: malejący koszt na bit rosnącą pojemność rosnący czas dostępu malejącą częstotliwość dostępu do pamięci przez procesor Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 34/40 Półprzewodnikowa pamięć główna RAM (Random Access Memory) - pamięć o dostępie swobodnym odczyt i zapis następuje za pomocą sygnałów elektrycznych pamięć ulotna - po odłączeniu zasilania dane są tracone DRAM: przechowuje dane podobnie jak kondensator ładunek elektryczny wymaga operacji odświeżania jest mniejsza, gęściej upakowana i tańsza niż pamięć statyczna stosowana jest do budowy głównej pamięci operacyjnej komputera SRAM: przechowuje dane za pomocą przerzutnikowych konfiguracji bramek logicznych nie wymaga operacji odświeżania jest szybsza i droższa od pamięci dynamicznej stosowana jest do budowy pamięci podręcznej Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 35/40 Półprzewodnikowa pamięć główna ROM (ang. Read-Only Memory) - pamięć stała pamięć o dostępie swobodnym przeznaczona tylko do odczytu dane są zapisywane podczas procesu wytwarzania pamięć nieulotna PROM (ang. Programmable ROM) - programowalna pamięć ROM pamięć nieulotna, może być zapisywana tylko jeden raz zapis jest realizowany elektrycznie po wyprodukowaniu Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 36/40 Półprzewodnikowa pamięć główna Inne typy pamięci: EPROM - pamięć wielokrotnie programowalna, kasowanie następuje przez naświetlanie promieniami UV EEPROM - pamięć kasowana i programowana na drodze czysto elektrycznej Flash - rozwinięcie koncepcji pamięci EEPROM, możliwe kasowanie i programowanie bez wymontowywania pamięci z urządzenia, występuje w dwóch odmianach: NOR (Flash BIOS) NAND (pen drive, karty pamięci) Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 37/40 Pamięć podręczna Zastosowanie pamięci podręcznej ma na celu przyspieszenie dostępu procesora do pamięci głównej W systemie komputerowym występuje względnie duża i wolniejsza pamięć główna oraz mniejsza i szybsza pamięć podręczna pamięć podręczna zawiera kopię części zawartości pamięci głównej przed odczytaniem słowa z pamięci następuje sprawdzenie czy znajduje się ono w pamięci podręcznej jeśli tak, to jest przesyłane do procesora jeśli nie, to blok pamięci głównej (ustalona liczba słów) jest wczytywany do pamięci podręcznej, a następnie słowo jest przesyłane do procesora Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc 38/40 Pamięć podręczna Do pamięci podręcznej jest przesyłany cały blok, gdyż ze względu na tzw. zjawisko lokalności odniesień, istnieje duże prawdopodobieństwo, że przyszłe odniesienia będą dotyczyły innych słów w tym samym bloku Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 Pamięć zewnętrzna Do pamięci zewnętrznych zaliczane są: dyski twarde - HDD pamięci optyczne - CD, DVD magnetyczne pamięci taśmowe Budowa dysku twardego: nośnik danych część mechaniczna kontroler dr inŜ. Jarosław Forenc 39/40 Informatyka 1, studia niestacjonarne I stopnia Rok akademicki 2009/2010, Wykład nr 7 dr inŜ. Jarosław Forenc Koniec wykładu nr 7 Dziękuję za uwagę! 40/40