Pamięć wewnętrzna ROM i RAM
Transkrypt
Pamięć wewnętrzna ROM i RAM
Pamięć wewnętrzna ROM i RAM Pamięć Pamięci półprzewodnikowe są jednym z kluczowych elementów systemów cyfrowych. Służą do przechowywania informacji w postaci cyfrowej. Liczba informacji, które mogą przechowywać pojedyncze układy scalone pamięci, zawiera się w zakresie od kilobajtów do gigabajtów. Podstawowe definicje dotyczące pamięci Pamięciami półprzewodnikowymi nazywamy cyfrowe układy scalone przeznaczone do przechowywania większych ilości informacji w postaci binarnej. Pojemnością pamięci nazywamy maksymalną liczbę informacji, jaką możemy przechować w danej pamięci. Pojemność pamięci podajemy w bitach (b) lub bajtach (B). • Czasem dostępu do pamięci nazywamy czas, jaki musi upłynąć od momentu podania poprawnego adresu słowa w pamięci do czasu ustalenia się poprawnej wartości tego słowa na wyjściu pamięci w przypadku operacji odczytu lub w przypadku operacji zapisu - czas, jaki upłynie do momentu zapisania wartości do tego słowa z wejścia pamięci. • W technice komputerowej używane są głównie pamięci półprzewodnikowe o dostępie swobodnym (w odróżnieniu od dostępu sekwencyjnego). • Pamięcią o dostępie swobodnym nazywamy pamięć, dla której czas dostępu praktycznie nie zależy od adresu słowa w pamięci, czyli od miejsca, w którym j e s t przechowywana informacja. • Pamięć sekwencyjna (ang. sequential memory, sequential access memory, serial access memory) – pamięć, której dane są dostępne w kolejności ich zapisania na nośniku przesuwanym pod głowicą odczytująco-zapisującą, np. pamięć taśmowa. Czas dostępu w tak zorganizowanej pamięci zależy od odległości głowicy od położenia danych. Transferem danych pamięci nazywamy maksymalną liczbę danych, jaką m o ż e m y odczytywać z pamięci lub zapisywać do pamięci w jednostce czasu. • Transfer danych pamięci może być podawany w jednostkach informacji na sekundę (na przykład w MB/s), jednak znacznie częściej dla modułów pamięci stosowanychnych w PC podaje się częstotliwość zegara taktującego transfer lub liczbę t r a n s f e r ó w na sekundę (np. MT/s). W dwóch ostatnich przypadkach, chcąc obliczyć t r a n s f e r danych, czyli przepustowość, musimy znać liczbę bitów przesyłanych w jednym transferze. Podział pamięci • Ze względu na własności użytkowe pamięci półprzewodnikowe możemy podzielić na pamięci RAM i ROM. Pamięć RAM • Pamięcią RAM nazywamy pamięć półprzewodnikową o dostępie swobodnym przeznaczaną do zapisu i odczytu. RAM jest pamięcią ulotną, co oznacza, że po wyłączeniu jej zasilania informacja w niej przechowywana jest tracona. Pamięć ROM • Pamięcią ROM nazywamy pamięć półprzewodnikową o dostępie swobodnym przeznaczaną tylko do odczytu. ROM jest pamięcią nieulotną. Zastosowanie pamięci RAM i ROM Z podanych własności pamięci wynikają ich zastosowania w technice komputerowej. Z pamięci RAM buduje się pamięć operacyjną komputera przeznaczoną do przechowywania, w trakcie pracy systemu, danych oraz programów (gdyż R A M j e s t pamięcią do zapisu i odczytu). W pamięci ROM przechowuje się programy inicjalizuje pracę komputera, gdyż muszą być one przechowywane w pamięci nieulotnej. Podział pamięci RAM • Ze względu na technologię wykonania pamięci RAM dzielimy na dwie podstawowe grupy: pamięci dynamiczne - DRAM, pamięci statyczne - SRAM Pomiędzy tymi dwoma grupami pamięci występują istotne różnice w ich parametrach i własnościach użytkowych. – Pamięci dynamiczne są wolniejsze od pamięci statycznych, natomiast są znacznie tańsze (szczególnie gdy uwzględnimy koszt jednego bitu). – Ponadto pamięci dynamiczne znacznie łatwiej podlegają scalaniu, co oznacza, że dla porównywalnej wielkości układu uzyskujemy w nich znacznie większe pojemności. – Wadą pamięci dynamicznych jest również fakt, że dla poprawnego ich funkcjonowania konieczny jest tak zwany proces odświeżania. Polega on na cyklicznym, ponownym zapisie przechowywanej informacji do komórek tej pamięci. Zastosowanie SRAM i DRAM Pamięci dynamiczne stosowane są do budowy głównej pamięci operacyjnej komputera, co wynika z ich niskiej ceny i dużych pojemności układów scalonych tej pamięci. Wadą tych pamięci w porównaniu z pamięciami statycznymi jest przede wszystkim szybkość ich działania. Jednak ze względów ekonomicznych (cena) i technologicznych (mniejszy stopień scalenia) nie można zbudować pamięci operacyjnej z pamięci statycznych. Dlatego w systemach komputerowych stosuje się t a k z w a n ą pamięć podręczną (cache), o znacznie mniejszej pojemności w porównaniu z pamięcią operacyjną. Pamięć cache buduje się z szybkich pamięci statycznych. Organizacja pamięci • Podstawowe wyprowadzenia układu pamięci półprzewodnikowej są pokazane na rysunku poniżej • • • • Szyna wejścia/wyjścia danych DB, służy do wprowadzania i wyprowadzania informacji do i z pamięci. Wejście adresowe AB służy do dokonania wyboru, na którym z wielu słów w pamięci zastanie wykonana operacja (zapisu bądź odczytu). Wejście sterujące R/W# informuje układ pamięci , jakiego r o d z a j u operacja będzie wykonywana: odczyt c z y zapis. Wejście C S # służy do uaktywnienia układu pamięci. Wejście to jest używane przy budowie z e s p o ł ó w pamięci metodą łączenia dwóch lub więcej układów scalonych pamięci. • Adresem nazywamy niepowtarzalną liczbę (numer) przypisaną danemu miejscu (słowu) w pamięci w celu jego identyfikacji. • Słowem w pamięci nazywamy zestaw pojedynczych komórek (pojedynczych bitów) pamięci, do którego odwołujemy się pojedynczym adresem. • Liczbę bitów w pojedynczym słowie pamięci będziemy nazywać długością słowa pamięci. Zauważmy, że długość słowa pamięci musi być równa liczbie wyprowadzeń szyny wejścia/wyjścia, gdyż słowa są wprowadzane i wyprowadzane z p a m i ę c i równolegle. • Z warunku unikalności adresu (czyli niepowtarzania się tego samego adresu – co jest oczywiste) wynika z kolei minimalna liczba linii szyny adresowej. Przy m – bitowej szynie adresowej mamy do dyspozycji 2m różnych adresów. • Jeżeli liczba słów przechowywanych w pamięci wynosi N, musi być spełniony warunek: N 2 m lub inaczej, aby poprawnie zaadresować N słów, potrzebujemy m - log2 N bitów adresu (lub linii adresowych). • Wartość pojemności pamięci, długości słowa oraz liczby linii adresowych wiąże prosty i oczywisty wzór. Jeżeli pojemność pamięci oznaczymy przez M, długość słowa przez n, a liczbę linii adresowych przez m, to spełniona jest zależność: ORGANZACA PAMIĘCI Organizacją pamięci nazywamy sposób podziału obszaru pamięci na słowa. • Pojęcie organizacji pamięci najprościej wyjaśnić na przykładzie. Pamięci narysowane symbolicznie na rysunku 2 a i b mają tę samą pojemność wynoszącą 32b,różnią się natomiast organizacją. Pamięć z rysunku a ma organizację bitową. Możemy o niej powiedzieć, że jest to pamięć 32 x Ib. Pamięć z rysunku b ma organizację bajtową, czyli jest to pamięć 4 x 8b (lub inaczej 4 x IB). • Zwróćmy przy okazji uwagę na liczbę linii danych i adresowych dla każdej z tych pamięci. Zasada działania Układ pamięci składa się z matrycy, dekodera i układów zapisu/odczytu. Każda komórka tej pamięci wchodzi w skład matrycy i zbudowana jest z pojedynczego tranzystora i kondensatora. Potrafi ona przechowywać jeden bit informacji (0 lub 1). Komórki te posiadają swój adres, czyli numer wiersza i kolumny. Do poszczególnych komórek możemy odwoływać się w dowolnej kolejności, więc jest to pamięć o dostępie swobodnym (RAM - Random Access Memory). Dekoder za pomocą szyny adresowej otrzymuje adresy komórek z kontrolera pamięci, znajdującego się najczęściej w chipsecie na płycie głównej. Docelowe komórki zostają odczytane i ich zawartość jest wysyłana z powrotem do kontrolera szyną danych. Schemat budowy układu pamięci Cykl pracy pamięci RAM jest wyznaczany za pomocą specjalnego zegara. W pamięciach SDR-SDRAM, DDR-SDRAM i RDRAM jest on zsynchronizowany z zegarem procesora. Adresowanie i odczyt pamięci zapoczątkowane zostają pojawieniem się sygnałów na szynie adresowej. Sygnał RAS (ang. Row Address Strobe) informuje pamięć, że jest to adres rzędu matrycy, a sygnał CAS (ang. Column Address Strobe) informuje, że jest to adres kolumny matrycy. Na przecięciu wybranego rzędu i kolumny znajduje się docelowa komórka, z której będą pochodzić dane. Do odczytu następnych komórek danego rzędu pamięci SDR-SDRAM nie potrzebna jest już ponowna procedura wybierania adresu. Cykl pracy pamięci Budowa współczesnych pamięci RAM Układ SPD – w nim producent zapisuje domyślne parametry działania pamięci Kości pamięci – to w nich przechowywane są dane Złącze krawędziowe – przez nie odbywa się wymiana danych między pamięcią a płytą główną Rodzaje pamięci 1. 2. 3. 4. 5. 6. 7. 8. 9. PAMIĘĆ DIP PAMIĘĆ SIPP PAMIĘĆ SIMM PAMIĘĆ DIMM PAMIĘĆ SDRAM PAMIĘĆ DDR PAMIĘĆ DDR2 PAMIĘĆ RIMM PAMIĘĆ DDR3 DIP (ang. Dual In-line Package), czasami nazywany DIL – w elektronice rodzaj obudowy elementów elektronicznych, głównie układów scalonych o małej i średniej skali integracji. Wyprowadzenia elementu umieszczone są w równej linii na dwóch dłuższych bokach prostokątnej obudowy. DIP (ang. Dual Inline Package) Obudowy typu DIP produkowane są z wersjach DIP4 (cztery wyprowadzenia), DIP8 (osiem wyprowadzeń), DIP14 (czternaście wyprowadzeń), DIP16, DIP20 i większych. Produkowane są także obudowy typu SDIP, SK-DIP i innych, które różnią się od obudów DIP wymiarami, odległością między wyprowadzeniami itp. Obudowy typu DIP przeznaczone są do montażu przewlekanego (ang. THT, Through-Hole Technology). Odległość między wyprowadzeniami to 2,54 mm. Pozostałe wymiary obudów DIP także są ustandaryzowane, ale różne w zależności od liczby wyprowadzeń. Ilość wyprowadzeń (pinów) wynosi 8, 14, 16, 18, 20, 22, 24, 28, 32, 36, najwyżej 40, 42, 48, rzadko 64. SIPP (z ang. Single Inline Pin Package) SIPP (z ang. Single Inline Pin Package) jest drugą generacją pamięci DRAM, która powstała w wyniku zapotrzebowania na rynku na łatwy w montażu na płycie głównej rodzaj pamięci RAM. Układ SIPP używał 30 pinów wzdłuż obrzeża i wyeliminował potrzebę, aby każdy chip DRAM był montowany indywidualnie. SIPP zrewolucjonizował sposób, w jaki komputery osobiste (PC) używały pamięci RAM, ponieważ znacznie szybciej można go było zmienić na inny model. SIMM (z ang. Single Inline Memory Module) to pojedynczy moduł pamięci liniowej. Jest to następna po SIPP generacja pamięci DRAM. Istotną innowacją w układzie SIMM było to, że nie posiadał od wystających elementów tzw. pinów tak jak w poprzedniej wersji DRAM, którą był SIPP, ponieważ były one umieszczone na powierzchni płytki montażowej. Inną ważną zmianą było też takie fizyczne ukształtowanie płytki pamięci SIMM, aby nie było można zainstalować jej niewłaściwie. Technicznie pomogło to wyeliminować możliwość potencjalnych uszkodzeń w trakcie montażu układu pamięci na płycie głównej. Moduły SIMM można podzielić na: SIMM (z ang. Single Inline Memory Module) * starsze 30-pinowe (8 lub 9 bitowe): 256KB, 1MB, 4MB, 16MB * nowsze 72-pinowe (32 lub 36 bitowe): 1 MB, 2 MB, 4 MB, 8 MB, 16 MB, 32 MB, 64 MB, 128 MB SO DIMM (ang. Small Outline Dual In-line Memory Module) – mniejszy rodzaj pamięci DIMM, stosowany głównie w notebookach, komputerach małogabarytowych oraz w niektórych drukarkach biurowych wysokiej klasy. Najpopularniejsze typy SO DIMM * 72-pinowe (32-bitowe) * 144-pinowe (64-bitowe) * 200-pinowe pamięci DDR SDRAM i DDR-II SDRAM SO DIMM (ang. Small Outline Dual In-line Memory Module) SDR SDRAM (ang. Single Data Rate Synchronous Dynamic Random Access Memory) - to pamięć dynamiczna, (dawniej nazywana po prostu SDRAM, po wprowadzeniu techologii DDR SDRAM został dodany przedrostek SDR) synchroniczna, zbudowana na kondensatorach i tranzystorach. Synchroniczna, ponieważ działa ona zgodnie z przebiegiem taktu zegara procesora (współpraca z magistralą systemową). Pamięć SDR SDRAM jest taktowana częstotliwościami 66, 100 i 133 MHz. Produkowane były kości 16, 32, 64, 128, 256 i 512 MB. Produkcja została zaprzestana z powodu pojawienia się DDR - szybszych i wydajniejszych pamięci, SDR SDRAM (ang. Single Data Rate których wielkość dochodzi już do 2 GB. Synchronous Dynamic Random Access Memory) DDR SDRAM (ang. Double Data Rate Synchronous Dynamic Random Access Memory) Pamięci te budowane są w obudowach TSOP jak i BGA i mogą wytrzymać temperaturę do 70°C. Kości przeznaczone dla płyt głównych zawierające moduły DDR SDRAM posiadają 184 styki kontaktowe i jeden przedział (w odróżnieniu od SDR SDRAM, który ma ich 168 oraz dwa przedziały). Działanie DDR SDRAM (ang. Double Data Rate Synchronous Dynamic Random Access Memory) Produkcję pamięci DDR SDRAM rozpoczęto w 1999 roku. Jest ona modyfikacją dotychczas stosowanej pamięci SDRAM (ang. Synchronous Dynamic RAM). W pamięci typu DDR SDRAM dane przesyłane są w czasie trwania zarówno rosnącego jak i opadającego zbocza zegara, przez co uzyskana została dwa razy większa przepustowość niż w przypadku konwencjonalnej SDRAM typu PC-100 i PC-133. Kości zasilane są napięciem 2,5 V a nie 3,3 V, co wraz ze zmniejszeniem pojemności wewnątrz układów pamięci, powoduje znaczące ograniczenie poboru mocy. Czas dostępu do danych znajdujących się w pamięci RAM, który dla najnowszych pamięci DDR-SDRAM wynosi ok. 4 ns. W najnowszych układach DDR4 stosowanych w kartach graficznych opóźnienie sięga 1 ns. DDR2 SDRAM (ang. Double Data Rate 2 Synchronous Dynamic Random Access Memory) – kolejny po DDR standard pamięci RAM typu SDRAM, stosowany w komputerach jako pamięć operacyjna.Charakteryzuje się wyższą efektywną częstotliwością taktowania (533, 667, 800, 1066 MHz) oraz niższym poborem prądu. Podobnie jak DDR, pamięć DDR2 wykorzystuje do przesyłania danych wznoszące i opadające zbocze sygnału zegarowego, czego nie należy mylić z technologią dual channel. Pamięci DDR2 budowane są w obudowach FBGA (ang. Fine-pitch Ball Grid Array). Mogą pracować w temperaturze do 70°C. DDR2 SDRAM (ang. Double Data Rate 2 Synchronous Dynamic Random Access Memory) Moduły pamięci DDR2 nie są kompatybilne z modułami DDR. Obecnie DDR2 obsługiwane są zarówno przez procesory firmy Intel jak i AMD. RIMM (ang. Rambus Inline Memory Module) – jeden z rodzajów kości pamięci komputerowej, na którym umieszczone są układy scalone z pamięcią Rambus DRAM (RDRAM). Najpopularniejsze kości typu RIMM: * * * * 160-pinowe, 184-pinowe, 232-pinowa, 326-pinowa, stosowane stosowane stosowane stosowane SO-RIMM RIMM 16-bitowe RIMM 32-bitowe RIMM 64-bitowe Kości 16-bitowe pamięci RIMM na płytach głównych muszą być montowane w parach, kości 32-bitowe mogą być instalowane pojedynczo. Każde niewykorzystane gniazdo pamięci na płycie głównej (ang. slot) musi być zamknięte specjalną zaślepką. RIMM (ang. Rambus Inline Memory Module) Kości pamięci RIMM wyposażone są w radiator, konieczny do odprowadzania nadmiaru ciepła. DDR3 SDRAM (ang. Double Data Rate Synchronous Dynamic Random Access Memory (ver. 3) – nowy standard pamięci RAM typu SDRAM, będący rozwinięciem pamięci DDR i DDR2, stosowanych w komputerach jako pamięć operacyjna. Pamięć DDR3 wykonana jest w technologii 90 nm, która umożliwia zastosowanie niższego napięcia (1,5 V w porównaniu z 1,8 V dla DDR2 i 2,5 V dla DDR). Dzięki temu pamięć DDR3 charakteryzuje się zmniejszonym poborem mocy o około 40% w stosunku do pamięci DDR2 oraz większą przepustowością w porównaniu do DDR2 i DDR. Pamięci DDR3 nie będą kompatybilne wstecz, tzn. nie będą współpracowały z chipsetami obsługującymi DDR i DDR2. Posiadają także przesunięte wcięcie w prawą stronę w stosunku do DDR2 (w DDR2 wcięcie znajduje się prawie na środku kości). Obsługa pamięci DDR3 przez procesory została wprowadzona w 2007 roku w chipsetach płyt głównych przeznaczonych dla procesorów Intel oraz w 2009 roku w procesorach firmy AMD. Moduły DDR3 DDR3 SDRAM (ang. Double Data Rate Synchronous Dynamic Random Access Memory * PC3-6400 o przepustowości 6,4 GB/s, pracujące z częstotliwością 800 MHz * PC3-8500 o przepustowości 8,5 GB/s, pracujące z częstotliwością 1066 MHz * PC3-10600 o przepustowości 10,6 GB/s, pracujące z częstotliwością 1333 MHz * PC3-12700 o przepustowości 12,7 GB/s, pracujące z częstotliwością 1600 MHz * PC3-15000 o przepustowości 15 GB/s, pracujące z częstotliwością 1866 MHz * PC3-16000 o przepustowości 16 GB/s, pracujące z częstotliwością 2000 MHz Dual Channel Jest to technologia stosowana w płytach głównych do wydajniejszej obsługi pamięci DDR. Polega na podwojeniu przepustowości przesyłu danych przez magistralę łączącą pamięć RAM z kontrolerem pamięci. Technologia Dual Channel wykorzystuje dwa 64-bitowe kanały, co razem daje kanał szerokości 128 bitów dla przesyłu danych pomiędzy pamięcią RAM a procesorem (zamiast jednego 64-bitowego w zwykłym trybie). Technologia Dual Channel wymaga umieszczania kości pamięci parami w skorelowanych ze sobą gniazdach (gniazda te na płycie głównej oznaczone są najczęściej odpowiednimi kolorami). Kości pamięci tworzące parę powinny być takie same. Możliwe jest także używanie podobnych pamięci różnych producentów, pod warunkiem, że są one tego samego rozmiaru i mają taką samą architekturę. Kontroler pamięci działający w trybie Dual Channel zastosowano po raz pierwszy w chipsecie nForce 2 firmy Nvidia. Pamięć ROM ROM (ang. read only memory) jest pamięcią nieulotną, przeznaczoną tylko do odczytu. Nieulotność oznacza, że po wyłączeniu napięcia zasilania tej pamięci informacja w niej przechowywana nie jest tracona (zapominana). Określenie, że jest to pamięć tylko do odczytu nie jest równoznaczne z tym, że zawartości t e j p a m i ę c i w określonych warunkach nie można zmieniać. Dla niektórych typów technologicznych pamięci ROM jest to możliwe. Podstawowe typy pamięci ROM • • • • MROM (ang. mascable ROM) - pamięci, których zawartość jest ustalana w procesie produkcji (przez wykonanie odpowiednich masek - stąd nazwa) i nie może być zmieniana. Przy założeniu realizacji długich serii produkcyjnych jest to najtańszy rodzaj pamięci ROM. W technice komputerowej dobrym przykładem zastosowania tego typu pamięci jest BIOS obsługujący klawiaturę. PROM (ang. programmable ROM) - pamięć jednokrotnie programowalna. Oznacza to, że użytkownik może sam wprowadzić zawartość tej pamięci, jednak potem nie można jej już zmieniać. Cecha ta wynika z faktu, że programowanie tej pamięci polega na nieodwracalnym niszczeniu niektórych połączeń wewnątrzniej. Obecnie ten typ pamięci nie jest już używany. EPROM - pamięć wielokrotnie programowalna, przy czym kasowanie poprzedniej zawartości tej pamięci odbywa się drogą naświetlania promieniami UV. Programowanie i kasowanie zawartości tej pamięci odbywa się poza systemem, w urządzeniach zwanych odpowiednio kasownikami i programatorami pamięci EPROM. Pamięć ta wychodzi już z użycia. EEPROM - pamięć kasowana i programowana na drodze czysto elektrycznej. Wykonanie tych operacji wymaga użycia zewnętrznego urządzenia. Istnieje możliwość wprowadzenia zawartości tego typu pamięci bez wymontowywania jej z systemu (jeżeli oczywiście jego projektant przewidział taką opcję), choć czas zapisu informacji jest nieporównywalnie dłuższy niż czas zapisu do pamięci RAM. W tego typu pamięci przechowywany jest tak zwany Flash BIOS, czyli oprogramowanie BIOS, które może być uaktualniane (przez wprowadzanie jego nowej wersji). • Flash - rozwinięcie koncepcji pamięci EEPROM. Przez dołączenie odpowiednich układów możliwe jest kasowanie i ponowne programowanie tej pamięci bez jej wymontowywania z urządzenia. Istnieją dwie odmiany tej pamięci oznaczane jako NOR i NAND. Pierwsza cechuje się dłuższym czasem kasowania i zapisu, ma za to dostęp swobodny, nadaje się więc do przechowywania na przykład programów. Przykładowym zastosowaniem jest przechowywanie BIOS-u, który można unowocześniać (Flash BIOS). Pamięć typu NAND przypomina własnościami dysk twardy, ma dostęp częściowo sekwencyjny i dlatego jest predestynowana do przechowywania informacji typu multimedialnego. Przykładami zastosowań • są karty pamięci do aparatów fotograficznych, pamięci wymienne (tak zwane pen drive) czy też odtwarzacze plików MP3, MP4.